Ich bin schon sehr gespannt auf die Tests. Ob AMD den Konkurrenten schlagen kann , stellt sich mir nicht. Aufgrund der Marktsituation und den momentanen Apothekenpreise kommt es einem Lottogewinn gleich, eine RTX zu kriegen. Mangels Alternativen wird dann zu einer AMD Karte gegriffen. Ich werde jedenfalls mit voller Begeisterung einen Spieler zuschauen, der das Spiel Afterburner, ohne weitere 100 Peseten nachzuwerfen, durchspielen kann. Übersetzung: Behaltet Euren Stolz, eine verfügbare Karte ist mir wertvoller als eine theoretisch schnellere Grafikkarte eines Konkurrenten.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD Radeon RX 6800XT: Navi 21 XT mit 4.608 Shadern und mehr als 2,5 GHz Boost
- Ersteller SVΞN
- Erstellt am
- Zur News: AMD Radeon RX 6800XT: Navi 21 XT mit 4.608 Shadern und mehr als 2,5 GHz Boost
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 8.913
@mylight
Damit implizierst du, dass Nvidia Treiber Müll sind. Mal schauen wann die Mistgabeln kommen.
Alternativ rate ich zu einem nächtlichen Gewaltmarsch nach Süden...
So nun Mal zurück zu den Fakten... Du kannst nicht Mal eben die Leistung Treiberseitig anheben. Du kannst das Potential besser ausschöpfen klar, aber das macht Nvidia seit Jahren sehr gut und effizient. Aber die Mal eben 10-20 FPS mehr rauskitzeln, das schafft selbst nicht die Lederjacke. Wobei man Sagen muss, das die GPU ohne die 4% mehr Leistung und damit 50W mehr TDP noch Mal schicker gewesen wäre... Aber alleine an solchen Umständen sieht man gut, wie sehr limitiert die GPU ist. Von den GDDR6X Fehlern durch Wärme oder das Thema Abstürze bei 2Ghz nicht zu reden.
Und ja nividia wird die Treiber weiter optimieren. Aber bisher waren das messbare FPS Steigerungen. Und mehr kann man auch nicht erwarten.
Damit implizierst du, dass Nvidia Treiber Müll sind. Mal schauen wann die Mistgabeln kommen.
Alternativ rate ich zu einem nächtlichen Gewaltmarsch nach Süden...
So nun Mal zurück zu den Fakten... Du kannst nicht Mal eben die Leistung Treiberseitig anheben. Du kannst das Potential besser ausschöpfen klar, aber das macht Nvidia seit Jahren sehr gut und effizient. Aber die Mal eben 10-20 FPS mehr rauskitzeln, das schafft selbst nicht die Lederjacke. Wobei man Sagen muss, das die GPU ohne die 4% mehr Leistung und damit 50W mehr TDP noch Mal schicker gewesen wäre... Aber alleine an solchen Umständen sieht man gut, wie sehr limitiert die GPU ist. Von den GDDR6X Fehlern durch Wärme oder das Thema Abstürze bei 2Ghz nicht zu reden.
Und ja nividia wird die Treiber weiter optimieren. Aber bisher waren das messbare FPS Steigerungen. Und mehr kann man auch nicht erwarten.
Denny_Crane
Banned
- Registriert
- Okt. 2020
- Beiträge
- 50
Ich bin wirklich sehr neugierig, was uns da in einer Woche erwarten wird. Die Taktraten klingen aufjedenfall sehr vielversprechend und lesen sich auch nicht nach einem Rohrkrepierer
Was ich sehr amüssant finde, dass man von den Leuten die in jedem Forum behaupteten AMD wird sich maximal mit der RTX 3070 messen, rein gar nichts mehr hört
Was mich allerdings noch mehr wie die Leistung interessiert, ist die Verfügbarkeit. Denn wenn es tolle Produkte werden und man sie nicht kaufen kann, hab ich nichts davon Ich würde meine 5600XT gerne bald ersetzen, da sie für mich nur eine Übergangskarte war bis es Big Navi gibt, da für mich persönlich die 3000er Serie von nvidia eher ein Flop ist. Da hätte ich mir mehr von versprochen.
Lock and Load,
Denny Crane
Was ich sehr amüssant finde, dass man von den Leuten die in jedem Forum behaupteten AMD wird sich maximal mit der RTX 3070 messen, rein gar nichts mehr hört
Was mich allerdings noch mehr wie die Leistung interessiert, ist die Verfügbarkeit. Denn wenn es tolle Produkte werden und man sie nicht kaufen kann, hab ich nichts davon Ich würde meine 5600XT gerne bald ersetzen, da sie für mich nur eine Übergangskarte war bis es Big Navi gibt, da für mich persönlich die 3000er Serie von nvidia eher ein Flop ist. Da hätte ich mir mehr von versprochen.
Lock and Load,
Denny Crane
Schnitt wurde doch getroffen. 1h daddeln, 9h Desktop/Surfen, dass macht nach Adam Riese deutlich unter 200W Verbrauch.Luxmanl525 schrieb:Hallo zusammen,
@ mylight
Da hast du den Nagel richtig gut auf den Kopf getroffen, ganz genau, wer`s glaubt....
So long...
Spass beiseite, wer unter 200W Gamingverbrauch einer 3080 hat, hat entweder undervoltet und hat den Turbotakt gesenkt oder hängt in einem CPU/RAM Limit.
In beiden Fällen kommt man dann nicht auf Benchmark Ergebnisse.
Noch ne Möglichkeit gibt es, Packagepower ausgelesen, aber selbst das wäre ein sehr guter Wert unter 200W.
Pisaro
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 15.533
FatalFury schrieb:Jetzt müssen die sowas wie DLSS auspacken
Für mich kein Kriterium. Keines meiner Spiele unterstützt DLSS.
Pisaro schrieb:Für mich kein Kriterium. Keines meiner Spiele unterstützt DLSS.
Sieht bei mir aktuell auch nicht anders aus. Da wird sich meiner Meinung nach aktuell zu sehr drauf aufgehängt.
Luxmanl525
Admiral
- Registriert
- Mai 2007
- Beiträge
- 9.171
Hallo zusammen,
@ FatalFury
Das wird sich aus meiner Sicht erst mit den Konsolen der kommenden Generation, also Playstation 5 und MS X-Box X ändern. Und auch das wird sicher noch ein halbes bis ein Jahr dauern, bis die Entwickler / Programmierer sich da mit den entsprechenden Finessen auskennen.
Dann kommt noch die Dauer welche eine Portierung auf den PC nun einmal mit sich bringt. Ich denke, bis das für die breite Masse wirklich latent wichtig werden könnte, haben wir schon die nächste Generation von AMD / Nvidia mit ihren GPU`s.
So long...
@ FatalFury
Zum jetzigen Zeitpunkt kaum ein "Muß". Es gibt zuwenig Spiele, die hier wirklich gewinnbringende, spürbare Vorteile bringen. Genauso ähnlich wie bei dem Thema RT.FatalFury schrieb:Jetzt müssen die sowas wie DLSS auspacken, sonst helfen auch keine 3,0Ghz Boost.
Das wird sich aus meiner Sicht erst mit den Konsolen der kommenden Generation, also Playstation 5 und MS X-Box X ändern. Und auch das wird sicher noch ein halbes bis ein Jahr dauern, bis die Entwickler / Programmierer sich da mit den entsprechenden Finessen auskennen.
Dann kommt noch die Dauer welche eine Portierung auf den PC nun einmal mit sich bringt. Ich denke, bis das für die breite Masse wirklich latent wichtig werden könnte, haben wir schon die nächste Generation von AMD / Nvidia mit ihren GPU`s.
So long...
X
Xtrasmart
Gast
Incident schrieb:?? AMD Hat sich noch überhaupt nicht zu den Karten geäußert. Könnt ihr bitte mal Gerüchte und Fakten trennen?
Meine Fresse.
Dann lies mal bei IgorsLab - lesen bildet.
Meine Fresse !
F
foo_1337
Gast
Naja, es erscheinen dieses Jahr noch 11 DLSS enabled Titel bzw. wenige davon sind Spiele, bei denen es Nachimplementiert wird. Man sollte vielleicht auch etwas in die Zukunft schauen.
DLSS+RT AAA
Watch Dogs: Legion
CoD Cold War
Cyberpunk 2077
DLSS+RT
Ghostrunner
Pumpkin Jack
Xuan-Yuan Sword VII
Enlisted
Ready or Not
Update auf DLSS
Edge of Eternity
Mortal Shell
Mount & Blade II
Und dann mal sehen, was 2021 so kommt
DLSS+RT AAA
Watch Dogs: Legion
CoD Cold War
Cyberpunk 2077
DLSS+RT
Ghostrunner
Pumpkin Jack
Xuan-Yuan Sword VII
Enlisted
Ready or Not
Update auf DLSS
Edge of Eternity
Mortal Shell
Mount & Blade II
Und dann mal sehen, was 2021 so kommt
Xtrasmart schrieb:Dann lies mal bei IgorsLab - lesen bildet.
Meine Fresse !
Und wo wird AMD als Quelle angegeben, Mr supersmart?
MasterAK
Lieutenant
- Registriert
- Dez. 2018
- Beiträge
- 658
IgorsLab verbreitet offizielle Statements von AMD? Wäre mir neu.Xtrasmart schrieb:Dann lies mal bei IgorsLab - lesen bildet.
Mag sein, das die Gerüchte sich verdichten und konkreter werden. Aber offizielles Vorstellen der Karten erfolgt am 28.10.2020.
Luxmanl525
Admiral
- Registriert
- Mai 2007
- Beiträge
- 9.171
Hallo zusammen,
@ MasterAK
In den allermeisten Fällen sind dessen Ausführungen wohlfundiert. Und das wird hier auch so der Fall sein, dessen kann man sich sogar mehr als sicher sein, besonders wenn man die letzten Artikel in dem Bezug mal penibel zwischen den Zeilen liest.
@ KlaraElfer
So long....
@ MasterAK
Das stimmt. Gleichwohl verhält sich AMD auch nicht sonderlich anders als Nvidia jeweilig, da nimmt keiner dem anderen gegenüber was. Und was den Kollegen Wallossek angeht, auf dessen Ausführungen kann man sich sehr verlassen, geradezu beinahe wie ein gutes Uhrwerk. Das hat die Vergangenheit sehr deutlich gezeigt. Im deutschen Raum kann da sonst keine Seite mithalten.MasterAK schrieb:IgorsLab verbreitet offizielle Statements von AMD? Wäre mir neu.
In den allermeisten Fällen sind dessen Ausführungen wohlfundiert. Und das wird hier auch so der Fall sein, dessen kann man sich sogar mehr als sicher sein, besonders wenn man die letzten Artikel in dem Bezug mal penibel zwischen den Zeilen liest.
@ KlaraElfer
Nicht nur im Referenzdesign. Du kannst die Custom Design Karten an einer Hand abzählen, welche da wirklich erträglich waren, von richtig Leise will ich gar nicht erst Anfangen. Es mußte deutlich erheblicher Aufwand betrieben werden für die Kühllösungen der Custom-Hersteller, vor allem im Gegensatz zu Pascal. Das kulminierte teils in deutlichen Kostenvorteilen genau wegen des geringeren Aufwands für die entsprechenden Kühllösungen, für Pascal wohlgemerkt.KlaraElfer schrieb:was im Referenzdesign laut war.
Das steht zu Hoffen. Vielleicht mit leichten Vorteilen vielleicht dieses Mal für AMD, wegen des besonderen Konstrukts der Ampere GPU Respektive Speicherdesigns.KlaraElfer schrieb:Brauchen RTX 3080 und 6900XT gleich viel Strom, fallen die Argumente weg.
Nein, muß man nicht. Das ist schon ziemlich klar, wenn man sich die RTX 3080 anschaut. Für die letzten 4 % Performance mußten 60 zusätzliche Watt Verbrauch in Kauf genommen werden. Und das war es dann. Dazu kommen sogar Neuanschaffungen von Netzteilen oder zusätzlichen Gehäuselüftern in nicht wenigen Fällen. Alles ähnlich wie bei Vega. Ein gewisser Vergleich zu Vega ist nicht von der Hand zu Weisen, egal wie man es dreht und wendet.KlaraElfer schrieb:Ob Nvidia also einen auf Vega macht, wird man abwarten müssen.
So long....
Zuletzt bearbeitet:
xXcanwriterXx
Banned
- Registriert
- Juli 2020
- Beiträge
- 903
Rockstar85 schrieb:... , das schafft selbst nicht die Lederjacke.
Für all die Unwissenden, die diesen Thread besuchen und diesen Insider nicht kennen: Gemeint ist https://de.wikipedia.org/wiki/Jen-Hsun_Huang
Also so langsam kommen jetzt doch die Mondmeldungen, die man doch bisher so gut in den Griff bekommen hatte. Am Ende führt das wieder zu enttäuschten Gesichtern. 2500+ MHz Boost Takt - selbst wenn damit ein Ryzen ähnlicher eher theoretischer Boost gemeint ist, finde ich das arg übertrieben. Stabile 2000GHz würde ich bei der aktuellen Fertigung erwarten.
K
KlaraElfer
Gast
Kacha schrieb:Moment, warte, du verwirrst mich. Der Stromverbrauch war jahrelang das Argument gegen AMD und dein Argument wurde dagegen angefuehrt.
Natürlich schließlich hatte AMD die Leistung einer GTX 1080 nur mit viel mehr Stromverbrauch geschafft, was im Referenzdesign laut war. Zudem war die Karte nicht günstiger und somit musste man auch mehr Strom bezahlen.
Für kleine Gehäuse war auch die Kühlung schwerer und man musste etwas mehr für ein Netzteil investieren.
Brauchen RTX 3080 und 6900XT gleich viel Strom, fallen die Argumente weg.
Ob Nvidia also einen auf Vega macht, wird man abwarten müssen.
Nahrungsmittel schrieb:Sag Mal hast du nicht erst vor kurzem einen 10900K und eine 3090 gehabt ?
Ja, aber für nen guten Preis abgetreten.
Zuletzt bearbeitet von einem Moderator:
C
chrilliB
Gast
Nun wohl doch keine 16/20 GB bei den RTX 30x0: https://www.notebookcheck.com/Gerue...X-3070-16-GB-eingestampft-haben.498861.0.html
xXcanwriterXx
Banned
- Registriert
- Juli 2020
- Beiträge
- 903
chrilliB schrieb:Nun wohl doch keine 16/20 GB bei den RTX 30x0: https://www.notebookcheck.com/Gerue...X-3070-16-GB-eingestampft-haben.498861.0.html
Nvidia soll einfach alles einstampfen. Auch die Fertigung weiterer 30xx!!
Das ist der berühmte Tropfen, der... usw., usw. ...
Das macht es nur noch leichter, zu AMD zu wechseln!!
USB-Kabeljau
Banned
- Registriert
- Aug. 2018
- Beiträge
- 3.285
@xXcanwriterXx
Öhm ja ... interessante Meinung ...🙄
Bin mir immer noch nicht sicher, ob man überhaupt mehr als 10GB brauchen wird.
20GB sind aber in jedem Fall ne ziemliche Verschwendung.
16GB scheinen mir eine etwas sinnvollere Menge zu sein.
Aber nur wenn auch die Leistung passt.
Öhm ja ... interessante Meinung ...🙄
Bin mir immer noch nicht sicher, ob man überhaupt mehr als 10GB brauchen wird.
20GB sind aber in jedem Fall ne ziemliche Verschwendung.
16GB scheinen mir eine etwas sinnvollere Menge zu sein.
Aber nur wenn auch die Leistung passt.
Ähnliche Themen
- Antworten
- 93
- Aufrufe
- 28.413
- Antworten
- 1.408
- Aufrufe
- 187.628
- Antworten
- 487
- Aufrufe
- 81.284