News AMD Radeon RX 6800XT: Navi 21 XT mit 4.608 Shadern und mehr als 2,5 GHz Boost

Ich bin schon sehr gespannt auf die Tests. Ob AMD den Konkurrenten schlagen kann , stellt sich mir nicht. Aufgrund der Marktsituation und den momentanen Apothekenpreise kommt es einem Lottogewinn gleich, eine RTX zu kriegen. Mangels Alternativen wird dann zu einer AMD Karte gegriffen. Ich werde jedenfalls mit voller Begeisterung einen Spieler zuschauen, der das Spiel Afterburner, ohne weitere 100 Peseten nachzuwerfen, durchspielen kann. Übersetzung: Behaltet Euren Stolz, eine verfügbare Karte ist mir wertvoller als eine theoretisch schnellere Grafikkarte eines Konkurrenten.
 
@mylight

Damit implizierst du, dass Nvidia Treiber Müll sind. Mal schauen wann die Mistgabeln kommen.
Alternativ rate ich zu einem nächtlichen Gewaltmarsch nach Süden...

So nun Mal zurück zu den Fakten... Du kannst nicht Mal eben die Leistung Treiberseitig anheben. Du kannst das Potential besser ausschöpfen klar, aber das macht Nvidia seit Jahren sehr gut und effizient. Aber die Mal eben 10-20 FPS mehr rauskitzeln, das schafft selbst nicht die Lederjacke. Wobei man Sagen muss, das die GPU ohne die 4% mehr Leistung und damit 50W mehr TDP noch Mal schicker gewesen wäre... Aber alleine an solchen Umständen sieht man gut, wie sehr limitiert die GPU ist. Von den GDDR6X Fehlern durch Wärme oder das Thema Abstürze bei 2Ghz nicht zu reden.
Und ja nividia wird die Treiber weiter optimieren. Aber bisher waren das messbare FPS Steigerungen. Und mehr kann man auch nicht erwarten.
 
Ich bin wirklich sehr neugierig, was uns da in einer Woche erwarten wird. Die Taktraten klingen aufjedenfall sehr vielversprechend und lesen sich auch nicht nach einem Rohrkrepierer :)

Was ich sehr amüssant finde, dass man von den Leuten die in jedem Forum behaupteten AMD wird sich maximal mit der RTX 3070 messen, rein gar nichts mehr hört :D

Was mich allerdings noch mehr wie die Leistung interessiert, ist die Verfügbarkeit. Denn wenn es tolle Produkte werden und man sie nicht kaufen kann, hab ich nichts davon :( Ich würde meine 5600XT gerne bald ersetzen, da sie für mich nur eine Übergangskarte war bis es Big Navi gibt, da für mich persönlich die 3000er Serie von nvidia eher ein Flop ist. Da hätte ich mir mehr von versprochen.

Lock and Load,
Denny Crane
 
  • Gefällt mir
Reaktionen: derSafran
Luxmanl525 schrieb:
Hallo zusammen,

@ mylight

Da hast du den Nagel richtig gut auf den Kopf getroffen, ganz genau, wer`s glaubt....

So long...
Schnitt wurde doch getroffen. 1h daddeln, 9h Desktop/Surfen, dass macht nach Adam Riese deutlich unter 200W Verbrauch.

Spass beiseite, wer unter 200W Gamingverbrauch einer 3080 hat, hat entweder undervoltet und hat den Turbotakt gesenkt oder hängt in einem CPU/RAM Limit.
In beiden Fällen kommt man dann nicht auf Benchmark Ergebnisse.
Noch ne Möglichkeit gibt es, Packagepower ausgelesen, aber selbst das wäre ein sehr guter Wert unter 200W.
 
Jetzt müssen die sowas wie DLSS auspacken, sonst helfen auch keine 3,0Ghz Boost.
 
FatalFury schrieb:
Jetzt müssen die sowas wie DLSS auspacken

Für mich kein Kriterium. Keines meiner Spiele unterstützt DLSS.
 
  • Gefällt mir
Reaktionen: Otsy, daknoll, 122messi122 und 3 andere
Pisaro schrieb:
Für mich kein Kriterium. Keines meiner Spiele unterstützt DLSS.

Sieht bei mir aktuell auch nicht anders aus. Da wird sich meiner Meinung nach aktuell zu sehr drauf aufgehängt.
 
  • Gefällt mir
Reaktionen: Otsy, daknoll, Cpt.Willard und eine weitere Person
Hallo zusammen,

@ FatalFury
FatalFury schrieb:
Jetzt müssen die sowas wie DLSS auspacken, sonst helfen auch keine 3,0Ghz Boost.
Zum jetzigen Zeitpunkt kaum ein "Muß". Es gibt zuwenig Spiele, die hier wirklich gewinnbringende, spürbare Vorteile bringen. Genauso ähnlich wie bei dem Thema RT.

Das wird sich aus meiner Sicht erst mit den Konsolen der kommenden Generation, also Playstation 5 und MS X-Box X ändern. Und auch das wird sicher noch ein halbes bis ein Jahr dauern, bis die Entwickler / Programmierer sich da mit den entsprechenden Finessen auskennen.

Dann kommt noch die Dauer welche eine Portierung auf den PC nun einmal mit sich bringt. Ich denke, bis das für die breite Masse wirklich latent wichtig werden könnte, haben wir schon die nächste Generation von AMD / Nvidia mit ihren GPU`s.

So long...
 
  • Gefällt mir
Reaktionen: schkai, daknoll, Rockstar85 und eine weitere Person
Incident schrieb:
?? AMD Hat sich noch überhaupt nicht zu den Karten geäußert. Könnt ihr bitte mal Gerüchte und Fakten trennen?

Meine Fresse.

Dann lies mal bei IgorsLab - lesen bildet.

Meine Fresse !
 
  • Gefällt mir
Reaktionen: Luxmanl525
Naja, es erscheinen dieses Jahr noch 11 DLSS enabled Titel bzw. wenige davon sind Spiele, bei denen es Nachimplementiert wird. Man sollte vielleicht auch etwas in die Zukunft schauen.

DLSS+RT AAA
Watch Dogs: Legion
CoD Cold War
Cyberpunk 2077

DLSS+RT
Ghostrunner
Pumpkin Jack
Xuan-Yuan Sword VII
Enlisted
Ready or Not

Update auf DLSS
Edge of Eternity
Mortal Shell
Mount & Blade II

Und dann mal sehen, was 2021 so kommt
 
  • Gefällt mir
Reaktionen: legenddiaz, KingZero, FatalFury und eine weitere Person
Xtrasmart schrieb:
Dann lies mal bei IgorsLab - lesen bildet.
IgorsLab verbreitet offizielle Statements von AMD? Wäre mir neu.
Mag sein, das die Gerüchte sich verdichten und konkreter werden. Aber offizielles Vorstellen der Karten erfolgt am 28.10.2020.
 
  • Gefällt mir
Reaktionen: Otsy und foo_1337
IgorsLab ist dann aber doch oft seeehhhhr nah dran was bald veröffentlichte Hardware angeht. Da kann man was "drauf geben".
 
  • Gefällt mir
Reaktionen: Luxmanl525
Hallo zusammen,

@ MasterAK
MasterAK schrieb:
IgorsLab verbreitet offizielle Statements von AMD? Wäre mir neu.
Das stimmt. Gleichwohl verhält sich AMD auch nicht sonderlich anders als Nvidia jeweilig, da nimmt keiner dem anderen gegenüber was. Und was den Kollegen Wallossek angeht, auf dessen Ausführungen kann man sich sehr verlassen, geradezu beinahe wie ein gutes Uhrwerk. Das hat die Vergangenheit sehr deutlich gezeigt. Im deutschen Raum kann da sonst keine Seite mithalten.

In den allermeisten Fällen sind dessen Ausführungen wohlfundiert. Und das wird hier auch so der Fall sein, dessen kann man sich sogar mehr als sicher sein, besonders wenn man die letzten Artikel in dem Bezug mal penibel zwischen den Zeilen liest.

@ KlaraElfer
KlaraElfer schrieb:
was im Referenzdesign laut war.
Nicht nur im Referenzdesign. Du kannst die Custom Design Karten an einer Hand abzählen, welche da wirklich erträglich waren, von richtig Leise will ich gar nicht erst Anfangen. Es mußte deutlich erheblicher Aufwand betrieben werden für die Kühllösungen der Custom-Hersteller, vor allem im Gegensatz zu Pascal. Das kulminierte teils in deutlichen Kostenvorteilen genau wegen des geringeren Aufwands für die entsprechenden Kühllösungen, für Pascal wohlgemerkt.
KlaraElfer schrieb:
Brauchen RTX 3080 und 6900XT gleich viel Strom, fallen die Argumente weg.
Das steht zu Hoffen. Vielleicht mit leichten Vorteilen vielleicht dieses Mal für AMD, wegen des besonderen Konstrukts der Ampere GPU Respektive Speicherdesigns.
KlaraElfer schrieb:
Ob Nvidia also einen auf Vega macht, wird man abwarten müssen.
Nein, muß man nicht. Das ist schon ziemlich klar, wenn man sich die RTX 3080 anschaut. Für die letzten 4 % Performance mußten 60 zusätzliche Watt Verbrauch in Kauf genommen werden. Und das war es dann. Dazu kommen sogar Neuanschaffungen von Netzteilen oder zusätzlichen Gehäuselüftern in nicht wenigen Fällen. Alles ähnlich wie bei Vega. Ein gewisser Vergleich zu Vega ist nicht von der Hand zu Weisen, egal wie man es dreht und wendet.

So long....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: karl_laschnikow, Strubbel99, schkai und 2 andere
Also so langsam kommen jetzt doch die Mondmeldungen, die man doch bisher so gut in den Griff bekommen hatte. Am Ende führt das wieder zu enttäuschten Gesichtern. 2500+ MHz Boost Takt - selbst wenn damit ein Ryzen ähnlicher eher theoretischer Boost gemeint ist, finde ich das arg übertrieben. Stabile 2000GHz würde ich bei der aktuellen Fertigung erwarten.
 
Kacha schrieb:
Moment, warte, du verwirrst mich. Der Stromverbrauch war jahrelang das Argument gegen AMD und dein Argument wurde dagegen angefuehrt.

Natürlich schließlich hatte AMD die Leistung einer GTX 1080 nur mit viel mehr Stromverbrauch geschafft, was im Referenzdesign laut war. Zudem war die Karte nicht günstiger und somit musste man auch mehr Strom bezahlen.
Für kleine Gehäuse war auch die Kühlung schwerer und man musste etwas mehr für ein Netzteil investieren.

Brauchen RTX 3080 und 6900XT gleich viel Strom, fallen die Argumente weg.
Ob Nvidia also einen auf Vega macht, wird man abwarten müssen.


Nahrungsmittel schrieb:
Sag Mal hast du nicht erst vor kurzem einen 10900K und eine 3090 gehabt ? :D

Ja, aber für nen guten Preis abgetreten.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: ArrakisSand
@xXcanwriterXx
Öhm ja ... interessante Meinung ...🙄

Bin mir immer noch nicht sicher, ob man überhaupt mehr als 10GB brauchen wird.
20GB sind aber in jedem Fall ne ziemliche Verschwendung.

16GB scheinen mir eine etwas sinnvollere Menge zu sein.
Aber nur wenn auch die Leistung passt.
 
Zurück
Oben