News AMD Radeon RX 6800XT: Navi 21 XT mit 4.608 Shadern und mehr als 2,5 GHz Boost

borizb schrieb:
So zu tun, als wäre für AMD eine solche Watt-Klasse etwas ungewöhnliches/unerwartetes, ist Quatsch.
Außerdem wird ja keiner zu einer High End Karte gezwungen, der keine möchte. Kaufst halt Mittelklasse.
Aber Ende 2020 eine Karte von Mitte 2019 mit Nvidias Leistung von 2018 kaufen? Ist das ne gute Idee?

Wenn der Abverkaufspreis stimmig ist, wieso nicht(?), die neuen GPUs werden wahrscheinlich spürbar teurer und evt.auch nicht viel sparsamer (immerhin ist die RX 5700 die rundeste Navi RDNA1 GPU).

Bei begrenztem Budget und wenn man keinen Wert auf gehyptes aber bisher kaum implementiertes RT-Raytracing oder DLSS (bzw. dessen mögliches Äquivalent)in Spielen legt, könnte so eine RX 5700 durchaus passen.
 
wüstenigel schrieb:
Es geht um UVP gegen UVP - und da wurde der Preis gesenkt.
Was würdest du sagen, wenn AMD alle neuen Produkte (CPU und GPU) jeweils für fiktive 5€ anbietet, diese aber nach ungefähr 0,001Sekunden für den Preis nicht mehr verfügbar sind. Würdest du 2 Monate später immer noch mit diesen tollen UVP Preisen argumentieren, auch wenn die Teile zu höheren Preisen gehandelt werden, als die jeweiligen Modelle der Vorgänger Generation?

Stand jetzt sind die Nvidia UVP nur ein Feigenblatt, um in Fanboy Diskussionsrunden vorne zu liegen, da die UVP Preise derzeit die reinste Fiktion sind, woran sich laut Nvidia bis ins Jahr 2021 hinein nichts ändern wird.
(und mich würde es nicht überraschen, wenn die 10GB / 8GB VRAM Versionen rechtzeitig vor / zum wieder erreichen des UVP vom Markt verschwinden würden, um durch die 20GB / 16GB VRAM Versionen zu höheren Preisen ersetzt zu werden, nachdem das Nvidia Marketing ganz tolle Argumente für die Fanboy Base geschaffen hat, warum das besser sei, worauf natürlich dann in Anbetracht der Vernunft und Gnade Nvidia geklatscht wird)
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Duffy Duck, wüstenigel und 2 andere
Chismon schrieb:
Wenn der Abverkaufspreis stimmig ist, wieso nicht(?), die neuen GPUs werden wahrscheinlich spürbar teurer und evt.auch nicht viel sparsamer (immerhin ist die RX 5700 die rundeste Navi RDNA1 GPU).

Bei begrenztem Budget und wenn man keinen Wert auf gehyptes aber bisher kaum implementiertes RT-Raytracing oder DLSS (bzw. dessen mögliches Äquivalent)in Spielen legt, könnte so eine RX 5700 durchaus passen.
Ich hab auch keine RT/DLSS fähige Karte (1660 Super) und trotzdem denke ich, es wäre besser
es zu haben und nicht zu brauchen als anders rum. Ich denke nach dem AMD Review (und dem
für die 3070 und später 3060) wird die 5700 keine Rolle mehr spielen. In diese ab nächster Woche
veraltete Technik noch 300-350€ oder mehr reinzustecken, macht das wirklich so viel Sinn?
 
  • Gefällt mir
Reaktionen: foo_1337
pipip schrieb:
Von Facebook wurde eh schon eine DLSS Konkurrenz vorgestellt, die auf alle Hardware laufen soll. Wieso MS und Sony noch bisher noch nichts konkretes vorgestellt haben, bezüglich Techniken, muss auch nicht bedeuten dass nichts existiert. Kann genauso sein, dass es AMD vorstellen wird.
Und auch wenn MS und Sony Konkurrenten sind, setzen sie sicherlich auch bewusst auf AMD, weil sie so auf Gewissheit gemeinsame Standards haben.
Sony kocht sein eigenes Süppchen. Patent wurde bereits eingereicht. Wird, sobald fertig, CBR auf der PS5 ablösen.
 
So, die Glaskugel einmal kurz angeworfen bzgl. Preisen einiger RDNA2 GPUs und das ist dabei heraus gekommen ;):

4K/UHD:

Navi21 XTX, 16GB (RX 6900XT?) = 999 US Dollar

Navi21 XT, 16GB (RX 6900/6800 XT?) = 750 US Dollar

Navi21 XL, 16GB (RX 6800/6800XT?) = 550 US Dollar


(U)WHQD:

Navi22 XTX, 12GB (RX 6700XT?) = 449 US Dollar

Navi22 XT, 12 GB (RX6700?) = 349 US Dollar

Navi22 XL, 12 GB (RX 6600XT?) = 299 US Dollar

Darunter gibt es dann natuerlich noch Navi23 Grafikkarten mit maximal 8GB Speicher ausgelegt zum spielen unter Full-HD.
 
@○chismon die XTX würde ich auch in etwa so sehen, je nachdem (das ist doch die, die erstmal AMD-only bleibt oder?!) - aber je nachdem ob die mit neuem HBM ausgestattet wird, könnte ich mir auch vorstellen, dass die nochmal 200-300+ teurer wird... soll ja was exklusives bleiben.

Lang ist´s ja nicht mehr hin.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Chismon
mc_ace schrieb:
Ja, aber du spielst nicht in den Grafikdetails welche inzwischen möglich sind mit einer 1080TI.

Aber du wirst mir doch nicht erklären wollen, dass du ein aktuelles Spiel mit aktuellen Engines und allen Features auf 4K mit Hoch oder Ultra spielen willst und das dies immer mit unter 250W möglich sein muss?
Nö, aber als die 1080Ti rauskam, ging das.

Ebenso wird eine 3080 auch nicht ewig die 4K Ultra stemmen. Warte 1-2 Jahre, dann gibts wieder die ersten Spiele, wo man mit ner 3080 in 4K die Settings reduzieren muss.

Dass die 320W der 3080 gar nicht nötig sind, wissen wir doch bereits! Undervolting/PL Limiter Tests gibts nun zu genüge. Bei 270W TDP wie bei der 2080Ti verliert die 3080 keine 5% Leistung.

Also nein, "es ist nötig für 4K" zieht da einfach nicht. Die Ampere Karten sind einfach ineffizient konfiguriert.
 
@Chismon Interessante Aufteilung in 4K und UWQHD. Für mich persönlich wären die ersten 3 genannten Karten UWQHD Karten :)
 
  • Gefällt mir
Reaktionen: Chismon und Cpt.Willard
Powl_0 schrieb:
Seit 2017 spiele ich in 4K mit einer 250W 1080Ti.
Ich auch, aber meine Ti braucht etwas mehr.
Pisaro schrieb:
Ich habe nichtmal, sondern nur 3440x1440 und meine 1080 Ti ist mir dafür viel zu lahm.
Kann da nur zustimmen. Ich spiel mit meiner 1080 Ti in 2560x1440 und mir ist sie dafür zu lahm.
Jeder hat halt andere Ansprüche.
GroMag schrieb:
Mathe ist nicht deine Stärke?
~30TFlops gegen 21TFlops sind bei dir also 2,7fach?
Fakten sind wohl nicht deine Stärke?
Die 2080 hat zwischen 10 und 11TFlops, je nach Taktrate.
 
borizb schrieb:
... hab auch keine RT/DLSS fähige Karte (1660 Super) und trotzdem denke ich, es wäre besser
es zu haben und nicht zu brauchen als anders rum... denke nach dem AMD Review (und dem
für die 3070 und später 3060) wird die 5700 keine Rolle mehr spielen. ... ab nächster Woche
veraltete Technik noch 300-350€ oder mehr reinzustecken, macht das wirklich so viel Sinn?

Naja, es ist auch eine Frage wie teuer oder guenstig die RDNA1 Fertigung in den einzelnen Fsaellen jetzt noch ist und ob man evt. die ein oder andere Rebrand-GPU benoetigt um moegliche Luecken im Portfolio zu stopfen.

Wenn man bedenkt wie lange Polaris jetzt schon laeuft und wie beliebt die Karten bei den Krypto-Minern immer noch zu sein scheinen.

According to MyDrivers, XFX sold pretty much all of their allotment of chips of the RX 5800, RX 5700 XT, RX 5600 XT and even the RX 590 to GPU miners during the month of September 2020. This isn't a random month by the way, cryptocurrencies like Etherium have been a surge in interest and rallied almost 100% during the last few months.

Warten wir es ab, zumal wenn die guenstigsten Navi22 Karten bspw. mit 299 USD in den Markt kommen sollten (guenstiger werden die am Anfang bestimmt nicht ausfallen), dann waere die RX 5700 als Zwischenschritt mit nach untem angepassten Preis (wohl leistungsfaehiger als die Navi23 Karten und erschwinglicher als die Navi22 Karten) u.U. nicht verkehrt ;).

Bei 200-250 Euro fuer eine RX 5700, wenn dabei noch Gewinn zu machen ist fuer AMD/RTG, waere das definitiv fuer viele noch ein interessanter Einstiegspreis.
 
menzer45 schrieb:
Warum stellt nach Nvidia nun AMD so Karten her, die einen sehr grossen Stromverbrauch nötig haben??Naja schon schlau gemacht, das man dem Kunden noch EXTRA Geld aus den Taschen ziehen wird,indem man noch ein Netzteil mit mind 700 oder 800 Watt kaufen muss!!!Und das,wird dann auch den Stromanbieter XY freuen,wenn die sehen was so eine Karte an Strom ziehen wird.!!!Naja hoffe ja nur das die RX5700 Reihe mit dem Preis runtergeht,dann hole ich mir so eine!!
Genau, ich bin sicher AMD und Nvidia haben einen Deal mit den Stromwerken von Kleinhinterfingen um deren Absatz zu erhöhen.
 
  • Gefällt mir
Reaktionen: borizb
Bright0001 schrieb:
Das wäre eher ein Argument die Karten möglichst schnell in den Markt zu pumpen, um konkurrenzlos verkaufen zu können.


450 Watt wäre die Leistung, die verbrauchte Energie wäre Leistung mal Zeit, also 450W*1h = 450Wh. Die Stromrechnung kommt ja auch meist in Geld pro kWh (Kilowattstunde).

Zum 1. ""
Für AMD ja. Für Nvidia glaubig eher nein. Nvidia weiß das AMD in den letzten Jahren nicht gerade sparsam bei den VRAM war. Diesmal hatten sie bestimmt nicht nur die Befürchtung das AMD sehr schnelle GPU's raushaut sondern auch wieder mit den VRAM nicht (sparsam) umgehen wird. Bei AMD hatte ich immer eher das Gefühl das die CPU's und GPU's für den langfristigen Gebrauch gedacht sind. Bei ner neuen intel cpu brauchte man immer n neues board. Bei AMD eher nicht. Bulldozzers , 8 cores, waren in games nicht die schnellsten. Jedoch nicht verkehrt. AMD hatte aber schon sehr früh erkannt, dass echte Mehrkerne auf kein Fall schaden können. Da is Intel noch mit 4 kernen rumgedümpelt. VRAM soll bei 4k und WQUHD nicht ganz uninteressant sein wenn man alles auf max setzt. Ich schenke der These eher den Glauben das Nvidia in den nächsten Monaten eine 3080RTX mit 16GB o. 20GB VRAM bringt um auch da gleich auf zu sein. Wohl möglich das die Produktion bei Nvidia deswegen gewollt (stagniert).^^

Zum 2.""
Danke. Das wusste ich tatsächlich nicht mehr so genau.
 
Zuletzt bearbeitet:
Ich glaube bei den GPUs wird AMD nicht so lange Zeit verstreichen lassen, von Vorstellung am 28.10 bis zum Verkauf. 22 Tage später kommt ja schon Cyberpunk. Und für das Spiel werden wohl doch einige eine neue Graka haben wollen. Ich denke AMD wird noch vor Cyberpunk starten wollen mit dem Verkauf.

Vielleicht ja zusammen am 05.11 mit den CPUs, damit die Onlineshops völlig zusammenbrechen :D
Ergänzung ()

hurga_gonzales schrieb:
Alter, da bin ich aber wirklich gespannt auf den 24.10

Muss ich dich leider enttäuschen, diesen Samstag wirst du nichts sehen. Die Vorstellung ist am 28 soweit ich weiß.
 
  • Gefällt mir
Reaktionen: Strubbel99
Powl_0 schrieb:
Nö, aber als die 1080Ti rauskam, ging das.

Ebenso wird eine 3080 auch nicht ewig die 4K Ultra stemmen. Warte 1-2 Jahre, dann gibts wieder die ersten Spiele, wo man mit ner 3080 in 4K die Settings reduzieren muss.

Dass die 320W der 3080 gar nicht nötig sind, wissen wir doch bereits! Undervolting/PL Limiter Tests gibts nun zu genüge. Bei 270W TDP wie bei der 2080Ti verliert die 3080 keine 5% Leistung.

Also nein, "es ist nötig für 4K" zieht da einfach nicht. Die Ampere Karten sind einfach ineffizient konfiguriert.


Man kann es ineffiziente Fertigung oder einfach Physik nennen ;-)

Jahr für Jahr werden die Karten schneller. Es gibt mehr Mhz und auch mehr schnelleren Speicher.
Dazu andere Lüftertechniken, Spannungswandler und Chipgrößen mit sehr vielen Transistoren.

Die Entwicklung ist da in den letzten 2 Jahren sehr schnell voran gegangen, da auch die neuen Konsolen in den Startlöchern standen und man hier auf das "Next Gen Level" möchte.

Dabei wird alles daran gesetzt möglichst viele Grafikspieleien (mehr Shader, Raytracing, etc.) zu nutzen.
Inzwischen gehen die Anforderungen der Engines und der Entwicklung aber schneller, als dies im Fertigungsprozess abzubilden um gleichzeitig Strom zu sparen.

Mit einer 1080TI konntest du damals zu diesem Zeitpunkt die Top Titel mit hohen Details spielen können. Korrekt. Vermutlich auch schon irgendwie in 4K.

Aber heute sind, wie eben beschrieben, andere Anforderungen an Grafikkarten.
Alleine der Sprung auf Raytracing muss erst mal gestemmt werden.

Die ersten "richtigen" beworbenen 4K Grafikkarten waren für mich die 2000er Grafikkarten von Nvidia.
Alles andere konnte irgendwie damit umgehen, aber man musste immer Kompromisse eingehen.
Man muss sich doch nur Spieletests der letzten 2 Jahre anschauen, wo es um 4K Auflösung geht und wie die Grafikkarten abschneiden. -> da wurde oft nur high details oder medium verwendet, damit die FPS nicht in die Knie gingen. Selten gab es da Tests wo die Details auf Maximum waren um dies mit WQHD oder FHD 1:1 zu vergleichen.

Vermutlich hätte Nvidia besser fertigen können, vielleicht auch AMD, was den Verbrauch angeht - das wird sicherlich auch noch kommen, aber aktuell kann man nicht alle Wünsche der Enthusiasten bedienen und gleichzeitig Strom sparen. Für alle anderen gibt es ja die "kommenden" Mittelklasse Grafikkarten, welche auch weniger Strom brauchen um das darzustellen, was eine 1080TI oder eine 2080 vorher schon gemacht haben.
 
Zuletzt bearbeitet:
Naesh schrieb:
Ich wünsche es AMD echt .... aber so lange da kein ebenbürtiges DLSS oder ähnliches kommt, werden die AMD Karten nur geringe chancen gegen NVIDIA haben.

Mit DLSS + RTX schlägt wohl selbst die 2060 eine 6900XT.
Quatsch, DLSS und Raytracing interessiert die meisten Leute überhaupt nicht...nicht umsonst ist RTX 2...die schlechtverkaufteste Generation der letzten 10? Jahre gewesen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Bumelux schrieb:
Für AMD ja. Für Nvidia glaubig eher nein. Nvidia weiß das AMD in den letzten jahren nicht sparsam bei den VRAM war. Diesmal hatten sie bestimmt nicht nur die Befürchtung das AMD sehr schnelle GPU's raushaut sondern auch wieder mit den VRAM nicht (sparsam) umgehen wird.
Ja, aber das meine ich doch: Wenn Nvidia davon ausgeht, dass die Konkurrenz die eigenen Produkte vielleicht überflügelt, dann wartet man doch nicht, bis diese Konkurrenzprodukte auf den Markt kommen. Nvidia hätte im September/Oktober schon ordentlich Marktanteile schnappen können, und die Leute mit VRAM-Wunsch mit ihren 3080 20GB bzw. 3070 16GB einsacken können - eben als Konter für AMD.

Ich glaube also, dass wenn Nvidia die Verfügbarkeit tatsächlich künstlich beschränkt hat, dann entweder um höhere Straßenperise zu etablieren oder einen "Wenn ich jetzt nicht kaufe, bekomme ich keine mehr!" Mindset zu festigen. So eine 999$ UVP für die 3080 20GB geht halt deutlich besser runter, wenn die Straßenpreise der 10GB sowieso schon auf dem Level sind. Und das alles nur, wenn die 20GB überhaupt kommen;
Bright0001 schrieb:
Holy Moly - möglicherweise hat Nvidia die 20GB 3080er und 16GB 3070er gestrichen. Das wäre ja mal wirklich freies Feld für AMD.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Bumelux
Ob HBM beim Topmodell kommt? Ergibt in meinen Augen wenig Sinn, das mit vielleicht 10-15% höherer Rohleistung ausgestattete Topmodell mit locker der doppelten Speicherbandbreite auszustatten.
Würde HBM leistungsmässig sinnvoll sein würde das im Umkehrschluss bedeuten, dass alle anderen Modelle durch den Speicher deutlich ausgebremst werden würden, womit AMD sich doch höchstens selbst ein Bein stellen würde (wobei Erfahrung darin ja definitiv vorhanden ist).
 
Pisaro schrieb:
... Aufteilung in 4K und UWQHD. Für mich persönlich wären die ersten 3 genannten Karten UWQHD Karten :)

Naja, die Navi21 Einteilung komplett in 4K/UHD hat ja AMD/RTG inoffiziell so suggeriert ;), wobei die Navi21XL natuerlich dann die Einsteiger-4K/UHD-GPU waere, aber mit spaeter flutschendem DLSS-Aequivalent womoeglich die interessanteste (kleinste, sparsamste 16GB) Grosschip-Karte im RDNA2-Aufgebot ist falls sie gegenueber einer RTX 3080 nicht zu sehr abfallen sollte und insbesondere, wenn uebertaktungs- und undervolting-technisch da auch einiges gehen sollte bei soliden Custom-Modellen.

Irgendwie erinnert mich die kolportierte Navi21 XL Ausgabe ein wenig an die zwischen GTX 980 und R9 Fury X liegende R9 Fury von der Positionierung her (wobei die RTX 3080 natuerlich rueckblickend das GTX 980Ti-Aequivalent gewesen waere), also auf das aktuelle Szenario bezogen so eigentlich die Position einer sehr starken GTX 3070Ti (zwischen einer RTX 3070 und RTX 3080) einnehmend, die nVidia scheinbar nicht mehr im Koecher/Vorbereitung hat und besetzen wird, auch wenn eine RTX 3070 nicht mit GA-104 Vollausbau kommen duerfte).

Wenn nicht die XT sondern die XL Variante von Navi21 von Lisa Su im Teaser zur Zen3 Vermeer-Vorstellung gezeigt wurde und die vorgestellten Daten diese Karten abbilden, dann duerfte sich nVidia warm anziehen muessen und es waere wohl ein Gluecksfall fuer die Kundschaft, denn dann laege einer XT Version wohl knapp oberhalb einer RTX 3080 und eine XTX Version vermutlich annaehrend auf RTX 3090 Niveau.

Das waere eigentlich zu schoen um wahr zu sein, aber wenn die XT Version die GPU der Lisa Su Praesentation war, dann wird zwar die XTX Version immer noch leistungstechnisch eine RTX 3080 voraussichtlich packen/leicht ueberfluegeln koennen, aber eine XL Version vermutlich nur leicht oberhalb einer RTX 3070 sein, was ich dann nicht mehr so beindruckend faende (fuer eine Grosschip/Navi21-Karte, denn eigentlich sollte der Vollausbau von Navi22 der direkte Kontrahent zu einer RTX 3070 mit GA-104 Chip sein, zumindest wuerde das eher Sinn machen).
 
  • Gefällt mir
Reaktionen: Pisaro
Zurück
Oben