Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Zer0Strat schrieb:
Dass die Medien daraus Clickbait Dramen machen werden, dafür kann ich nichts. Ganz im Gegenteil kritisiere ich das sogar.

Sag mal, soll das ein Scherz sein? Sieh dir doch mal deinen Beitrag von vorhin mal an. Du bist doch da mit verantwortlich für.

Zer0Strat schrieb:
Das Stepping Gate ist heute Nacht viral gegangen auf Social Media. Bald werden das VideoCardz, Wccftech und vielleicht THW aufgreifen.

AMD ist dabei, in eine sehr sehr ungemütliche Situation reinzuschliddern. Am Ende wird das dazu führen, dass die ohnehin geringe Nachfrage nach Radeons noch weiter fällt und Nvidia gnadenlos die Preise weiter anzieht.


Zer0Strat schrieb:
Hat das jemand reproduzieren können? Getestet wurde doch in 1080p. Da ist man locker im CPU Limit.
 
  • Gefällt mir
Reaktionen: ThePlayer und Rockstar85
TKessel schrieb:
Waren heute Morgen oder gestern Abend lt. Forum bei AMD direkt wieder lieferbar, ganz ohne Drop, Warteschlange und Tamtam und das unter der UVP.

Das würde nur ein verlagern der Diskussion nach sich ziehen ;-)
Die UVP ist schon noch, nur wird das bei AMD dynamisch dem Wechselkurs angepasst.
 
Schon klar, ist aber trotzdem eine nette Sache :-)
 
KingZero schrieb:
Sag mal, soll das ein Scherz sein? Sieh dir doch mal deinen Beitrag von vorhin mal an. Du bist doch da mit verantwortlich für.
Nee, ich bin ja nicht der einzige, der das mitbekommen hatte. Ich hatte das auch nur hier kommuniziert. Ich denke nicht, dass die Twitter Nerds hier mitlesen. ^^
 
2
Fegr8 schrieb:
Naja wo glaubst du gehen die Transistorzahl: für den großen Cache MCD. Für die GPU allein sind zum Vergleich zur 4080 ist die Transistorzahl wesentlichen geringer. Zudem hat die 4080 über 50% 32Alu! Mehr Speicher und Speicherbandbreite sind Geschwindigkeit und Verfügbarkeit in 4K weniger relevant aber ab 5K macht es schon einen großen Unterschied!

Was hat der Ad103 mehr?`Sorry....aber der GCD beim RNDA3 ist echt riesig. Die DCU und SM sind nicht vergleichbar und bei RNDA3 ist eine DCU echt breit und hat eigentlich mehr Einheiten als die AD103 und schafft es aufgrund von diversen Faktoren diese Einheiten nicht mal optimal auszulasten.

Beim AD103 ist ein nicht kleiner Anteil des Chips Cache.
 
Hier stand Mist, bitte löschen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: DayvanCowboy
@Bengart
https://fuse.wikichip.org/news/6439...ily-with-a-new-enhanced-performance-n4p-node/
N4 is a derivative of N5 (which is TSMC includes it under the “5nm family”) very similar to the N6 node they introduced to enhance their N7 node. N4 is said to provide a small 6% die shrink through “standard cell innovation” and design rule changes that help realize better area efficiency. There are also some performance and power improvements through various BEOL enhancements. TSMC says that N4 will use EUV for more layers thereby reducing the number of steps and masks, thus offering a cost advantage.
 
  • Gefällt mir
Reaktionen: Icke-ffm und Bengart
Ragnarök88 schrieb:
Auch die Preise sind wieder völlig egal. Ja, Nvidia ist teurer, dafür aber auch insgesamt deutlich schneller.
Bei der RTX 4080 hieß es: Nicht kaufen! Unverschämt! Und jetzt wird wieder für einen etwas geringeren Preis bestellt. So schnell ist die !Nicht kaufen Gruppe! in sich zusammen gefallen.
Nicht kaufen bedeutet bei NVIDIA Fans ja nur, warten bis die AMD Karte kommt und hoffen, das nvidia günstiger wird. AMD hat mit der UVP anscheinend die Hoffnung zerstört. Deshalb sind viele sauer. Nicht kaufen ist weiterhin der Ratschla für günstigere Preise.
Ergänzung ()

met schrieb:
dann würden die Werte ja passen. mit dem N6 Prozess dürfte AMD ja immer 15-20% hinterherhinken.
 
  • Gefällt mir
Reaktionen: Ragnarök88
Oneplusfan schrieb:
Jetzt muss man sich mal vorstellen, Nvidia hätte den Vollausbau des AD102 gebracht - das wären nochmal 18% mehr SMs. Ich glaube einen größeren Performanceunterschied hätte es noch nie gegeben in einer Gen an der Spitze zwischen Nvidia und AMD.
Nicht übertreiben. Der größte Performanceunterschied war 2018 mit der Veröffentlichung der RTX 2080 Ti bzw. der Titan RTX. AMDs schnellste Gaming-GPU war damals die RX Vega 64. Zum Glück sind diese Zeiten vorbei.
Oneplusfan schrieb:
Und kommt mit nicht mit dem Preisargument, denn die Preise hätten wir nicht wenn AMD was konkurrenzfähiges (in RT und Raster) auf die Beine gestellt hätte.
Oh doch! Was glaubst du denn wird der Vollausbau denn kosten. Ich schätze mal so um die 2499$ UVP... Außerdem ist die Situation für AMD auf dem GPU-Markt sehr schwierig. Den Namen Nvidia ist im Grunde jeden ein Begriff, selbst wenn man nicht viel mit PCs oder Gaming am Hut hat. Sie verkaufen daher ihre Produkte beinahe schon von allein. Es ist verdammt schwer für AMD da Fuß zu fassen, selbst wenn sie seit 2019 mit RDNA wieder absolut konkurrenzfähige Grafikkarten haben.
AMD hat im Kampf gegen den grünen Überriesen nun die Wahl, ob sie um die absolute Leistungskrone kämpfen, was sie heute sehr wohl könnten, oder mehr auf Preis/Leistung setzen. RDNA3 ist eindeutig die zweite Option.
 
  • Gefällt mir
Reaktionen: Icke-ffm und daknoll
Im Prozess sehe ich diese Generation quasi keinen signifikanten Unterschied. Beide benutzen bei TSMC 5nm. Bei Nvidia ist der Prozess noch leicht angepasst. Letzte Generation gab es einen gewaltigen Unterschied zwischen Samsung und TSMC und daher war auch die Effizienz besser bei AMD. Eigentlich war es ein Kunststück von Nvidia trotzdem relativ dicht dran zu sein.

Das erklärt auch, warum Nvidia jetzt einen Sprung machen konnte und AMD nicht. Die einen sind von Samsung -> TSMC 5nm gewechselt und die anderen nur von TSMC 7nm -> 5nm.

Um das ganze mal zu verdeutlichen, wäre Nvidia bei Samsung geblieben, hätten wir wahrscheinlich die 600-800 Watt Monster gesehen und die Kühler wären auch benötigt worden in vollem Umfang.
 
  • Gefällt mir
Reaktionen: CCIBS, Asghan und met
Ayo34 schrieb:
Im Prozess sehe ich diese Generation quasi keinen signifikanten Unterschied. Beide benutzen bei TSMC 5nm. Bei Nvidia ist der Prozess noch leicht angepasst.
Naja die Frage ist wieweit der Custom von Nvidia geht. Der Standartkatalog von TSMC gibt es bei der jetzigen 5nm Familie bis zu 22% Effizenzunterschied! Bis heute kennt weißt man so wenig von "4N" aber die Fertigung könnte letztendendlich doch der entscheidene Faktor im Thema Effizenz gewesen sein. AMD benutz den billigsten und damit auch den mit der kleinsten Effizenz der 5nm Familie!
 
Bulletchief schrieb:
[...] Nur hat man jetzt tatsächlich erst die Leistung, um es auch vernünftig in Echtzeit umzusetzen und endlich die ganzen Raster-Krücken und -Tricks loszuwerden...
Jetzt komm schon, als ob du dich jemals vor dem "RT-Hype" in einem technisch gut umgesetzten Videospiel darüber empört hättest, dass dir die Rasterisierungsgrafik viel zu unrealistisch ist. Die Wahrheit ist: auch wenn die herkömmliche Beleuchtung quasi nur ein "Trick" ist, so stehen dahinter richtige Künstler. Das heißt die allermeisten Gamer bemerken in modernen Spielen überhaupt nicht, ob Raytracing aktiviert ist oder nicht - so gut bzw. realitätsnah sind die "geschummelten" Beleuchtungseffekte. Der größte Vorteil aus Raytracing ziehen gerade die Entwickler selbst, da sie nun nicht mehr extrem viel Zeit und Aufwand in die Spielebeleuchtung investieren müssen.
 
  • Gefällt mir
Reaktionen: NMA, m.obermueller, daknoll und 2 andere
Fegr8 schrieb:
Naja die Frage ist wieweit der Custom von Nvidia geht. Der Standartkatalog von TSMC gibt es bei der jetzigen 5nm Familie bis zu 22% Effizenzunterschied! Bis heute kennt weißt man so wenig von "4N" aber die Fertigung könnte letztendendlich doch der entscheidene Faktor im Thema Effizenz gewesen sein.

Das bedeutet dann, dass AMD hier sparen wollte und/oder nicht mehr von "4N" übrig war für die Fertigung? Man munkelt ja auch, dass Nvidia sich nicht gerade günstig in der Mining-Hochzeit bei TSMC eingekauft hat. Auch das ist sicherlich ein Teilgrund für die Preise.

Bei AMD hat es sich ja so angehört, als ob durch das neue Design die Grafikkarten viel günstiger zu prodzieren sind. Dazu dann noch weniger Geld für die 5nm Fertigung und man kann in der Zukunft vielleicht noch sehr deutlich beim Preis runtergehen und Nvidia irgendwann eben nicht?
 
Ayo34 schrieb:
Letzte Generation gab es einen gewaltigen Unterschied zwischen Samsung und TSMC und daher war auch die Effizienz besser bei AMD. Eigentlich war es ein Kunststück von Nvidia trotzdem relativ dicht dran zu sein.
Ein gewaltiger Unterschied: Samsung 8nm / TSMC 7nm...
Ayo34 schrieb:
Das erklärt auch, warum Nvidia jetzt einen Sprung machen konnte und AMD nicht. Die einen sind von Samsung -> TSMC 5nm gewechselt und die anderen nur von TSMC 7nm -> 5nm.
Jetzt musst du schon so fair sein und zu Nvidia sagen: Samsung 8nm -> TSMC 4nm
Ayo34 schrieb:
Um das ganze mal zu verdeutlichen, wäre Nvidia bei Samsung geblieben, hätten wir wahrscheinlich die 600-800 Watt Monster gesehen und die Kühler wären auch benötigt worden in vollem Umfang.
Genau aus diesem Grund haben die RTX 4090 und RTX 4080 diese völlig überdimensionierten Kühler. Hat natürlich den Vorteil, dass die Karten leise sind.
 
drago-museweni schrieb:
Habe damals für zwei R9 290 OC 696€ bezahlt
Ja damals war doch vieles besser!

@THreAD hier schwiren ja paar Infos zu A0 bei den Chips und andere Probleme beim Design die die RDNA3 Karten ziemlich viel saufen lassen, auch zum BIOS hatte ich irgendwo was gelesen. Finde ich alles sehr interessant. Nur Leider fehlt mir die Zeit alle 140 Seiten die es jetzt schon sind komplett zu lesen. Wäre jemand so freundlich das etwas zusammen zu fassen?!

Die XTX ist ja immer noch vergriffen aber anscheinend sollen Anfang nächster wieder Karten geliefert werden. Somit sieht es beim Launch viel besser aus als noch vor Zwei Jahren aus. Trotzdem versuchen sich wieder einige Scalper. Ich lehne mich erstmal zurück und warte was passiert. Habe zum Glück gerade keinen Druck aufzurüsten.
 
TigerherzLXXXVI schrieb:
Jetzt komm schon, als ob du dich jemals vor dem "RT-Hype" in einem technisch gut umgesetzten Videospiel darüber empört hättest, dass dir die Rasterisierungsgrafik viel zu unrealistisch ist. Die Wahrheit ist: auch wenn die herkömmliche Beleuchtung quasi nur ein "Trick" ist, so stehen dahinter richtige Künstler. Das heißt die allermeisten Gamer bemerken in modernen Spielen überhaupt nicht, ob Raytracing aktiviert ist oder nicht - so gut bzw. realitätsnah sind die "geschummelten" Beleuchtungseffekte. Der größte Vorteil aus Raytracing ziehen gerade die Entwickler selbst, da sie nun nicht mehr extrem viel Zeit und Aufwand in die Spielebeleuchtung investieren müssen.

Ich gebe dir zwar Recht, dass man Raytracing nicht braucht für ein gutes Spielerlebnis, aber wenn du Raytracing dir mal anschaust, dann merkt JEDER die Unterschiede und JEDER kann auch sagen, was Raytracing ist und was nicht. Es sieht nicht nur besser aus, es sieht auch viel natürlicher aus. Wenn du 100 Szenen baust und dabei Fehler machst, die in kleinerer Form immer vorkommen, dann kann die Immersion schnell verloren gehen.

Interessant wäre natürlich, wenn man ein Spiel in Raytracing durch den Super-Computer jagen könnte und dadurch das normale Spiel automatisch ohne Raytracing genauso aussehen könnte. Dann hätte man keinen Performance-Verlust und wirklich das identische Bild.
 
Ayo34 schrieb:
Bei AMD hat es sich ja so angehört, als ob durch das neue Design die Grafikkarten viel günstiger zu prodzieren sind. Dazu dann noch weniger Geld für die 5nm Fertigung und man kann in der Zukunft vielleicht noch sehr deutlich beim Preis runtergehen und Nvidia irgendwann eben nicht?

AMD macht seit Jahren keinerlei Anstalten mehr sich wirklich über den Preis zu entwickeln. Ganz im Gegenteil, man hat sich mehr oder weniger "stillschweigend" mit Intel und Nvidia auf sehr sehr hohe Preise geeinigt. AMD hat kein wirkliches Interesse mehr daran den Marktanteil zu erhöhen, sondern lieber die Margen oben zu halten.
 
TigerherzLXXXVI schrieb:
Ein gewaltiger Unterschied: Samsung 8nm / TSMC 7nm...

Jetzt musst du schon so fair sein und zu Nvidia sagen: Samsung 8nm -> TSMC 4nm

Genau aus diesem Grund haben die RTX 4090 und RTX 4080 diese völlig überdimensionierten Kühler. Hat natürlich den Vorteil, dass die Karten leise sind.

Ja, ein gewaltiger Unterschied. Du kannst die Prozesse von Intel, TSMC und Samsung nicht 1:1 auf die nm-Angabe herunterbrechen. Intel ist mit 10nm z.B. nicht so weit weg von TSMC mit 7nm und nennt es daher ja auch N7-Prozess. Samsung 8nm ist nicht nur schlechter als TSMC 7nm, sondern auch weiter hinter einem fiktiven TSMC 8nm Prozess.

Nvidia produziert in einem angepassten 5nm Prozess und eben nicht in 4nm bei TSMC.
 
  • Gefällt mir
Reaktionen: Wichelmanni
Zurück
Oben