So, mehr lese ich nicht, weil sich eh dann alles wiederholt.
Vitche schrieb:
Abseits dessen überzeugt mich RDNA 3 insgesamt noch weniger als Ada.
Ich finde, es kommt darauf an, wie man an diese Sache herangeht. Je mehr ich in den letzten Tage über RDNA3 und Ada nachdenke, um so enttäuschter bin ich von beiden Karten und das nicht wegen der angezogenen Preise, sondern weil selbst eine 4090 nicht unbedingt das liefert, was man von den Eckdaten her erwarten könnte.
Und genau da liegt auch das Problem an RDNA3 und an Ada: Die Eckdaten versprechen Sachen, die kaum eingehalten werden. Ich werde im weiteren Verlauf weitgehend nüchtern dran gehen, eines kann ich aber direkt vorweg sagen: Ich denke sowohl bei NVIDIA als auch bei AMD haben sich ein paar Leute gehörig vertan und daher gab es diese Probleme.
CB_KeinNameFrei schrieb:
Die Story geht in etwa so, laut Gerüchten aus der Branche... ziemlich genau eine Woche, bevor die große Show zum Launch der 7900 XT/XTX stattfand, sagte die Treiberabteilung zur Chefetage: "Also, dieser Bug mit den Anzeigefehlern, dem wir schon monatelang nachjagen? Wir haben ihn endlich gefunden. Er ist in der Hardware, in der Architektur. Können wir in der Software nicht fixen. Der einzige Weg, die Bildfehler zu vermeiden, ist weniger Takt bei mehr Spannung."
Auch wenn ich ein Hardware-Bug nicht ausschließen will, so glaube ich nicht an den Bug, der auch durch MLID verbreitet wurde. Es gibt in diesem Zusammenhang zu viele mögliche Ursachen, die auch in der Regel griffiger sind.
Das fängt schon dabei an, dass AMD einem Anzeigefehler über Monate nachlaufen würde und das Problem im Treiber sucht und damit quasi die Hardwareseite ausgeschlossen hätte und damit erst mal munter GCDs gefertigt hätte, ohne sicher zu sein, dass nicht doch ggf. ein Fehler dort vorliegt. Ja, das anfertigen von Masken zur Belichtung ist teuer, aber im weiten nicht so teuer, dass man nicht die ersten Chips auf Herz und Nieren prüft und dann ggf. eine weitere Revision zu eröffnen.
Dazu kommt, dass das Lösung, wie du sie beschreibst, am Ende sogar ein relativ klares und einfaches Fehlerbild offenbart: Die Signalintegrität ist ab gewissen Frequenzen nicht mehr gewährleistet bei einer gewissen Spannung - was bei hohen Frequenzen durch immer stärker auftretenden Leckströme verursacht werden kann. Ich denke - auch das ist nur eine Vermutung - dass der GCD für die anvisierten Taktraten zu dicht gepackt wurde. Der GCD kommt auf 150 Millionen Transistoren pro mm². Der AD102 kommt auf 125 Millionen Transistoren pro mm², AD103 auf knapp 120 Millionen.
Es ist bereits mehrfach auch hier angesprochen worden, dass man Schaltungen, gerade wenn sie schnell schalten sollen, nicht zu dicht packen darf, weil sich sonst die Transistoren und Co gegenseitig negativ beinflussen können und das GCD von Navi31 zeigt genau dieses Verhalten.
Jetzt könnte man noch einwerfen, warum dann die Shader einzeln in Compute-Anwendungen ohne Problem bis zu 3 GHz schaffen, da kommt dann aber zum Tragen, dass in den meisten Compute-Anwendungen und Co teile des Chips sich "langweilen" und nicht belastet werden.
Ein Hardware-/Architekturbug, der speziell die Renderpipeline betrifft, ist im Bereich des möglichen, aber an dieser Stelle gibt es noch zu viele Faktoren, die auch eine Rolle spielen könnten und die simpelste Erklärung ist einfach die: Das Ding ist deutlich zu dicht gepackt und man bekommt die Leckströme einfach nicht unterkontrolle, wodurch es ohne entsprechende Spannung zu entsprechenden Problemen kommt.
Und ehrlich gesagt: Ich bevorzuge in diesem Fall die einfachere Erklärung. Die Gerüchte um den Hardwarebut haben in diesem Fall zu viel "Hokuspokus" dabei und könnten am Ende auch wieder nur enttäuschen, wenn RDNA4 auf den Markt kommt. Das ist dann wieder so etwas wie der "Wundertreiber".
Holgmann75 schrieb:
AMD hatte nie vor die 4090 herauszufordern und die 4080 hat die 7900XTX bei Rasterizing im Griff, so lang man nicht auf den Stromverbrauch schaut
Und genau hier setzt nun der andere Teil ein: Ich denke hier eher, dass sowohl AMD als auch NVIDIA sich hier ordentlich in der Konkurrenz verschätzt haben. NVIDIA wird AMD überschätzt und AMD NVIDIA unterschätzt haben. Und ebenso, warum selbst AD102 "enttäuscht".
Nehmen wir AD102, das ding hat 75 Mrd. Transistoren, 144 SM a 128 Shader a 4 TMU und 192 ROP. Das ding ist ein gewaltiges Monster. Davon kommen 128 SM bei der 4090 an und 176 ROP zusammen mit 512 TMU. Der Vorgänger kommt auf 84 SM und 112 ROP. Dazu steigt der "Standardtakt" von 1,5 GHz auf 2,2 GHz (die Zahlen sind etwas gerundet). AD102 kommt auf 52 % mehr SM, Shader, TMU und auf 45 % mehr Takt.
Geht man dann über alle Tests hinweg, dann setzt sich die 4090 ca. 60 % vor die die 3090 Ti. Das ist bei diesen Eckdaten eine pure Enttäuschung, vor allem, da sich an den SM selbst nicht viel getan hat und die primären Neuerungen von Ada in den RT-Kernen und Tensore-Kernen liegt. Ada ist in dieser Form - frech ausgedrückt - ein Ampere 2.0. Alleine von den Eckdaten her müsste die 4090 mit all den Verbesserungen nicht 50 % schneller sein im Mittel. Bei Ada "verpuffen" knapp 30 % der theoretischen Leistung im "nichts". AD102 ist ein Monsterchip, denn NVIDIA da auf die Beine gestellt hat.
Und hier kommt das erste Gerücht zu AMD: Hier wurde Anfangs davon ausgegangen, das pro CU die ALUs verdoppelt werden - war so - und dass ein Monster mit 60 WGP auf den Markt kommt - die besagten 15360 ALUs. Für Navi31 waren Anfangs ja zwei Navi32/33 im Gespräch und so ein Chip würde NVIDIA auch mit der AD102 gefährlich werden, weil auch das ein absolut überzüchteter Chip gewesen wäre. Zwar nur 240 Tasks/Threads, statt den 288 wie bei AD102 oder nun eben die 256 bei der 4090. Aber auch dieser würde sich bei 2,3 GHz "langweilen" und müsste auch keine 2,5 GHz und Co fahren.
NVIDIA wird vielleicht - keiner von uns kann es wissen - AD102 mit dem Blick auf ein mögliches 15360er-Monster entwickelt haben, daraus resultieren dann mit dem neuen Anschluss auch die Gerüchte von 500 - 600 W TDP für die neuen NVIDIA und AMD-Karten. Der Kühler für die 4090 ist überdimensioniert und kann mehr als die 450 W abführen.
AMD wird vermutlich im Lauf der Entwicklung festgestellt haben, dass ihr "ursprünglicher" Navi31 (2 * Navi32) nicht so funktioniert, wie sie es erhoft haben und wird entsprechend den 48 WGP/96-CU Navi31 entworfen haben, den sie Anfangs gegen eine 600 W 4090 stellen wollten. Um der 4090 "gefährlich" zu werden, müssen sie in so einem Fall "nur" ca. 33 - 40 % mehr Takt schaffen. Also wird AMD mit Taktraten um die 3 GHz - 3,3 GHz geplant haben - was Navi31 ja durchaus auch schafft, wenn man entsprechend Saft drauf gibt.
Jetzt kam es aber anders. NVIDIA merkt, dass nicht das Monster kommt, vor dem sie Angst hatten, als können sie AD102 ordentlich die Zügel anlegen, sogar "beschneiden" und in ein 450 W TDP "zwängen", die der Chip nicht mal wirklich abrufen muss. AMD bekommt davon Wind und deren Navi31 hat ab diesem Zeitpunkt ein weiteres Problem. Denn ohne entsprechende Spannung, kann Navi31 die Tatkraten nicht fahren, die angedacht wurden und das Design ist auf hohen Takt ausgelegt. Dazu kommt dann wahrscheinlich das beschriebene Problem, dass man hier noch möglichst einen "kleinen" GCD wollte und man das Design sehr Eng gepackt hat und Bumm: Navi31 kann nicht mehr das leisten, was theoretisch angedacht wäre. Warum? Weil NVIDIA gemerkt hat, dass der große Hammer von AMD nicht kommt und AMD, weil sie nicht gedacht hätten, dass NVIDIA ein absolut "überzüchteten" Chip raus haut.
Rockstar85 schrieb:
Und dass dieser Wert nur dann ansteht, wenn wir bei Dual Issue sind, ist halt ernüchternd.
Auch das ist aber für mich nach all der Zeit nicht mehr verwunderlich, wenn ich ehrlich bin. RDNA3 wiederholt in gewisserweise die Geschichte von Turing zu Ampere.
RDNA3 verdoppelt die ALUs im schlimmsten Fall kommt die Leistung an, die durch das mehr an CU - 20 % - und Takt (8 %) erreicht wurde zur 6950 XT. Im Mittel legt die 7900 XT 41 % zu, davon gehen 30 % auf Takt und SM zurück, die anderen 10 % kommen durch die Vec64(32+32). Die 3090 konnte sich von der 2080 Ti damals um 45 % absetzen. Die 3090 mit 82 SM gegen 68 SM - 20 %, beim Takt ging es von 1550 auf 1700 - etwas nach oben gerundet - also um 10 % hoch. Man konnte damals im Mittel auch ca. 30 % der Leistung nur auf das mehr der SM und Takt zurück führen und die anderen 10 % sind dann quasi der zweite FP-Datenpfad gewesen.
Die Rechnung ging bei Ampere damals also nur "bedingt" auf und auch nun bei RDNA3 ging diese Rechnung nur bedingt auf.
Klar, die neuen Vec64 sind "toll", weil sie entweder einen Wave64 oder zwei unabhängige Wave32 verarbeiten können (ich schrieb ja bereits, dass es nen wenig TeraScale-Wipes hat, ein VLIW2, weil selber "Thread"/Datentyp). Gleichzeitig müssen aber entsprechend Daten da sein. Ada und RDNA3 teilen sich jetzt ein Problem: Beide Chips benötigen entweder richtig viel Pixel - oder entsprechend Daten bei "RT", damit sie sich von ihren Vorgängern entsprechend absetzten. In 1080p und 1440p merkt man das am stärksten an der 4090. Da sind es ca. 40 %, bei 4K dann 60 %. Bei der 7900 XTX ist der Sprung mit 33 % - 41 % dann schon "geringer".
Das einzige, was man merkt in manchen Tests: Das "VLIW2"-Konzept der Vec64 hat seine Vorteile, wenn man sich Modern Warfare 2 ansieht und merkt, dass die 7900 XTX nur 13 % langsamer ist als die 4090 und da sind wir am nächsten Punkt, ich geh etwas später darauf ein.
Piecemaker schrieb:
Aber, wenn es diesen Bug nicht gegeben hätte, wäre auch keinem geholfen gewesen: Die 7900XTX hätte dann ~1600€ gekostet.
Ich sage es ehrlich und wiederhole es: Ich glaube nur bedingt an einen Hardwarebug, zumindest nicht in der Form, wie ihn einige Hardware-YouTuber weitergeben. Dafür gibt es einfach deutlich näher liegende Erklärungen, warum RDNA3 nicht auf touren kommt und warum der Verbrauch so massiv in die höhe schießt.
150M Transitoren pro mm² gegen 125M Transitoren pro mm² bei NVIDIA? AMD packt das GCD bei RDNA3 sehr eng und sowas ist für den Takt nie gut, wenn man zu eng packt. Das ist in diesem Fall die einfachste Erklärung und lässt mit anderen Eckpunkten einen eher nüchternden Blick auf RDNA 3.
Wer hier an einen Hardwarebug glaubt, den AMD für RDNA4 nur lösen muss und dann wird alles gut, der träumt und macht sich falsche Hoffnung.
Der "angebliche" Bug ist schwer greifbar und es wird leider von zu vielen so getan nun, als wäre der Bug dafür entscheidend, dass Navi31 statt mit der 4090 mit der 4080 im Ring steht, dabei wird der Transistorcount von Navi31 und AD102 sowie AD103 vollkommen aus dem Auge verloren, auch andere Rohdaten und Co.
Ich kann an dieser Stelle ein paar Community-Mitglieder dann schon verstehen, wenn sie meinen, dass man bei AMD immer zu einer gewissen "Übertreibung" neigt.
Philste schrieb:
Wer AMD glaubt, dass ein 4090 Gegner nie geplant war, der glaubt auch echt alles.
Ja und Nein. Ich denke schon, dass AMD einen "4090"-Gegener geplant hatte, aber ich glaube auch, dass AMD nicht damit rechnete, dass NVIDIA ein 144 SM-Monster auflegt, dass sich quasi vollständig langweilt und aktuell selbst von einem 7950X3D und einem 13900KS nicht mal im Ansatz mit genug Daten versorgt werden kann. Von dem Leistungsplus, dass die Rohdaten versprechen - 50 % mehr SM, 50 % mehr Takt ("vereinfacht").
Theoretisch müsste die 4090 ca. 125 % schneller sein als die 3090 Ti, in 4K reduziert sich das auf 60 %. Es bleiben also 50 % irgendwo liegen. Bei AMD kommt aus den nominellen - CU und Takt - in dem Fall sogar etwas mehr an - sowie damals bei Turing zu Ampere. Klar, wir können es auch auf die Shader umrechnen, dann ist das Verhältnis bei AMD "schlechter", nur diesen miesen Schritt hatte dann auch NVIDIA mit Ampere.
Es gibt in dem Fall aber zu viele Gerüchte, die man hier verarbeiten kann. Nimmt man die ursprünglichen 15360 / 120 CU / 60 WGP als Ausgangsbasis, dann versteht man NVIDIAs-Monster-Chip.
Und um meine Aussage für das Monster AD102 noch etwas zu Untermauern: Man sehe sich AD103/4080 und die 3090 Ti an. Das Leistungsplus kommt hier alleine durch denk Takt. 35 % mehr Takt resultieren im Mittel bei 28 % mehr Leistung, wodurch die fehlenden SM (76 gegen 84) aufgefangen werden.