News AMD Radeon RX 7800 (XT): Es tut sich etwas in der RDNA-3-Gerüchteküche

Apacon schrieb:
NVidia sich entspannt zurücklehnen und immer genau den richtigen GEgenspieler gegen AMD aus dem Hut zaubern.
Nvidia ist schon lange kein wirklicher Hardware Hersteller für den Customers Markt mehr. Nvidia geht stärker über ihre Software als AMD in dem Markt. Aber wenn wir ehrlich sind hat Nvidia trotz definitiv besserer Architektur (das ist tatsächlich so) Leistungstechnisch genau EINE bessere Karte als AMD, die 4090 und das wars aus Sicht der Hardwareleistung. Jede andere RTX 4000 hat ihren Gegenspieler, gerade die 4070 und die 4060 Ti werden selbst noch von AMDs Vorgängergeneration in Schach gehalten. Hier rettet Nvidia nur ihre Softwarefeatures und Effizienz. Trotz an sich super Architektur sind Nvidias kleine Karten schlecht designt, bepreist und zu stark auf Software ausgelegt.

Nvidia ist der Gaming Markt eigentlich egal und er wird nur noch so nebenbei mitgenommen. Es wird eine Highend Karte platziert fürs Marketing und den Rest machen sie via Software Features und ihrem Marketing
 
  • Gefällt mir
Reaktionen: FrankN84, Thor2607, anarchie99 und eine weitere Person
Hier könnte AMD wirklich nur über den Preis punkten.
Aber solange es RX 6800 XT / 6900(50er) XT für unter 550-600eur gibt, wie soll das gehen?

Ich habe die 7900 XTX um 850 gesnackt...
die verlangten Preise sind einfach nicht attraktiv, egal ob XTX oder XT, oder Nvidia.
 
Tharan schrieb:
Es gab auch mal ein Gerücht, dass sich Navi 32 so verzögert, weil man hier die Fertigungsbugs von Navi 31 doch endlich reduzieren will. Alleine der Stromverbrauch im Idle bei zwei Monitoren wäre hier ja schon langsam ein gefühlter Quantensprung für RDNA3, wenn Navi 32 das in den Griff bekommt.
Der Idle Stromverbrauch hat damit aber auch garnichts zutun. Es ist kein AMD only Problem. Siehe RTX 2000, Intels ARC usw. Es wurde bereits oft geschrieben, es ist abhängig von der Monitorkonfiguration und welche Monitore hier genutzt/kombiniert werden. Desweiteren gibt es bereits einen funktionierenden Workaround und die kleineren monolithischen RDNA sind davon nicht betroffen in dem Ausmaß (siehe RX7600). Weiterhin hat AMD hier schon nachgebessert mit den Treibern. Es hat das Problem für Einige Leute bereits gefixt aber eben nicht für Alle weshalb es noch in den Patchnotes steht. Aber wie gesagt, gibt es einen Workaround.
 
  • Gefällt mir
Reaktionen: Tharan
Taurus104 schrieb:
Hast du das schon AMD mitgeteilt?
Naja, mit dem Konsolen- und CPU Geschäft (u.a. der lukrative Servermarkt) macht AMD vermutlich mehr Gewinn als mit dem umkämpften, i.d.R. wenig gewinnträchtigen GPU Geschäft. Ab und an kann man Nvidia empfindlich treffen, aber der Marktanteil geht seit Jahren stark zurück (Q3 2021 23%, Q3 2022 10%, aktuell bei ~9%). Intel holt dagegen auf und kann mit AMD sogar fast gleich ziehen, obwohl sich aktuell nur vier GPUs in deren Arc Reihe befinden (A350, A380, A750 und A770). Und ja, einen erheblichen Anteil an diesen Marktanteilssteigerungen macht der Verkauf in Asien für Office-PCs aus. Die Verbreitung der A750 und A770 lässt noch zu wünschen übrig.
AMD tritt technologisch auf der Stelle und kann eigentlich nur preislich mithalten. Bezüglich Effizienz, Treibern und Features kommt AMD aber nicht an Nvidia ran, was Nvidias Geschäftspraktiken in keiner Weise besser macht.
AMD könnte das von Nvidia fast geräumte Mittelfeld in Punkto Preis und Leistung vorstoßen, scheint sich aber auch lieber auf den High-End Schw*nzvergleich mit Nvidia zu konzentrieren. Karten wie die RX 7600 wirken fast wie vor Unterrichtsbeginn hingerotzte Schülerpräsentationen, damit man immerhin IRGENDWAS einreichen und der Lehrer keine 6 vergeben kann.
 
Pr0krastinat0r schrieb:
Naja, mit dem Konsolen- und CPU Geschäft (u.a. der lukrative Servermarkt) macht AMD vermutlich mehr Gewinn als mit dem umkämpften, i.d.R. wenig gewinnträchtigen GPU Geschäft. Ab und an kann man Nvidia empfindlich treffen, aber der Marktanteil geht seit Jahren stark zurück (Q3 2021 23%, Q3 2022 10%, aktuell bei ~9%). Intel holt dagegen auf und kann mit AMD sogar fast gleich ziehen, obwohl sich aktuell nur vier GPUs in deren Arc Reihe befinden (A350, A380, A750 und A770). Und ja, einen erheblichen Anteil an diesen Marktanteilssteigerungen macht der Verkauf in Asien für Office-PCs aus. Die Verbreitung der A750 und A770 lässt noch zu wünschen übrig.
AMD tritt technologisch auf der Stelle und kann eigentlich nur preislich mithalten. Bezüglich Effizienz, Treibern und Features kommt AMD aber nicht an Nvidia ran, was Nvidias Geschäftspraktiken in keiner Weise besser macht.
Das ist etwas zu einfach gedacht. Das GPU Geschäft ist bei AMD nicht nur Gaming Karten, sondern auch die inzwischen immer erfolgreicher werdenden Beschleuniger Modelle für Server/HPC. Insofern ist der Markt für AMD durchaus wichtig und man sieht an der Frequenz der CDNA Launches, dass man hier schnell zu NVidia aufschließen will. In manchen Bereichen ist man auch inzwischen vor NVidia (z.B. FP64), in anderen Bereichen wird man mit MI300 näher an Hopper heran rücken.

Bezüglich der Zahlen: Ich habe da auch andere Zahlen gelesen, da war Intel bei grob 4%, AMD bei 12%. So wirklich sicher sind sich die Marktforscher da also wohl selbst nicht. Dass NVidia eine erdrückende Übermacht hat, ist aber klarer Konsens.
Bezüglich der Effizienz muss man sagen: Bis auf Thermi war NVidia eigentlich immer effizienter als AMD/ATI. Wobei das bei RDNA2 durchaus nicht pauschal stimmt, die waren teilweise wirklich sehr effizient (in Raster i.d.R. effizienter als Ampere, in RT natürlich nicht).
Bezüglich der aktuellen Karten muss man aber auch sagen, dass AMD wohl gar kein Interesse hatte NVidia bei der Effizienz zu schlagen. Denn Navi31 ist klar kleiner als AD102. Auch Navi33 ist sehr klein. Daher brauchen die Dinger Takt, um Leistung zu bringen. Und dafür brauchts dann wieder Spannung und somit hat man viel Verbrauch. AMD wollte wohl eher Chips, die günstig in der Herstellung sind als sparsame Chips.
 
  • Gefällt mir
Reaktionen: HierGibtsNichts
ist da wirklich jemand heiß drauf? Mich würde aktuell eher die RDNA 4 Gerüchteküche interessieren.
 
Pr0krastinat0r schrieb:
Mag alles sein auch wenn ein Teil der Aussagen nicht teilsweise stimmen oder die Sache zu oberflächlich beleuchten. Und die Treiberstory ich bitte dich... gerade 2022 und auch schon 23 hatte Nvidia noch nie soviel mit Treiberbugs und Problemen zu kämpfen.

Aber wie gesagt, keine der Aussagen begründet auch nur im Ansatz den Marktrückzug von AMD bei diskreten GPUs mittelfristig.
 
Zuletzt bearbeitet von einem Moderator:
So, mehr lese ich nicht, weil sich eh dann alles wiederholt.

Vitche schrieb:
Abseits dessen überzeugt mich RDNA 3 insgesamt noch weniger als Ada.
Ich finde, es kommt darauf an, wie man an diese Sache herangeht. Je mehr ich in den letzten Tage über RDNA3 und Ada nachdenke, um so enttäuschter bin ich von beiden Karten und das nicht wegen der angezogenen Preise, sondern weil selbst eine 4090 nicht unbedingt das liefert, was man von den Eckdaten her erwarten könnte.

Und genau da liegt auch das Problem an RDNA3 und an Ada: Die Eckdaten versprechen Sachen, die kaum eingehalten werden. Ich werde im weiteren Verlauf weitgehend nüchtern dran gehen, eines kann ich aber direkt vorweg sagen: Ich denke sowohl bei NVIDIA als auch bei AMD haben sich ein paar Leute gehörig vertan und daher gab es diese Probleme.
CB_KeinNameFrei schrieb:
Die Story geht in etwa so, laut Gerüchten aus der Branche... ziemlich genau eine Woche, bevor die große Show zum Launch der 7900 XT/XTX stattfand, sagte die Treiberabteilung zur Chefetage: "Also, dieser Bug mit den Anzeigefehlern, dem wir schon monatelang nachjagen? Wir haben ihn endlich gefunden. Er ist in der Hardware, in der Architektur. Können wir in der Software nicht fixen. Der einzige Weg, die Bildfehler zu vermeiden, ist weniger Takt bei mehr Spannung."
Auch wenn ich ein Hardware-Bug nicht ausschließen will, so glaube ich nicht an den Bug, der auch durch MLID verbreitet wurde. Es gibt in diesem Zusammenhang zu viele mögliche Ursachen, die auch in der Regel griffiger sind.

Das fängt schon dabei an, dass AMD einem Anzeigefehler über Monate nachlaufen würde und das Problem im Treiber sucht und damit quasi die Hardwareseite ausgeschlossen hätte und damit erst mal munter GCDs gefertigt hätte, ohne sicher zu sein, dass nicht doch ggf. ein Fehler dort vorliegt. Ja, das anfertigen von Masken zur Belichtung ist teuer, aber im weiten nicht so teuer, dass man nicht die ersten Chips auf Herz und Nieren prüft und dann ggf. eine weitere Revision zu eröffnen.

Dazu kommt, dass das Lösung, wie du sie beschreibst, am Ende sogar ein relativ klares und einfaches Fehlerbild offenbart: Die Signalintegrität ist ab gewissen Frequenzen nicht mehr gewährleistet bei einer gewissen Spannung - was bei hohen Frequenzen durch immer stärker auftretenden Leckströme verursacht werden kann. Ich denke - auch das ist nur eine Vermutung - dass der GCD für die anvisierten Taktraten zu dicht gepackt wurde. Der GCD kommt auf 150 Millionen Transistoren pro mm². Der AD102 kommt auf 125 Millionen Transistoren pro mm², AD103 auf knapp 120 Millionen.

Es ist bereits mehrfach auch hier angesprochen worden, dass man Schaltungen, gerade wenn sie schnell schalten sollen, nicht zu dicht packen darf, weil sich sonst die Transistoren und Co gegenseitig negativ beinflussen können und das GCD von Navi31 zeigt genau dieses Verhalten.

Jetzt könnte man noch einwerfen, warum dann die Shader einzeln in Compute-Anwendungen ohne Problem bis zu 3 GHz schaffen, da kommt dann aber zum Tragen, dass in den meisten Compute-Anwendungen und Co teile des Chips sich "langweilen" und nicht belastet werden.

Ein Hardware-/Architekturbug, der speziell die Renderpipeline betrifft, ist im Bereich des möglichen, aber an dieser Stelle gibt es noch zu viele Faktoren, die auch eine Rolle spielen könnten und die simpelste Erklärung ist einfach die: Das Ding ist deutlich zu dicht gepackt und man bekommt die Leckströme einfach nicht unterkontrolle, wodurch es ohne entsprechende Spannung zu entsprechenden Problemen kommt.

Und ehrlich gesagt: Ich bevorzuge in diesem Fall die einfachere Erklärung. Die Gerüchte um den Hardwarebut haben in diesem Fall zu viel "Hokuspokus" dabei und könnten am Ende auch wieder nur enttäuschen, wenn RDNA4 auf den Markt kommt. Das ist dann wieder so etwas wie der "Wundertreiber".
Holgmann75 schrieb:
AMD hatte nie vor die 4090 herauszufordern und die 4080 hat die 7900XTX bei Rasterizing im Griff, so lang man nicht auf den Stromverbrauch schaut
Und genau hier setzt nun der andere Teil ein: Ich denke hier eher, dass sowohl AMD als auch NVIDIA sich hier ordentlich in der Konkurrenz verschätzt haben. NVIDIA wird AMD überschätzt und AMD NVIDIA unterschätzt haben. Und ebenso, warum selbst AD102 "enttäuscht".

Nehmen wir AD102, das ding hat 75 Mrd. Transistoren, 144 SM a 128 Shader a 4 TMU und 192 ROP. Das ding ist ein gewaltiges Monster. Davon kommen 128 SM bei der 4090 an und 176 ROP zusammen mit 512 TMU. Der Vorgänger kommt auf 84 SM und 112 ROP. Dazu steigt der "Standardtakt" von 1,5 GHz auf 2,2 GHz (die Zahlen sind etwas gerundet). AD102 kommt auf 52 % mehr SM, Shader, TMU und auf 45 % mehr Takt.

Geht man dann über alle Tests hinweg, dann setzt sich die 4090 ca. 60 % vor die die 3090 Ti. Das ist bei diesen Eckdaten eine pure Enttäuschung, vor allem, da sich an den SM selbst nicht viel getan hat und die primären Neuerungen von Ada in den RT-Kernen und Tensore-Kernen liegt. Ada ist in dieser Form - frech ausgedrückt - ein Ampere 2.0. Alleine von den Eckdaten her müsste die 4090 mit all den Verbesserungen nicht 50 % schneller sein im Mittel. Bei Ada "verpuffen" knapp 30 % der theoretischen Leistung im "nichts". AD102 ist ein Monsterchip, denn NVIDIA da auf die Beine gestellt hat.

Und hier kommt das erste Gerücht zu AMD: Hier wurde Anfangs davon ausgegangen, das pro CU die ALUs verdoppelt werden - war so - und dass ein Monster mit 60 WGP auf den Markt kommt - die besagten 15360 ALUs. Für Navi31 waren Anfangs ja zwei Navi32/33 im Gespräch und so ein Chip würde NVIDIA auch mit der AD102 gefährlich werden, weil auch das ein absolut überzüchteter Chip gewesen wäre. Zwar nur 240 Tasks/Threads, statt den 288 wie bei AD102 oder nun eben die 256 bei der 4090. Aber auch dieser würde sich bei 2,3 GHz "langweilen" und müsste auch keine 2,5 GHz und Co fahren.

NVIDIA wird vielleicht - keiner von uns kann es wissen - AD102 mit dem Blick auf ein mögliches 15360er-Monster entwickelt haben, daraus resultieren dann mit dem neuen Anschluss auch die Gerüchte von 500 - 600 W TDP für die neuen NVIDIA und AMD-Karten. Der Kühler für die 4090 ist überdimensioniert und kann mehr als die 450 W abführen.

AMD wird vermutlich im Lauf der Entwicklung festgestellt haben, dass ihr "ursprünglicher" Navi31 (2 * Navi32) nicht so funktioniert, wie sie es erhoft haben und wird entsprechend den 48 WGP/96-CU Navi31 entworfen haben, den sie Anfangs gegen eine 600 W 4090 stellen wollten. Um der 4090 "gefährlich" zu werden, müssen sie in so einem Fall "nur" ca. 33 - 40 % mehr Takt schaffen. Also wird AMD mit Taktraten um die 3 GHz - 3,3 GHz geplant haben - was Navi31 ja durchaus auch schafft, wenn man entsprechend Saft drauf gibt.

Jetzt kam es aber anders. NVIDIA merkt, dass nicht das Monster kommt, vor dem sie Angst hatten, als können sie AD102 ordentlich die Zügel anlegen, sogar "beschneiden" und in ein 450 W TDP "zwängen", die der Chip nicht mal wirklich abrufen muss. AMD bekommt davon Wind und deren Navi31 hat ab diesem Zeitpunkt ein weiteres Problem. Denn ohne entsprechende Spannung, kann Navi31 die Tatkraten nicht fahren, die angedacht wurden und das Design ist auf hohen Takt ausgelegt. Dazu kommt dann wahrscheinlich das beschriebene Problem, dass man hier noch möglichst einen "kleinen" GCD wollte und man das Design sehr Eng gepackt hat und Bumm: Navi31 kann nicht mehr das leisten, was theoretisch angedacht wäre. Warum? Weil NVIDIA gemerkt hat, dass der große Hammer von AMD nicht kommt und AMD, weil sie nicht gedacht hätten, dass NVIDIA ein absolut "überzüchteten" Chip raus haut.

Rockstar85 schrieb:
Und dass dieser Wert nur dann ansteht, wenn wir bei Dual Issue sind, ist halt ernüchternd.
Auch das ist aber für mich nach all der Zeit nicht mehr verwunderlich, wenn ich ehrlich bin. RDNA3 wiederholt in gewisserweise die Geschichte von Turing zu Ampere.

RDNA3 verdoppelt die ALUs im schlimmsten Fall kommt die Leistung an, die durch das mehr an CU - 20 % - und Takt (8 %) erreicht wurde zur 6950 XT. Im Mittel legt die 7900 XT 41 % zu, davon gehen 30 % auf Takt und SM zurück, die anderen 10 % kommen durch die Vec64(32+32). Die 3090 konnte sich von der 2080 Ti damals um 45 % absetzen. Die 3090 mit 82 SM gegen 68 SM - 20 %, beim Takt ging es von 1550 auf 1700 - etwas nach oben gerundet - also um 10 % hoch. Man konnte damals im Mittel auch ca. 30 % der Leistung nur auf das mehr der SM und Takt zurück führen und die anderen 10 % sind dann quasi der zweite FP-Datenpfad gewesen.

Die Rechnung ging bei Ampere damals also nur "bedingt" auf und auch nun bei RDNA3 ging diese Rechnung nur bedingt auf.

Klar, die neuen Vec64 sind "toll", weil sie entweder einen Wave64 oder zwei unabhängige Wave32 verarbeiten können (ich schrieb ja bereits, dass es nen wenig TeraScale-Wipes hat, ein VLIW2, weil selber "Thread"/Datentyp). Gleichzeitig müssen aber entsprechend Daten da sein. Ada und RDNA3 teilen sich jetzt ein Problem: Beide Chips benötigen entweder richtig viel Pixel - oder entsprechend Daten bei "RT", damit sie sich von ihren Vorgängern entsprechend absetzten. In 1080p und 1440p merkt man das am stärksten an der 4090. Da sind es ca. 40 %, bei 4K dann 60 %. Bei der 7900 XTX ist der Sprung mit 33 % - 41 % dann schon "geringer".

Das einzige, was man merkt in manchen Tests: Das "VLIW2"-Konzept der Vec64 hat seine Vorteile, wenn man sich Modern Warfare 2 ansieht und merkt, dass die 7900 XTX nur 13 % langsamer ist als die 4090 und da sind wir am nächsten Punkt, ich geh etwas später darauf ein.

Piecemaker schrieb:
Aber, wenn es diesen Bug nicht gegeben hätte, wäre auch keinem geholfen gewesen: Die 7900XTX hätte dann ~1600€ gekostet.
Ich sage es ehrlich und wiederhole es: Ich glaube nur bedingt an einen Hardwarebug, zumindest nicht in der Form, wie ihn einige Hardware-YouTuber weitergeben. Dafür gibt es einfach deutlich näher liegende Erklärungen, warum RDNA3 nicht auf touren kommt und warum der Verbrauch so massiv in die höhe schießt.

150M Transitoren pro mm² gegen 125M Transitoren pro mm² bei NVIDIA? AMD packt das GCD bei RDNA3 sehr eng und sowas ist für den Takt nie gut, wenn man zu eng packt. Das ist in diesem Fall die einfachste Erklärung und lässt mit anderen Eckpunkten einen eher nüchternden Blick auf RDNA 3.

Wer hier an einen Hardwarebug glaubt, den AMD für RDNA4 nur lösen muss und dann wird alles gut, der träumt und macht sich falsche Hoffnung.

Der "angebliche" Bug ist schwer greifbar und es wird leider von zu vielen so getan nun, als wäre der Bug dafür entscheidend, dass Navi31 statt mit der 4090 mit der 4080 im Ring steht, dabei wird der Transistorcount von Navi31 und AD102 sowie AD103 vollkommen aus dem Auge verloren, auch andere Rohdaten und Co.

Ich kann an dieser Stelle ein paar Community-Mitglieder dann schon verstehen, wenn sie meinen, dass man bei AMD immer zu einer gewissen "Übertreibung" neigt.

Philste schrieb:
Wer AMD glaubt, dass ein 4090 Gegner nie geplant war, der glaubt auch echt alles.
Ja und Nein. Ich denke schon, dass AMD einen "4090"-Gegener geplant hatte, aber ich glaube auch, dass AMD nicht damit rechnete, dass NVIDIA ein 144 SM-Monster auflegt, dass sich quasi vollständig langweilt und aktuell selbst von einem 7950X3D und einem 13900KS nicht mal im Ansatz mit genug Daten versorgt werden kann. Von dem Leistungsplus, dass die Rohdaten versprechen - 50 % mehr SM, 50 % mehr Takt ("vereinfacht").

Theoretisch müsste die 4090 ca. 125 % schneller sein als die 3090 Ti, in 4K reduziert sich das auf 60 %. Es bleiben also 50 % irgendwo liegen. Bei AMD kommt aus den nominellen - CU und Takt - in dem Fall sogar etwas mehr an - sowie damals bei Turing zu Ampere. Klar, wir können es auch auf die Shader umrechnen, dann ist das Verhältnis bei AMD "schlechter", nur diesen miesen Schritt hatte dann auch NVIDIA mit Ampere.

Es gibt in dem Fall aber zu viele Gerüchte, die man hier verarbeiten kann. Nimmt man die ursprünglichen 15360 / 120 CU / 60 WGP als Ausgangsbasis, dann versteht man NVIDIAs-Monster-Chip.

Und um meine Aussage für das Monster AD102 noch etwas zu Untermauern: Man sehe sich AD103/4080 und die 3090 Ti an. Das Leistungsplus kommt hier alleine durch denk Takt. 35 % mehr Takt resultieren im Mittel bei 28 % mehr Leistung, wodurch die fehlenden SM (76 gegen 84) aufgefangen werden.
 
  • Gefällt mir
Reaktionen: Nihil Baxxter, Holgmann75, HierGibtsNichts und 2 andere
BAR86 schrieb:
Aber irgendwie bin ich ernüchtert:
eine frage der erwartungen - und hier ist ein großer teil der "spielerschaft" schlicht zu anspruchvoll und auch zu unreflektiert - gib mir alles und dass bitte zum halben preis der vorgeneration.

die ganzen engines haben es teilweise noch garnicht wirklich ins uhd rendering für die breite der user geschaffet und dann schnallt man noch raytracing obendrauf und wundert sich dass die performance auf dem neuen uhd monitor nicht stimmt....

dazu trickst (ja, so deutlich muss man es sagen) man mit dlss und fsr herum, den und nimmt das teilweise als leistungsbasis um die karten zu bewerten.
also rendert man nicht mehr in der zielauflösung, sondern deutlich niedriger und gleicht dann mit antrainierter ki-algorythmik aus.
als helfer in den games in denen man nicht nativ auf gut spielbare framerates kommt mag das willkommen sein, es sollte sich aber nicht zur regel entwickeln. (finde ich).

aber auch unterm strich ist die preis- und portfoliogestaltung der hersteller eine katastrophe. prinzipiell sind die meisten verfügbaren gpu's ok, allerdings fast durch die bank in einer preiskategorie zu hoch aufgehangen. nvidia könnte das sogar zur standardstrategie machen, denn offenbar gibt es genügend willige käufer für deren produkte an der spitze welche durchaus beachtliche margen ermöglichen - also wieso nicht insgesamt halb soviele gpu's verkaufen zum insgesamt höheren preis?
amd hat sich meiner meinung vor allem dadurch in den fuß geschossen dass sie preislich ebenfalls über ihrer liga spieln wollen und was viel viel schlimmer ist: sie lassen sich mit der mittelklasse der gpu's - da wo sie im markt den größten hebel hätten - vielzuviel zeit. eine 7700x bzw 7800x ist lääääängst überfällig.
 
Wie zeigt sich denn dieser HW-Bug?

Habe zwei Rechner im Einsatz .. mit rtx4080 und rx7900xtx und merke eigentlich keinen Unterschied zw. den beiden Karten/Monitorausgaben. Bildfehler sehe ich auch keine..
 
Vitche schrieb:
Siehe die verlinkten Inhalte, beispielsweise hier:
Die Frage ist halt in dem Fall, was der Bug genau ist. Kommt das, weil der Chip zu dicht gepackt ist und das an bestimmten Stellen entsprechend den Takt verhindert. Liegt wirklich ein Bug in der Renderpipeline vor oder gar in der Architektur?

Alles würde das schlechte Abschneiden erklären und warum die Karte nicht entsprechend hoch takten, die Erklärung reicht dann von Ultra-Komplex bis hin zu relativ simpel.
 
DevPandi schrieb:
Die Frage ist halt in dem Fall, was der Bug genau ist. Kommt das, weil der Chip zu dicht gepackt ist und das an bestimmten Stellen entsprechend den Takt verhindert. Liegt wirklich ein Bug in der Renderpipeline vor oder gar in der Architektur?
Das mag und kann ich auch nicht beurteilen, aber dass RDNA 3 irgendwie nicht so geworden ist, wie AMD sich das vorgestellt hat, da bin ich mir doch sehr sicher.
 
Vitche schrieb:
[...] aber dass RDNA 3 irgendwie nicht so geworden ist, wie AMD sich das vorgestellt hat, da bin ich mir doch sehr sicher.
Da sind wir uns glaub ich fast alle einig.

Nur sollte man am Ende die Eckdaten von AD102 und Navi31 nicht aus den Augen verlieren und auch einfache physikalische Gesetze. Selbst wenn jetzt ein "Navi31.2" kommen würde, der einen angeblichen Bug in der Renderpipeline nicht mehr hat oder die ihn etwas weniger dicht packen und damit die Taktschraube lockern können, dann sind es einfach weiterhin knapp 128 TMU die fehlen oder 4000 Shader, die man durch Takt ausgleichen muss.

Vermutlich wird man eine 4080er noch besser im Griff haben und bei der Effizienz sich auf dem Niveau von Ada bewegen, aber übertrumpfen würde AMD Ada nicht.
 
cypeak schrieb:
nvidia könnte das sogar zur standardstrategie machen, denn offenbar gibt es genügend willige käufer für deren produkte an der spitze welche durchaus beachtliche margen ermöglichen - also wieso nicht insgesamt halb soviele gpu's verkaufen zum insgesamt höheren preis
Schon angeblich längst eingeläutet der Vorgang.

Nividia kommt angeblich der Nachfrage im Profisegment mit deutlich mehr Marge kaum nach, die Gamer sind zu geizig und zu arm für ihre Gamingkarten, also wird umgeschichtet.

https://www.pcgameshardware.de/Graf.../News/Nvidia-Datacenter-statt-Gaming-1422331/

Ob sich der gemeine Gamer sich das so vorgestellt hat...ich bezweifele es.
 
wie zeigt sichd er hardwarebug nun durch zu hoher spannung und geringe auslastung der zusätzlichen simd32 einheit die die doppelte fp32 output sorgen sollte was diese je höhe der takt ist sinkt.
Udn ja es liegt an der signalqualität
Sehr gut sieht man das bei n33 chip auf laptops mit nur 1,6ghz erreichen diese ihre 2,6 operationen auf dem desktop mit 2,6ghz ist es nur noch 2,05
Das deutet darauf hin das im design der alu zu viel widerstand aufkommt und das signal fehler erzeugt.
bedeutet der Speicher kommt dem coreclock nicht hinterher
Das kann man sich so vorstellen das daten nicht schnell genug in die alu berechnet werden können aber durch eben den zusätzlichen fp32 output dies auf über 2 operationen geht. solange speichertakt und gpu takt also die shadertakt ist.
Entgegen könnte man dies indem man die sram menge pro cu erhöht und den alu mehr Fläche gibt damit diese weniger heiß werden und das signal stabiler wird.
Das kostet aber chipfläche und genau das ist der hardware bug
man dachte die Fertigung wäre so gut das die höhere dichte das nicht beeinträchtigt
Der Fehler könnte wenn es schlecht läuft erst mit backdrill der wafer auf n2p fixen.
quasi wird dadurch die spannung um 40% gesenkt.
Aber ich glaube eher das amd bei rdna4 das design neu gestalten wird und den sram mehr fläche gibt .

Vor n2p wird man nicht höher Takten können als 2,7ghz (n3p) wenn das design so bleibt
Ändert man aber das design das es mehr wärme abführen kann geht der Takt rauf auf etwa 3,8ghz

mein tipp ist mehr cache oder sram weniger dicht damit man höher Takten kann.
Dann sollten 25% bis 40% der zusätzlichen simd32 möglich werden was dann 2,6 bis 2,8 Operationen pro cu wird.
Wenn man dann noch 2,7 oder sogar 3,8ghz erreicht wäre man am ziel
Erstere ist eher anzunehmen also weiterhin 6144 alu bei 320mm² (derzeit bei 300mm²) und dann 43tf bis 60tf möglich
Das gute n3 läuft sehr gut und die yield sind sogar besser als n5
Das schlechte ist das n3 nur maximal 10% Effizienz bringt also nur 5% Takt.
Da aber aktuell das design auf 2,6ghz ist und die arch bis zu 3,6ghz gehen kann sehe ich realistisch mit Anpassung der alu etwa 3,8ghz und ohne nur 2,7ghz

amd hat sich das anders vorgestellt bei rdna 3 der bug ist quasi kurz vor der Präsentation aufgefallen.
Sonst wären die Präsentationfolien nicht so fehleitend gewesen.
Die versprochenen +52% min und maxed +75% wurde +26%-+38% da merkt man das irgendwas übersehen hatte den der Takt ist möglich aber ohne Anpassung der spannung nicht ohne Bildfehler möglich.
Hätte man das bei der Entwicklung herausfinden können? Jaein, da engineer samples weit unter dem finalen Produkt Takten.
Die endtaktraten werden quasi simuliert und man hat nicht damit gerechnet das die Fertigung die Signal Qualität beeinträchtigt. Und das der imc Takt geringer sein muss aber dadurch eine Auslastung der cu verringert.
Ist der Bus des Speichersystem breit genug macht das nix da 1-1 aber cache allgemein lässt sich schwer verkleinern auf n5 war es sogar gleich groß wie auf n7 und das trotz -80% transitordichte
Etwa 50% wurden genutzt

Wenn man dann die echten cu abzieht etwa 40% eines chips der sich verkleinern lässt aber der rest sram bis 25%, tmu bis zu 15%, rop 10%, imc 10% eben nicht. Und der inf cache extern in mcd über einen passiven interposer
So in etwa müsste rdna3 design sein.
Also wird der cache entweder vergrößert sagen wir mal auf 30% (reinen Fläche ohne menge) würde das den Takt fixen auf etwa in gedachter 3,6ghz oder ein viertel mehr cache auf 35% das würde die Auslastung fixen und sogar die echten 3 Operationen ermöglichen und der Takt wäre gleich wie bisher.
Diese Erkenntnis kam zu spät
Es war ein refresh der arch geplant wurde aber verworfen da n33 und n32 den fix nicht schafften also die tape out solcher wafer zu lange brauchten.
Die laptop Serie war fest geplant für q3 2023 und da wird n33 zwingend benötigt.
Somit dürfte amd rdna4 vorgezogen haben beim design und rdna3,5 letzte Namensänderung cancelt
Ich rechen mit rdna4 etwa q1 2024 ursprünglich q4 2024
Die einzige frage die bleibt ist das n4 oder n3 beide bringen kaum Taktsteigerungen und mehr dichte (+10% maxed) und wie beschrieben gerade dichte muss wachsen daher ist das eine Kostenfrage. Da der Takt minimal schneller wird.
n4 ist sehr wahrscheinlich (n4 gleiche dichte etwa +3% Effizienz)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nihil Baxxter und HierGibtsNichts
DevPandi schrieb:
Wer hier an einen Hardwarebug glaubt, den AMD für RDNA4 nur lösen muss und dann wird alles gut, der träumt und macht sich falsche Hoffnung.
Die Beseitigung des aktuellen HW Bugs, wenn es ihn gibt, nützt in RDNA4 nichts da Nvidia dann auch schon wieder neue Sachen hat.
 
Nvidia hat auch ein problem den n3p wird kaum den takt anheben und der chip wird größer während die dichte kaum bis gar nicht steigt.
Blackwell wird entweder ein Hopper Derivat oder einen vergrößerter ampere 3 gen. ada ist quasi ampere mit besseren rt und tensor core.
Demzufolge sehe ich blackwell maximal +10% vs ada
Und das bei größeren chips und waferpreisen
Der nächste sprung wird erst n2p sein wo min der Takt um 40% steigt und die dichte um 50%
und n2p kommt erst q1 2026 in fertigung nvidia wird definitiv erst bei 2028 dies übernehmen können.
Daher nehme ich an das nvidia das design an hopper anlehnen wird und den Takt möglichst gleich behält.
So könnte man die chips kleiner gestalten während man beim Takt die fp32 pro sm quasi verdoppeln kann
Die andere Lösung wäre allein auf Takt zu setzen und die chips gleich zu bleiben was maxed +10% wären je sku
 
Zurück
Oben