News AMD Navi 48: Die erste RDNA-4-GPU ist bestätigt, die Eckdaten noch nicht

Rockstar85 schrieb:
Intel hat ein massives Auslastungsproblem.
Wenn es so kommt, wie bisher angedeutet, wird intel die Vektor-Engine anpassen von 8 auf 16 und damit wird Intel bei der Auslastung relativ gut zu legen.
 
  • Gefällt mir
Reaktionen: MalWiederIch, Rockstar85 und SaschaHa
@DevPandi
Das wäre natürlich zu Wünschen für Intel.
Die Preisfrage: Reicht es um nennenswerte Marktanteile Nvidia abzunehmen? Abseits der OEM Kisten ist ARC A schlichtweg unter sonstige zu finden. nimmt NV AMD den Marketshare ab, ist das langfristig auch für Intel nicht erstrebendswert
 
Nooblander schrieb:
Sind aber auch keine Stagnation. Wie es geschrieben wurde.
Eine RX 7800XT ist im Vergleich zu einer 6800XT leider Stagnation und in einigen aktuellen Spielen steht die RDNA 3 Karte sogar schwächer da, was schon ein Wink mit dem Zaunpfahl ist (Aufrüsten von RDNA 2 auf 3 kaum bis überhaupt nicht lohnt, aber ein Aufrüsten alle 2 Jahre ist auch eher nVidia-typisch/-etabliert und natürlich lukrativer für den Entwickler).

Ja, es sind unterschiedliche Chips, aber wenn man nach Preis, Modellbezeichnung und Leistungsklasse geht, ist das schon stagnativ und die Effizienz von RDNA 3 ist ebenso alles andere als beeindruckend (was aber aufgrund des Herstellungsverfahrens und weil das MCM Design besser inszeniert als dann real umgesetzt wurde auch nicht verwunderlich ist).

Es bleibt die Hoffnung auf Besserung bei den AMD/RTG Grafikkarten mit RDNA 4 und vor allem RDNA 5.

Wenn man sich anschaut, was wohl so (an Grafiksprung) in der Mache ist (nicht nur durch Rise of Hydra mit Unreal Engine 5), dann dürfte es erst mit RTX 5000er und RDNA 5 Grafikkarten wohl wieder einen spürbar großen Sprung in der technischen Entwicklung geben:

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
Nooblander schrieb:
RDNA3 hat eine bessere RT Leistung als RDNA2 und ebenfalls eine bessere Effizienz.
Nur eben nicht verglichen zu Ada Lovelace.
Nein die Architektur hat keine bessere RT Leistung obwohl uns AMD sogar weismachen wollte das sie RT Cores der nächsten Generation verbauen:
1712413195854.png
 
  • Gefällt mir
Reaktionen: MalWiederIch
Da ich nix brauche lass ich ma die Gerüchte Gerüchte sein. + 50 % 4090 Performance (und entsprechend gute Spiele/Sims die das erfordern) und Preise <1500 ,dann sehe ich mal weiter. Von AMD wird da eh Nix vorerst kommen.
 
ruthi91 schrieb:
Nein die Architektur hat keine bessere RT Leistung obwohl uns AMD sogar weismachen wollte das sie RT Cores der nächsten Generation verbauen:
Anhang anzeigen 1471976
Naja Fairerweise reden wir bei der GRE von einem Salvage, von der 6950XT von einer Selektierten Full...
Also doch, es hat sich was getan.. Wie man an 6700XT und 7800XT sehen kann.. Deine Daten zeigen es gut beim Navi 31 Full zu Navi 21 Full und die Perzentil sind nochmal spannender.


https://www.techspot.com/article/2570-gpu-architectures-nvidia-intel-amd/

Und ja, es hat sich schon viel für RNDA3 getan, AMD hat aber den Loss im Interconnect nicht kompensieren können.
 
  • Gefällt mir
Reaktionen: Chismon
240 und 130 mm²? Was sind die Zielgruppen von diesen GPÜchen? Als wäre es nicht schlimm genug, dass man RX 7800 and 7900 Käufer quasi zu Nvidia schickt, es wird nicht einmal für RX 6800 Besitzer ein vernünftiges Upgrade geben? 40-50% Mehrleistung nach 3-4 Jahren ist nämlich nicht gut genug. Die Zielsetzung hattez doch zumindest >7900XTX lauten müssen bei der nächsten Mittelklasse GPU.
 
Beide Karten haben 80 RT Cores, 5120 Shader, 256bit SI und GDDR6, ähnlicher wirds nicht.
Für 2 Jahre Unterschied ist das einfach mager.
Und natürlich schaffen Karten mit mehr Recheneinheiten, Bandbreite, Takt und Powerlimit letztendlich auch mehr als ihre Vorgänger.
 
  • Gefällt mir
Reaktionen: derkleinedieb, C4rp3di3m, MalWiederIch und eine weitere Person
Rockstar85 schrieb:
Naja Fairerweise reden wir bei der GRE von einem Salvage, von der 6950XT von einer Selektierten Full...
Also doch, es hat sich was getan..
Was hat das damit zu tun? TPU rechnet das immer schön aus, man sieht gut, dass RDNA2 und RDNA3 durch RT sehr ähnlich viel an Leistung einbüßen, RDNA3 vielleicht 3-5% weniger, beide deutlich mehr als Nvidia. Das ist keine nennenswerte Verbesserung. Die gibt es bei Nvidia übrigens auch nicht wirklich zwischen Turing, Ampere und nun Ada Lovelace, aber sie war von Anfang an geringer als bei AMD.
 
  • Gefällt mir
Reaktionen: MalWiederIch
Rockstar85 schrieb:
Deine Daten zeigen es gut beim Navi 31 Full zu Navi 21 Full
Navi31 hat aber auch einfach schlicht mehr CUs und damit mehr RT Units als Navi21, natürlich ist der schneller. Das hat aber nichts damit zu tun, ob die RT Cores selbst schneller geworden sind.
Das kann man eben dort vergleichen, wo 2 Karten die gleiche Anzahl an RT Units haben.
 
Zuletzt bearbeitet:
Wie die üblichen Verdächtigen wieder versuchen Raytracing kleinreden, obwohl AMD selbst Hardware-Einheiten dafür bringt ist wirklich amüsant :lol:

marakuhja schrieb:
In Cyberpunk 2077 gurkte ich bei FullHD mit einer 6700XT dann bei 15 ! fps rum.
Und die überdurchschnittlich schwache RT-Leistung der 6700XT war dir vor dem Kauf nicht bekannt?
Auch AMD wird zukünftig bekannterweise Hardware-Einheiten für RT verbauen.
Evtl. ändert sich dann auch endlich wieder was an den Marktanteilen, die sehen ja katastrophal aus …
 
Zuletzt bearbeitet:
ruthi91 schrieb:
Beide Karten haben 80 RT Cores, 5120 Shader, 256bit SI und GDDR6, ähnlicher wirds nicht.
So wird das aber nichts, da Navi31 einen Interconnect hat, der ~30% Leistung frisst.
Dann musst du den Vergleich mit den Monolithen machen.

@Taxxor
navi 31 verliert massiv an Rohleistung durch die MCD, also doch passt das... Nehmt gerne die monolithen meinetwegen... Wolfgang hat damals einen Full 21er Navi gegen einen Salvage 31er getestet, der am Ende durch den Interconnect eben Leistung verlor.. Ist ja nichts neues, hatten wir schon bei Ryzen. Also solche Vergleiche sind technisch echt fragwürdig.
 
Rockstar85 schrieb:
So wird das aber nichts, da NAvi31 einen Interconnect hat, der ~30% Leistung frisst.

Man kann sich aber auch einfach in Raster ähnlich starke Karten anschauen und dann vergleichen, was sich hier mit RT tut

Ich nehm mal Alan Wake 2 als Beispiel, nur mit normalem RT vs Raster in 1440p
https://www.computerbase.de/2023-10...ll_hd_wqhd_und_ultra_hd_mit_raytracing_update

(die DLSS Stufen sind unterschiedlich, der tatsächliche Verlust durch RT ist das also nicht, aber da das für alle Karten gilt, ist die Relation trotzdem aussagekräftig),

4070Ti vs 3090Ti -> Ohne RT sind beide gleich schnell, mit RT ist die 4070Ti 8% schneller. Diese 8% wären dann ungefähr die bessere RT Performance von Ada ggü Ampere.


7800XT vs 6800XT -> Ohne RT ist die 7800XT 8% schneller als die 6800XT, mit RT ist sie 9% schneller. Also ca 1% bessere RT Performance von RDNA3 ggü RDNA2
 
  • Gefällt mir
Reaktionen: Sirhaubinger
Taxxor schrieb:
Man kann sich aber auch einfach in Raster ähnlich starke Karten anschauen und dann vergleichen, was sich hier mit RT tut

7800XT vs 6800XT -> Ohne RT ist die 7800XT 8% schneller als die 6800XT, mit RT ist sie 9% schneller. Also ca 1% bessere RT Performance von RDNA3 ggü RDNA2
Damit kann man leben.. Auch wenn hier noch Taktgleichheit bestehen müsste für Aussagefähige Modelle..
Problem wäre dann der SI, die Busanbindung etc.
AMD hat sich mit RDNA 3 und Navi 31 als 7900XTX keinen Gefallen getan.. Wäre Navi31 als 7900XT gekommen für ~999€, hätten wir eine andere Diskussion. mal wieder.
 
Rockstar85 schrieb:
Damit kann man leben.. Auch wenn hier noch Taktgleichheit bestehen müsste für Aussagefähige Modelle..
Ganz genau wird mans eh nicht hinbekommen, aber wenn 2 Karten in Raster die gleiche Performance erreichen, kann mir eigentlich egal sein, wie viele CUs bei welchem Takt sie haben, auch die Anbindung ist eigentlich egal, denn da die RT Einheiten linear mit den Rastereinheiten steigen oder fallen, komm ich ja eigentlich gut genug auf den Unterschied der reinen RT Performance wenn ich es mit dem Unterschied in der Rasterperformance verrechne.
 
Taxxor schrieb:
Ganz genau wird mans eh nicht hinbekommen, aber wenn 2 Karten in Raster die gleiche Performance erreichen, kann mir eigentlich egal sein..
Womit wir dann bei der Technischen Frage ankämen, ob die Grundlegende Änderung des technischen Aufbau nicht genau diese Vergleichbarkeit erschwert.. dazu fehlt mir aber das nötige wissen, wie AMDs Rasterpfade arbeiten und wie in Detail die RT Pfade wirken. Also ja, 100% wird schwer, ich denke, wenn AMD gesagt hätte: Die neue 7900XT ist am ende 35% schneller als die Vorversion und die RT Performance als echte RT Core zwischen 11-15%, wären das Ok gewesen... Nvidia hat mit DLSS ja auch mehr Geld im Spiel.
 
Serandi schrieb:
@MasterWinne
Der einzige Grund, warum ich die 4090 so mag ist, dass die im UV immer noch so verdammt viel Leistung und übertrieben gute Effizienz hat, vor allem wenn man die samt DLSS und ohne RT/PT nutzt dann noch FPS Limit und schon hat man so gut wie in keinem Game über 250 Watt Verbrauch! …

Serandi schrieb:
sodass der Verbrauch nur lächerliche 100-120 Watt macht.

Serandi schrieb:
da ich mit der RX 7900 XTX bei weniger Leistung VIEL mehr Stromverbrauch hätte auf Dauer gesehen.
Habe auch schon eine 4090, aber da ich nur die üblichen 4-6 Stunden (berufstätig) die Woche zum Zocken komme sind selbst ein paar 100W hin oder her nur wenige Cent im Monat ohne PV … beim aktuellen Kaufpreis von vermutlich immer noch 2.000€ :rolleyes:

Was genau machst du, dass das bei dir so viel Relevanz hat? Bzw. wieviele Stunden kommst du zum Zocken?

Bei den CPUs macht es bei den wenigen Stunden die man zu Zocken kommt ja noch weniger Sinn, da sprechen wir von einem R7 X3D zu einem i7 auch gerade mal von 50W bei entsprechender Last …
 
DevPandi schrieb:
Wobei man da auch erwähnen sollte, dass Nvidia hier durchaus Respekt vor AMD hat und Nvidia sehr genau weiß, was AMD machen könnte, aber sie eben nicht machen wollen und das sieht man ja auch gut hier.
What? AMD kann, aber will nicht?
Man überlässt einfach so der Konkurrenz das Feld, obwohl man es ändern könnte, aber sicher doch.
AMD fehlt die Manpower und hat nicht so ein üppiges Portmonaie wie Nvidia.
 
ueg schrieb:
Meiner persönlichen Meinung nach, sollten die News über Gerüchte etwas zurückgefahren werden. Das hat so ein bisschen was von Klatsch-Zeitschrift.
Du musst es nicht lesen es gibt genügend andere Artikel.
RKCPU schrieb:
So ist das Leben ...
Wobei GDDR7 flexibler wäre, wie 12 GByte GPU-RAM auch bei 128 Bit Speicherinterface.
Aber auch teurer. Nicht nur der GDDR RAM sondern auch das Board.
Lohnt sich das fürs Mainstream.

[wege]mini schrieb:
Lisa hasste die Schwanzverlängerungsmaschinen am Ende der Stange für schwachsinniges Geld aber hat sich überzeugen lassen.
Würdest Du einen solchen Satz wählen, wenn es um Jensen Huang und die RTX4090 ginge?
[wege]mini schrieb:
RDNA3 hat dann nicht eingeschlagen,
RDNA3 hat nicht die erwartete Performance geliefert. Das ist das Problem*)

Bei Navi 31 hat AMD zum ersten Mal seit vielen Jahren Cherry Picking betrieben. AMD wusste bei der Vorstellung, dass sie RDNA3 in den Sand gesetzt haben.

[wege]mini schrieb:
also back to the roots.
aber der Absatz ist doch offensichtlich nicht so schlecht, dass AMD kapitulieren müsste.

[wege]mini schrieb:
400-500 Dollar als Zielpreis, mit Leistung einer 7900GRE im Raster und richtig viel geilem neuen Zeug bei "rts" wird angestrebt.
Das ist Deine Interpretation. Ziemlich weltfremd.

Denn es läuft anders. Nvidia legt die Preise fest und bestimmt wie viel AMD für ihre leistungsstärkste Grafikkarte verlangen kann. Du erinnerst Dich noch an den Spaß mit der RX5700XT? AMD kündigt einen Preis an. NVidia kündigt die 2070S an und platziert den Preis so, dass die RX5700XT DOA ist. AMD nimmt die Preise der RX5700XT vor dem Release zurück.

Und das schöne für Nvidia ist, je tiefer AMD einsteigt desto mehr Freiraum hat Nvidia in der Preisgestaltung darüber. Und desto größer kann Nvidia das Delta bei den gleich schnellen Grafikkarten wählen.

Die meisten Gerüchte deuten drauf hin, dass die Zurückhaltung bei RDNA 4 schon bei RDNA 5 wieder aufgegeben wird.


DevPandi schrieb:
Wobei man da auch erwähnen sollte, dass Nvidia hier durchaus Respekt vor AMD hat und Nvidia sehr genau weiß, was AMD machen könnte,
Man kann AD102 durchaus als Respektsbezeugung an AMD verstehen.
DevPandi schrieb:
aber sie eben nicht machen wollen und das sieht man ja auch gut hier.
Wenn Du AMD meinst:

Als Firma darf AMD nicht träumen sondern muss entscheiden, ob man das Produkt tatsächlich mit den erforderlichen Absatz und den erforderlichen Margen am Markt platzieren kann. Selbst wenn bei RDNA alles geklappt hätte und die Navi 31 ca. stabile 2,8 bis 3 GHz Gametakt bei 350 W erreicht hätte, wären nicht mehr als 1000 USD drin gewesen.

Eine Gaming-GPU, die an AD102 heranreicht, kann AMD nicht vermarkten.

DevPandi schrieb:
Nvidia geht bei den Chips "All-In" und entwirft diese Monster, weil sie Respekt vor AMD haben und sie auch einen Konter in der Hinterhand haben möchten.
Das mit dem Konter wird IMO weit überbewertet. Es ist nur ein Nebeneffekt.

Nvidia hat Erfahrung wie man gute Ausbeute mit großen Dies erzielt. Nvidia hatte Märkte für den AD102 die Navi 31 nicht erreichen konnte.

Also geht Nvidia beim AD102 Die ans Limit dessen was sie für vertretbar halten. Aber Nvidia bietet bei den Gaming-GPUs erst Mal nur einen Teilausbau an. Den Vollausbau können sie notfalls nachlegen. Für den Vollausbau hat Nvidia jedoch genügend Produkte bei denen sie weit bessere Margen erzielen können als bei der RTX4090.
DevPandi schrieb:
Nvidia ist ein verdammt gutes Pferd, die Springen nur so hoch, wie sie müssen, ist aber allzeit bereit noch mehr zu liefern.
Nvida treibt die Performance und Effizienz gnadenlos voran. Da steckt kein Hauch von einem guten Springpferd drin, das nur so hoch springt wie es muss. Bei der RTX3000 hat sich Nvidia beim Prozess verzockt, aber in die Chips einiges reingepackt.

Dass Nvidia das gute Silizium nicht für das Sonderangebot 4090 verschwendet ist doch klar. Sie haben Produkte bei denen sie mit diesen Chips weit bessere Margen erzielen können. Also wandert der Vollausbau in z. B. Nvidia L40 oder RTX6000 Ada Generation.
DevPandi schrieb:
AMD wiederum ... ich weiß nicht.
Sie hätten auch bei RDNA3 bereits ein 128 CU/64 WGP-Monster liefern können, haben Sie nicht.
Technisch vielleicht, aber AMD hätten diese CPU nicht in der erforderlichen Stückzahl verkaufen können.

Ich finde die Einschätzung von David Wang sehr realistisch, dass AMD keine Grafikkarten für über 1000 USD verkaufen kann.

Nvidia hat viele Einsatzgebiete in denen Sie die großen GPUs unterbringen können, AMD hätte nur das Gaming. Und selbst da sagen viele, dass sie für eine AMD-Karte nicht mehr als 1000 USD ausgeben würden.

DevPandi schrieb:
Es kommt halt nur die ewige Schwäche von AMD zu tragen: Software, Software.
Dazu mehrere Anmerkungen:
  • Weil der Softwarestack und damit die Anwendersoftware für die Märkte Artist-Rendering und AI gefehlt hat, hatte es für AMD bei RDNA 3 gar keinen Sinn gehabt eine riesige GPU zu entwickeln.
  • Neben der Software sind auch die Plattformen eine Schwäche von AMD
  • Beinahe 1 Jahrzehnt zu wenig in die Software investieren zu können, hat eben Folgen. Und das holt man nicht in 3 oder 4 Jahren auf. Vor allem wenn die Konkurrenz ebenfalls das Tempo verschärft. Die Zukunft wird zeigen, ob und wie schnell AMD die Lücken bei der Software zu Nvidia schließen kann.
  • Xilinx ist jetzt auch AMD. Und bei Xilinix war die Software immer integraler Bestandteil. Es hat schon einen Grund warum Lisa Su Victor Peng die Verantwortung für den AI-Softwarestack übetragen hat.


*) Ich glaube nicht, dass es Lisa Su als sehr spaßig empfunden, hat auf der Bühne gute Miene zum bösen Spiel zu machen. AMD hat bei der offiziellen Präsentation die Performance vollkommen bewusst geschönt. Man muss sich nur in den Fußnoten der Präsentation anschauen was AMD getestet hat und was AMD präsentiert hat.

Außerdem hat AMD offen zugegeben, dass Navi 31 auf 3 GHz ausgelegt war. Die Frequenz konnte durchaus erreicht werden. Aber eben nur mit einer hohen Spannung und damit einem sehr hohen Verbrauch.

Auf der anderen Seite konnte AMD bei einem solchen Desaster nicht einfach zu Tagesordnung übergehen.

Die Fehlerursachen mussten identifiziert werden​

Ich halte es für ziemlich ausgeschlossen, dass die Fehlerursachen alleine im Chipdesign lagen. Dagegen spricht, dass alle 4 Chipdesigns mit RDNA3 betroffen waren. Ich halte es für sehr wahrscheinlich dass die Fehlerursachen schon im RTL-Code der einzelnen GPUs enthalten waren.

Da der RTL-Code nicht für jede GPU-Architektur komplett neu erstellt wird, ist es, möglich dass RDNA 4 von denselben Fehlerursachen betroffen war. Und da Navi 41, 42 und 43 eingestampft wurden ist es IMO sogar sehr wahrscheinlich, dass dies die Fehlerursachen auch in RDNA 4 waren. Diese Entscheidung diese 3 Dies einzustellen kann IMO nur eine Folge der Fehler in RDNA 3 sein.

Man kann nun spekulieren wann AMD die Fehlerursachen endlich identifiziert hatte, aber es war bestenfalls spät in der Architekturphase von RDNA4 oder mit ein bisschen Pech als der RTL-Code der einzelnen Dies schon fertig war.

Wie es aussieht hat AMD nur die kleinste GPU beibehalten und verdoppelt. IMO wurde das RTL der kleinsten GPU repariert und dann verdoppelt um auch einen zweiten Chip anbieten zu können. Dass für den zweiten GPU-Die der Name Navi48 gewählt wurde lässt nicht viel Platz für weitere Dies.
 
Was ist eingentlich mit PCIE v5?
 
Zurück
Oben