News AMD Navi 48: Die erste RDNA-4-GPU ist bestätigt, die Eckdaten noch nicht
- Ersteller MichaG
- Erstellt am
- Zur News: AMD Navi 48: Die erste RDNA-4-GPU ist bestätigt, die Eckdaten noch nicht
Nightspider
Lieutenant
- Registriert
- Nov. 2007
- Beiträge
- 970
Klingt für mich alles 100% danach, alls wenn Navi 48 die Chiplet GPU von Strix Halo wird.
Angefangen beim hohen Infinity Cache bis zur Packdichte (Teile sind schon im IO Teil der APU vorhanden) und vor allem das Namensschema, weil 48 eine hohe Nummer bekommen hat aber nicht der kleinste Chip ist sondern sich genau da bewegt, wo man die GPU für Strix Halo erwarten würde.
Angefangen beim hohen Infinity Cache bis zur Packdichte (Teile sind schon im IO Teil der APU vorhanden) und vor allem das Namensschema, weil 48 eine hohe Nummer bekommen hat aber nicht der kleinste Chip ist sondern sich genau da bewegt, wo man die GPU für Strix Halo erwarten würde.
Strix Halo soll 40 CU habenNightspider schrieb:Klingt für mich alles 100% danach, alls wenn Navi 48 die Chiplet GPU von Strix Halo wird.
Navi 44 soll 32 CU haben und Navi 48 soll 64 CU haben. Beide sollen monolithisch sein.
Also passen die Gerüchte nicht zusammen.
Das verbreiteste Gerücht besagt dass die GPU von Strix Halo im IOD sitzt.
Ein separates GCD wäre sicher auch denkbar, hätte aber Implikationen für das Packaging.
Bei Strix Halo fehlen sehr viele Informationen.
Dass 48 als gewählt wurde, kann man sehr einfach erklären man verdoppelt den 4. Chip von Navi 4.
- Registriert
- Okt. 2023
- Beiträge
- 2.301
Meine 4080 benötigt mit RT genauso viel Strom, wie ohne RT, nur eben wesentlich schöner in Disordre, Cyberpunk und Alan Wake 2.daknoll schrieb:In 4 Jahren wird dann jedes Spiel 600 bis 800 W brauchen?! (Oder 300W bei schlechter Performance?)
Raytracing braucht erst einmal gar keinen Strom und ist zudem ab einem gewissen Punkt wesentlich effizienter und leichter skalierbar als Rasterizing. Rasterizing ist am absteigenden Ast.daknoll schrieb:Raytracing braucht viel zu viel Strom für bescheidenen optischen Mehrwert, wenn er denn überhaupt vorhanden ist. Das einfach ist so. (Faktum)
Würde mich wundern, wenn in 4 Jahren überhaupt noch AAA Rasterizing Spiele für die PS6 entwickelt werden.
Die PS6 könnte einen klaren Cut machen und nur noch Pathtracing-Games anbieten, wenn die Gerüchte stimmen und ca 100TFLOPs zur Verfügung stehen.
Bei Polaris gab es eine vergleichbare Situation.Verak Drezzt schrieb:also eurer Meinung nach wäre dies dann die erste Generation wo es keinen wirklichen Leistungszuwachs zur alten Generation geben würde
Der erste Gegenspieler sind die eigenen Karten der vorherigen Generation. Wer würde sich denn für einen langsameren und teureren Nachfolger interessieren.Northstar2710 schrieb:wenn der entsprechende gegenspieler seine karte auch in diesem Preissegment anordnet.
Wenn ich die Gerüchteküche richtig im Kopf habe, soll RDNA4 vor Blackwell auf den Markt kommen.
Das Benennungsschema bleibt gleich, AMD bezeichnet ihre GPUs in chronologischer Reihenfolge, nicht nach Chipgröße.Taxxor schrieb:Warum geht denn jetzt plötzlich die Chipgröße nach oben wenn die Zahl größer wird? Muss AMD unbedingt jedes Jahr was an einem Benennungsschema ändern?
Ich meine, @DevPandi hat in einem Artikel gezeigt, dass RDNA3-GPUs durchaus 3GHz innerhalb des TDP-Limits erreichen kann. Allerdings in ausgewählten Szenarios und nicht beim Gaming. Es gibt also eine Stelle im Design, die eine unerwartet hohe Leistungsaufnahme provoziert.Rockstar85 schrieb:Warum steht auf einer technischen Spezifikationstabelle 3Ghz, wenn AMD dies nicht mal im Ansatz erreicht hat?
Schöne Geschichte, ich halte sie jedoch für sehr unwahrscheinlich.DevPandi schrieb:AMD wollte bei RDNA 4 (Navi 41, Navi 42) nun den bei RDNA 3 eingeführten GCD+MCD in ein GCD+GCD+MCD-Ansatz erweitern, es sollten also mindestes 2 GCD verbunden werden mit der passende Anzahl an MCD.
Der Navi 31 GDC ist mit ca 300 mm² ziemlich klein. Ich sehe keinen Grund warum AMD bei RDNA 4 auf Multi GPU wechseln sollte, da ist noch ausreichend Spielraum die Größe des GDC zu erhöhen. 450 mm² oder 500 mm² sind jetzt keine unrealistischen Die-Größen. Navi 21 war 526 mm².
Multi-GPU wird ein ziemlich teures Unterfangen. IMO 2024 noch viel zu teuer für eine Gaming GPU für 1000 USD.
Was diese Geschichte vollens unwahrscheinlich macht, ist der Umstand, dass AMD darauf verzichtet Navi 41 und Navi 42 als GPU mit einem einzigen GCD zu veröffentlichen. Der Clou bei Multi-Die-Lösungen ist doch, dass man aus einem Die viele Produkte macht.
- Registriert
- Mai 2011
- Beiträge
- 21.270
Wäre mir neu, dass die Bezeichnung abhängig vom Veröffentlichungsdatum ist.N0Thing schrieb:Das Benennungsschema bleibt gleich, AMD bezeichnet ihre GPUs in chronologischer Reihenfolge, nicht nach Chipgröße.
Es war doch bisher bei allen anderen Generationen so, dass je niedriger die Zahl war, desto größer war der Chip.
Ich halte es eher andersrum für Zufall, dass man halt meist mit dem großen Chip angefangen hat und die kleineren später kamen.
Chronologisch würde hier ja auch bedeuten, dass Navi 44 zwingend vor Navi48 erscheinen müsste.
Edit: Mal für RDNA1
Nach Chipgröße
Navi 10 251 mm²
Navi 12 209 mm²
Navi 14 158 mm²
Nach Veröffentlichungsdatum
Navi 10 07.07.2019
Navi 14 07.10.2019
Navi 12 15.06.2020
Und für RDNA3
Nach Chipgröße
Navi 31 529 mm²
Navi 32 346 mm²
Navi 33 204 mm²
Nach Veröffentlichungsdatum
Navi 31 03.11.2022
Navi 33 04.01.2023
Navi 32 25.08.2023
Zuletzt bearbeitet:
Wie gesagt wird die Geschichte so erzählt dass Navi 41, 42 und 43 eingestellt wurden. Wenn man die Spezifikation ansieht dann schaut es durchaus so aus dass Navi 48 = 2 Navi 44 sind. so wie bei Navi 21 und Navi 22 oder Navi 23 und Navi 24. Also als ob man mit begrenztem Aufwand noch einen zweiten Die aus Navi 44 entwickelt hätte.Taxxor schrieb:Chronologisch würde hier ja auch bedeuten, dass Navi 44 zwingend vor Navi48 erscheinen müsste.
- Registriert
- Okt. 2023
- Beiträge
- 2.301
Sportliche Meinung, wenn man sich heute die 3090 und 3080 vs 6800XT und 6950XT ansieht.Rockstar85 schrieb:ich denke an RDNA2 welches durchweg besser war als die Nvidia Produkte abseits der 3070...
Abgesehen vom V-ram Mangel der 3080, der hauptsächlich in 4K auftritt, unterliegen die Karten insgesamt relativ deutlich, wenn Raster und RT Index gemischt werden. Auch die Effizienz ist vergleichbar.
Bei Launch gab es bei AMD Karten noch nicht mal ein halbwegs konkurrenzfähiges Upscaling, geschweige denn Reflex. RDNA 2 war von der Hardware und Effizienz bezogen auf Raster sehr stark und bot das bessere P/L in dieser Disziplin. Bei der Software war der Rückstand allerdings größer als heute.
Nvidia ist am Puls der Zeit und zufriedene Kunden kaufen erneut dort ein, weil sie sich gewöhnt haben.Rockstar85 schrieb:dennoch wurde 8 von 10 eben NV gekauft..
Damit würde sich AMD nur noch weiter marginalisieren, das prestigeträchtige Performance und High End Segment verlieren. Kunden würden weiter zu Nvidia abwandern. Und Fanboys sind das nicht. Im Gegenteil. High End Käufer sind die ersten die wechseln, weil diese idR. gut informiert sind.Rockstar85 schrieb:Ich habe 2018 schon gesagt, wäre ich AMD würde ich nur noch GPU für die Mittelklasse bis 700€ bauen und Nvidia kann sich dann mit den Fanbois den Po vergolden.
Die Kunden kaufen eben das was sie als besser empfinden. Für die meisten ist das aktuell Nvidia und das verwundert angesichts der Software und RT Leistung auch nicht.Rockstar85 schrieb:Die Kunden danken die günstigeren Preise von AMD eh indem sie Nvidia kaufen.
Wozu soll ich momentan eine RX 7800XT anschaffen?
Die 25 Euro die ich gegenüber der 4070 spare, hole ich durch die geringere Leistungsaufnahme wieder herein.
DLSS gleicht den kleinen Rückstand in Rasterspielen durch das bessere Upscaling mehr als aus.
RT befeuert die 4070 besser und V-ram Mangel ist bis einschließlich WQHD noch nicht eingetreten, vor allem weil die PS5 auch nur 16GB bieten wird. Nach halbwegs objektiven Kriterien bietet AMD kein besseres P/L.
Das ist der Grund, wieso die 7800XT bis heute nicht in Steam aufgetaucht ist, die 4070 Super aber schon bei 0,30% liegt und die 4070 bei 2,5%.
Zuletzt bearbeitet:
Es geht dabei nicht um das Veröffentlichungsdatum, sondern wann intern bei AMD mit der Entwicklung des entsprechenden Chips begonnen wurde. Das ist in der Regel der größte Chip einer Generation. Und in der Regel werden die großen Chips auch vor den kleineren veröffentlicht. Aber die Benennung beginnt eben intern mit der Entwicklung, nicht mit dem Release.Taxxor schrieb:Wäre mir neu, dass die Bezeichnung abhängig vom Veröffentlichungsdatum ist.
Im Raster sind die Karten sicherlich gut, aber im Raytracing hinkt man eine Generation hinterher. Nach dem jetztigen Verkauf meiner XFX 7800XT habe ich nun bis zum Winter wieder eine 3060Ti. Ich bin gespannt, welche Karte ich mir dann zulegen werde...
Innocience
Lieutenant
- Registriert
- Okt. 2020
- Beiträge
- 630
Wenn die GPU nur 240mm² groß ist, kann sie ja auch entsprechend 350€ kosten. Nicht wahr AMD? AMD?
- Registriert
- Okt. 2023
- Beiträge
- 2.301
Das jetzt zu debunken, kostet mich zu viel Zeit... Aber "hochwertiger" sind die Designs auf keinen Fall.Rockstar85 schrieb:AMD baut hochwertigere Designs als NVidia
Oder AMD´s Navi 32 als Navi 31. 6800XT->7800XT. Die Hersteller nehmen sich wenig was das betrifft.Rockstar85 schrieb:AMD zockt seine Kunden nicht so ab, wie NV (ich sag nur AD107 als 4060)
Krakadil
Lieutenant
- Registriert
- Apr. 2019
- Beiträge
- 810
Ich hätte mir jetzt eine 7900XT gekauft und kein Problem damit 900€ auszugeben aber Wärme und Lautstärke sind mir heute wichtiger. Raytracing slielt überhaupt keine Rolle.
Die 7800XT zieht keine 250W und ist aus einem offenen Gehäuse beim Stress Test nicht zu hören.
Die 7800XT zieht keine 250W und ist aus einem offenen Gehäuse beim Stress Test nicht zu hören.
Es ist eher erschreckend, dass in dieser Generation dieser kleiner Chip gegen den Full N33 ausreicht. AMD musste die RX 7600 um ein "XT" degradieren, um gegen die "4050" halbwegs zurecht zu kommen. Ein halbes Jahr später korrigiert die 16GB Variante das Ranking mit der Brechstange (ca. 50 % schlechtere Effizienz).Rockstar85 schrieb:AMD zockt seine Kunden nicht so ab, wie NV (ich sag nur AD107 als 4060)
Letztlich sollte es aber egal, welcher Chip zum Einsatz kommt. Mehr Shader zu haben, bringt der 4080 Super auch nicht viel. Es gibt andere Stellschrauben, um eine GPU dahin zu bringen, wo sie hin soll. Käme der AD106 zum Einsatz, hätte man den Takt und die TDP einfach weiter reduziert. Oder denkst du, es gäbe versehentlich Gratis mehr Leistung, weil man einen größeren Chip verwendet? 😂
Von der RTX 3050 gibt es auch Varianten mit GA107 statt GA106. Gleiche Shaderanzahl und gleiche Leistung bei minus 15W. Ein AD106 mit 3.072 Cores hätte genau welche Vorteile außer "ich hab den größeren (kaputten) Chip"?
ThePlayer
Captain
- Registriert
- Aug. 2011
- Beiträge
- 3.281
War es nur die Effizienz oder hat RDNA3 auch beim Takt nicht so gut Skaliert. Ich weiß noch bei der Vorstellung war man doch enttäuscht von den Taktraten bei Navi 31 und 32. Wenn sie die beiden Probleme für RDNA4 beheben können. Und die von dir zusammengefassten Gerüchte Stimmen. Könnte man ja vielleicht doch noch mit ach und Krach bis zur 5080 mithalten.DevPandi schrieb:Bei RDNA 3 gab es einige Probleme im Design, das hat aber in dieser Generation nur verhindert, dass RDNA 3 im weiten nicht so effizient ist, wie geplant war und man sich nicht zwischen 4080 und 4090 platziere konnte, wie angedacht war. Nvidia hat beim AD102 auf 144 SM gesetzt, weil sie wussten, was AMD plant und wäre das auch so gekommen, wollte Nvidia in dieser Generation die "schnellste" Karte overall haben.
Geben die Paper auch was her ob RDNA4 BVH auch in Hardware umsetzt oder immer noch wie RDNA2 und 3?
Danke für die Zusammenfassung das klingt sehr plausibel. Bin schon gespannt was da passiert. Und wann AMD RDNA5 nach schiebt. Ob man dann 2 oder nur ein Jahr drauf warten muss. Schade wenn sie bei der Skalierung mit zwei GCDs solche Probleme haben.DevPandi schrieb:Das ist so das, was die Gerüchteküche so hergibt, was sich mit teils "unter der Hand-Informationen" in Dev-Channels so raus kommt.
lynx007
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.843
Ist schon etwas über die PCIe schnittstelle bekannt? Ich hoffe das es noch eine x16 GPU für unter 400€ geben wird... ;-(MichaG schrieb:Noch ist es sehr still um AMDs kommende GPU-Architektur RDNA 4. Nun wurde zumindest aber eine der neuen GPUs bestätigt. Navi 48 heißt diese, wie Einträge in einer Entwicklerdatenbank für AMDs Compute-Software-Stack ROCm verraten.
Zur News: AMD Navi 48: Die erste RDNA-4-GPU ist bestätigt, die Eckdaten noch nicht
- Registriert
- Mai 2011
- Beiträge
- 21.270
Da kann man ja auch nicht so viel drauf geben, neue Architektur, neues Verhältnis von TFLOPs zu FPSGerryB schrieb:N48 soll@3GHz 50TFlops schaffen, ... wäre schon sehr nahe an der 7900xt.
(auf nem ES gemessen)
CrustiCroc
Lt. Commander
- Registriert
- Nov. 2014
- Beiträge
- 1.991
Und ich dachte Raytracing sei schon lange im Mainstream angekommen….gartenriese schrieb:Bin schon sehr gespannt auf die Raytracing Performance. Raytracing kann erst richtig Mainstream werden, wenn alle Grafikkartenanbieter es gut können.
Danke@Nvidia
Ähnliche Themen
- Antworten
- 218
- Aufrufe
- 19.298
- Antworten
- 76
- Aufrufe
- 9.740