News AMD Navi 48: Die erste RDNA-4-GPU ist bestätigt, die Eckdaten noch nicht

gartenriese schrieb:
Das haben die Leute 2018 auch schon gesagt. Jetzt sind 6 Jahre vergangen und es ist immer noch da. Raytracing ist gekommen um zu bleiben.
RT wird bleiben. Das sehe ich auch so. Aber es verkommt zu einem Marketinggimmick. Leider zu einem hohen Preis. Die GPU Chips werden wesentlich komplizierter und teurer ohne den entsprechenden Gegenwert. Das zeigt sich leider immer mehr. Mann muss die RT Befähigung, welche man nur seltenst nutzt und die zudem einen fragwürdigen Mehrwert bietet, mitbezahlen und mitschleppen. Mich würde eine schnelle Rasterizerkarte in der Liga um 7800xt oder 4070ti ohne oder mit limitierten RT Fähigkeiten interessieren. Wieviel Platz geht eigentlich anteilig für RT drauf bei nem Chip?
 
  • Gefällt mir
Reaktionen: edenjung, konkretor, M11E und eine weitere Person
LamaMitHut schrieb:
Wirklich wichtig wäre es, wenn man damit günstige Preis / Leistungssieger bringen kann.

Das sich Nvidia die Preise der 5080 und darüber nochmal ganz anders aussuchen kann ist halt so, bin eh nicht die Zielgruppe.
Also bisher gibt es nichts als Gerüchte das AMD angeblich bei RDNA4 nur bis Mittelklasse bedienen wird. Ich glaube es erst wenn ich es sehe. Vor zwei Jahren hieß es auch die GPUs werden alle 400-600W verbraten. Sogar von 900w Maximal hat man gesprochen.

Etwas mehr Infos hätte ich schon erwartet. Immerhin haben wir noch 8-10 Monate Zeit bis RDNA4 erscheint. Vorher kommt ja noch RDNA3,5 in der PS5 Pro.
Aber vielleicht kommt da mehr in den nächsten Wochen.

Und wenn RDNA4 dann wirklich RT komplett in Hardware hat nicht wie RDNA3 dann ist das einzige wo Nvidia im Vorteil ist aufgeholt. RDNA3 braucht sich bei Rasterising nicht vor Nvidia verstecken. FMF läuft schon ganz ordentlich und bei FSR wird jetzt an der Bildqualität gearbeitet.
 
marakuhja schrieb:
Diablo 4 soll ja noch extremer sein.
Diablo 4 ist ein wunderbares negativ Beispiel für schlecht optimiertes hybrides RT, dass kaum Mehrwert bietet. Sowas würde ich als negativ Beispiel gelten lassen, aber die Diskussion daran nicht aufhänen.
marakuhja schrieb:
Genau das glaube ich nicht, wenn sich der Performanceverlust nicht massiv reduziert.
Wir sind aktuell in einem Prozess des Wandels. Spieleentwickler und Engineentwickler müssen Erfahrungen mit RT sammeln - was vieles einfacher macht - und ebenso müssen es auch die Hardwareentwickler und auch die Softwareentwickler bei den Herstellern.

Gerade wenn die Effekte "Hybrid" angewendet werden, dann fallen manche Optimierungen weg, die man bei einem kompleden Path Tracer anwenden könnte. So sinkt zwar die Strahlenlast im ganze - nicht das ganze Bild - aber man kann keine Strahlen effektiv zusammen fassen. Für Schatten, für teile der Beleuchtung für Reflexionen werde die Strahlen alle einzelne berechnt und so summieren sich diese und können so auch sich negativer auf die Preformance auswirken.

Dazu kommt, dass auch im Bereich, wie der BVH aufgebaut, durchsucht wird und auch organisiert wird, immer noch geforscht und gearbeitet wird und hier auf vielen Ebenen Arbeit erfolgt.
 
  • Gefällt mir
Reaktionen: JohnDonson, ReVan1199 und MaverickM
DevPandi schrieb:
Sie hätten auch bei RDNA3 bereits ein 128 CU/64 WGP-Monster liefern können, haben Sie nicht.

Hätten sie können und das hätte für sie keine gute Marge erwirtschaftet.

AMD ist und bleibt ein Contender. Jetzt muss man mit relativ begrenzten Ressourcen auf vielen "Schlachtfeldern" kämpfen und genau das bauen, was man mit gutem Gewinn verkaufen kann.

AMD ist noch lange nicht an dem Punkt, wo man auch mal für den 0815 Kunden ein subventioniertes Produkt verkaufen kann, welches zwar gerade so noch Gewinn erwirtschaftet, aber viel zu wenig, wenn man ehrlich ist.

Es muss Sinn ergeben. Vor allem für das, was in 5 Jahren sein soll. :heilig:

mfg
 
  • Gefällt mir
Reaktionen: xXDariusXx, Michael vdMaas, Krazee und eine weitere Person
Gerüchte, Gerüchte, Gerüchte!

RDNA4 monotlithisch, kein MCM, kein Highend Chip, RDNA5 soll 8-12 Monate auf RDNA4 folgen, MCM Design, Highend Chips wieder usw. Eventuell bis dahin ein RDNA3/4 Hybrid wie ihn die PS5 Pro bekommt, nur für den Desktop usw. usw. usw.

Gerüchte sind schon spaßig und laden zum spekulieren ein. Man sollte Sie aber auch nicht ZUUU ernst nehmen oder dessen Wahrheitsgehalt.

Ich bin gespannt was am Ende offiziell ist und ob es am Ende vielleicht noch das Ein oder Andere gibt was die Leaks nicht wussten oder falsch lagen.



Mein Spekulatius dazu ist, wenn RDNA4 in Q3/4 2024 kommt, mit der vermuteten Rasterleistung, dazu effizienter arbeitet und die RT Leistung angehoben wurde, könnten es bei einer entsprechenden Preisgestaltung interessante Produkte werden.

Vor allem dann auch für AMD wenn das Chipdesign günstig zu produzieren ist.

"Wenn" wir Blackwell in Form der 5090/80 Ende 2024 oder Anfang 25 sehen, werden die 70er und 60er Karten nicht sofort darauf erscheinen. Die 5090 wird wieder ein Leistungsmonster, die Frage ist eher, was ist mit den Modellen darunter und deren Leistungsfähigkeit im Vergleich zu ihren Vorgängern dann.

Man wird es sehen. Es wird wie immer die üblichen hitzigen Diskussionen geben.

Persönlich denke ich, es wird es wird erstmal bleiben wie es ist. Wer den Fokus auf P/L legt für den ist AMD eine valide Option, wer die beste RT Leistung/Effizienz und die Nvidia Features möchte, zahlt einen gewissen Aufpreis und kauft Nvidia. Ich vermute das sich einfach die Lücke RT Performance/Effizienz in der entsprechenden Leistungsklasse sich verkleinert mit RDNA4.


So, nun aber genug Spekulatius für heute.
 
  • Gefällt mir
Reaktionen: Toprallog
Sind die Leaks zu einer RX 8900 XTX überhaupt ernst nehmen?

 
conf_t schrieb:
BTW Multi GPU gibt es bald seit 30 Jahren und hat sich trotz mehrere Versuche nicht im leistungssteigernden Maßstab durchgesetzt.
Lass dich nicht durch den Begriff Multi-GPU betuppen:
CDLABSRadonP... schrieb:
Generell kann ich nur davor warnen, dem Tod von Multi-Graka im Consumerbereich nachzutrauern. Meistens schwingt dabei auch eine Gefühl von Multicore-CPUs haben sich doch auch durchgesetzt, wieso nicht Multi-GPUs? Doch sinnvolle Vergleichswerte liefern nicht Multicore-CPUs, sondern Multi-CPU-Systeme. Diese sind auch enorm aufwändig und ergeben nur im Serverbereich Sinn.
Die aktuelle Hoffnung, Multi-DIE-GPUs (im Consumersektor, im Serversektor bereits auf Seiten AMD und Intel Realität, bei Nvidia mit der nächsten Gen) zu bauen stellt das Gegenstück dazu dar, Multi-DIE-CPUs zu bauen. Von denen gab es bereits diverse, die Core2Quads waren (unabhängig der Generation) alle welche in ziemlich simpel, die Ryzen mit mehr als acht Kernen ab Matisse auch sowie jeder Threadripper dann in deutlich anspruchsvoller gebaut. Aber da geht noch viel mehr an Komplexität...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DevPandi
AMD entwickelt leider an mir vorbei. Schon die letzten beiden Generationen fand ich es sträflich, wie sie Raytracing außen vor gelassen haben. Es mag nicht alle Spiele betreffen, in manchen ist AMD auch gleich auf mit Nvidia, aber gerade in so Krachern wie Cyberpunkt stinken sie total ab.

Nun mag mich das aktuell noch nicht so betreffen, aber da ich nur noch wenig Zeit zum Zocken habe, kaufe ich mir nicht alle paar Jahre eine neue GPU. Und wenn ich dann schon mal 900€ ausgeben soll, wie jetzt für eine 4070TiS oder 7900XTX, die ich für 3440x1440 als sinnvoll erachte, dann will ich nicht auf RT verzichten. Das zieht sich aber eigentlich bis zu 4070 vs 7800XT hinab. Wenn ich für's gleiche Geld bei NV mehr RT-Performance kriege, werd ich das nehmen.

Die 7800XT war für mich in dieser Generation schon zu tief angesiedelt für den Preis, man hätte eher die Performance der 7900GRE anpeilen sollen. NAVI 48 sieht für mich nun nach einer 1:1 Übertragung von NAVI 32 nach RDN4 aus, der Chip kann also nur durch Architekturverbesserungen und mehr Takt schneller werden.

Da ich schon letztes Jahr eher auf die 7900XT und 4070Ti geschielt hatte, jetzt eben auf die 7900XTX oder 4070TiS in der gleichen Preiskategorie, wird RDNA4 leider komplett an mir vorbei gehen. Ich wünsche AMD, dass sie damit wenigstens in den jeweiligen Preiskategorien rundum attraktivere Produkte als Nvidia anbieten können, damit wenigstens dort Konkurrenzkampf möglich ist und NV nicht wieder zum quasi-Monopolisten wird, bezweifle es aber. Ich glaube, es geht eher so weiter wie jetzt bis hinauf zur 7800XT.
 
ThePlayer schrieb:
Und wenn RDNA4 dann wirklich RT komplett in Hardware hat nicht wie RDNA3
RDNA3 hat wie RDNA2 auch hardwareseitige RT Accelerators zur RT Berechnung. Die aber eben nicht in der gleichen Generation wie Nvidias RT Cores und wahrscheinlich auch nicht so effektiv arbeiten. Das was mit RDNA4 in die Architektur kommen soll lt älterer Berichte, ist eine BVH Traversal Unit.
 
  • Gefällt mir
Reaktionen: N0Thing
LadyAlice schrieb:
Könnte man da nicht schon fast in Richtung Monopol klagen?

Nö. Monopole sind ja nicht per se verboten, sondern lediglich die Ausnutzung einer Monopolstellung.

nVidia kann ja nichts dafür, dass AMD und Intel nix gebacken bekommen :D .
 
Verak Drezzt schrieb:
das einzige was spannend werden könnte wäre vielleicht bessere Raytracing Leistung, aber dies hielt sich bei RDNA3 zu 2 auch entsprechend in Grenzen, lass mich aber gerne überraschen
Hoffe die Preise fallen nicht wieder so hoch aus.
RDNA4 soll ja RT Komplett in Hardware ausführen. Das sollte ja ein deutliche Steigerung bei der RT Leistung geben. Somit sollte AMD dann auf dem gleichen Niveau wie Nvidia sein bei RT Leistung.
 
  • Gefällt mir
Reaktionen: Verak Drezzt
Bin ich der einzige, der dafür wäre, dass AMD endlich auch mal raytracing-unfähige GPUs rausbringen sollte, um einfach preiswerter zu sein?
Die würden genauso gut weggehen, da AMD Kunden genau deshalb zu AMD Karten greifen, weil denen Raytracing nicht so wichtig ist und wahrscheinlich in der Regel sowieso ausgestellt wird.
 
  • Gefällt mir
Reaktionen: Windell
marakuhja schrieb:
Kein Mensch wird bei einer Mittelklasse GPU für 500€ Einbrüche von 40% bis 80% akzeptieren.
Wir reden hier aber auch von Kostenreduktion in ähnlichen Größen wenn man Raster nur weglassen könnte. Schon letztes Jahr hatten wir zwei Titel wo RT nicht mehr komplett abzustellen war.
Solange eine 6060 PT dann trotzdem noch mit 60 FPS packt...
Ergänzung ()

Serandi schrieb:
Bin ich der einzige, der dafür wäre, dass AMD endlich auch mal raytracing-unfähige GPUs rausbringen sollte, um einfach preiswerter zu sein?
Die würden genauso gut weggehen, da AMD Kunden genau deshalb zu AMD Karten greifen, weil denen Raytracing nicht so wichtig ist und wahrscheinlich in der Regel sowieso ausgestellt wird.
Das machen sie dich schon mit RDNA die ganze Zeit oder etwa nicht? Erst mit RDNA 4 sollte doch dedizierte Hardware kommen die bei reinem Raster sich dann langweilen tut.
 
Nooblander schrieb:
RDNA3 hat wie RDNA2 auch hardwareseitige RT Accelerators zur RT Berechnung. Die aber eben nicht in der gleichen Generation wie Nvidias RT Cores und wahrscheinlich auch nicht so effektiv arbeiten. Das was mit RDNA4 in die Architektur kommen soll lt älterer Berichte, ist eine BVH Traversal Unit.
Ja genau die BVH Unit meine ich. Die BVH Berechnung kostet aber viel Performance bei RT. Und deswegen hinkt AMD da etwa 30% oder mehr hinterher. Oder die BVH Berechnung wie sie bisher bei RDNA stattfindet bremst zu stark.
Ergänzung ()

conf_t schrieb:
Raytracing macht optisch einfach zu wenig unterschied und frisst dabei zu viel Leistung.
Mit dem Satz hast du gerade gezeigt das du keine Ahnung hast. Die meisten spiele nutzen nur für einen Teil der Grafik RT Effekte, z.b. für die Beleuchtung oder Reflektion. Dann auch teils mit nur wenigen Strahlen. Das sieht dann zwar etwas besser wie Raster aus. Aber noch nicht so wie es aussehen könnte. Hier auf CB gab es ja bei Cyberpunk und dem RT Update vor einem Jahr cirka schöne Bildvergleich was es für einen Unterschied ausmacht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nooblander
@Apocalypse
Bei reinem Rastern sind die doch schon sehr gut und mit der next Gen sicherlich noch besser. RT/PT würde ich komplett canceln bis man mit Nvidia fast bzw gleichziehen können wird. Und generell erst dann, wenn wirklich alle AAA-Games auf Raytracing bzw Pathtracing setzten werden.
 
Draco Nobilis schrieb:
1. Wir wissen nicht wie genau ein 128CU AMD ausgelastet werden kann respektive ob das hintenraus skaliert.
Wissen tun wir es nicht, nehme ich jetzt aber mein Wissen über Nvidias Treiber-Stack und die Hardware und das Wissen über AMDs Treiberstack und die Hardware, kann ich durchaus eine fundierte Vermutung äußern: AMD würde es zum aktuellen Zeitpunkt einfacher Fallen die 128 CU in "Leistung" umzusetzen, als es Nvidia mit ihren 128 SM bei der RTX 4090 fällt. AMD benötigt weniger "Threads" pro CU.

Für mich spannend wird, was Nvidia bei Blackwell an der SM ändert, um weniger Warps pro SM zu benötigen und die Shader besser in Leistung umzusetzen. Hier hat AMD aktuell einen Vorteil.
Draco Nobilis schrieb:
4. DIE/Wafer Bestellungen, müssen lange vorraus klar sein. Bei NVIDIA zwar auch, aber man hat mit dem Marktanteil einfach mehr mit dem man hantieren umschichten kann.
Ja und Nein, das ist in dem Fall nur ein sekundäres Problem für AMD. @[wege]mini bringt den wesentlich wichtigeren Punkt an.
[wege]mini schrieb:
Hätten sie können und das hätte für sie keine gute Marge erwirtschaftet.
Stimmt und da stimme ich dir voll zu. AMD hätte mit den 128 CU zwar in Rasterizer-Spielen einer RTX 4090 gefährlich werden können, ggf. sogar leicht vorne liegen können. Nvidia hätte in dem Fall aber immer noch eine 142/144 SM RTX 4090 Ti auf den Markt bringen können, die hier die Krone weitgehend zurück erobert hätte.


AMD hätte für so eine Karte, gerade auch mit dem Rückstand bei RT, auch keine 1499 $ oder 1599 $ wie Nvidia ausrufen können, sondern hätte bei der magischen Grenzen von 999 $ bleiben müssen.
[wege]mini schrieb:
AMD ist und bleibt ein Contender. Jetzt muss man mit relativ begrenzten Ressourcen auf vielen "Schlachtfeldern" kämpfen und genau das bauen, was man mit gutem Gewinn verkaufen kann.
Auch da stimme ich dir voll zu. AMD muss aktuell mit ihren Mitteln in einigen Bereichen mitspielen.

Im CPU-Markt kämpft man Intel, man hat Intel relativ gut im Griff, darf hier jedoch sich nicht entspannen, sonst ist man schneller wieder hinter Intel als man denkt. Dazu kommt, dass ARM gerade im Server-Bereich auch eine Alternative wird und Firmen Ressourcen darauf aufwenden die Softwarestacs für ARM vorzubereiten. Intel führt den gleichen Kampf.

Im GPU-Markt kämpft man mit Nvidia und da jetzt sogar auf drei Feldern. Grafik, HPC und KI. Bei den µArchs kann man durchaus mit Nvidia mithalten - als von den Designs her. RDNA 3 ist - mal RT ausgeblendet - durchaus auf dem Level von Ada. CDNA 3 kann mit Hopper konkurrieren von den Rohdaten.

Es kommt halt nur die ewige Schwäche von AMD zu tragen: Software, Software.
 
  • Gefällt mir
Reaktionen: Cruentatus
DevPandi schrieb:
Sie hätten auch bei RDNA3 bereits ein 128 CU/64 WGP-Monster liefern können, haben Sie nicht.
Sowas kostet richtig in der Entwicklung, aber AMD weiß halt, dass sie über Masse Geld verdienen. Die stecken in den Konsolen, im Tesla und sonst wo drin. Die können die Oberklasse ruhig Nvidia überlassen. Das einzige, wo die Endkunden benachteiligt werden, sind Nvidias Techniken in Spielen, die scheinbar "gefördert" werden
 
Ich fände es zwar schade wenn diese Gen kein Highend-Modell von AMD erscheinen würde.

Andererseits wenn sie über den Preis in der Mittelklasse die Goto Grafikkarte werden, könnte das ziemlich interessant sein damit sie hoffentlich mal wieder mehr Marktanteil haben.
 
  • Gefällt mir
Reaktionen: Newbie_9000 und Serandi
Wenn AMD es endlich schafft upscale- und effizienztechnisch mit Nvidia gleichzuziehen, sehe ich in Zukunft absolut keinen einzigen Grund mehr mich für Nvidia zu entscheiden. Auch wenn AMD nur minimal schlechter abschneidet.

Das minimal bessere lässt sich Nvidia unverhältnismäßig teuer Bezahlen und ist es am Ende einfach nicht wert.
Ergänzung ()

Brrr schrieb:
Ich fände es zwar schade wenn diese Gen kein Highend-Modell von AMD erscheinen würde.

Andererseits wenn sie über den Preis in der Mittelklasse die Goto Grafikkarte werden, könnte das ziemlich interessant sein damit sie hoffentlich mal wieder mehr Marktanteil haben.
Eine richtig tolle RX 8800 XT mit einer gleichen oder etwas höheren Leistung als die RX 7900 XTX und Effizienz einer 4080/4090 oder gar besser, wäre doch ein Träumchen :)
 
  • Gefällt mir
Reaktionen: Brrr
Warum geht denn jetzt plötzlich die Chipgröße nach oben wenn die Zahl größer wird? Muss AMD unbedingt jedes Jahr was an einem Benennungsschema ändern?
 
Zurück
Oben