News AMD Navi 48: Die erste RDNA-4-GPU ist bestätigt, die Eckdaten noch nicht

gartenriese schrieb:
Raytracing kann erst richtig Mainstream werden, wenn alle Grafikkartenanbieter es gut können.
dem Mainstream ist Raytracing atm wohl noch vollkommen egal, wenn wir irgendwann mal 60FPS bei high Details in FullHD nativ für um die 300€ sehen, kann man vielleicht davon reden dass Raytracing im Mainstream angekommen ist

edit
und da rede ich von Cyberpunk RT Qualität !
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: loser, Qyxes, DaBo87 und 13 andere
gartenriese schrieb:
Bin schon sehr gespannt auf die Raytracing Performance. Raytracing kann erst richtig Mainstream werden, wenn alle Grafikkartenanbieter es gut können.
Wenn ich daran denke, wie lange die Entwickler gebraucht haben, um von DX11 auf DX12 umzusteigen, wird es meiner Meinung nach noch ziemlich lange dauern, bis RT im in vernünftiger Qualität im "Mainstream" ankommt, entsprechende HW hin oder her.
 
  • Gefällt mir
Reaktionen: Rock Lee, cruscz, danyundsahne und 6 andere
Raytraycing ist eher die nächste „Physix“-, SLI/CF-, oder „Vision3d-„ Sau die durch das Dorf getrieben wird. In 4 Jahren kräht kein Hahn mehr danach. Da steht einfach nichts im Verhältnis.
 
  • Gefällt mir
Reaktionen: mKstan, ST18, Lonex88 und 3 andere
Na ich bin schon gespannt was AMD bringen wird und freue mich darauf, wie ein Kleinkind auf Weihnachten.
 
  • Gefällt mir
Reaktionen: zittrig
@theLittleCandy was soll da AMD schon bringen, wenn wir Glück haben 5080+ Leistung und wenn vermutlich Nvidia weiter die Preise anziehen wird, eine 8900XT(X) zum Kurs von 1300€ (während die 5080 bei 1400-1500€ landen wird) aufwärts und das Leistungsplus wird wohl irgendwo wieder bei den obligatorischen 30-40% zur 7900XT liegen

das einzige was spannend werden könnte wäre vielleicht bessere Raytracing Leistung, aber dies hielt sich bei RDNA3 zu 2 auch entsprechend in Grenzen, lass mich aber gerne überraschen
 
  • Gefällt mir
Reaktionen: coxon, Newbie_9000 und NMA
  • Gefällt mir
Reaktionen: coxon, M11E, MalWiederIch und 2 andere
Der scheibchenweise Upselling Release der letzten Gens war schon hart auszuhalten, wenn man die gesamte Produktpalette beider Hersteller abwarten wollte, um eine fundierte Kaufentscheidung zu treffen. Das war ungefähr 1 Jahr Marketing.
 
  • Gefällt mir
Reaktionen: Wichelmanni, OCBC, frames p. joule und 4 andere
LamaMitHut schrieb:
wenn man damit günstige Preis / Leistungssieger bringen kann

Da ich nicht aus dem Nähkästchen plaudern kann und auch kein altes Waschweib bin, erzähle ich immer nur von meiner Glaskugel.

Lisa hasste die Schwanzverlängerungsmaschinen am Ende der Stange für schwachsinniges Geld aber hat sich überzeugen lassen. RDNA3 hat dann nicht eingeschlagen, also back to the roots.

400-500 Dollar als Zielpreis, mit Leistung einer 7900GRE im Raster und richtig viel geilem neuen Zeug bei "rts" wird angestrebt.

Wenn die Software gut performet, bekommen sie sogar den Vorteil von RDNA3 zu RDNA2 auf die Straße, da dort echt viel nicht funktioniert hat und plötzlich wird das ein richtig geiles Produkt.

Time will tell, es ist aber extrem viel Potential vorhanden, wenn man sich anschaut, was schon bekannt ist.

mfg
 
  • Gefällt mir
Reaktionen: edenjung, Michael vdMaas, NMA und 3 andere
theLittleCandy schrieb:
und jetzt soll das meine Vorfreude mindern? 😎
joa ganz großes Kino, 1300€ für ne 8900XT...
 
Cr4y schrieb:
Ist dann aber eine alte nächste Sau...
Die älteste News auf CB zum Thema, die ich finden konnte ist bald 20jahre alt:
Das bestätigt es ja noch mehr.

auch nach 20 Jahren kein Mainstream. Dann wird das auch nix.

BTW Multi GPU gibt es bald seit 30 Jahren und hat sich trotz mehrere Versuche nicht im leistungssteigernden Maßstab durchgesetzt.

3D Zeug gibt es seit über 70(?) Jahren und hat sich auch nicht durchgesetzt. Eigentlich gibt es Stereoskopie solange wie Fotographie und auch Anaglyphverfahren ist älter als das Auto.

Und selbst sowas wie adaptive Syncrate hat, wo jeder, gerade die mit schwacher GPU profitieren, hat sich auch erst nach vielen Jahren durchgesetzt.
Raytracing macht optisch einfach zu wenig unterschied und frisst dabei zu viel Leistung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derkleinedieb, SP-937-215, Wanderwisser und 2 andere
Und auch nur 1,5% Raytracing. Von echtem sind wir noch 50 Jahre entfernt (für HD). 😉
 
conf_t schrieb:
Raytraycing ist eher die nächste „Physix“-, SLI/CF-, oder „Vision3d-„ Sau die durch das Dorf getrieben wird. In 4 Jahren kräht kein Hahn mehr danach. Da steht einfach nichts im Verhältnis.
Ich finde es traurig, dass der nächste Thread dazu missbraucht wird irgendwelche kruden Theorien über Raytracing zu verbreiten. Raytracing ist gekommen um zu bleiben und mit der PS5 Pro längst Standard.
conf_t schrieb:
Raytraycing ist eher die nächste „Physix“-, SLI/CF-, oder „Vision3d-„ Sau die durch das Dorf getrieben wird. In 4 Jahren kräht kein Hahn mehr danach. Da steht einfach nichts im Verhältnis.
In 4 Jahren wird es kaum mehr ein Spiel ohne RT geben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667, Rock Lee, Galatian und 12 andere
Quidproquo77 schrieb:
Der GDC der 7800XT hat zwar 60 CU und ein 200mm² Die, aber der Rest schlägt mit 126mm² in 6nm zu Buche.
Ein bisschen Overhead wird durch das Bus System, Controller, zusätzliche Power und Crack Rings bei Multi Die Aufbau verursacht der jetzt wegfällt.

Von N5 und N6 auf N4P/N4X dürfte auch nochmal eine höhere Dichte erlauben. (Vielleicht ~10%?)

Das wird trotzdem echt eng.
Vielleicht wird ähnlich wie bei Zen4C statt eines komplexeren L3 Cache Layouts auf die klassische 6 Transistor SRAM Zelle zurückgegriffen.
 
  • Gefällt mir
Reaktionen: NMA und Quidproquo77
DannyA4 schrieb:
Navi 32 Mittelklasse
Navi 31 Oberklasse
Soweit ich weiß ist das tatsächlich nur die Reihenfolge der Entwicklung. Und da bei GPUs eigentlich der Standard Release von groß zu klein geht, hat es bei den letzten Gens immer genau gepasst. Jetzt aber halt nicht mehr, da die ersten Designs es wohl nie geschafft haben und Navi 48 eine späte Verdopplung von Navi 44 ist.
 
  • Gefällt mir
Reaktionen: Newbie_9000, NMA und N0Thing
LamaMitHut schrieb:
Wirklich wichtig wäre es, wenn man damit günstige Preis / Leistungssieger bringen kann.

Das was der Durschnitts-Gamer als "günstig" ansieht ist mittlerweile einfach nicht mehr realistisch, wenn man sich die Kostensteigerungen im Technik-Bereich ansieht.

Wenn Leute von 600 Euro als angemessen für ne 7900 XTX schreiben, muss ich immer schmunzeln weil es so sehr an der Realität vorbei geht. AMDs Gewinnmarge in der Gaming Sparte beträgt aktuell 16% nicht 600%.
Ergänzung ()

ueg schrieb:
Sicher nicht, aber es ist halt auch keinerlei Informationsgehalt darin irgendwelche Gerüchte zu verbreiten. Dann lieber warten bis etwas bestätigt ist. Das wäre seriöser.
Wenn die Quelle eben eine Historie hat mit ihren Vorab-Angaben regelmäßig richtig zu liegen, erwarte ich schon, dass darüber berichtet wird.

Ist ja nicht so, dass man hier 4 mal am Tag irgendwelche random Tweets von Accounts die es 3 Tage gibt postet.
 
  • Gefällt mir
Reaktionen: Fallout667, Icke-ffm, floTTes und 2 andere
Wird halt so wie bei der 5700 XT als RDNA1.
Wird als Mittelklasse-Karte erscheinen und bei RDNA 5, wird dann wieder die Highend-Schiene bedient.
Das wird jetzt Rasterizer ca. bei 4070 Super/TI Super liegen und die kleinere bei 4060.Dafür wird das RT etwas stärker und kann vielleicht mit den aktuellen Nvidia Karten mithalten.
 
  • Gefällt mir
Reaktionen: NMA und Chismon
Feierbiest schrieb:
Wenn Leute von 600 Euro als angemessen für ne 7900 XTX schreiben, muss ich immer schmunzeln weil es so sehr an der Realität vorbei geht. AMDs Gewinnmarge in der Gaming Sparte beträgt aktuell 16% nicht 600%.

Da du Konsument bist sage ich dir, die Geschwindigkeit dessen, was du 7900 XTX bezeichnest, ist im Jahr 2024 am Markt unter 400 Euro wert.

Den Zeitpunkt bestimme ich und ich sage dir, wann genau der Sweetsport der Händler ausgenutzt wird, um günstige Hardware in die Hände von informierten Kunden zu bringen.

Das kann man nicht jeden Tag machen, dann sind die Aktionäre sauer, es gibt aber Zeit Fenster, da ist das möglich und beabsichtigt.

Cr4y schrieb:
Ist dann aber eine alte nächste Sau...

Beantworte dir deine Frage selber.

Cr4y schrieb:
die ich finden konnte ist bald 20jahre alt:

Der Daniel Pohl hat damals seine Diplomarbeit an der Universität in Erlangen darüber geschrieben. Das war the hottest shit, was es damals gab.

Das, was in 20 Jahren sein wird, ist schon in der Theorie seit so vielen Jahren fertig, dass es lustig ist, was die Konsumenten darüber denken.

Das in Kino im Reallife. :evillol:

mfg
 
  • Gefällt mir
Reaktionen: OCBC, coxon und ThePlayer
conf_t schrieb:
Raytraycing ist eher die nächste „Physix“-
Nein, diese Aussage ist auf so vielen Ebenen falsch, dass man nicht mal weiß, wo man anfangen muss. So viele möglichen Punkte, an denen man anfangen kann.

Ray Tracing und PhysX kann man nicht miteinander vergleichen. PhysX war in seiner ursprünglichen Form - weitere Beschleunigerkarte - direkt von Anfang an zum Scheitern verurteilt. Mit der Übernahme durch Nvidia hat sich PhysX aber gerade im Softwarebereich stark gemacht und wird auch heute noch als Grundlage für viele Physik-Berechnungen genutzt. Was bei PhysX gestroben ist, sind die ganzen zuästzlichen grafischen "Partikeleffekte", weil diese kaum Mehrwert boten, gleichzeitig Nvidia durch die Beschränkung auf Cuda die Konkurrenz ausgesperrt hat, diese damals aber noch bei dem ca. 50 / 50 Marktanteil war und sich den Konsolenmarkt sichern konnte. Mit DirectCompute und den passenden Gegenschnittstellen on OpenGL und späterm Vulkan, gibt es zudem auch die Möglichkeit, dennoch die GPU zu nutzen, was gemacht wird.
conf_t schrieb:
Auch das stimmt so nicht, weil SLI - 3dFX-Version - sehr wohl relativ Erfolgreich genutzt wurde und teilweise sogar bisheute auch noch genutzt wird. Quantum3D mal so als Stichwort.

Die Probleme von SLI/CF für "Spiele" fing mit den Schnittstellen DX7 und DX8 an, weil die Grafikpipeline aufgebrochen wurde und die GPU heute weit mehr berechnet, als damals noch. Das Konzept hinter SLI/CF besteht aber auch hier noch weiter und sowohl AMD als auch Nvidia arbeiten daran, nur dass es eben nicht mehr über mehre Karten gehen wird, sondern über mehrere Chips.

SLI/CF sind tot, lang lee SLI/CF. (Und bevor jetzt jemand darübe belehren: Ich weiß, dass die Mutlichip-Ansätze noch mal anders aufgebaut sind - arbeiten eher nach dem SFR-Prinzip, statt AFR. Würde den Beitrag nur sprengen).
conf_t schrieb:
Vision3D war - ähnlich wie heute VR - am Anfang ein Nischenprodukt - hohe Kosten, hoher Aufwand mit Brille und Verkabelung usw. Und ja, heute schreit am PC da kein Hahn mehr und doch lebt auch Vision3D weiter und Teile der Techniken dahinter, sowohl in VR als auch im Heimkino und sogar Kinomarkt.
conf_t schrieb:
In 4 Jahren kräht kein Hahn mehr danach.
Genau, in 4 Jahren kräht kein Hahn mehr danach, weil sich RT in den nächstne Jahren immer stärker durchsetzen wird, weil jede weitere Verbesserung bei klassischen Rasterizern auch mit immer stärkeren Preformance-Impact einher geht und ebenso kaum optischen Mehrwert auf den ersten Blick bietet, sondern immer erst, wenn man die Funktionen deaktiviert.

Avatar ist eines der ersten Spiele, die zwar noch ein Hybrid-Kern haben, das aber ohne RT massiv an Qualität abbaut. Cyberpunk 2077 der Overdrive-Modus zeigt, dass man bereits jetzt in 1440p ohne FG ein modernes Spiel mit "nur" RT spielen kann, mit FG sogar in 2160p. Klar, der Rasterizer sieht bereits super aus, nur der Overdrive-Modus sieht in vielen belangen noch mal besser aus, auch wenn es nicht sofort auffällt, spätestens in Bewegung fällt es aber auf.
conf_t schrieb:
Da steht einfach nichts im Verhältnis.
Was steht da in keinem Verhältnis? Ja, die Rechenlast mit RT ist noch mal höher, gleichzeitig wird es aber auf so vielen Ebenen einfacher. Dazu kommt, dass man am Ende sehr viele Effekte on-the-fly mit nimmt, die in Rasterizerspielen umständlich über zig Shader implementiert werden müssen und die wegen ihrer Laufzeit teilweise sogar bereits heute in der Auflösung halbiert und sogar geviertel werden, um anschließend zu interpolieren.

Ja, man kann sich mit Screen-Space-Reflections helfen, man kann sich mit neuen Render-to-Texture-Targets helfen, man kann mit Screen-Space-Occlusion die Kanten abfahren und mutmaßungen nehmen. All das sind aber auch Sachen, die immer mehr Ressourcen binden, wenn man minimale Verbesserungen haben will.

Wozu soll man weiter am Rasterizer festhalten, wenn jede weitere optische Verbesserung dort auch die Framerate locker mal halbiern würde, dafür aber gerade mal ein "Highlight" bringen würde. Gerade Spiegelungen sind für Rasterizer der Tod, weil jede akkurate Spiegelung als eigene Textur gerendert werden muss. Da wird - wenn das gemacht wird - so viel vereinfacht und heraus genommen, dass man das sieht. Bei RT ist das unnötig.
conf_t schrieb:
auch nach 20 Jahren kein Mainstream.
Ja, es war damals kein Mainstream, weil damals die ersten Gehversuche gemacht wurden. Gleichzeitig waren die Demos bereits damals atemberaubend, wenn man sich den damaligen Stand ansieht und was dann mit RT möglich war. Ja Rasterizer haben mit den letzten Fesseln, die DX9 gelöst hatte, massiv an Qualität gewonnen, gleichzeitig hat es aber auch gezeigt, wie viel Ressourcen es benötigt weiter zu kommen. Wenn ich überlege, was die ersten Screen-Space-Occulusion-Shader an Leistung gefressen haben und was da für ein Aufwand betrieben wurde, dass es weniger wurde.
conf_t schrieb:
Dann wird das auch nix.
Und das machst du woran fest? AMD, Intel, Nvidia arbeiten alle an ihren GPUs und verbessern die RT-Leistung. Rasterizer sind weitgehend ausentwickelt und selbst wenn RT nicht direkt verwendet wird, kommt RT im Background immerhäufiger zum Einsatz um anschließend interpoliert zu werden.
conf_t schrieb:
BTW Multi GPU gibt es bald seit 30 Jahren und hat sich trotz mehrere Versuche nicht im leistungssteigernden Maßstab durchgesetzt.
Ja, weil es bestimmte Probleme hat und sich MultiGPU weiter entwickeln muss und das auch getan hat, nur eben anders.
conf_t schrieb:
Raytracing macht optisch einfach zu wenig unterschied und frisst dabei zu viel Leistung.
Ja und Nein. Die Änderungen sind in der Regel subtil, fallen aber in der Regel genau dann auf, wenn man zwischen den grafischen Modi umstellt und man merkt, dass plötzlich Spiegelungen weg sind, Schatten fehlen, Szenen anders ausgeleuchtet sind und und und.

Würde man versuchen viele der Spiegelungen in Cyberpunk, sowie teile der Schatten und Co wirklich so nachziustellen, dann wäre der Rasterizer heillos überfordert und wäre sogar noch langsamer, weil man zig Render-to-Texture-Ports hätte, man die Lichtquellen stärker miteinander verrechnen müsste usw.
 
  • Gefällt mir
Reaktionen: Fallout667, Captnkuesel, JohnDonson und 26 andere
conf_t schrieb:
Raytraycing ist eher die nächste „Physix“-, SLI/CF-, oder „Vision3d-„ Sau die durch das Dorf getrieben wird. In 4 Jahren kräht kein Hahn mehr danach.
Sehr unwahrscheinlich, wenn die Konsolen wie bei der PS5 Pro immer stärkere Raytracing-Einheiten bekommen.

Verak Drezzt schrieb:
ganz großes Kino, 1300€ für ne 8900XT
Warum sollte eine Grafikkarte, mit der vermutlichen Leistung einer 750 € Grafikkarte, 1300€ kosten?
 
  • Gefällt mir
Reaktionen: HolySkillet, evilhunter, Gullveig und 2 andere
Zurück
Oben