Test AMD Radeon RX 9070 (XT) im Test: RDNA 4 und FSR 4 sind eine Revolution

illumina7 schrieb:
16GB Ram sind etwas mager für das Top Modell der Generation bezüglich ROCm und Anwendungen (LLMs, etc.). Vielleicht schiebt AMD noch eine 9070 XTX mit 20GB Ram hinterher.
AMD kann keine 20GB Ram hinterher schieben, da das mit dem Speicherinterface nicht geht. AMD kann eine 32 GB Variante (zu der es ja auch Gerüchte gab) hinterher schieben, mehr aber auch nicht. Zumindest nicht mit GDDR6 und dem Speicherinterface.
Mäxle87 schrieb:
Ihr macht euch langsam echt lächerlich mit euren Tests. RDNA4 ist eine Revolution. Hab ich was verpasst? Wo ist denn bitte die Leistung welche ich schon vor 5 Jahren erworben habe und Heute genau das selbe bekomme, eine Revolution?
Da merkt man das du den Test weder gelesen, noch verstanden hast. Die Revolution besteht eher von RDNA 3 zu 4 und bezieht sich auf die deutlich gestiegene Energieeffizienz, auf das viel bessere FSR 4 und auf die Tatsache das man mit wesentlich weniger CU's (64) fast eine identische Leistung zum Vorgänger Spitzenmodell erreicht, welches wesentlich mehr CU's (96) hatte.

Der Sprung von RDNA 3 zu 4 ist also durchaus eine Revolution wenn man so will. Das nicht jeder das so sieht ist mir aber auch klar, gibt genug Leute die das genannte einfach ignorieren und darauf herum trampeln das die Performance nicht besser ist als bei der Vorgänger oder bei der Nvidia 5000 Generation ist (obwohl das Monate vorher schon so kommuniziert wurde).

CB macht sich hier also nicht lächerlich, dein Kommentar schon eher.
 
  • Gefällt mir
Reaktionen: daknoll, Alphanerd, MSI-MATZE und 6 andere
Cr4y schrieb:
Soweit die Gerüchte besagen, wollte AMD ursprünglich per Multichip-Lösung auf den Markt, aber scheinbar gab es größere technische Probleme.
Multichip? Sowas wie die damalige GeForce 7950GX2? Oder ähnlich wie HBM?


Inxession schrieb:
Um Marktanteile überhaupt anzugreifen, MUSS AMD über den Preis gehen.
Sagen wir,.. nVidia hat gerade aber auch keine wirklichen Gegenargumente zur 9070 (XT).

Nicht lieferbar, oder zu horrenden Preisen.

Mal sehen ob AMD dauerhaft liefern kann.
Wenn AMD wirklich Marktanteile über den Preis haben wollen würde, müsste AMD für 1 bis 2 Jahre die Luft anhalten, auf ihre Polster zurückgreifen und die GPUs mit Verlust anbieten, zu Preisen wie die 5700XT, also 399€ für die 9070 und 499€ für die 9070XT.
Das würde die Kunden zu AMD locken sowie Nvidia massiv unter Druck und Zugzwang setzen.


Feierbiest schrieb:
200 € mehr für 6% mehr Leistung bei 1440p im Raster bzw 9% unter Raytracing. Muss jeder selbst wissen ob ihm das eine 5070TI wert ist.

Speziell wenn die Differenz beim tatsächlichen Straßenpreis bis auf weiteres wohl deutlich über den 200 € liegen wird.
Hier im CB Forum magst du Recht haben aber für den Normalo Gamer da draußen brauchst du nicht mit % herkommen. Damit kann er nichts Anfangen.
Er denkt sich:
"Kann ich mit der 9070XT auf 100+fps im Raster und 90+fps im RT, bei 1440p max Details, in [füge Lieblingsspiel(e) ein] erreichen? Nein? Schade.
Kann ich das mit der 5070Ti? Ja mit MFG? Worth it."

legt die 1200+€ auf den Tisch und wünscht einen schönen Tag.


BTT:
Guter Test, schade dass keine 1080p Auflösung getestet wurde.
Was Effizienz und Verbesserungen angeht, hat AMD gut geliefert. Mit Undervolting geht da sicherlich noch mehr.
Leider ist der Preis für die Mittelklasse zu hoch um wirklich attraktiv zu sein und trotz allem reicht es leider nicht um die 5070ti zu schlagen.
So sichert man sich keine Marktanteile und Kundenstamm im Mid Range Bereich.
Nvidia hat mit der grottigen "5070(Ti)" AMD einen Elfmeter geschenkt, ohne Torwart, wie bei der letzten Generation. Aber wie heißt es bei den Memes die gerade zirkulieren:
"AMD never misses an Opportunity, to miss an Opportunity."
Schade.
 
Ich bin erleichtert, dass es wieder Grafikkarten gibt für meine Nicht-Enthusiasten-Freunde:
Also Menschen, die lieber Geld für ihre Kinder als für Grafikkarten ausgeben, die bestenfalls in WQHD spielen, meist mit 60 Frames.
Die 5070 ist da kein Kandidat, 12 GB sind schwierig, wenn man Karten empfehlen soll, die ein paar Jahre genutzt werden. 5070Ti für 1200,-€ ? Da ernte ich nur ungläubige Gesichter.
Und beiden neuen AMD können dann problemlos mit alten Netzteil (und Framelimit) betrieben werden.

Für mich ist da leider kein Kandidat dabei, um irgendwann meine 4080 zu ersetzen. Würde die aber heute die Grätsche machen, würde ich lieber AMD kaufen, als Marktpreise von Nvidia zu zahlen.
 
  • Gefällt mir
Reaktionen: PulsarS und Alphanerd
Beatmaster A.C. schrieb:
Nvidia hat mit der grottigen "5070(Ti)" AMD einen Elfmeter geschenkt, ohne Torwart, wie bei der letzten Generation. Aber wie heißt es bei den Memes die gerade zirkulieren:
"AMD never misses an Opportunity, to miss an Opportunity."
Schade.
AMD hat den Elfmeter doch verwandelt? Man hat eine gute Leistung und sehr viele Verbesserungen zu einem brauchbaren Preis (in Anbetracht der Marktsituation seit paar Jahren) gebracht. Viel mehr dürfte schlicht nicht möglich gewesen sein.
Beatmaster A.C. schrieb:
Wenn AMD wirklich Marktanteile über den Preis haben wollen würde, müsste AMD für 1 bis 2 Jahre die Luft anhalten, auf ihre Polster zurückgreifen und die GPUs mit Verlust anbieten, zu Preisen wie die 5700XT, also 399€ für die 9070 und 499€ für die 9070XT.
Ähm genau...und die Kunden würden dann bei der nächsten Generation erwarten das AMD die Preise wieder so extrem niedrig ansetzt. Würde AMD das dann nicht machen, würden sie gegebenfalls wieder in das grüne Lager wechseln weil es dort dann MFG x10 und DLSS 5 gibt. Glaube kaum dass das langfristig sinnvoll wäre.
 
  • Gefällt mir
Reaktionen: edenjung
Beatmaster A.C. schrieb:
Multichip? Sowas wie die damalige GeForce 7950GX2? Oder ähnlich wie HBM?
So wie bei der 7900XT(X):
Was bei Prozessoren schon seit Jahren gemacht wird, hält nun auch bei Grafikkarten Einzug: RDNA 3 ist die erste GPU-Generation auf Basis von Chiplets. Damit ist die Herangehensweise gemeint, anstelle eines großen, monolithischen Chips mehrere kleine zu koppeln.
https://www.pcgameshardware.de/Rade...-XTX-7900-XT-Test-Benchmark-Review-1409055/2/ -> Überschrift "RDNA 3: World's first chiplet GPU".
 
  • Gefällt mir
Reaktionen: Beatmaster A.C.
Tornavida schrieb:
FSR + kein FG bei FSR4
Wer sagt denn das? AMD hat nur für FSR4 nichts an FG geändert. Aber dazuschalten kann man es trotzdem.
 
  • Gefällt mir
Reaktionen: muvmend und Fye
Baal Netbeck schrieb:
Ich stimme dir zu, dass die Spiele früher oft besser ausgesehen haben, aber das es schlechter wird, ist eine Folge von dynamischer Lichberechnung, mehr Polygonen und aus meiner Sicht auch Unreal Engine 5.
Ich würde deinem Beitrag weitgehend zustimmen bis zu diesem Abschnitt, denn die "KI" kann die Bilder mittlerweie so gut miteinander verrechnen, dass man aus einer eigentlich pixeligen Auflösung eine solide Bildqualität erhält. Mit früheren Methodiken wo man nur Auflösung auf die Artefakte und Probleme werfen konnte um sie trotzdem nicht vollends in den Griff zu bekommen, ist man meilenweit voraus.
Das würde ich als äußerst positive Revolution sehen, die TAA eingeläutet hat.
Baal Netbeck schrieb:
...und dem Umstand, dass die Spiele meist in 4K mit einer 4090 programmiert wurden und auch die Reviews 4K Videos und Screenshots zeigen.....spielt man dann selbst auf älterer Hardware in 1440p, ist die Bildqualität plötzlich grausig.
Ich finde die Bildqualität von TAA angesichts der kostenfreien Glättung immer noch gut und besser als MSAA.
Zu Unscharf/weich wird das meines Erachtens nur in niedrigen Auflösungen wie 720p oder Full HD.
 
Zuletzt bearbeitet:
Ist doch schön, dass es im gehobenem Mittelklassebereich nun wieder echte Konkurrenz gibt. Im Oberklasse- und Enthusiastenbereich führt leider weiterhin kein Weg an Nvidia vorbei, hoffe dass AMD auch hier bald liefern kann und wir uns über Preiskämpfe freuen können.
 
  • Gefällt mir
Reaktionen: Apo
Fye schrieb:
Ähm genau...und die Kunden würden dann bei der nächsten Generation erwarten das AMD die Preise wieder so extrem niedrig ansetzt. Würde AMD das dann nicht machen, würden sie gegebenfalls wieder in das grüne Lager wechseln weil es dort dann MFG x10 und DLSS 5 gibt. Glaube kaum dass das langfristig sinnvoll wäre.

Erst mal abwarten, für was die Karten überhaupt verkauft werden. Immer mit Vorsicht zu genießen, da das bisher wohl die einzige Quelle ist. Aber selbst die aktuelle UVP ist angeblich quasi AMD-subventioniert. Hexen können die wohl auch nicht. Wie niemand. So sehr die Arc neulich auch von vielen bejubelt wurde: Effektiv bekommt man hier Rohleistung, die es in etwa schon mit der 3060 Ti gab -- einer UVP-400-Euro-Karte von 2020.

Was auch mit Blick auf die PS6 ganz spannend werden könnte. Macht die keinen gigantischen Hardware-Sprung, könnten RTX 4090 / 5090 die nächsten GTX 1080 Tis werden. Vielleicht wird sie mancher sogar noch länger nutzen. :D
 
  • Gefällt mir
Reaktionen: mydayyy
Ob das nur Platzhalterpreise sind...ich wage es zu bezweifeln 😅

Screenshot 2025-03-06 141634.png
 
  • Gefällt mir
Reaktionen: illumina7
Beatmaster A.C. schrieb:
Multichip? Sowas wie die damalige GeForce 7950GX2? Oder ähnlich wie HBM?
Wie RDNA3
AMD hat bei der letzten Generation mit Chiplets gearbeitet und dies hat nicht wirklich funktioniert weswegen man eben trotz entsprechend vielen compute units nicht die Leistung gebracht hat

Für RDNA4 hat man das deswegen frühzeitig gelassen weswegen eben nur die 9070XT als monolithic Vollausbau statt einer 9090 mit 126 CU welche die Leistung wieder nicht bringt aber doppelt so teuer ist.

Weswegen auch vergleiche das 200% Leistung des RDNA3 monolithic chips (7600) mit 32 CUs eher zu den 64 der 9070 passen als Vergleiche auf basis der chiplets der anderen RDNA3 Karten
 
  • Gefällt mir
Reaktionen: Beatmaster A.C.
@Fye Mit der RDNA4 Architektur hatte ich mich bis jetzt noch nicht im Detail beschäftigt, danke für die Info. Da eine 9070 XTX mit 32GB Ram eher unwahrscheinlich ist, hast du damit meine Hoffnungen zerstört :D Das ist dann eher den Workstation GPUs vorbehalten.

Ich sehe die gestiegene Performance schon, ändert halt auch nichts an der Gesamtsituation, zumindest eine High-End GPU hätte AMD schon noch bringen können. Im Prinzip gibt es eine ähnliche Situation wie zu RDNA1, die 5700 XT hatte der 2070S ordentlich Konkurrenz gemacht und eine 5800+5900 XT hätten höchstwahrscheinlich eine 2080S eingeholt und damit ein interessanteres Portfolio geboten. Insgesamt war RDNA1 aber auch nicht erfolgreich - denke das gleiche Schicksal wird RDNA4 widerfahren, dabei hätte AMD offensichtlich alle Chance gehabt.

An keiner Stelle mache ich mich über CB, den Artikel/Test oder das Produkt lächerlich? Was soll die unbegründete Anschuldigung?
 
  • Gefällt mir
Reaktionen: mydayyy
Bin sehr gespannt auf die 9070!
Habe heute morgen eine für 689,71 bestellt - sie wird zwischen 07.03 und 11.03. verschickt.
Ist zwar kein wirkliches Upgrade meiner 7800XT, aber für die habe ich noch 500,- bekommen und mit der Karte kann mein aktuelles 5800X3D System jetzt in Ruhe alt werden und noch ein paar Jahre durchhalten.

Mein Kollege sagt gerade, dass er überall nur liest, dass der Verkauf ab 15 Uhr startet - keine Ahnung, wieso die Bestellung bei mir schon durchging. Ich hoffe, sie bleibt aufrecht.
 
  • Gefällt mir
Reaktionen: Alphanerd, MSI-MATZE, Apocalypse und eine weitere Person
Tornavida schrieb:
Ob das nur Platzhalterpreise sind..
Wenn ich nach 9070 XT in Geizhals suche, find ich zwar viele Modelle, aber nirgends Preise? :confused_alt:


@DaBo87
Wo konntest du die denn bestellen?
 
Clonedrone schrieb:
Nicht auf AVG schauen, sondern auf das wichtigere Perzentil FPS.
Die Percentil FPS sind von Test zu Test unterschiedlich. Mal sind sie bei AMD besser, mal bei Nvidia.
Das hat nicht wirklich eine Aussagekraft. Die Percentil FPS haben sich zwischen RDNA3 und Ada Lovelace ständig in den Performanceratings abgewechselt, je nach Spiel, je nach Unterbau, Treiber etc.
Clonedrone schrieb:
Da liegen beide Karten sowohl in Raytracing als auch Raster gleich auf.
Kann ich nicht bestätigen. In den Tests die ich lese reicht die 9070XT im Optimalfall an die Rasterleistung heran (Im Mittel 5-10% langsamer), liegt bei der Raytracing Leistung ein Stück zurück und macht dann bei heftigerem RT/PT "die Biege". Häufig wurde auch mit einer übertakteten 9070XT getestet, wie der Nitro +, die etwa 5% schneller ist als die Stock.
Clonedrone schrieb:
Es war in den letzten Jahren immer so, dass Nvidia mehr Streuung nach "oben" hatte, aber auch mehr Absacker.
Auch das kann ich nicht bestätigen.
Clonedrone schrieb:
Das mit Pathtracing ist auch nur eine Randnotiz. Unterhalb einer 4090 ist damit nichts flüssig spielbar und von den paar Spielen macht wohl keiner seinen Kauf abhängig.
Das ist genau das gleiche was man über RT gesagt hat. Selbst auf einer RX 7900XTX lässt sich PT in Indiana Jones spielen, dann eben nur mit Sonnenlicht und den Rest wie Refletionen und indirekte Beleuchtung/Schatten abgeschaltet. Man ist nicht gezwungen alles auf Ultra zu drehen, auch mit mit PT.
Clonedrone schrieb:
Bei FSR4 vs DLSS konnte ich keinen Qualitätsunterschied feststellen.
Ich würde sagen, der Unterschied kommt mit vor wie bei DLSS2.0 vs FSR3.1. Eine Stufe, also Balanced statt Quality, nicht wie früher 2 Stufen oder zuletzt DLSS4 vs FSR3.1 wo Performance so gut war wie FSR Native.
 
  • Gefällt mir
Reaktionen: UVLWheezle
Nvidia macht neuerdings einen auf Intel...

Man hat mit Blackwell im Grunde eine komplette GPU-Generation "verschlafen", sowohl bei Rasterizing als auch Ray-Tracing. Und bei Letzterem brauchen wir wohl kaum darüber zu diskutieren wie ironisch das Ganze ist.

AMD hingegen hat mit RDNA 4 alle seine Hausaufgaben gemacht und damit die Chance genutzt, leistungstechnisch und qualitativ weitestgehend auf Nvidia aufzuschließen. Stand jetzt gibt es also keine herausragenden Eigenschaften mehr bei einer Geforce, welche nicht auch eine Radeon zu bieten hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: daknoll, PulsarS und Alphanerd
Chismon schrieb:
damit Leser nicht genervt einen Werbeblocker anstellen.
Also ich studierte gestern den kompletten Artikel mit allem drum und dran und könnte mit meinem Smartphone keine nervigen Banner entdecken, die irgendwie störten...
 
Zurück
Oben