Test AMD Radeon RX 9070 (XT) im Test: RDNA 4 und FSR 4 sind eine Revolution

FSR4 ist ein Gamechanger. Probiere es gerade über den Optiscaler in Rise of the Tomb Raider. Mit der Qualität von DLSS war ich selbst in Version 3.7 nie ganz zufrieden, es sah immer gut aus im Stand, aber wurde verschwommen in Bewegung. Nur mit DLAA war es gut. FSR4 will einfach in Bewegung nicht verschwimmen. Man hat immer die Schärfe, die man auch im Stand hat. Selbst mit Ultra-Performance sind die Konturen scharf, und sie bleiben auch in Bewegung scharf. Was mit zunehmenden Skalierungsfaktoren unschärfer wird, sind die Texturen. Sind in 4K mit Quality noch schön crisp, in Performance schon etwas unschärfer und in Ultra Performance schon matschig. Sieht ein bisschen aus wie Kompressionsartefakte auf Youtube. Aber das Bild bröselt nicht. Das Bröseltennis von DLSS in Ultra Performance sah für meine Augen viel schlimmer aus.
 
  • Gefällt mir
Reaktionen: msv und xXDariusXx
@Wolfgang

RT bei Indiana Jones scheint tatsächlich fehlerbehaftet zu sein, nach einen Neustart bzw. Loadingscreen nach Level wechsel bricht bei mir die RT Performance komplett ein.

No RT
Indie no RT.jpg

RT Mittel
Indie Mittel RT.jpgIndie Mittel RT buged.jpg

Full RT
Indie Full RT.jpgIndie Full RT buged.jpg

Man beachte die Leitungsaufnahme wenn buged. Fix RT an/auschalten oder letzten Checkpoint laden.
 
mario_mendel34 schrieb:
Solange ich nVidia-Karten hatte, musste ich die neuen DLSS-Versionen auch immer in die Spiele reinfrickeln und mit dem DLSS Tweak-Tool das optisch beste Preset auswählen (und evtl. DLAA erzwingen, wenn es das Spiel nicht von Haus aus unterstützt hat). Das einfache DLSS4 per Treiber festschreiben, geht ja auch erst jetzt seit Blackwell-Release.

Ich habe meine RX 9070 übrigens seit einer halben Stunde im Rechner. Der erste Eindruck ist extrem positiv, die Mehrleistung im Vergleich zur RX 6800 und auch zu meiner alten (inzwischen verkauften) RTX 4070 ist Wahnsinn. Witcher 3 Next-Gen DX11 in nativem 4K mit ca. 100 FPS? Kein Problem.

Nutzt du noch AM4 bzw. PCIe 4.0?

Hab halt einen 5800X3D. Und der könnte ja vielleicht auch noch gut mit einer 9070 oder 9070XT funktionieren.

Aber KA ob sich das von einer 7800XT überhaupt lohnen würde... FSR 4 soll ja für RDNA 3 in Zukunft vielleicht auch kommen (AI Cores sind ja verbaut). Und die 7800XT ist dann bei neuen Spielen auch 10%+ schneller als die ältere 6800XT.
 
Zuletzt bearbeitet:
Der 5800X3D harmoniert mit einer 9070 XT wunderbar. Habe meine gerade eingebaut und lasse die ersten Benchmarks laufen 👍🏻

Die Power Spikes sind allerdings echt nicht ohne 😮
 
  • Gefällt mir
Reaktionen: DannyA4 und torcid
b|ank0r schrieb:
Der 5800X3D harmoniert mit einer 9070 XT wunderbar
Ich habe nur den normalen 5800X
Meinst du das ist auch noch okay?
Und welches Netzteil nutzt du?
 
@torcid AM5 mit nem 9800X3D, aber nur ein günstiges B650-Board, was auch nur PCIe 4.0 hat. Aber dein 5800X3D ist fürs Gaming doch immer noch top, da würde ich mir gar keine Sorgen machen.

@Windell Habe die Sapphire 9070 Pulse bekommen, wollte unbedingt ein Modell mit den Standard-Powerlimits für maximale Effizienz.

Habe die Karte inzwischen aber mit 10 % mehr Powerlimit und 100 mV weniger Spannung eingestellt. Ist sie bereit für 8K-Gaming in älteren Spielen?
Screenshot 2025-03-11 212242.png


Tomb Raider 2013 mit allen Einstellungen auf dem Maximum in 2160p mit 4xSSAA, also gerendert in 8K. Verdammt gut. Testszene ist die PCGH-Szene Cliffs.
 
  • Gefällt mir
Reaktionen: DannyA4, torcid und xXDariusXx
mario_mendel34 schrieb:
@torcid AM5 mit nem 9800X3D, aber nur ein günstiges B650-Board, was auch nur PCIe 4.0 hat. Aber dein 5800X3D ist fürs Gaming doch immer noch top, da würde ich mir gar keine Sorgen machen.

@Windell Habe die Sapphire 9070 Pulse bekommen, wollte unbedingt ein Modell mit den Standard-Powerlimits für maximale Effizienz.

Habe die Karte inzwischen aber mit 10 % mehr Powerlimit und 100 mV weniger Spannung eingestellt. Ist sie bereit für 8K-Gaming in älteren Spielen?
Anhang anzeigen 1594694

Tomb Raider 2013 mit allen Einstellungen auf dem Maximum in 2160p mit 4xSSAA, also gerendert in 8K. Verdammt gut. Testszene ist die PCGH-Szene Cliffs.


Auf jeden Fall! Geniale CPU ist das immer noch (hatte vorher den 5800X).
Ist ja sogar auf 7600X/7700X Niveau.
 
Zuletzt bearbeitet:
Benni82 schrieb:
Meinst du das ist auch noch okay?
Natürlich. Ein X3D würde wohl noch etwas mehr aus der Grafikkarte herausholen, aber der 5800X ist deswegen jetzt ja nun keine schlechte CPU.

Benni82 schrieb:
Und welches Netzteil nutzt du?
Ich nutze ein Seasonic Focus GX mit 750 W.

Und da wäre ich jetzt auch beim Grund warum bei dir wenn eher eine 9070 eher passen würde: Dein 650 W Netzteil.

Ich sehe auf meiner 9070 XT Power Spikes mit bis zu 532 W. Gedrosselt auf 9070er Niveau fallen diese auf 424 W ab. Bei deinem 650 W Netzteil hätte ich mit einer XT Sorge, dass das Netzteil dem nicht Stand hält.
 
  • Gefällt mir
Reaktionen: Benni82
Ich habe hier irgendwo gelesen das die 9070XT mit einem 2x8 Pin Anschluss nur maximal 375Watt ziehen kann ?
Ist da was dran ?
 
Meine hat auch nur 2x8 Pin und zieht dennoch deutlich mehr. Zumindest wird das so von HWiNFO ausgelesen :)

PS: Diese Spikes hat die 6800 XT auch, ich weiß nur leider aktuell nicht wie hoch diese ausgefallen sind.
 

Anhänge

  • 2025-03-11.png
    2025-03-11.png
    76,4 KB · Aufrufe: 26
  • Gefällt mir
Reaktionen: Benni82
Okay,danke dir !
 
Benni82 schrieb:
Ich habe hier irgendwo gelesen das die 9070XT mit einem 2x8 Pin Anschluss nur maximal 375Watt ziehen kann ?
Ist da was dran ?
Technisch gesehen durfte eine Karte mit alten 8-Pin Anschlüssen maximal 300W nutzen, ist immer die Frage inwiefern sich die Hersteller daran halten. Da es ja sogar Karten mit drei 8-Pin Anschlüssen gibt, sieht man wie Spezifikationen oft gehandelt werden.
Historically, prior to the PCIe* CEM 5.0 specification, Add-in Card power consumption beyond 300 W was not allowed. Earlier generations of PCIe* Add-in Cards were limited to 300 watts or below, drawing up to 75 W from the card slot, and additional increments of 75 W and 150 W delivered through one or more 2x3 and 2x4 12V Auxiliary Power Cables, to reach the aggregated card maximum power of 300 W.
https://edc.intel.com/content/www/u.../2.1a/pci-express-add-in-card-considerations/

Auch die Angabe 375W ist schon falsch, die Karten durften nach der Spezifikation maximal 300W aufnehmen, konnten sich allerdings aussuchen woher. Es war also durchaus erlaubt 300W über zwei 8-Pin Kabel zu ziehen, oder 225W über 8-Pin (150W), 6-Pin (75W) und PCIe (75W), jedoch nie 375W über alle zusammen.

TLDR
Deine Aussage ist aber trotzdem korrekt, seit PCIe CEM 5.0 dürfen alle Karten die jeweiligen Schienen voll auslasten. Eine Kombination aus 2x8Pin + PCIe ergibt also 375W, ein dritter 8-Pin Stecker ist hingegen so nicht vorgesehen.
 
Zuletzt bearbeitet:
@Benni82 bzw. alle anderen.

Eine Option, die mir eigentlich sofort hätte einfallen müssen weil ich damit gerade rumspiele 🤪, wäre es eine XT zu kaufen und das Power Limit auf 9070er Niveau abzusenken.

Damit erhält man dann tatsächlich eine noch leicht schnellere und effizientere 9070:

b|ank0r schrieb:
TBP @ 304 W
PunkteVeränderung
Speed Way6256-
Steel Nomad6942-
Time Spy29251-
GPU Power Maximum532 W-


TBP @ 225 W (-26%)
PunkteVeränderung
Speed Way5845-6,6%
Steel Nomad6238-10,1%
Time Spy26792-8,4%
GPU Power Maximum424 W-20,3%


9070 XT @ 225 W vs. 9070 @ 223 W (Werte von CB)
9070 XT9070Veränderung
Speed Way58455684+2,8%
Steel Nomad62385891+5,9%
Time Spy2679226039+2,9%

Man kann also festhalten, eine 9070 XT mit Power Limit einer 9070er läuft nochmal einen Tacken schneller und effizienter 😎👍🏻
 
Ich bin gerade recht begeistert und habe meine 3K 5090 erstmal weiterverkauft (ohne Scalpen, 45 EUR Gewinn) und eine 689 EUR Asus Prime 9070XT geholt. Über 8k im Steel Nomad. Für 689 EUR bin ich schwer beeindruckt.

https://www.3dmark.com/sn/4325041


Optiscaler ermöglicht mittlerweile, FSR4 in fast allen Spielen, die irgendeine Upscaling-Technologie einsetzen (DLSS, FSR2+, XESS), zu nutzen.

Das optimale Setup ist nicht ganz banal.

  • neueste Nightly von Optiscaler herunterladen
  • neueste nvngx_dlss.dll herunterladen und reinkopieren
  • Nukems Mod herunterladen und dlssg_to_fsr3_amd_is_better.dll in den Optiscaler Ordner
  • aktuelle amdxcffx64.dll besorgen - liegt wahrscheinlich im Driverstore, als c:\windows\wsystem32 und Unterordner durchsuchen und in den Optiscaler Ordner kopieren
  • DisableNvidiaSignatureChecks.reg ausführen
  • OptiScaler.ini bearbeiten:
Dx12Upscaler = fsr31, VulkanUpscaler = fsr31, FGType = nukems

Den ganzen Optiscaler-Ordner in das Exe-Verzeichnis des Spiels kopieren und ggf. vorhandenen Dateien überschreiben. Bei Unreal-Enginge-Games ist das nicht das Hauptverzeichnis, sondern meist /CODENAME/Binaries/Win64, also z.B. "Hogwarts Legacy\Phoenix\Binaries\Win64"
OptiscalerSetup.BAT ausführen.

Im Spiel dann idealerweise DLSS als Upscaler wählen, Reflex auf On oder On + Boost und Framegeneration anschalten. Es kann zwar jeder Upscaler als Input dienen (FSR2, FSR2, DLSS2, DLSS3, DLSS4, XESS), aber wenn man ordentliche Framegen möchte, dann funktioniert DLSS FG -> FSR3-Framegen am Besten. Hat das Spiel nativ FSR3 Framegen, dann kann man natürlich diese nutzen und der Input-Upscaler ist egal.

Mit der Einfügen-Taste kann man dann das Optiscaler-Menü öffnen und checken, ob alles funktioniert. Das Driver Overlay von AMD zeigt nicht FSR4-Status enabled(!)

So hat man FSR4 Upscaling, FSR3-Framegen und Antilag 2. Imho ist FSR3-2x-Framegen der NVIDIA 2x-Framegen überlegen, da es vergleichbar aussieht, aber eine höhere und stabilere Bildrate liefert. Erst mit MFG wird NVIDIAs FG wieder interessant.

Hat das Spiel gar keine FG-Untersützung, kann man im Menü OptiFG + HUDFix versuchen. Manchmal soll es funktionieren, oft macht es aber auch böse Artefakte.

Getestet habe ich es bisher in Hogwarts Legacy, Avowed und Robocop. Alle liefen problemlos.

Damit ist der Abstand zu NVIDIA imho echt nicht groß, gerade da FSR3-FG eben besser performt. Mit FSR3 2x FG komme ich in ähnliche FPS-Bereiche wie mit einer 5080 mit NVIDIA 2x FG.

Für die Hälfte des Preises ist die 9070XT daher imho eine spannende Alternative zur 5080, zur 5070 TI sowieso.

Was halt wirklich fehlt, sind Ray Reconstruction und eine nutzbare Pathtracing-Performance. Ray Reconstrcution soll noch kommen. In Hogwarts Legacy sehe ich hier definitiv einen Unterschied, weniger Krisseln im Haar und deutlich detaillierter Reflexionen. Bei Path Tracing kommt es auf die Spiele an und was man selbst bevorzugt. Bei den Pathtracing-Titeln habe ich Cyberpunk schon durch, Alan Wake 2 und Indy interessieren mich nicht, Star Wars Outlaws und Black Myth Wukong sind eher weiter hinten in der "Vielleicht"-Ecke des Backlogs. Ist also aktuell für mich nicht die Prio, kann sich in Zukunft natürlich ändern. Bei einer MSRP 5090 würde ich dennoch nicht Nein sagen, vielleicht kommt sowas ja in einem halben Jahr. Dann sollte ich die Prime hier immer noch mit kleinem Gewinn losbekommen.
 
  • Gefällt mir
Reaktionen: Icke-ffm und mario_mendel34
Hier sind meine Benchmarks. Alle Einstellungen immer Ultra (oder das höchste was man einstellen kann. Beide GPUs liefen stock. Als CPU kam ein AMD 7945HX zum einsatz mit 2*16GB DDR5 So Dimm 5600MT/s CL40.
Das ganze ist in einem LianLi Dan A3 verbaut.
Auflösung 2560*1440 (wenn höher stehts dabei).

Asus 9070 XT Prime OCSapphire Pulse 7900XTX
3DMark Timespy GPU2869329691
3DMark Timespy Extreme GPU1412514909
Cyberpunk 2077 Ultra No RT, No FSR127,03FPS134,81FPS
Cyberpunk 2077 Ultra RT Ultra, No FSR50,29FPS44,1FPS
Cyberpunk 2077 Ultra RT Ultra, Pathtracing on, No FSR22,88FPS19,87FPS
Cyberpunk 2077 Ultra RT Ultra, Pathtracing On, FSR Qualität44,39FPS38,26FPS
Forza Motorsport73FPS69FPS
Forza Motorsport 4K40FPS39FPS
Forza Motorsport 4K FSR Qualität57FPS55FPS
The Last of Us Part 191FPS91FPS
Star Wars Outlaws66FPS68FPS
Star Wars Outlaws RT Ultra26FPS25FPS
Star Wars Outlaws RT Ultra FSR Qualität46FPS43FPS
Star Wars Outlaws 4K38FPS43FPS
Indiana Jones90FPS95FPS
Indiana Jones Pathtracing Mittel FSR Qualität37FPS49FPS
Indiana Jones 4K63FPS63FPS
Indiana Jones 4K Pathtracing Mittel FSR Qualität28FPS35FPS
Monster Hunter Wilds Benchmark92,32FPS90,82FPS
Monster Hunter WIlds Benchmark RT hoch82,68FPS81,08FPS

In Indiana Jones geht der 9070 XT der Vram aus, daher ist dort auch mit Raytracing 7900XTX Schneller.
 
  • Gefällt mir
Reaktionen: Sun-Berg, Apocalypse, mario_mendel34 und 2 andere
SKu schrieb:
Frickellösungen sind aber nur etwas für versierte Nutzer und nicht für den Otto-Normalo, der weder Lust noch Zeit hat sich mit möglichen Lösungsansätzen zu beschäftigen, die er selbst umsetzen muss. Offiziell unterstützt Cyberpunk weder FSR 3.1 noch 4.
100%, würde ich nicht für Opa kaufen, aber jemanden hier im Forum vorschlagen das zu benutzen? Durchaus, wir sind ja hier alle dann doch ein wenig enthusiastischer fürs basteln zu haben.
Ergänzung ()

mario_mendel34 schrieb:
FSR4 will einfach in Bewegung nicht verschwimmen. Man hat immer die Schärfe, die man auch im Stand hat.
Aber DLSS 4 hat doch gerade das nun auch massig verbessert? Schneidet da FSR 4 wirklich soviel besser ab? Klar, im Vergleich zu DLSS 3 und erst recht zu FSR 3 ist der gewinn massive, aber zu DLSS 4?
Ergänzung ()

Tr8or schrieb:
Nvidia ist Marktführer mit ~85%. AMD dümpelt derzeit noch bei 10%.
80-17 wars in Q4 24 und der Trend dürfte anhalten, weil AMD wohl genug Produziert hatte und tut als nur 17% des Marktes zu versorgen.

Aber Nvidia bleibt natürlich immer noch Marktführer und wird sicher auch mehr als AMD produzieren, nur halt nimmer 90% Marktanteil haben wie noch in Q3 24.
 
Zuletzt bearbeitet:
Zurück
Oben