Test AMD Radeon RX 9070 (XT) im Test: RDNA 4 und FSR 4 sind eine Revolution

ElliotAlderson schrieb:
Das nennt man Cherrypicking. Genau so gibt es auch Beispiele, in denen die Karte unverhältnismäßig schlecht abschneidet.
Da ist es ja endlich, Dein Lieblingswort !
Und Deine anderen "Beispiele" sind eben genau so nix anderes, als "Cherry" !!
Aber wem erzähl ich das (seit gefühlt Dekaden) ... :heul:
 
jo0 schrieb:
Leider greift MSAA nicht überall und braucht dagegen extrem viel Performance, aber dafür bleibt das Bild immer scharf.
Du hast meinen Beitrag wohl in den falschen Hals bekommen und bitte dich jetzt einfach mal den unsachlichen Teil zu löschen. MSAA ist durch den Anstieg der Komplexität der Geometrie bzw. Ersatz mit Texturen und durch deferred rendering schon seit Jahren nicht mehr in der Lage das Bild adequat zu beruhigen. Geschweige das zu einem halbwegs gangbaren Performance Impact. Realistischerweise müsstest du Full HD mit 4-8xMSAA vs WQHD oderr UWQHD mit TAA vergleichen, da TAA keine Leistung kostet. Machst du das hast du mit MSAA eben nicht das bessere Bild aus den schon genannten Gründen. Das wird gerne einfach ignoriert in dieser Debatte und führt zu den üblichen Rage-Bait vergleichen auf Reddit.

Es gibt Artikel die das von allen Seiten neutral beleuchten und keinen Clickbait produzieren. Dazu liest man am besten einen Fachartikel und kein Reddit oder Youtube.

Ich lasse dir mal den betreffenden Ausschnitt da.
Turning on MSAA to 8x in that game nearly halves the frame-rate at 1080p and at 4K it is even worse... and the actual results of its anti-aliasing were unconvincing. MSAA works on geometry, remember, which becomes less important as pixel shading better defined a game's visual make-up. Elements like normal maps, as popularised by Doom 3, showed that game lighting and object detail were driven more by textures than by geometry.
TAA ist mit den KI gestützten SuperSampling Upscaling so ziemlich der Schlüssel für alles gewesen und MSAA ist eine Krücke, die 4-5x so viel Performance kostet als ein DLSS/FSR Performance AI Upscaling und nicht besser aussieht.
jo0 schrieb:
Bist immer der größte FSR Kritiker aber TAA ist gut?
Wo habe ich FSR 1?! mit TAA verglichen? Ich sprach von MSAA.
Dein Vergleich ist halt irreführend, da er nicht die Performancekosten bedenkt. Mit TAA kann ich 1-2 Auflösungsstufen höher gehen und habe dann diese Unschärfe halt nicht und die anderen Probleme von MSAA.;)

scuba2k3 schrieb:
vielleicht hat er auch einfach schlechte Augen und sieht den unterschied eh nicht
Vielleicht versteht ihr einfach nicht wie man neutral etwas vergleicht? So einen Unfug über TAA liest man ständig und die Performancekosten die bei MSAA neben den anderen Problemen immens sind, fallen einfach hinten runter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse
Ayo34 schrieb:
Dann kaufe eben eine 5090 und hoffe das es reicht, ist doch okay.
Wirklich nicht böse gemeint, aber in meinen Augen hat PT aktuell für mich noch überhaupt keine Relevanz. Für mich steckt das noch in den Kinderschuhen. Noch nicht wirklich ausgereift und wenig optimiert. Dazu unterstützen das noch überschaubare Spiele.

Wie gesagt, für mich (noch) nicht "vergleichsrelevant".
 
  • Gefällt mir
Reaktionen: Rockstar85, Apocalypse und mydayyy
SweetOhm schrieb:
Die € UVP ist 629 € zu 649 € (Zugunsten der 9070, nix identisch) und schon mal was von Real-/Straßenpreise gehört/gelesen ? :affe:
Beim Thema Kosten kommt ja noch das hinzu beim 144 fps Limit, was noch viel zu wenig beachtet wurde:

"Richtig wild wird es in WQHD, wo die Radeons mit einem FPS-Limiter kaum mehr Energie benötigen und regelrechte Kreise um die GeForce-Konkurrenz drehen. Die Radeon RX 9070 arbeitet 52 Prozent effizienter als die GeForce RTX 5070 und die Radeon RX 9070 XT 60 Prozent effizienter als die GeForce RTX 5070 Ti – das sind wahnsinnige Zahlen!"

Meine 7800 XT braucht quasi pro fps fast doppelt so viel Watt.
 
  • Gefällt mir
Reaktionen: Rockstar85, SweetOhm, Icke-ffm und 2 andere
Stonebyte schrieb:
Was ich bis heute nicht verstanden habe ist, wie einem DLSS gefallen kann. Ist die von meiner 3080 unterstützte Version noch so schlecht?
Den direkten Vergleich habe ich nicht mehr, da meine 3070 schon lange verkauft ist, aber: Ich meine dass DLSS 3 um einiges besser ausschaut als DLSS2.

Kommt aber wohl auch aufs Spiel an - in Hitman 3/WoA etwa lasse ich das durchaus auf "Quality" stehen und freue mich über die bessere Performance. In BG3 schaut's nativ und mit TAA oder DLAA (für mich) deutlich besser aus.
 
Clonedrone schrieb:
Aber wie oft kommt man in fordernden Games überhaupt in diese Region, so dass es relevant wird? Natürlich, in den Spielen, die für gewöhnlich Richtung 200+ fps gehen, eine schöne Sache. Ich überlege mir angesichts des Verbrauchs auch, ob nicht eine 9070 reicht, weil einfach extrem effizient.
 
  • Gefällt mir
Reaktionen: Wichelmanni
Find es einfach zu funny, wie sich hier Leute angehen, wegen hypothetischen Preisen von Produkten, die noch ganricht verkauft werden.
😛
 
@mojitomay :

Es gibt wohl noch einen deutschsprachigen Videotest zur kompakten Gigabyte Gaming OC RX 9070XT von Tim & Tech, in welchem auch die Lautstärke gemessen wurde (um die 40dB, wenn ich deren Diagramm richtig verstehe, aber die Lautstärke dürfte bei Bedarf per manueller Lüfterkurve noch weiter absenkbar sein Richtung 35dB):

 
Jemand 'ne Ahnung ob man eine der beiden Karten mit 'nem i5-11400 noch sinnvoll betreiben kann?
 
kunig30 schrieb:
Jemand 'ne Ahnung ob man eine der beiden Karten mit 'nem i5-11400 noch sinnvoll betreiben kann?
In 720p eher weniger in 4k sehr wohl.
 
  • Gefällt mir
Reaktionen: Rockstar85
FrittiDeluxe schrieb:
Aber wie oft kommt man in fordernden Games überhaupt in diese Region, so dass es relevant wird? Natürlich, in den Spielen, die für gewöhnlich Richtung 200+ fps gehen, eine schöne Sache. Ich überlege mir angesichts des Verbrauchs auch, ob nicht eine 9070 reicht, weil einfach extrem effizient.

Der selben Überlegung bin ich auch. Ich werde aber die 9070XT kaufen. Die paar Euro machen den Bock nicht fett und später ärgert man sich dann. Mit undervolting ect... kommt man auf die non XT und hat dann eben noch einiges an Reserven für die Zukunft.
Noch etwas über eine Stunde, kann es kaum erwarten. Hoffe ich kann eine ergattern!
 
  • Gefällt mir
Reaktionen: FrittiDeluxe
Grimba schrieb:
Ähm, danke für die Antwort, aber das war als rhetorische Frage gedacht, deswegen beantworte ich sie ja im Folgenden selbst, was sich ja auch größtenteils mit deinem Text deckt. Insofern wäre es gar nicht nötig gewesen, die Frage aus dem Kontext des Textes zu nehmen und sie mir zu beantworten, da wir uns ja schon vorher größtenteils einig waren, nicht wahr?
Das hättest ihm auch einfacher erklären können 😜
 
@kunig30: Dann schau dir doch auf YouTube deine Lieblingsspieler an, in denen jemand CPUs testet. Da kannst du ja dann ableiten, ob deine CPU überhaupt eine deutlich höhere Bildrate zum Istzustand ermöglicht.
 
Ich würde ja gar keine Karte zum jetzigen Zeitpunkt kaufen, sondern bis zum Sommer warten und dann zuschlagen. Dann dürfte die Liefersituation für die Nvidia-Karten auch wieder besser aussehen und man kann geringere Preise im Sommerloch annehmen. :)
 
Mäxle87 schrieb:
Na sauber und was bringt das dem User wenn es die Hardware mit der Leistung schon vor 5 Jahren gab. Ich meine ich kaufe ja nicht die selbe Technik wie vor 5 Jahren und Ihr sicher auch nicht.

Ich kaufe zum Zeitpunkt eines Upgrades das, was ich brauche. Was der eine Hersteller an der Stelle vielleicht schon vor 2 Jahren konnte, und der andere nicht, ist an der Stelle irrelevant. Relevant ist, was zu meinem Budget verfügbar ist, und ob es das kann, was ich benötige. Jetzt holst du wahrscheinlich gerade Luft um mir DLSS und RT/PT um die Ohren zu hauen. Dem schicke ich voraus: Interessiert mich nicht!

Kann es meine Primär-Spiele nativ in UWQHD auf min. 60 FPS rendern, ohne sich dabei zu zerreissen? Ja? Gut, dann kommt es auf die Kandidatenliste, und auf der entscheiden dann Preis, Verfügbarkeit und Sekundär-Eigenschaften wie Linux-Kompatiblität, Quelloffenheit und Quatsch-Gründe wie die Optik, wer ganz oben steht. Und siehe da, die RX 9070 (XT) liegt echt gut im Rennen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85 und mydayyy
SKu schrieb:
Ich würde ja gar keine Karte zum jetzigen Zeitpunkt kaufen, sondern bis zum Sommer warten:)
Dito.
Wer weis was bei AMD noch im Keller versteckt ist an Problemchen :)
Das kann ja nicht sein, dass alles Perfekt läuft^^
 
Chismon schrieb:
um die 40dB, wenn ich deren Diagramm richtig verstehe, aber die Lautstärke dürfte bei Bedarf per manueller Lüfterkurve noch weiter absenkbar sein Richtung 35dB):
Einfach das Silent-Bios wählen - dann passt es! Ist immer so ein Gigabyte Problem - das "OC/Performance" Bios ist wohl auf das Klima in Asien ausgerichtet - mit dem Silent ist Ruhe.
 
  • Gefällt mir
Reaktionen: Chismon
Zurück
Oben