Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Mr. Smith schrieb:
Aus deiner Position heraus (mit einer 2080 im Rechner) jemandem der 3 Jahre lang nur eine Office-Graka im Rechner stecken hatte; zu sagen er soll noch ein bisschen warten... ist schon sehr amüsant.
Woher sollte ich das wissen das du so eine Durstrecke hinter dir hast? Daher hab ich dich gefragt ob es jetzt sein muss.

Und Anekdote am Rande als du dir gesagt hast die 2000er Karten sind mir zu teuer hab ich meine alte GTX 970 in Rente geschickt und die Gigabyte 2080 Gaming OC gekauft als es sie für 750€ anstatt 850€ und mit den 3 Games im nvidia Triple Threat Bundle gab. Das war damals dann der Grund zuzuschlagen weil ich durch das Bundle nochmals circa 100€ abziehen konnte vom Kaufpreis.

Ich muss aber sagen wenn es mir so unter den Fingern gebrannt hätte wie dir nun , dann hätte ich eher schon bei den 6900XT im Abverkauf zugeschlagen als sie für 700€ zu haben waren.
 
  • Gefällt mir
Reaktionen: Rockstar85 und Javeran
Cl4whammer! schrieb:
@Zertruemmerdog Was fürn wechselkurs? Bisher war es doch immer 1zu1 $ zu € oder gleich mehr!? :D
beispielsweise 2020 beim release der rx 6900xt war der wechselkurs von einem Euro = 1,20$....sprich da war es dann nach Steuern 1zu1.

Morgen ist im übrigen der nächste Zinsentscheid der FED...könnte dann eventuell den Eurokurs von 1,05 auf 1,10 anheben - dann freuen sich die NVidia Fanbois auf die nächste "Preissenkung" LOL
 
  • Gefällt mir
Reaktionen: CiX und Benji18
ArrakisSand schrieb:
Gib der RX7900XTX den Saft was eine RTX4090 benötigt und sie reißt dir die Bude ein.

Sie fackelt dir wohl eher die Bude ab ... :D
XTX OC Balken bei TPU sind geil, aber wo ist der Balken einer OC 4080 oder 4090 oder der Verbrauch der XTX die an die 4090 "heranreicht"

"Traue keinen Benchmark den nicht selber gefaked hast" :cool_alt:
 
blackiwid schrieb:
2. hast du schoen dir cherry gepickt, ich sagte Treiber oder Overclocking, es koennte also ganz ohne Mehrverbrauch gehen. Z.b. den Framilimiter ist zu 90% sicher ausgehbar das dort der Stormverbrauch noch sinkt wieso sollte bei z.B. 144fps die Grafikkarte Hardwarebedingt gleich viel Strom verbrauchen wie mit 300fps? Das ist offensichtlich Treiberseitig fixbar.
Bei der 4080 kannst auch nen Framelimiter rein machen, so dass der ohnehin große Abstand zur XTX noch größer wird...
Und wer sagt, dass es bei Nvidia keine besseren Treiber geben wird?

Es ergibt nur Sinn, dass hier und jetzt zu vergleichen, alles andere ist Glaskugel.
 
ArrakisSand schrieb:
dass ist genau das was schon lange im Netz kursierte und von AMD letztens den Medien mitgeteilt wurde.
Von AMD wurde so einiges mitgeteilt...u.a. wie energieeffizient die Karten doch sein sollten. Das ist ein schlechter Witz, die zieht soviel Watt wie ne 4090, bei viel schlechterer Performance. Und dass du den non-RT Cyberpunk 4k Benchmark cherrypickst, ist ebenfalls lachhaft. Wenn ich mir eine neue GPU in dieser Preisklasse hole, Cyberpunk in 4k spiele, dann will ich auch Raytracing an haben. Und das ist der Vergleich:

50% der fps bei gleichem Stromverbrauch...

1670964925941.png
 
  • Gefällt mir
Reaktionen: Shinigami1 und CuzzImBasti
Mcr-King schrieb:
Auf jeden Fall aber auch NV ist nicht Frei von Fehlern sage nur Strom Stecker, RTX4080 12Gb und HDR Probleme, hoffe nicht dass die den Stecker auch bei der RTX4060/50 bringen na dann bin ich raus.
Der Stecker macht doch nur bei hoher Last Probleme. Ich denke alles unterhalb der 4080 wird eher unauffällig bleiben…
 
Mcr-King schrieb:
Auf jeden Fall aber auch NV ist nicht Frei von Fehlern sage nur Strom Stecker, RTX4080 12Gb
Strom Stecker? user error, Thema ist schon lange erledigt. Der Stecker ist übrigens von der PCI-SIG. RTX4080 12 GB? Kam nie auf den Markt.

Wo sind das Fehler von nVidia?
 
  • Gefällt mir
Reaktionen: Shinigami1, MrHeisenberg, Anon-525334 und eine weitere Person
Danke an die CB für den Test und die verlinkten Karten.
Schön wäre in der Tabelle "Offizielle Spezifikationen der RX-7000-Serie" auf der ersten Seite noch die Specs der RDNA1 gegenüberzustellen.
 
DeltaPee schrieb:
Der Stecker macht doch nur bei hoher Last Probleme
Der Stecker macht nur dann Probleme, wenn man ihn nicht korrekt einsteckt, (wie andere Stecker auch).
 
  • Gefällt mir
Reaktionen: Shinigami1
Substanzlos schrieb:
Schade, ist wirklich etwas Mau geworden.

Vielleicht ist der Chipletweg bei den Grakas nicht die beste Wahl.

Kann mir aber gut vor stellen, dass die Radeon im Treiber hier und da noch etwas nachreift.
Ich denke das es wie beim Ryzen erste Generation ist das man sich da von Treiberseite erstmal rein arbeiten muss. Und das daher auch aktuell die Stromaufname abseits des Spielens so hoch ist. Sprich die müssen da noch Bugs entfernen weil hab mir grade das Video von Igors Lab angeschaut und die Stromaufname ist bei egal welcher Auflösung und mit oder ohne Raytracing konstant gleich hoch was absolut unlogisch ist. Ebenso auf dem Desktop wen der PC nix tut oft unnötig hoch bzw. im Multimonitor Betrieb und springt extrem wenn man etwas am PC macht (das eigentlich nichts mit der Grafikkarte direkt zu tun hat) hin und her. Ich denke da passen noch Treiber Einstellungen was die PCIe Stromspar Modi angeht nicht richtig. Oder wie immer bei AMD die Treiber Software wird mit den nächsten Tagen und Monaten DEUTLICH reifen.
Ergänzung ()

Mcr-King schrieb:
Auch die RX7900XT OC Modelle könnten ganz interessant werden sage Nur XFX Black Edition. ;)
Nur das die normale XFX RX 7900XTX MERC 310 heute Nachmittag bei MF schon 1349€ gekostet hat (was soll dann erst die Black Edition kosten!?) und du damit schon bei den ersten 4080 preislich angekommen bist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King und Ghostfacekalle
Gamefaq schrieb:
Ich denke das es wie beim Ryzen erste Generation ist das man sich da von Treiberseite erstmal rein arbeiten muss.
Ich bin mir ziemlich sicher, dass das Chiplet Konzept nichts mit den Treibern/Software zu tun hat, wenn gibt es evtl. Optimierungspotenzial bei der Dual-Issue shaderarchitektur.

Ich fand das GPU Chipletkonzept von AMD aber von Anfang an fragwürdig, da das compute/logic die weiterhin monolithisch ist, und lediglich die memory chiplet dies modularisiert und auf einer anderen TSMC node hergestellt werden.
 
MF hat die Preise der 4080er Karten leicht erhöht, das geschieht meistens dann, wenn es gerade mit dem Verkauf "gut läuft".

Also da haben sich scheinbar einige dann doch für eine 4080 entschieden, nach dem eher schwachen Auftritt der neuen AMD Karten.
 
  • Gefällt mir
Reaktionen: Ragnarök88, Grundgütiger, Shinigami1 und 5 andere
DayvanCowboy schrieb:
Von AMD wurde so einiges mitgeteilt...u.a. wie energieeffizient die Karten doch sein sollten. Das ist ein schlechter Witz, die zieht soviel Watt wie ne 4090, bei viel schlechterer Performance. Und dass du den non-RT Cyberpunk 4k Benchmark cherrypickst, ist ebenfalls lachhaft. Wenn ich mir eine neue GPU in dieser Preisklasse hole, Cyberpunk in 4k spiele, dann will ich auch Raytracing an haben. Und das ist der Vergleich:

50% der fps bei gleichem Stromverbrauch...

Anhang anzeigen 1296858
selbst mit der 4090 ist es kein schönes spielerlebnis bei knapp 40 fps.
 
  • Gefällt mir
Reaktionen: Icke-ffm, Rockstar85 und McTheRipper
Clutch04 schrieb:
MF hat die Preise der 4080er Karten leicht erhöht, das geschieht meistens dann, wenn es gerade mit dem Verkauf "gut läuft".

Also da haben sich scheinbar einige dann doch für eine 4080 entschieden, nach dem eher schwachen Auftritt der neuen AMD Karten.
Jep, die 4080 FE war tagelang verfügbar, nach dem Release der AMD dann nicht mehr. Da haben einige gewartet. Auch die Kurse der 3090 FE auf eBay sind wieder gestiegen und das Angebot gesunken. Nvidia lacht sich ins Fäustchen.
 
Zertruemmerdog schrieb:
selbst mit der 4090 ist es kein schönes spielerlebnis bei knapp 40 fps.
Hab es ausprobiert, geht, aber mit DLSS eindeutig besser :) Ist aber trotzdem ein guter Indikator der rohen performance der beiden Karten bei RT games
 
Wieso leuchtet die blau und das Radeon Logo ist nicht beleuchtet ? Designfail. AMD ist Team RED !

HT3fDTD.png
 
  • Gefällt mir
Reaktionen: Mcr-King
Furtwowe schrieb:
Die 7900XTX bringt mir aber nochmals die Erkenntnis, dass nividia bei der 4090 völlig übertrieben hat
Woher kommt das Bedürfnis, die 4090 irgendwo einorden zu müssen? Ständig lese ich "das ist keine 90, das ist eine Titan". Ist doch völlig egal wie das Teil heisst? Die 7900XTX braucht genauso viel Strom beim Gaming wie die 4090. Wo hat nVidia da übertrieben?
 
  • Gefällt mir
Reaktionen: nurfbold, Shinigami1 und Grundgütiger
Die Gesamtleistung der RX 7900 XTX kann sich meiner Meinung nach absolut sehen lassen. Ich bin zuversichtlich, dass die brandneue RDNA3-Architektur in Zukunft mit besseren Treibern noch deutlich zulegen wird. Und nicht zu vergessen: AMD SAM ist die mit Abstand beste Resizable-Bar-Lösung. Dafür braucht es natürlich eine Ryzen-CPU.
 
Zurück
Oben