Test Radeon RX 7900 XTX Customs im Test: Asus, PowerColor, Sapphire & XFX mit Navi 31 im Vergleich

McLovin14 schrieb:
Gab es da auch 80 W beim YouTube schauen und null Verringerung der Leistungsaufnahme im fps-Limit?

Zumindest Ersteres dürfte sich bereits erledigt haben.
Aber hey wir werden noch in 3 Jahren auf die Launchartikel schauen und darüber bewerten.

1671814637486.png
 
  • Gefällt mir
Reaktionen: Zitterrochen
Kalsarikännit schrieb:
Spulenrasseln - gibt es dagegen irgendwas was hilft, außer Leistung begrenzen oder solange zurückschicken bis es vielleicht passt? Beide Optionen komemn eigentlich nicht in Frage für mich.
Auf die maximale Bildwiederholfrequenz des Monitors beschränken. Mehr macht ohnehin keinen Sinn(außer eventuell für die Voodoo Fraktion)
 
Schreibe gerade mit jemandem aus UK. Die kriegen wohl Customs relativ easy. Er hat für ne Nitro umgerechnet ca. 1400 Euro bezahlt. Gab's wohl auch für 1300 teilweise. Bin echt neidisch. Das wird hier in DE wohl erst Mitte/Ende Januar was. :(
 
Taxxor schrieb:
Ich nenne dir ein Spiel, wo ich gerade wieder dabei bin, mehrere dutzend Stunden zu versenken und bei dem ich mit AMD enorme optische Abstriche machen müsste(RT Aus), es also nicht hervorragend spielen könnte, und du nennst es Kindergarten?
Dann stell nicht so eine Behauptung auf.
Ich finde, dass die Grafik nicht das Wichtigste in Videospielen ist. Darüber hinaus sprechen wir hier schon von besonderen persönlichen Ansprüchen, die auch mit sehr viel Geld verbunden sind. Du spielst doch mit Sicherheit in UHD. Damit gehörst zur absoluten Minderheit unter den Gamern.
Taxxor schrieb:
Ich hätte auch Cyberpunk sagen können, aber das ist mittlerweile ausgelutscht^^
Cyberpunk und Witcher 3 kommen vom selben Entwickler... Vermutlich hat man wieder ähnlich Pro Nvidia entwickelt. Es würde mich zumindest nicht wundern, wenn bei Witcher 3 die RT-Performance von AMD-Karten auffällig schlecht wäre.
Wie kann es außerdem sein, dass bei Far Cry 6 trotz bewusst reduzierter RT-Qualität für RDNA2 die Performance besser war als Ampere-Karten der gleichen Preisklasse? Wie bereits angesprochen: das meiste heutzutage dreht sich bei Raytracing um Optimierungen für eine bestimmte Hardware. Und hier ist Nvidia gefühlt sehr aktiv...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zitterrochen, Anon-525334 und Fighter1993
@TigerherzLXXXVI
Du spielst doch mit Sicherheit in UHD. Damit gehörst zur absoluten Minderheit unter den Gamern.
Nein, ich spiele in 1440p, für UHD hätte mir die 4090 zu wenig Reserven bzw ich will mich nicht nächstes Jahr schon zwischen >300W Verbrauch oder Regler zurückdrehen entscheiden müssen^^

Wie kann es außerdem sein, dass bei Far Cry 6 trotz bewusst reduzierter RT-Qualität für RDNA2 die Performance besser war als Ampere-Karten der gleichen Preisklasse?
Dazu musst du dir die Performance ohne RT anschauen, AMD Karten sind in Raster schon stärker als Nvidia in dem Spiel und beide verlieren durch RT ca gleich viel, denn, naja hast du dir RT in dem Spiel mal angeschaut?
Fällt nicht sonderlich auf, das da irgendwo RT ist. Und je weniger fordernd RT ist, desto geringer wird der Unterschied zwischen AMD und Nvidia, was den Leistungsverlust durchs Zuschalten angeht.

Spiderman Remastered, welches nur RT Reflexionen und nichts anderes nutzt, sieht ja ähnlich aus, auch hier verlieren beide ca gleich viel
 
  • Gefällt mir
Reaktionen: Ragnarök88
Hutzeliger schrieb:
Sag das nicht.
Die TUF 7900XTX ging gestern auf Cyberport für 1799 Euro weg. War nach paar Stunden ausverkauft.

Da hatte ich hier noch drauf hingewiesen was das für ein Wahnsinn ist und schwups war sie ausverkauft.

Für 300 Euro weniger bekommst ne TUF 4080 lieferbar.
+
Für 200 Euro mehr bekommst ne Gigabyte 4090 lieferbar.

Wer sich jetzt zum Launch eine kauft und da Weihnachten von den Händlern abzocken lässt,
ist selber schuld.
In den USA wo die Karten in den Geschäften verfügbar waren war die Sapphire Nitro bei 1099$
und die Powercolor Red Devil genauso 1099$ und das sind normalerweise die dicksten Modelle die man haben will in dem Fall für 100$ mehr, was absolut in Ordnung ist.
Sich jetzt darüber zu beklagen dass der Europäische Handel zu wenig bekommen hat, bzw.
dass die Händler gierige Schw**** sind bringt uns nicht weiter.
Sicher ist, sobald im Januar mehr verfügbar sind, wird der Preis sicherlich sinken, wahrscheinlich unter die 4080
Preise.
Daher, Geduld!
 
  • Gefällt mir
Reaktionen: McTheRipper und PeriQue1337
TigerherzLXXXVI schrieb:
Du spielst doch mit Sicherheit in UHD. Damit gehörst zur absoluten Minderheit unter den Gamern.

Du hast mich zwar nicht angesprochen,
aber wenn ich in 1-2 Generationen meine CPU geupgraded habe werde ich auch meine 3080 Ti ersetzen.
Da ich in WQHD @ 240Hz Spiele und da bitte immer in meinem selbstgewähltem FPS Limit kleben will.
Aber dafür reicht schon jetzt mein 11700k bei weitem nicht.

Ich hänge mit meinem 11700K schon in immer mehr Games öfters im CPU Limit. (New World, Forza 5 usw...)

Ist natürlich Jammern auf hohem Niveau da das CPU Limit dann bei 120 FPS+ liegt aber meine 3080 Ti hätte oft immer noch Luft.

Worst Case in New World:

20221223184818_1.jpg


20221223185452_1.jpg
 
Zuletzt bearbeitet:
Taxxor schrieb:
Nein, ich spiele in 1440p, für UHD hätte mir die 4090 zu wenig Reserven bzw ich will mich nicht nächstes Jahr schon zwischen >300W Verbrauch oder Regler zurückdrehen entscheiden müssen^^
Aber du musst zugeben, dass ist schon sehr speziell. Die wenigsten werden sich eine RTX 4090 für knapp 2000€ leisten, um dann im 'Energiesparmodus" auf ihren WQHD-Monitor zu spielen. Ich kann das zwar absolut nachvollziehen, dennoch ist das für mich purer Luxus.
Taxxor schrieb:
Und je weniger fordernd RT ist, desto geringer wird der Unterschied zwischen AMD und Nvidia, was den Leistungsverlust durchs Zuschalten angeht.
Das bedeutet nicht, dass man mit AMD-Karten nicht auch ein gutes RT-Erlebnis bekommt. Metro Exodus EE ist das beste Beispiel dafür, wie man mit einer hochwertigen Implementierung auch als Besitzer einer RDNA2-Grafikkarte die Vorzüge von Raytracing genießen kann. Denn bei den Grafiksettings lässt sich auch die RT-Qualität separat einstellen. Der Test von computerbase hat interessanter Weise ergeben, dass sich mit der RT-Einstellung "Normal" die Beleuchtungsqualität gegenüber "Hoch" oder "Ultra" kaum unterscheidet. So eine technische Umsetzung würde ich mir bei jeden RT-Spiel wünschen - da wären wir wieder beim Thema Cyberpunk.
 
  • Gefällt mir
Reaktionen: McTheRipper
TigerherzLXXXVI schrieb:
Ich kann das zwar absolut nachvollziehen, dennoch ist das für mich purer Luxus.
Jede GPU über 500€ ist purer Luxus, das ist sowieso klar.
Ich hab es zusätzlich halt gerne sehr effizient, Witcher 3 in Ultra RT Settings bei 80FPS und gerade mal 150W Verbrauch dank Frame Generation ist schon sexy^^
Mit ner 7900XTX könnte ich zwar zumindest auch knapp an die 60 kommen, dann aber auch bei 355W.

TigerherzLXXXVI schrieb:
Der Test von computerbase hat interessanter Weise ergeben, dass sich mit der RT-Einstellung "Normal" die Beleuchtungsqualität gegenüber "Hoch" oder "Ultra" kaum unterscheidet. So eine technische Umsetzung würde ich mir bei jeden RT-Spiel wünschen - da wären wir wieder beim Thema Cyberpunk.
Das ist tatsächlich in den meisten Spielen, wo man es einstellen kann, so.
Bei Cyberpunk tut sich von RTGI Hoch über Ultra auf Psycho auch nicht großartig was in der Optik und das ist auch ein Punkt wo man etwas Performance gewinnen kann.
 
Zertruemmerdog schrieb:
Wenn ein Mädchen vergewaltigt wird ist auch das Mädchen schuld, weil es sich ja entsprechend gekleidet hat, korrekt?
Ziemlich cringer Vergleich............was dir so alles im Kopf rumschwirrt, oje.
Und wo ging es hier um eine Schuldzuweisung?
 
  • Gefällt mir
Reaktionen: Ragnarök88, Wichelmanni, karl_laschnikow und 2 andere
Taxxor schrieb:
@TigerherzLXXXVI

Nein, ich spiele in 1440p, für UHD hätte mir die 4090 zu wenig Reserven bzw ich will mich nicht nächstes Jahr schon zwischen >300W Verbrauch oder Regler zurückdrehen entscheiden müssen^^


Dazu musst du dir die Performance ohne RT anschauen, AMD Karten sind in Raster schon stärker als Nvidia in dem Spiel und beide verlieren durch RT ca gleich viel, denn, naja hast du dir RT in dem Spiel mal angeschaut?
Fällt nicht sonderlich auf, das da irgendwo RT ist. Und je weniger fordernd RT ist, desto geringer wird der Unterschied zwischen AMD und Nvidia, was den Leistungsverlust durchs Zuschalten angeht.

Spiderman Remastered, welches nur RT Reflexionen und nichts anderes nutzt, sieht ja ähnlich aus, auch hier verlieren beide ca gleich viel

Hutzeliger schrieb:
Ist natürlich Jammern auf hohem Niveau da das CPU Limit dann bei 120 FPS+ liegt aber meine 3080 Ti hätte oft immer noch Luft.
Ja, das ist es in der Tat. Aber dafür hilft dir deine CPU beim Energiesparen, da sie als hardwareseitiger FPS-Begrenzer fungiert.
 
crackett schrieb:
AMD hat sich den Gegner zurechtgelegt (Original Reißerüberschrift CB) und in allen Belangen kläglich verloren. AMD und Co. sollten demnächst deutlich bescheidener auftreten, damit es nicht noch peinlicher wird.
Über die aufgerufenen Preise kann man nur den Kopf schütteln.
Mancher Fanboy in den Foren sollte auch mal bescheidener auftreten. Leider ist das Gegenteil immer mehr der Fall. Bestes Beispiel der zitierte Kommentar. Es ist nur noch zum Kopfschütteln.
 
  • Gefällt mir
Reaktionen: thom_cat und Anon-525334
Taxxor schrieb:
Jede GPU über 500€ ist purer Luxus, das ist sowieso klar.
Gut das ist Anssichtssache. Für mich persönlich geht Luxus erst bei 1500€ für eine GPU los.
Taxxor schrieb:
Das ist tatsächlich in den meisten Spielen, wo man es einstellen kann, so.
Bei Cyberpunk tut sich von RTGI Hoch über Ultra auf Psycho auch nicht großartig was in der Optik und das ist auch ein Punkt wo man etwas Performance gewinnen kann.
Mit dem großen Unterschied, dass es bei CP2077 eben keine vergleichbare Qualitätsstufe gibt wie "Normal" in MEEE. Zumindest zeigt der nur geringe Performancezuwachs bei RDNA2 beim Setting "Hoch", dass die RT-Qualität immer noch sehr anspruchsvoll gewählt ist. Und das ausgerechnet in einem Nvidia-Showcase...
 
daknoll schrieb:
Sorry, du begreifst es nicht.
Vielleicht hab ich hier noch irgendeinen versteckten Beitrag überlesen, aber mal unabhängig davon, dass du relativ schnell ausfallend wirst: Taxxor hat doch recht.

Spielen kannst du auch mit AMD alles. Aber "hervorragend spielen" != "hervorragend spielen". Sollte man halt einfach mal anerkennen, statt sich dann ständig im Ton zu vergreifen.

Mit AMD musst du entweder a) auf Performance verzichten, b) auf Bildqualität verzichten oder c) sogar eine Kombination aus beiden. Das ist Fakt und kein doofes "mimimi" oder irgendein Bashing, und aktuell zahle ich bei AMD sogar hunderte Euro mehr an Straßenpreis für diese Umstände.

Wer RT aus Gründen nicht nutzen kann/will, soll das so handhaben. Ist jedem selbst überlassen. Aber trotzdem kann man auch einfach mal bei der Wahrheit bleiben und nüchtern anerkennen, dass man mit AMD eben viele Abstriche machen muss, die man so auf der anderen Seite nicht hat. Egal ob RT-Performance, DLSS vs. FSR, absoluter Verbrauch (Teillast/Volllast), die Effizienz allgemein.

Im Übrigen sollte man sich noch mal in Erinnerung rufen, dass N31 und insbesondere auch die hier getesteten Customs, aktuell deutlich vierstellig kosten. Wir reden hier also nicht über eine Mainstream-GPU, wo man mit vielen Abstrichen aufgrund des Preises leben muss.

Vielleicht habe ich auch einfach nur eine falsche Erwartungshaltung, aber bei soviel Geld für eine Grafikkarte erwarte ich auch nahezu Perfektion. Und um mal bei 4080 vs. 7900XTX zu bleiben, bekomme ich bei Nvidia ein perfektes Produkt. Bewusst hervorgehoben, weil es der Preis halt nicht ist. Das Produkt selbst aber eben schon. Selbst beim Speicher kann man Nvidia nicht einmal mehr für zu wenig kritisieren bei der 4080.

Bei der 7900XTX muss ich - zumindest aktuell - sogar noch mehr zahlen, bekomme aber nicht im Ansatz ein rundes Produkt. Enorm hoher Verbrauch auf dem Desktop/MM/yt und bei Teillast, auch unter Volllast eine in Relation maximal okaye Effizienz, deutlich schlechtere RT-Performance, dürftige VR-Performance (N31 ist hier teilweise sogar (noch) langsamer als N21, von NVs riesigem Vorsprung reden wir gar nicht erst....) und deutliche Nachteile beim Software-Featureset.

Das sind objektive und nüchterne Fakten. Wäre schön, wenn man die auch einfach mal anerkennen könnte, statt anderen irgendwas vorhalten zu wollen, was so einfach falsch ist.

Ist halt auch bei den Boardpartnern wieder ein riesiger Unterschied im Vergleich zu Nvidia. MSI wartet sogar bisher komplett ab, die Customs wirken generell im Vergleich zu Lovelace... irgendwie billiger.
 
  • Gefällt mir
Reaktionen: mazO!, Ragnarök88, Volvo480 und 5 andere
Irgendwann kommt doch mit FSR3 auch das AMD pendant zu Nvidias Frame Generation, denke da wird man auch mit den AMD Karten sparsam zocken können, natürlich sieht es in Games die Nvidia deutlich besser liegen etwas anders aus wenn man RT aktiviert. Aktuell ist das Ganze aber leider zu unausgereift bei AMD für meinen Geschmack. Bei AMD sollte man am besten immer nach einem halben Jahr nach Release die Reviews machen :-)
 
Taxxor schrieb:
Oh es macht mir auch ohne RT Spaß, aber warum sollte ich auf gute Optik verzichten wollen?
Wenn es nicht um Grafik geht, könntest du die Spiele auch auf Low spielen und Spaß dran haben, dann bräuchte auch niemand eine neue GPU egal von wem [...]
Nun es gibt eben auch noch Gamer, für die eine teure Grafikkarte überhaupt nicht in Frage kommt, nur um die bestmögliche Grafikqualität zu bekommen. Das sollte man absolut respektieren.
 
Ich spiele derzeit Witcher 3 mit RT Ultra mit rund 45FPS in UWQHD. Läuft gut genug. Mit einer 7900XTX wärs besser. Auf 4K würde ich für RT definitiv zu einer 4080 greifen. Auf WQHD oder UWQHD reicht dafür dann eine 7900XTX. Aber die hat dann auch Konkurrenz von 3080Ti bis (vorraussichtlich) 4070Ti denn für WQHD braucht man in Raster die Performance einer 7900XTX nur bedingt.

Die RT Performance wird in Zumunft immer wichtiger. Und dann muss AMD die Preise anpassen, sonst wirds nichts.

Wer für 1000+€ stand Heute eine GPU kauft, der will in Zukunft doch nicht auf Effekte verzichten. Ausnahmen gibts bestimmt.
 
Heftig das AMD , dieses Mal noch weiter weg von Nvidia ist wie letzte Generation. Better luck next time. Diesmal kommt halt ne Nvidia rein. Die bessere PL kommt halt in meinen rechner.
 
  • Gefällt mir
Reaktionen: karl_laschnikow
Sun-Berg schrieb:
Die RT Performance wird in Zumunft immer wichtiger. Und dann muss AMD die Preise anpassen, sonst wirds nichts.
Das sehen viele hier im Forum anders. Hier wird so unglaublich Mist über RT in die Welt gesetzt, mittlerweile ist mir das zu müßig, dagegen anzuschreiben. Fakt ist: RT ist gekommen, um zu bleiben. Das bestätigen auch die neuen Spiele immer wieder, wo RT praktisch ab AA omnipräsent ist. Deswegen ist deine Aussage schon richtig, eher noch: Raster wird in Zukunft immer unwichtiger. Das wird ein vieljähriger Prozess. Aber AMD ist einfach eine Generation zurück und wird das auch immer bleiben, weil Nv eben auch nicht schläft.
 
  • Gefällt mir
Reaktionen: Sun-Berg
N31 ist eine solide Karte, ich würde ihr eine Note 3 geben.
Leider ist es für eine ü1000€ Karte dann eher wieder enttäuschend. Wenn ich schon so viel Geld ausgebe für eine Grafikkarte dann will ich nach dem Kauf nicht noch überlegen welche Regler ich in den Settings zurück drehen muss damit ich in wqhd trotzdem 60 Fps erreiche.
Jetzt kann ich alles auf 60 fps mit limiter spielen und kann (wenn vorhanden) FG nutzen und meine karte ist sehr sparsam. Selbst wenn man sich eine 4080 holt.
Mit N31 ist das nicht immer der Fall.

Dort muss man beim RT schonmal (je nach Game) was zurück drehen. Klar kann ich drauf verzichten aber dann ist das Geld falsch investiert worden.
Witcher 3 Next Gen z. B hätte meine alte 5700xt auch bei wqhd ohne RT die 60 fps geschafft.

AMD kann aber mit n32 und n33 Punkten, dort kommt man in Preisklassen in denen man beim Kauf eh weiß das nicht mehr alles auf max. läuft.
Wenn sie dort mit Raster und hoffentlich effizientz besser als nvidia sind könnte es noch was werden mit Marktanteile sichern.

Bei AMD fand ich die Custom Modelle schon immer schöner vor allem von Sapphire und Powercolor. (hatte vorher die Red Devil RX 480 und 5700xt).
Meine jetzige Gigabyte Windforce ist nicht ganz so hübsch. Muss aber auch nur zum Staubsaugen das Gehäuse öffnen. Aber bei den Red Devils war es immer eine Freude das Gehäuse auf zu machen ^^
 
  • Gefällt mir
Reaktionen: Sun-Berg
Zurück
Oben