Test Grafikkarten 2023 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

Spannend fände ich auch die Darstellung der VR Leistungen. Scheint entweder eine Niesche zu sein, oder schlecht durchführbar?
 
  • Gefällt mir
Reaktionen: Mracpad
Mit aktiviertem FPS-Limiter bekommt man vor allem in Full HD dann fast schon das Gefühl, dass Nvidias Ada Lovelace Energie produziert. Je niedriger die Auflösung, desto effizienter kann RTX 4000 mit einem FPS-Limiter umgehen. Doch auch in hohen Auflösungen sind die Nvidia-Grafikkarten den Modellen von AMD klar überlegen, einzig WQHD ist die etwas merkwürdige Ausnahme. Dort agiert die RX 7900 plötzlich auf dem Niveau von RTX 4000 und ist teils überlegen, was in Full HD und Ultra HD nicht einmal im Ansatz gelingt.
Habt ihr das verhalten noch mal überprüft?
Das ist ja echt seltsam....
 
  • Gefällt mir
Reaktionen: McTheRipper, dunkelbunter, bad_sign und eine weitere Person
Cleanor schrieb:
Wie schon gesagt, bei mir sinds in UHD@ 144Hz idle Desktop ~15.

Ich komm Single 4K@144Hz auf 17 W aufm Desktop mit meiner Sapphire Pulse 7900XT
Dual Monitor 4K@144Hz / FHD@60Hz mit 4K youtube Video play auf 39W

Ich hab absolut keine Ahnung was für einen Stuß hier CB misst.
 
  • Gefällt mir
Reaktionen: Cleanor, McTheRipper, Shadow86 und 3 andere
Vielleicht haben nur die REf-Modele den Bug.
 
GreatEvil schrieb:
Ich hab absolut keine Ahnung was für einen Stuß hier CB misst.
Das ist absolut Monitor abhängig. Hat was mit den Blanktimings zu tun, die der Monitorhersteller festlegt (und im AMD Treiber bearbeitet werden können)
Ergänzung ()

Rodman schrieb:
Habt ihr das verhalten noch mal überprüft?
Das ist ja echt seltsam....
Das erschließt sich mir auch nicht. Auch die Effizienzwerte von Ampere vs RDNA2. Hier wäre eine Angabe des Games/der Games hilfreich.
 
  • Gefällt mir
Reaktionen: Rockstar85, McTheRipper und Mcr-King
Mich wundert ja eher, dass im Parcours die 6700 XT im Schnitt hier hinter der 3060 Ti liegt. Ist sicher nicht viel, aber mehr verwundert mich ein wenig, dass die 3060 Ti inzwischen ein 10% besseres Performance/Watt-Verhältnis als die 6700 XT fährt. Im Test zum Release waren die quasi auf Augenhöhe.

Die Frage ist letztlich auch: Inwiefern sind die blanken Zahlen wirklich aussagekräftig? Wie wir inzwischen mehrfach im Netz sehen, kann es zwar durchaus sein, dass die Karten FPS liefern, aber im Zweifel auch einfach Matsche, wenn bspw. der VRAM ausgeht.
Das ist bei NV ja insbesondere in Hogwarts Legacy aufgefallen. Das sah bei NV teils echt böse aus. Da half es auch nichts, dass die FPS stabil blieben ^^
 
  • Gefällt mir
Reaktionen: Mcr-King
CB sollte ohne XMP & EXPO Stocksettings testen solang die Hersteller das nicht offiziell anders empfehlen. Man muss vor allem AMD & Asus zeigen wo der Hammer hängt wenn sie schon ihre Kunden für dumm verkaufen.
 
  • Gefällt mir
Reaktionen: Mcr-King und Benni16it
Der Ansatz ist ja nicht schlecht aber Wo sind die benchszenen
Was settings angeht sollte man klare kante gebe und nicht anpassen
reduzieren kann man immer.
Da würde ich je spiel einen eigene Artikel verfassen damit die Testszenen Auswahl und Settings Wahl auch ersichtlich wird.

Der Fokus sollte in Zukunft dxr sein OHNE upscaler
Und ein raster vergleich als Orientierung in dx9 dx10 dx11 dx12
 
Tolle Arbeit - bin beindruckt, Wolfgang und Jan. :daumen:
Die höhere Stromaufnahme bzw. das Wärmer-werden hab ich bei meiner wassergekühlten 7900XTX auch bemerkt. Die ansonsten fast nicht hörbaren Lüfter an den Radiatoren kamen mir etwas lauter vor, als zuvor mit der 6900XT. Ich hab die Ursache zwar versucht zu finden - aber ohne Erfolg. Man gewöhnt sich viel zu schnell an das Veränderte. Dass es durch die 144 hz hervorgerufen wird, hab ich allerdings nicht vermutet. Hab jetzt durch euren Test auf 60 hz gedrosselt und hoffe, dass es sich bald durch eine Treiberanpassung seitens AMD ändern lässt. Weil dieses Verhalten ist für mich jetzt ein ziemlicher Negativpunkt und schmälert doch im Nachhinein meine Freude mit der Karte um einiges.
 
Bei mir werkelt noch Nvidia GTX 1070 bei 144 Hz - eigentlich zu meiner vollsten Zufriedenheit. Eigentlich deshalb, weil es mich schon interessieren würde, wie sich das Feeling in Spielen ändern würde (und ob überhaupt), wenn ich eine stärkere GPU hätte? Habe andererseits keine Lust darauf, Hunderte von Watt mehr Leistung zu ziehen...
 
  • Gefällt mir
Reaktionen: Klever und Mcr-King
Danke für den Test! Immer wieder schön wie sich die Performance entwickelt..
Mich stört nach wie vor der idle Verbrauch, vor allem bei den AMD Karten.. (Intel lass ich mal außen vor^^)

Frankieboy schrieb:
Habe andererseits keine Lust darauf, Hunderte von Watt mehr Leistung zu ziehen...
kommt halt immer auf die Settings und das Spiel an..
Ich spiele zur Zeit nur Warzone 2 DMZ und dort zieht meine 6800xt (uv) zwischen 120W und max 200W auf 1080p und 165fps limit.. im Schnitt ungefähr 150W.
Die 3090 (uv) im anderen System zieht bei mir ein wenig mehr, im schnitt ca 200W, aber 1440p und ohne Limiter... aber dank 5900x mehr im Cpu limit als die 6800xt mit dem 5800x3d.
 
  • Gefällt mir
Reaktionen: Gaugaumera und ThirdLife
kmf schrieb:
Hab jetzt durch euren Test auf 60 hz gedrosselt und hoffe, dass es sich bald durch eine Treiberanpassung seitens AMD ändern lässt.
Guten Morgen, was ich nicht ganz verstehe, warum Du nicht schaust, wie sich Dein System im Verbrauch mit den Zwischenlösungen verhält. Es gibt ja auch noch 120, 100 und 75HZ.

Der Test ist super, aber selber das eigene System austesten ist doch das Optimum.
Ich habe die Befürchtung, dass AMD uns noch lange warten lässt oder gar nichts mehr kommt, ~ halbes Jahr ist jetzt schon verdammt lang. Ich hoffe, ich liege daneben.
 
  • Gefällt mir
Reaktionen: Cleanor, Wanderwisser und Mcr-King
"Seit dem Launch von RDNA 3 steht das Verhalten so zwar als Bug in den Release-Notes sämtlicher Radeon-Treiber, doch hat sich diesbezüglich eben seit fünf Monaten absolut nichts geändert. Und ein UHD-144-Hz-Display ist bei Käufern einer RX 7900 XT/XTX sicherlich keine Seltenheit. Das ist etwas, was AMD unbedingt angehen muss. Und zwar schnellstmöglich, nicht irgendwann."

Erinnert an die vielen Jahre, die AMD bei GCN und co. es nicht zusammen gebracht hat unter gewissen Semi-Leerlauf-Szenarien den Speicher runterzutakten, was in gerne mal 50 Watt höherer Leistungsaufnahme am Desktop gemündet ist. Mit Drittanbieter Tools, oder später im Treiber selbst, konnt man den Speichertakt auf niedrig forcen, was das Problem gelöst hat - dass AMD selbst das so lange nicht geschafft hat war einfach nur absurd, und ein extremes Armutszeugnis für ihre Software-Abteilung.
 
  • Gefällt mir
Reaktionen: Rockstar85
Frankieboy schrieb:
Bei mir werkelt noch Nvidia GTX 1070 bei 144 Hz - eigentlich zu meiner vollsten Zufriedenheit. Eigentlich deshalb, weil es mich schon interessieren würde, wie sich das Feeling in Spielen ändern würde (und ob überhaupt), wenn ich eine stärkere GPU hätte? Habe andererseits keine Lust darauf, Hunderte von Watt mehr Leistung zu ziehen...
Kommt doch stark aufs Game, Settings und Auflösung an.

Assassins Creed: Origins, welches echt gut aussieht und kein hässlicher Titel ist, läuft auf der 4090 mit 145W bei 3440x1440p mit allen Settings maximiert. Liefert dabei immer noch angenehme 118fps im integrierten Benchmark.

Selbst wenn ich mit offenem Limit zocke liege ich "nur" bei etwa 240W max. und etwa 150fps avg. (CPU limitiert...kotz). Die Karte läuft allgemein verfickt effizient - seh jetzt nicht wo hier die "hunderte von Watt" sind.

Jede andere Karte die ich vorher hatte bis runter zur 970 GTX hat im Verhältnis zu dem was sie liefert viel, viel mehr gezogen.
 
  • Gefällt mir
Reaktionen: MoinWoll, AI94, Mcr-King und eine weitere Person
Die 4090 wäre auch die einzige aktuelle Nvidia Karte, die ich mir geholt hätte. Aber dies hätte ebenfalls ein neues Gehäuse und Netzteil zur Folge gehabt, und von ebenfalls einer 1070 kommend, einfach zu viel Kohle für diesen Luxus.

Können, vom Geld ausgehend, und Wollen gehen nicht immer Hand in Hand. Mein Bauch sagte, mach einfach, aber mein Verstand hat dann doch gesiegt.
 
  • Gefällt mir
Reaktionen: V_182, Redundanz, Orok91 und 6 andere
No Escape schrieb:
Die 4090 wäre auch die einzige aktuelle Nvidia Karte, die ich mir geholt hätte. Aber dies hätte ebenfalls ein neues Gehäuse und Netzteil zur Folge gehabt, und von ebenfalls einer 1070 kommend, einfach zu viel Kohle für diesen Luxus.

Können, vom Geld ausgehend, und Wollen gehen nicht immer Hand in Hand. Mein Bauch sagte, mach einfach, aber mein Verstand hat dann doch gesiegt.
Letztlich ist eigentlich unterhalb von UHD eine 4090 auch relativ Perlen vor die Säue. Ich bin eigentlich in so ziemlich jedem Spiel ausser ein paar GPU-Mörder (CP2077) immer im CPU Limit.

Eine 7900XTX oder eine 4080 für 799€, das wär die Karte die fast jeder sofort kaufen würde. Mal schauen obs zum Sommer hin noch deutliche Preisdrops gibt wenn die Leute lieber in den Urlaub gehen statt Hardware zu kaufen.
 
Bin ich bei Dir, als nicht Fanboy einer Fraktion, eine 4080 für 799€ hätte ich genommen wegen der Effizienz und 16GB Speicher hätten mir auch gereicht, aber leider ist das Leben kein Wunschkonzert und eine neue Karte musste her. Die treue 1070 mag in Frieden ruhen.
 
  • Gefällt mir
Reaktionen: V_182 und ThirdLife
@Wolfgang
Könnt Ihr bitte mal bei Gelegenheit schauen, ob 4k@FSR2-Quality ähnlich effizient ist bei 60Fps wie WQHD?

Effizienz@60Fps.jpg


FSR2-Resis.JPG
 
Was ich ebenfalls sehr Schlimm finde und hier gar nicht angesprochen wird ist die HDR Problematik.

AMD setzt auf FS2 (freesync Premium Pro) bei ihrer HDR Implementierung.. was eigenes Dynamisches tonemapping mit sich bringt.

Leider ist die FS2 HDR Pipeline komplett Broken.. viele HDR fähige Displays erreichen nichtmals ihre ausgewiesene maximal Helligkeit

Wer zb einen Samsung OLED G8 oder Alienware DWF mit einer AMD Karte nutzt ist aufgrund von FS2 auf ca 400nits Peak Helligkeit begrenzt
Und das obwohl beide freesync und FS2 zertifiziert sind.
Wärend Nvidia Karten hier problemlos 1000 nits fahren können.. kämpft man bei AMD massivst mit dem Tonemapping und clipping punkten


Man kann auch nicht so einfach diese FS2 Pipeline umgehen weil sie in den Monitor EDID Daten hardgecodet ist.


Und dann gibt's halt noch die FSR/DLSS Sache

Der FPS Gewinn ist ungefähr der gleiche zwischen FSR und DLSS über die einzelnen Stufen hinweg

ABER:

FSR Quality (66% Render Auflösung) entspricht etwa DLSS ausgeglichen (57% Renderauflösung) von der Bildqualität her.. je nach Spiel sogar nur DLSS Performance (50% Render Auflösung)

Vergleicht man nun also bei etwa gleicher Optik/Bildqualität hat man mit der Nvidia Lösung merklich mehr FPS

Oder man vergleicht bei gleicher FPS.. dann hat AMD die bedeutend schlechtere Bildqualität
 
  • Gefällt mir
Reaktionen: ThirdLife
Chilisidian schrieb:
Liegt aber eher nicht an der Farbtiefe. Ob die Pixel nun 8 oder 10bit unterschiedliche Farben anzeigen, sollte im Verbrauch keine Auswirkungen haben. Wird eher daran liegen, dass Windows automatisch bei HDR die Gesamthelligkeit hochdreht. Dies kannst du für SDR Inhalte wie den Desktop in der Einstellungen aber wieder herabsenke
Ich rede vom Verbrauch der Grafikkarte, nicht vom Monitor und doch der Verbrauch der Grafikkarte verändert sich zumindest laut diversen Tools wenn ich HDR einschalte.
 
Zurück
Oben