Test Grafikkarten 2023 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

v3locite schrieb:
Bei den Tests geht es doch um eine Vergleichbarkeit der Karten untereinander, die mit jeweils gleichen Einstellungen gewährleistet ist.
Richtig, deswegen wurde doch eigentlich schon immer mit den Max Einstellungen getestet, dürfte seit den 90ern schon so sein.

Oder kennst du das nicht wenn über den Benchmark Ergebnissen „max settings“ steht. Könnte dir da gleich 2-7 Dutzend Links zum Beweis schicken.
 
McTheRipper schrieb:
Das mit dem Stromverbrauch ist schon interessant, ich habe bei WQHD mit 240Hz grad mal 12W mit meiner 7900XTX.
Dual Monitor mit nem 4K@60hz dazu habe ich 29W zusammen mit meinen WQHD@240Hz.
Keine Ahnung warum das so bei euch so explodiert, hat vielleicht auch mit den Monitoren zu tun?
Wahrscheinlich oder mit Windoof wie bei den Arc Karten dort wird auch ein Power Setup Angeboten wws den Verbrauch senkt.

Auf was hast du Win eingestellt Power oder ausbalanciert.?
Ergänzung ()

BloodGod schrieb:
Richtig, deswegen wurde doch eigentlich schon immer mit den Max Einstellungen getestet, dürfte seit den 90ern schon so sein.
Dass Stimmt nur ist die RT Leistung der 400€ Karten für die Tonne von dem VRAM Mangel gänzlich mal ab gesehen. 😉

Auf deutsch gesagt unter 500 bekommst du nur Krüppel egal von wem. 😉
 
  • Gefällt mir
Reaktionen: Rockstar85
Danke, drei Fragen:
1. Wäre der hohe Energieverbrauch der 7900er Radeons für Windows Desktop usw nicht ein viel kleineres Problem mit einer CPU die auch eine iGPU hat? Denn in dem Fall würde der Windows Desktop doch von der iGPU gemacht, oder zumindest könnte man das so einstellen. Würde allerdings im Moment heißen, daß die Kur für den Stromhunger bei Office Geschichten eben Raptor Lake heißt. Wäre aber wohl nicht im Sinne von AMD.
2. Wie groß oder klein ist denn das Undervolting Potenzial der Arcs, und wie schwierig ist es, und bringt das was? Also, Energie Verbrauch, Overclocking. Wenn's jemand hier probiert hat, bitte Posten.
3. Wie gut/schlecht schlagen sich die "Mittelklasse" GPUs (€400 ist ja heutzutage Mittelklasse, unglaublich!) bei Anwendungen und Video-Enkodieren? Zumindest die Arc soll ja angeblich recht gute AV1 Encodes abliefern können, wie sieht's da bei den Mitbewerbern in der €400 und drunter Klasse aus? Ich kaufe mir eben nur eine Karte, und die soll dann auch sowas hin und wieder können können 😃
 
  • Gefällt mir
Reaktionen: ComputerJunge
Top dass ihr endlich den Stromverbrauch im Leerlauf am UHD@144Hz Display testet!
Das erwähne ich ja ständig dass die Radeons alleine deswegen aus meiner Wahl geflogen sind und "rechtfertige" den 4070 Ti Kauf weil "alternativlos".
 
  • Gefällt mir
Reaktionen: Tzk
Mcr-King schrieb:
Auf deutsch gesagt unter 500 bekommst du nur Krüppel egal von wem. 😉
Gab auch schon früher Tests wo dann halt die schwächeren Karten dann eben einstellige Werte hatten, same old same old.

Verstehe die Abkehr davon immer noch nicht? Früher ging das problemlos und heute nicht, weil?
 
Also für mich als Laie, sieht die 4070 Leistungs und Verbrauchsmässig im Verhältniss zum Preis, am besten aus. :confused_alt:
 
  • Gefällt mir
Reaktionen: lubi7
BloodGod schrieb:
Hm ok, habe ich beim kurzen überliegen glatt übersehen, aber wirklich gut finde ich das Verfahren nicht 👎

Man sollte schon überall Max nehmen und dann mit den Ergebnissen eben leben können, selbst wenn es dann einstellige FPS sind, so what. Truth matters!
Sehe ich genau so.

Gerade bei den Raytracing-Benchmarks ensteht der Eindruck das AMD fast mit Nvidia gleichzieht, was objektiv betrachtet einfach nicht stimmt.
 
  • Gefällt mir
Reaktionen: AI94, Grundgütiger und Fallout667
Immer wenn ich mir so die Tests anschaue und überlege kommt eigentlich nur die 4090 in Frage.
Leider noch viel zu teuer für mich, aber die Leistung ist einfach super.
 
In RT sind die AMD Karten dank der leichten RT Last mal eben teilweise 40% schneller als im alten Test. Die RTX 4080 hatte vorher knapp 220% der RT Leistung einer 6800 XT, jetzt sind es nur noch 180%.
Der Test ist doch so total irreführend. Wie soll man den denn zur Beratung nehmen?
 
  • Gefällt mir
Reaktionen: MrHeisenberg und Pro_Bro
Wanderwisser schrieb:
Der Idle Verbrauch bei meiner 7900 XT nervt mich auch etwas. An meinem 3440*1440 144hz Monitor bin ich bei 40 bis 50 Watt. Ist zwar nicht so tragisch wie hier, aber trotzdem weitaus mehr als bei meiner vorigen 6700 XT, die irgendwo bei 10 bis 15W lief. ...
Nachdem ich Deinen Beitrag gelesen habe, musste ich natürlich gegen testen und den Gamingrechner hochfahren, ebenfalls 3440x1440, 165 Hz Monitor.

Im Treiber extra auf Standard gestellt, kein UV oder OC, mit folgendem Ergebnis im Leerlauf:

165Hz, meistens 12-13W, max 18W
144Hz, meistens 39-40W
120Hz, meistens 12-13W, max 18W
100Hz, meistens 11-13W, max 19W
75Hz, meistens 11-12W, max 13W
60Hz, meistens 11-12W, max 13W
 
  • Gefällt mir
Reaktionen: creepin, MiroPoch, Orok91 und 10 andere
Die Effizienz der 7900er in 1440p bei 60FPS Limiter ist erstaunlich gut nur....
Wer spielt schon bei 1440p mit 60FPS, da haben die meisten hier einen 144Hz Moni.
Wäre schön wenn man in 1440p den 144Hz limiter Bensch nachreichen könnte, oder gibt's den schon wo anders?
 
Mcr-King schrieb:
Wahrscheinlich oder mit Windoof wie bei den Arc Karten dort wird auch ein Power Setup Angeboten wws den Verbrauch senkt.

Auf was hast du Win eingestellt Power oder ausbalanciert.?
Ich habe tatsächlich Höchstleistung aktiv.

Edit: Hab mal auf Ausbalanciert gestellt und sehe keinen Unterschied.
 
No Escape schrieb:
Nachdem ich Deinen Beitrag gelesen habe, musste ich natürlich gegen testen und den Gamingrechner hochfahren, ebenfalls 3440x1440, 165 Hz Monitor.
Scheint wohl tatsächlich auch auf den Monitor anzukommen. Aber interessant, dass er bei dir bei 144hz so viel zieht wie bei mir, bei 165hz dann aber wieder wenig.
 
  • Gefällt mir
Reaktionen: Cleanor
Fallout667 schrieb:
In RT sind die AMD Karten dank der leichten RT Last mal eben teilweise 40% schneller als im alten Test. Die RTX 4080 hatte vorher knapp 220% der RT Leistung einer 6800 XT, jetzt sind es nur noch 180%.
Das sind jetzt Wolfgangs individuelle Settings, keine Max settings mehr. Finde ich auch extrem suboptimal…
 
  • Gefällt mir
Reaktionen: MoinWoll
Zudem stellt sich mit dem neuen Parcours heraus, dass die Leistungsaufnahme der Radeon RX 7900 XT und XTX schlicht erschreckend ist, wenn ein Ultra-HD-Display mit 144 Hz verwendet wird. Und das ist eine Kombination, die für High-End-Käufer sicherlich attraktiv ist. Doch dann benötigt die AMD-Grafikkarte in Spielen zwar gleich viel wie mit einem 60-Hz-Monitor, in allem anderen allerdings deutlich mehr.
Holprige Formulierung, erst der nächste Absatz bringt etwas Licht ins Dunkel. Mglw. liegts aber auch an mir.

1684345966645.png

Ich finde es unglaublich schwer diese Grafik zu deuten. Ist eine 7900XT nun besser als eine XTX oder nicht?
 
v3locite schrieb:
Bei den Tests geht es doch um eine Vergleichbarkeit der Karten untereinander, die mit jeweils gleichen Einstellungen gewährleistet ist.
Das sehe ich nicht so. Einstellungen zu reduzieren, damit schwächere Karten spielbare FPS liefern, sollte nicht das Ziel eines Tests sein, in welchem es darum geht die tatsächliche Leistungsfähigkeit von Grafikkarten zu vergleichen.

Zur Verdeutlichung: Man könnte CPU Tests zukünftig in 4K mit einer GTX 1050 machen. Die Einstellungen und Voraussetzungen sind dann ja für jede CPU die gleichen. Die Vergleichbarkeit wäre dann nach Deiner Argumentationsweise gegeben und der CPU-Test damit aussagekräftig. Die Aussage wäre allerdings, dass alle CPUs der letzten 10 Jahre gleich schnell sind.

Auch wenn ich Wolfgangs Arbeit sehr zu schätzen weiß und dankbar für jeden einzelnen Test bin, möchte ich trotzdem anregen dieses Vorgehen zu überdenken. Meines Erachtens ist es wie gesagt das gleiche wie CPU Tests in (ausschließlich) hohen Auflösungen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AI94, Wan900 und H6-Mobs
@Wanderwisser Bin ich bei Dir, sollte von AMD schnellstens gefixt werden, aber meistens ist es bei mir eh auf 100fps limitiert, mehr brauche ich nicht bei meinen Spielen.
 
  • Gefällt mir
Reaktionen: Mcr-King und Cleanor
Czk666 schrieb:
Haben wirklich so viele AMD Nutzer einen 144hz/4k Monitor?
Bei 120hz ist zudem der Verbrauch niedriger. Ist natürlich unschön aber betrifft wohl nicht sehr viele. Zudem xtx+4k/144hz Monitor. Da jucken dich die 5 Euro Stromkosten auch nicht.
Ja, ich zum Beispiel!

7900XT Pulse + 4k 32" 144Mhz DELL G3223Q

ABER Desktop verbrauch ist bei
14-16 Watt!

Youtube SD Fenster ~28Watt.

ALLERDINGS MUSS die variable Aktualisierungsrate an sein!

PSA an alle die sowas ähnliches fahren. Peace out.
Ergänzung ()

Jenergy schrieb:
Kann dem nur zustimmen. Für ne Grafikkarte dieser Preisklasse absolut inakzeptabel.
Ist wohl Setupabhängig, siehe meinen vorherigen Post.

7900XT 4k@144 bei ~15Watt Desktop.
 
  • Gefällt mir
Reaktionen: MiroPoch, Rockstar85, Czk666 und 6 andere
Also in einem Spiel werden mal diese und in einem Spiel mal jene Settings genommen? Man sollte klassisch mit maximalen Settings testen. Gegebenenfalls ergänzt man einen zweiten Benchmark-Durchgang mit mittleren Settings (gemäß Preset des Spiels, keine selbst ausgedachten).
 
  • Gefällt mir
Reaktionen: MoinWoll
Wahrscheinlich wirklich der Monitor oder aber dass Mainboard Asus ist zumeist dort wirklich Schrott.
Ergänzung ()

W4RO_DE schrieb:
gemäß Preset des Spiels, keine selbst ausgedachten
Die sind aber meisten Krütze und wie gesagt NVIDIA und AMD müssen ja keine 8GB GPUs mehr bringen. 😉 😅

Die wären aber richtig Käse auf Max Einstellungen dann lieber eine Arc 770. 😉
 
Zurück
Oben