Test Grafikkarten-Benchmarks: CS:GO, Dota 2, LoL, WoT und WoW in Ultra HD im Vergleich

AMD (Furys/Furies) Leistungs-/Effizienssieger?

Also wenn ich mir den Stromverbrauch und die Leistung anschaue, dann liegt für mich klar die 980 vorne.
Sie erreicht genug FPS um flüssig zu spielen und verbraucht sehr viel weniger als die Anderen (auch die 980 Ti).
Hier stimmt einfach der Treiber würde ich sagen.

Was bringen mir die 200 FPS bei Fury/X wenn sie über 400 Watt verbraucht? DAS IST NICHT EFFIZIENT.
Einen Porsche im zweiten/dritten Gang zu fahren ist zwar mega cool aber nicht effizient.

Das Ganze übertrieben gesagt.
 
Stromverbrauch in diesem Test:
Mehrverbrauch der Fury X gegenüber 980Ti (in Watt, Gesamtsystem!)
CS:GO: 30
Diablo3: 58
Dota2: 30
Hots: 23
LoL: -47
Warframe: 7
WoT: 52
WoW: -3

Mittelwert: 18,75W

0,01875kW*5h/d*365d=34,22kWh
*0,20€/kWh=6,84€ in Ö zusätzl. Stromkosten
*0,26€/kWh=8,90€ in D

Die 5h/d sind meine Annahme (mMn sehr hoch)!
Energieverbrauch bezieht sich auf diesen Test und auf Fury X zu 980Ti!
 
Ja da hast du Recht ... 5 Stunden am Tag zocken ist eher eine Ausnahme da sich der PC doch meistens im Idle befindet. Die Strommehrkosten sind wirklich zu vernachlässigen. Der einzige Nachteil ist, dass man evtl ein stärkeres Netzteil braucht.
 
Beim Vergleich zwischen Fury X und 980
kommt man auf 36,54€ im Jahr an Mehrkosten für Strom.

Die Karte hält durchschnittlich 3 Jahre = 109,62€ Mehrkosten an Strom gegenüber einer 980.
Natürlich machen die Mehr-FPS es in 1-2 Jahren wieder wett, da die Spiele anspruchsvoller sind.

Trotzdem sollte an die Umwelt gedacht werden :)
 
Ach ich weiß nicht ob das wirklich der Umwelt zugute kommt, wenn man bedenkt dass irgendwo anders eine Grafikkarte früher im Elektroschrott landet.
 
Der Vergleich Fury X mit 980 macht natürlich großen Sinn, wenn bereits die Fury teurer ist.
 
mic_ schrieb:
Beim Vergleich zwischen Fury X und 980
kommt man auf 36,54€ im Jahr an Mehrkosten für Strom.

980 non ti und fury X, Sinn?
 
mic_ schrieb:
Was bringen mir die 200 FPS bei Fury/X wenn sie über 400 Watt verbraucht? DAS IST NICHT EFFIZIENT.
Einen Porsche im zweiten/dritten Gang zu fahren ist zwar mega cool aber nicht effizient.

Das Ganze übertrieben gesagt.

Wo verbraucht denn die Fury X 400W? Gemessen wurde das Gesamtsystem.
Ein halbwegs brauchbares günstiges 450W Netzteil reicht dafür dicke aus.

mfg,
Max
 
Ein halbwegs brauchbares günstiges 450W Netzteil reicht dafür dicke aus.
Ein halbwegs brauchbares NT wird sicherlich nicht 400 Watt auf der 12 Volt Schiene bereit stellen - das machen eher die Top-Versionen!
Davon ab stellen die Messungen ja in Game Leistung dar - was passiert wenn der geneigte Käufer mal Benchmarks anstellt die doch deutlich hungriger sind?
 
Lars_SHG schrieb:
was passiert wenn der geneigte Käufer mal Benchmarks anstellt die doch deutlich hungriger sind?

Wenn die GPU nicht mehr Strom bekommt, limitiert sie ;)
Wenn das NT tatsächlich auch 450W liefert, kann allerdings nichts passieren. Auch im Peak sollte die Fury X (mit dem von CB getesteten Gesamtsystem) nicht auf über effektive 450W kommen. Getestet wurde von CB hier nur Last in Ryse: Son of Rome: https://www.computerbase.de/artikel...te-10#diagramm-leistungsaufnahme-gesamtsystem

Trotzdem sollte man, da auch weitere Komponenten dazu kommen (HDDs, Soundkarte, Lüfter, etc.) auf 500W, besser 550W setzen. Preislich gibt es einen sagenhaften unterschied von 10-15€.

Eine 980ti betreibt hoffentlich auch niemand mit einem 450W NT.

mfg,
Max
 
Schöner Test: Auch bei älteren Titeln erzeugt UHD-Downsampling ein deutlich besseres Bild.

Zu Heroes of the Storm: Spiele ich selbst und habe eine GTX 970 MSI Gaming 4G @ 1330 MHZ.

Mir ist aufgefallen, wenn ich die Grafikeinstellungen maximiere, dass ich in großen Kämpfen immer wieder starke Framedrops von 60 auf so 45 habe. Externes Vsync wird genutzt, da der interne VSync dann sofort auf 30FPS capt und derbste Ruckelei erzeugt, sobald man die 60 nicht halten kann.

Nun, meine GPU durch niedrigere Auflösung (2715x 1527 oder gar Full HD) zu entlasten hat aber kaum was gebracht, die Drops waren dennoch vorhanden. Also habe ich mal absichtlich die Optionen von Extrem auf Mittel gestellt, die meine CPU belasten ( Physikeffekte, Reflexionen, andere Effekte, Xeon E3-1231V3 @ 3,4GHZ) und tatsächlich: Auch in UHD wird nun die 60er Marke fast durchweg gehalten.

Scheint wohl teilweise in bestimmten Situationen ein kurzes aber starkes CPU-Limit vorzuliegen. Mit dem MSI Afterburner kann ichs leider nicht austesten, da der in Hots nicht funktionieren will.....Allerdings habe ich auch kein 16X AF gestellt habe, sondern auf "Anwendungseinstellungen nutzen" zurückgreife. 16X AF kommt mir bei der Kameraperspektive in Hots, Dota2 oder LOL ziemlich sinnfrei vor.
 
Zuletzt bearbeitet:
Wenn die GPU nicht mehr Strom bekommt, limitiert sie
Nein, das NT schaltet ab, wenn es tatsächlich über die mögliche Leistung geht!
Die mögliche Leistung von NT ist allerdings meist deutlich höher als angegeben! Da sind nicht nur die 10% Peak Leistung die höher als der Nennwert liegen darf, oft schaffen die NT noch darüber hinaus mehr!

Wenn ich hier aber immer wieder lesen muss, "nach 8 Stunden prime und furmark......" - dann ist Hopfen und Malz verloren! Sprich das NT schaltet ab - sofern es die Schutzvorrichtung hat, andere platzen dann halt!
Wie auch immer, generell würde ich das NT so bemessen, dass es nie an die max. Leistung heran kommt!
 
Schöner Test - danke.

Und was reicht jetzt fur "stinknormales" FullHD?
 
Lars_SHG schrieb:
Nein, das NT schaltet ab, wenn es tatsächlich über die mögliche Leistung geht!
Die mögliche Leistung von NT ist allerdings meist deutlich höher als angegeben! Da sind nicht nur die 10% Peak Leistung die höher als der Nennwert liegen darf, oft schaffen die NT noch darüber hinaus mehr!

Sorry, ich gehe von Billig-NTs aus. Wenn man einen Neukauf in Betracht zieht, wird diese Zielgruppe keine 650€ für die Karte und dann 20€ für das NT bezahlen :D

Lars_SHG schrieb:
Sprich das NT schaltet ab - sofern es die Schutzvorrichtung hat, andere platzen dann halt!

Das stimmt so nicht, bzw. nicht immer. Als mein altes NT sich verabschiedete, hab ich meine erste 290er mit einem 350W NT betrieben. Spielen war zwar möglich, aber nicht erträglich, da hier bei Überbeanspruchung die Spannungsversorgung rauf und runter gesprungen ist.

mfg,
Max
 
Lars_SHG schrieb:
Nein, das NT schaltet ab, wenn es tatsächlich über die mögliche Leistung geht!
Die mögliche Leistung von NT ist allerdings meist deutlich höher als angegeben! Da sind nicht nur die 10% Peak Leistung die höher als der Nennwert liegen darf, oft schaffen die NT noch darüber hinaus mehr!

Kommt auf den Hersteller an,
Mein 250W Fsp hatte schon Dauerlast 340W hinter sich.

Aus Interesse hab ich Fsp mal Angeschrieben,
das Max. liegt bei 370W Dauerlast (Fsp Intern).

Warum diese Angabe, viele haben eine Hohe GH Temp. (Ist ein OEM NT)

Und so macht das FSP SFX NT schon seit 4 Jahren seinen Dienst:D


Das selbe spiel bei den OEM Seasonic, bei niedriger GH Temp (NT obenliegend),
machen diese auch ihre 450W statt 350W


Die OEM NTs werden unterschätzt,
es braucht ja eine Angabe, welcher Dau Kümmert sich darum:
Wie heiß das Gh ist, wie verstaubt die Filter/Lüfter/Kühler sind usw.
 
Zuletzt bearbeitet:
Hopsekäse schrieb:
[...] am Tag. Bei ~ 250W für eine Fury X allein (Wert von TomsHardware) entspräche das etwas weniger als 7,5h Spiele-Last. Für normalos unvorstellbar viel, für Hardcore-Gamer ist sogar noch mehr möglich.

Spiele-last, die die GPU dabei dauerhaft auslasten! Sonst ist auch nichts mehr übrig von wegen "~250W". egal wie man es dreht, ist es irgendwie eine Milchmädchenrechnung.

Das Problem bekommt man schon wenn man eine Ladesequenz hat - da hängt die GPU schon nicht mehr auf 100% Last, also viel Glück mit der linearen Rechnung von 250w auf 7,5h. (das bekommt man wohl nur mit einem 7,5h GPU Benchmark hin :lol: )
Ergänzung ()

KTelwood schrieb:
Counterstrike spielen doch die Pros eh nur in 800x600 in streteched 16:9

auf einem 20" Röhrenmonitor, mit 16 bit Farben und Details auf Ultra-Low, um weniger anfällig auf Grafikeffekte zu reagieren ;)
Ergänzung ()

mic_ schrieb:
Beim Vergleich zwischen Fury X und 980
kommt man auf 36,54€ im Jahr an Mehrkosten für Strom.

Die Karte hält durchschnittlich 3 Jahre = 109,62€ Mehrkosten an Strom gegenüber einer 980.
Natürlich machen die Mehr-FPS es in 1-2 Jahren wieder wett, da die Spiele anspruchsvoller sind.

Trotzdem sollte an die Umwelt gedacht werden :)

Das hast mit den Fingern gezählt oder irgendwo gefunden? Kann man das als Außenstehender, ohne deine Gedanken zu kennen irgendwie nachvollziehen? Schön ist auch die Prognose zur Lebensdauer der GPU. Dann sag ich mal das die Fury sowieso nicht länger als ein Jahr hält, da man da ja sowieso schon die nächste GPU im PC hat:freaky: Oh man bitte gib mir deine Glaskugel :D
 
Zuletzt bearbeitet:
Wow, im bin gerade ein wenig sprachlos wie sagenhaft ineffizient die R9 380 ist, die mit Abstand ineffizenteste aller Karten....
Die würde mir definitv in keinen Rechner kommen.
 
Ich hab mir die GTX 960 mal ein bisschen genauer angesehen. Auf der nVidia page schreiben sie:
Upgrading from a GeForce GTX 660 to a GeForce GTX 960 will accelerate your gaming by up to 60% at reference speeds

Das hat mich doch sehr gewundert. Ich habe mir damals anfang 2012 eine relativ günstige 660 TI geholt, würde ich jetzt upgraden, würde die nur um die 60% schneller sein? Also zB statt 45fps dann ~70? Ich hätte jetzt gedacht, dass sich da mehr getan hätte, sind immerhin 3 Generationen.
 
Eine 660 Ti ist keine 660! Ich habe auch eine Ti und die ist deutlich schneller als eine 660. Ergo sind es eher ~30-40% mehr Leistung. Dazu kommt Nvidia fährt die gleiche Schiene wie Intel. Effizenz und nicht pure Leistung. Wenn du Leistung haben willst sind die 980er, Ti oder Titan da die 960/970 aber sind eher für ihr P/L und P/Verbrauch bekannt.

Dazu kommt mit 960 und 970 hast du immerhin 50% mehr Speicher was auch schon mal nett ist. Wie gesagt gerade bei der Reihe ist es eher die Energieeffizenz die Punktet als die Leistung.
 
Ich fände es wirklich mal nötig hier einen Bildungs-Artikel über die leider mittlerweile kläglich zertretenen Begriff "LEISTUNG" zu bringen. Gut, CB hat keinen Bildungsauftrag, aber da hier immer mit maximaler Leistung der "VERBRAUCH" errechnet wird, sollten die Zusammenhänge mal erläutert werden.

Was ein PC tatsächlich an elektrischer Energie "verbraucht" kann man nur mit einem geeichten Stromzähler oder entsprechenden Equipment erfahren.

Ein elektrisches Gerät verbraucht keine Energie in "W" (Leistung) ,sonder in "Wh" (Arbeit). Eigentlich wird Energie nur umgewandelt. Da man die Wh auch direkt in € umrechnen kann, darf man im Allgemeinmund von Verbrauch (von Geld) sprechen.

Ich meine, dies ist keine Haarspalterei, das sollte man grundsätzlich im Hinterkopf haben.

Kurz: Auch wenn ein PC max 400W leistet, die kWh 0.30€ kostet uns man 7.5h/Tag spielt, verbraucht er keine 666kWh oder 200€ pro Jahr...

Selbst wenn man den Verbrauch eines ganzen Benchmarks ermittelt hat, sagt das nichts über den Jahresverbrauch aus, als Vergleich mehrerer Gerät jedoch am Aussagekräftigsten...
 
Zurück
Oben