Test Grafikkarten-Benchmarks: CS:GO, Dota 2, LoL, WoT und WoW in Ultra HD im Vergleich

Das reicht mit der aktuellen Generation noch nicht.
Ich sitze vor "echten" 4K (4096x2160) mit ner 290x. In grafisch anspruchslosen Spielen wie SC2, D3 oder GalCiv III funktioniert das problemlos (auch wenn Blizzardspiele als große Ausnahme nur UHD und kein 4K unterstützen... verstehe wer will).
Aber bei anderen kommt man um ne kleine Auflösung leider nicht drumherum. MWO in 2K und grafische Knaller wie Battlefield 4 oder Star Citizen leider nur in FHD.
Sobald ne Graka in letztgenannten Spielen saubere 60fps hinbekommt bin ich geneigt aufzurüsten. Bis dahin ist das Potenzial eh nur verschwendet. Ob die Spiele in FHD mit 120 oder 140fps laufen ist mir da dann auch egal.
 
Wie kann es sein, dass die Fury ohne X nur 5W weniger verbraucht als die Fury mit X???
 
Eine Fury X mit fast kontant über 400 Watt Verbrauch kommt für mich schonmal nicht in Frage.. Das wäre im Jahr 200€ Stromkosten nur für die Karte. Das ist eindeutig zuviel.

Mal davon ab, dass wohl eher das Gesamtsystem 400 Watt zieht als die Karte, hier eine kleine Rechnung:
(angenommen der Strom kostet 22,5 Cent/kW/h)

200€ : 0,225 €/kW/h = 888,89 kW/h

888,89 kW/h : 0,4 kW = 2222,22 h

2222,22 h : 365,25 d = 6,08 Stunden am Tag

Und das ist die Zeit unter Vollast, dann muss man nochmal Idle Zeit und andere Dinge dazurechnen.
Sollte man dann noch einen Job haben, hat man definitiv andere Probleme im Leben als seine Stromrechnung..
 
Zuletzt bearbeitet:
Hab mich erst riesig gefreut - das solche Spiele getestet werden.

Aber nicht mal meine GTX 970 ist beim Test dabei ... schade

Genial wäre eine große Übersicht von Grakas gewesen

und am besten auch in FullHD
 
Full HD würde gar nichts bringen, da gurkt man in CS GO am 300 FPS Limit - dann heißts nur "Das Spulenfiepen wurde so unterträglich laut..." ^^
 
Hopsekäse schrieb:
Ansonsten lasst euch von den AMD-Ultras nicht nerven. Ich habe es jetzt lange beobachtet und das Verhalten der harten AMD-Fans ist in letzter Zeit einfach nur noch weit jenseits von lächerlich. Ich habe selbst nur AMD-Karten und fühle mich da eigentlich heimischer als bei Nvidia. Für mich ist das unattraktivste an AMD aktuell nicht mal mit dem Unternehmen oder den Produkten begründet. Das was mich aktuell an AMD am meisten stört, ist die verbohrte und geradezu kriegstreiberische Fan(boy)-Gemeinde. Selbst wenn die Seite plötzlich rot redesigned und in AMD-Base umbenannt würde und man hier ein Nordkorea mit AMD-Fähnchen an jeder Ecke hätte, wo eine R9 380 eine GTX 980 mit 20% bei halbem Stromverbrauch schlägt, würde irgendwo noch jemand her kommen, der jammert, dass es mit Wundertreiber X 25% wären.
bitte verschone uns mit diesem substanzlosen Gequatsche. In jedem AMD Artikel dominieren Nvidia Fanboys, guck dir doch einfach an, was zuletzt in dem Quartalsbericht von AMD los war. Ein Haufen Nvidia Fanboys, die wie immer leidenschaftlich AMD Bashing betreiben, mit unsinnigen Behauptungen und Halbwissen. Das ist, was wirklich nervt.
 
maccaveli schrieb:
Interessant. Also mein Skill ist nicht von der Auflösung abhängig...

@CB
Der Test ist definitiv sehr Interessant. In Zukunft gerne mehr Tests abseits von Triple A Titeln.

Nein das definitive nicht. Man muss sich halt lediglich umgewöhnen, die meisten können das halt nicht. In cs go hat man aber Tatsache einen kleinen Vorteil durch eine 4:3 Auflösung. Köpfe werden dadurch breiter und so ist es leichter Headshot zu setzen, was ich in Full HD mittlerweile aber genau so gut beherrsche wie in 1280 x 1024, wenn nicht sogar besser, weil ich an meine 16:9 Auflösung gewöhnt bin.

Bei einer 4:3 Auflösung ist das FOV übrigens etwas kleiner als bei 16:9, da hat man einen Nachteil, welcher aber eher gering ist.
 
Zuletzt bearbeitet:
Welcher einigermaßen guter Spieler, spielt denn bitte CS:GO über 1920x1080+ und 60FPS?
Absolutes NoGo in CS.GO!
Man hat einfach zwischen Punkt A und B zu viele Pixel dazwischen, dadurch verschlechtert sich das aimen extrem.
Sowas machen höchstens Silver oder GoldNova Jungs.

Die Meisten spielen Cs.Go 1280x720 - 1920x1080 und zwischen 150-350FPS.
Manche Pro's spielen sogar 1024x768 4:3 im stretch 16:9 Modus, um die Hitbox zu vergrößern.

Also macht mal lieber ein Test, indem man sieht welche Grafikkarte bei 1280x720 die meisten(stabile) FPS raushaut, auf einem Server mit 10 Spielern.

Und ob man CS.GO in den kommenden Test aufnehmen soll? Natürlich!!!
Das Game spielen täglich gleichzeitig über 500.000+ Leute.
Aber ohne Ulta HD und so ein quatsch, das braucht kein Mensch, es geht viel mehr um FPS = Skill!
 
Zuletzt bearbeitet:
2x2 DSR statt 8xMSAA wäre interessanter gewesen. Vorrausgesetzt AMD untersützt das inzwischen.

estros schrieb:
Oder die 970 ist CB zu alt, zumindest ein Hinweis, warum eine derart beliebte und aktuelle Karte nicht dabei ist, wär schon gut.
"Alte" Hardware fliegt aus CBs generell etwas schnell raus. Das Ganze soll beim Leser schließlich ein gewiesses Kaufinteresse wecken. Wen kümmerts schon wie viel schneller neue Hardware ist, Hauptsache kaufen. Der Test dient dann lediglich zur quasi Entscheidungsfindung obs das 200 oder lieber das 600€ Modell wird.

Das im Endeffekt auch die GTX 580 für 4k bei niedrigsten Details locker die nächsten Jahre reicht, geht daher leider nicht aus dem Test hervor.
 
Wären Spiele wie WoW, LoL oder DOTA2 und CS:Go gute Spiele im Test?

Auf jeden Fall! Auch wenn vielleicht aus dem aktuellen Test-Ablauf das eine oder andere Spiel ersetzt wird. Warum? Weil WoW, LOL, DOTA2 und CS:GO für Spiele immer noch sehr wichtig sind und entsprechend gespielt werden.

Ich kenne genug Leute in meinem Umfeld, die auch ein Witcher 3 kaufen und spielen, jedoch auch WoW, LoL oder CS:GO und in diesen Spielen mehr Zeit verbringen als in einem Witcher 3. Es wäre also durchaus interessant, ob z.B. die Grafikkarte in WoW oder CS:Go auch gut zurecht kommt und wie.
 
Will-it-Blend? schrieb:
(angenommen der Strom kostet 22,5 Cent/kW/h)
Irgendwie könnte man daraus schließen: Du lebst nicht in Deutschland oder du musst deine Rechnung nicht selbst zahlen.

Aktuell liegt der Schnitt für den Strompreis bei ca. 30 Cent pro kW/h.
 
Sinimini schrieb:
Gibt es da den schon Überlegungen was zu ändern?
Weil auf Dauer ist das dann schon einer Herausforderung

Würde mich auch interessieren. Ich hätte nicht gedacht, dass so viele Spiele Probleme mit UHD haben. Bei Diablo 3 gab es auch sehr lange Grafikfehler beim Mauszeiger. LoL kann ich auch nicht in UHD spielen, weil man dann eine Lupe für den Cursor braucht. Sehr schade, dass es da nicht schneller Updates gibt, die die UI auf die hohe AUflösung anpassen.
 
Ich halte einen Test mit folgendem Szenario für viele Leser für sehr interessant:

- Spiele in diesem Test auf
- Günstigen Grafikkarten wie R9 260, 260X, 270, 270X, 280, R7 350, 360, 370, Iris Pro auf den neuen Broadwell, GTX 770 Ti, GTX 960
- Full HD bzw. 1440p
 
Godyjin schrieb:
Welcher einigermaßen guter Spieler, spielt denn bitte CS:GO über 1920x1080+ und 60FPS?
Absolutes NoGo in CS.GO!
Man hat einfach zwischen Punkt A und B zu viele Pixel dazwischen, dadurch verschlechtert sich das aimen extrem.
Sowas machen höchstens Silver oder GoldNova Jungs.

Nee nicht wirklich, erhöhst halt die DPI von deiner Maus, dauert was zum umgewöhnen aber geht nach kurzer Zeit. Musste damals auch von 200 DPI auf 400 hoch, als ich von 1280 x 1024 auf Full HD gewechselt bin, am Anfang schwer, aber nach kurzer Zeit kam ich wieder genau so gut klar wie vorher.

Man kann Cs go übrigens auch flüssig mit 60 FPS spielen, einfach Vsync Doppelte Pufferung einstellen und über die Konsole die FPS auf 58 begrenzen.
 
Hab ichs überlesen oder welche GTX960 ist das, 2 oder 4 GB?

Die 970 vermisse ich auch, als eines der am meisten verkauften Modelle?!

Wäre doch interessant zu sehen wie die Abstände hier sind.
 
Wolfgang schrieb:
nicht auf den meistgespielten PC-Spielen der Welt

Und was hat WoT damit zu tun?,
außer das Zig Millionen Accounts Registriert wurden z.b. Hami hat doch 5 oder 6 nur fürs Forum:rolleyes:

Dann hätte man gleich ein PS2 nehmen können
 
Zuletzt bearbeitet:
Interessanter Test.

Noch besser wäre zu sehen, welches Kombination aus CPU und GPU man mindestens nutzen sollte um in den getesteten Spielen auf vernünftige Frameraten zu kommen. Und zwar bei den typischen Settings, also nicht 4k sondern eher FullHD, hohe Settings. Damit spielen doch in der Regel die meisten Leute und diese Settings stellen auch kein Hinderniss dar um in die höchsten Spielränge vorzustoßen

Zwar spielen viele CS:GO Progamer tatsächlich in z.B. 1280x1024 oder 1680x1050, niedrige Settings, das sind aber nicht die typischen Settings für "Amateur"-spieler. Ohne das jetzt beleidigend zu meinen: Viele Profi-Spieler haben nicht so wahnsinnig viel Ahnung von der Materie PC an sich und vieles hat sich aus CS1.6 und CS:S eingebürgert. Zu 1.6 gab es sogar die Diskussion auf LAN, ob es sich denn nun eher um 800x600 oder 640x480iger Netzwerk handelt (die dachten wirklich, dass der Wechsel zwischen diesen üblichen Auflösungen einen signifikanten Unterschied auf das Trefferverhalten hat...).

Natürlich ist Intel unangefochten bei der CPU-Rohleistung vorne, allerdings würde sich wohl abzeichnen, dass selbst hoch getaktete Phenom II oder FX oder auch Athlon X4s in Kombination mit einer Radeon 270X oder einer 750ti noch locker für konstant hohe Frameraten in CS:GO, Dota2 und LOL ausreichen. WoW ist natürlich wieder so eine Sache für sich..
 
Computerbase schrieb:
Leistungsaufnahme Gesamtsystem in Watt pro FPS, GeForce GTX 980 Ti normiert auf 100 Prozent
Ich finde diese Zusammenstellung wirklich GRANDIOS! eine ganz tolle Zusammenfassung was die energieeffizienz des Systems betrifft.
Was ich noch als i-Tüpfelchen dazu wissen wollen würde: Wie ist die jeweilige CPU Auslastung in den Szenarien? Ist es immernoch so, dass es Nvidia schafft die CPU-Leistung effizienter zu nutzen? Sprich: Weniger CPU Last bei Nvidia karten bei gleichen Frames --> Weniger leistungsaufnahme oder: Mehr CPU-Last bei MEHR Frames bei Nvidia bei eigtl gleich starker Konkurrenz (980TI und Fury X)
 
Zurück
Oben