Test Grafikkarten-Benchmarks: CS:GO, Dota 2, LoL, WoT und WoW in Ultra HD im Vergleich

Igoo schrieb:
In Dota verliert man in 16:10 Links und Rechts etwas vom Bild da das Bild "gestreckt" wird. Man hat sogar Nachteile im Vergleich zu 16:9

Was aber an den Herstellern der Spiele liegt. Denn anstatt das Bild an der Vertikale zu orientieren, orientiert man sich an der Horizontale, was an sich schon blödsinnig ist.
Es ist auch total Inkonsistent. Auf einem 4:3 Bildschirm hat man deutlich mehr Bild in der Vertikale als auf einem 16:9.
Auf einem 16:10 dagegen hat man weniger als auf einem 16:9. Wo ist da die Logik?

Entweder sind die Hersteller gefragt da auf zu räumen, oder eben die Treiberprogrammierer.
 
EchoeZ schrieb:
Ein elektrisches Gerät verbraucht keine Energie in "W" (Leistung) ,sonder in "Wh" (Arbeit).

Falsch! Verbraucher werden mit Watt angegeben damit man es ganz schnell in die KWh umrechnen kann.

EchoeZ schrieb:
Eigentlich wird Energie nur umgewandelt.

Korrekt aus Strom wird Wärme und damit handelt es sich um den bekannten Elektischen Verbraucher.

EchoeZ schrieb:
Da man die Wh auch direkt in € umrechnen kann, darf man im Allgemeinmund von Verbrauch (von Geld) sprechen.

Also mache ich aus 700 Watt halt 0,7 KWh, aus 400 Watt 0,4 KWh usw....

EchoeZ schrieb:
Kurz: Auch wenn ein PC max 400W leistet, die kWh 0.30€ kostet uns man 7.5h/Tag spielt, verbraucht er keine 666kWh oder 200€ pro Jahr...

Er leistet keine 400 Watt sondenr verbrauch sie da es nun mal ein Verbraucher ist. 3000 Watt (3 KW) in 7,5 Stunden = 0,90 Cent pro Tag. Das sind somit 3 KW am Tag und damit 1095 KW im Jahr und damit zahlt man bei 30 Cent genau 328,5 € für den Rechner ohne Monitor. Wenn dieser tatsächlich jeden Tag 7,5 Stunden brummt und immer 400 Watt verbraucht, was natürlich auch variieren kann da es auch auf das Spiel etc. ankommt und man sicherlich nicht immer die gleichem bedigungen hat. Also keien Ahnung wie du auf die 666 KWh und 200 € gekommen bist.
 
Leute...
Momentaner Verbrauch => W
Verbrauch über einen bestimmten Zeitraum => Wh

Entweder sind die Hersteller gefragt da auf zu räumen, oder eben die Treiberprogrammierer.
Die Treiber und deren Programmierer haben damit nicht viel am Hut. Das Problem ist wohl eher, dass komplett ignoriert wird, dass andere Formate als 16:9 überhaupt existieren - genau, wie früher fast alle Spiele fest auf 4:3 programmiert wurden. Und wenn es bei einem aktuellen Spiel mal nicht an der Darstellung scheitert, dann am GUI.

Man könnte es eigentlich auch so machen: Alles, was breiter ist als 16:9, bekommt mehr Breite, und alles, was schmaler ist, mehr Höhe. Problematisch an dem Ansatz ist lediglich, dass der FOV-Wert damit so ein bisschen seine eigentliche Bedeutung verliert.
 
Find ich echt Klasse. E-Sport Titel immer willkommen.

Mich würde zu dem sehr interessieren um wieviel die Karten sparsammer werden wenn man z.B. V-Sync aktiviert und somit die GPU Last in manchen Titeln wie z.B. Diablo3 reduziert. Da brauch ich keine 100 Frames. Wie auch im Artikel drin steht ist das einfach verbrannte Leistung. Wär schön zu sehen wie sich die Karten dann verhalten.
 
Stromverbrauch hin oder her...

Wer sich eine Grafikkarte jenseits der 300 € leistet, der kommt auch mit den minimal erhöhten Stromkosten klar.
Ansonsten muss ich mir die Graka kaufen, mit der das Spiel gerade so noch vernünftig läuft, denn damit spart man
Strom- und Anschaffungskosten. ;)

Die Effizienz jedoch ist sehr interessant (W/FPS). Daraus lässt sich doch auf die Treiber- und Programmierqualität schließen.

Nochwas...

in diesem Test wären tatsächlich noch ältere High-End Modelle interessant, soweit sie 4K noch einigermaßen darstellen können. (z.B. HD 7970 oder GTX 680)
 
Zuletzt bearbeitet:
Cool Master schrieb:
Falsch! Verbraucher werden mit Watt angegeben

Falsch die W sind immer noch W/H:p
Mit W pro was? Jahre, Monate ? kann nicht mal der Pro was Anfangen :rolleyes:

Gut jetzt kann man als Regierung umschwenken bei Musik 1200W Pmpo ?WTF? ist das,
Sry ich hab dieses Pmpo sehr selten gehört............


Was sind dann meine 2 Kompakt LS mit 98W, Goa Party;)
(Du siehst wo das hinführt ..... 48W Real @ 8 Ohm am VS reichen meist aus um die Nachbarn zu terrorisieren )
 
Zuletzt bearbeitet:
Oswald868 schrieb:
Stromverbrauch hin oder her...

Wer sich eine Grafikkarte jenseits der 300 € leistet, der kommt auch mit den minimal erhöhten Stromkosten klar.
Ansonsten muss ich mir die Graka kaufen, mit der das Spiel gerade so noch vernünftig läuft, denn damit spart man
Strom- und Anschaffungskosten. ;)

Stimmt, WENNN!!! die Grafikkarte die viel mehr verbraucht auch viel schneller wäre!

Das ist nicht der Fall und auch ein Kriterium welches durchaus berechtigt ist.

Also wenn ich eine Graka um 400€ kaufe die z.B. im Gesamtsystem 500W verbraucht neben einer Graka die, die selbe Leistung hat (je nach Spiel +-5%), gleich viel kostet und ca. 100W++ weniger verbraucht. Warum sollte ich dann den Stromfresser kaufen?

Also zieht dein Argument nur teilweise.
 
Amko schrieb:
Warum sollte ich dann den Stromfresser kaufen?
.

Das kommt darauf an was jeder 1^zelne zahlt,
was willst mir mit meinen 13,9 Cent sagen.

Jo kauf dir eine 980TI Super OC,
obwohl eine Fury X günstiger ist.

Obwohl ich mit der Leistung einer 760/7870 zufrieden bin.
Hauptsache das Maul aufgemacht?

Edit:
Der EU Markt kann AMD am Arsch vorbei gehen,
der meiste Absatz ist im Asiatischen als auch US Gebiet und die zahlen 5,6-9,9Cent(Dollar) KW

btw; Deutschland hat in der EU den höchsten Preis pro Kw/H deshalb betrachtet ihr euch als Nabel der Welt:evillol:
Das sind im EU Schnitt nur 33,33% blabla Euros mehr,
Sicher du bist der Nabel der Welt.

Nur den Rest Interessiert deine Deutsch-Rechung nicht mal einen Furz bzw. nicht mal das,
Oh Wait wie kann ein Freund im teuren Bayern bloß 22,8Cent/KW zahlen.

Ihr Deutschen seid meist bequeme Volldeppen;)
....................................................................................................................................
Politik hat da nichts zu suchen,
Aber ich hoffe es haut eurem Staat die Deutsche Bank sowas von um die Ohren,
vielleicht kommt ihr Deutschen Ich bin Gott .... mal auf den Boden zurück.............:lol:

Ich hoffe die EU lässt euch alleine, und ihr werdet das Armuts Asien von Morgen,
soviel gehobene Scheisse hab ich noch nicht gesehen
 
Zuletzt bearbeitet:
HisN schrieb:
Aber warum nur so wenig FPS in CSG.
In UHD müsste man doch den 300 FPS Engine Limit nahe kommen.

Und zwar im CPU Limit.

Du kannst das 300 FPS Limit über die Konsole sogar entfernen mit dem Befehl: FPS_max 0

Ist aber nicht empfehlenswert, da dadurch sehr starke FPS Schwankungen enstehen, ich habe die FPS bei mir auf 200 limitiert mit FPS_max 200

beachtlich das du in 4K auf fast 300 FPS kommst, ich hatte mit Downsampling bei meiner 7990 in 4K und Ultra Settings ungefähr 100 FPS.
 
zeedy schrieb:
Hab selbst nur die ersten paar Sätze gelesen und kann mich da nur wiederholen: es gibt hier auf CB viel, viel mehr verblendete Nvidia Fanboys, die in AMD Threads besonders aktiv bzw offensiv sind. Ich bin ja schon seit einigen Jahren dabei, nicht "erst" seit 2012, da hab ich mich dann endlich registriert, nachdem ich diesen Quatsch, der hier so selbstbewusst kund getan wird, nicht mehr kommentarlos lesen konnte.
iHabAhnung schrieb:
Die Schlimmsten sind eindeutig die AMD-Kinder. 2014 schreiben sie, wie knapp bemessen doch die 4 GB Speicher einer GTX 970 und 980 schon für Full HD sind. 2015 erzählen dann die gleichen Leute, dass 4 GB Speicher bei einer R9 Fury X für UHD auch in 2 Jahren problemlos reichen werden.

Verringerter Stromverbrauch zählt selbstverständlich nur dann als Argument, wenn es sich um eine AMD-Karte handelt. Erwähnt man dies als Vorteil einer Nvidia-Karte, ist man entweder süchtig nach Computerspielen oder lebt in Armut.

Wird ein neuer AAA-Titel aus Nvidias GameWorks-Programm getestet, ist man wieder die nVidia-Base. Fehlt das einzige Mantle-Spiel (Release 10/2013) beim Test der Fury X, liegt dies natürlich nicht daran, dass der Titel veraltet und irrelevant ist, sondern dient zur Beeinflussung der Testergebnisse zu Gunsten Nvidias.

Genau das meine ich. Schau dir den mal an, iHabahnung...kann ja wohl nur ironisch gemeint sein. Guck dir mal an wie oft er, als offensichtlicher Nvidia Fanboy, in AMD Threads kommentiert. Jeder dieser Kommentare ist negativ.
Eine Diskussion mit dem ist völlig sinnlos, man dreht sich im Kreis, jemand wie er ist nicht einmal in der Lage auf Argumente einzugehen, stattdessen wird er sich einfach immer wieder wiederholen.
Ergänzung ()

Cool Master schrieb:
Falsch! Verbraucher werden mit Watt angegeben damit man es ganz schnell in die KWh umrechnen kann.
Was ist denn das für eine Aussage? Bei Haushaltsgeräten wird mit der Watt Zahl die maximale elektr. Leistung angegeben, die die Geräte der Steckdose entnehmen können.

Und wenn du schon klugscheißen willst:
Cool Master schrieb:
Korrekt aus Strom wird Wärme und damit handelt es sich um den bekannten Elektischen Verbraucher.


Er leistet keine 400 Watt sondenr verbrauch sie da es nun mal ein Verbraucher ist. 3000 Watt (3 KW) in 7,5 Stunden = 0,90 Cent pro Tag.
Dann bleib mal auch korrekt. Energie wird nicht verbraucht... Leistung ist Leistung und Verbrauch ist Verbrauch. Schulphysik und so? Leistung ist Arbeit pro Zeit, also (umgewandelte) Energie/Zeit.
 
Zuletzt bearbeitet:
iAtNeH schrieb:
Falsch die W sind immer noch W/H:p
Mit W pro was? Jahre, Monate ? kann nicht mal der Pro was Anfangen :rolleyes:

Wenn man von Strom Verbrauch spricht sind es natürlich Watt je Stunde ;) Ich dachte ich musste es nicht erwähnen...

zeedy schrieb:
Dann bleib mal auch korrekt. Energie wird nicht verbraucht... Leistung ist Leistung und Verbrauch ist Verbrauch. Schulphysik und so? Leistung ist Arbeit pro Zeit, also (umgewandelte) Energie/Zeit.

Man muss ja nicht den Korinthenkacker raus lassen oder ;)
 
Wenn man von Strom Verbrauch spricht sind es natürlich Watt je Stunde Ich dachte ich musste es nicht erwähnen...
Die Zeit steckt bereits im Watt drinnen. Denn es ist bereits definiert als die (Verlust)leistung also als Energie pro Zeiteinheit in [Nm/s]. Das ganze verhält sich analog wie die einfachen Bewegungsgleichungen: Die Wattzahl "entspricht" der Geschwindigkeit, während die gesamte verbrauchte Energie der Strecke entspricht. Deshalb sagt man dort auch nicht mein Auto bewegt sich mit 30 km/h pro Stunde.
 
Zuletzt bearbeitet:
Stromverbrauch hin oder her...

Wer sich eine Grafikkarte jenseits der 300 € leistet, der kommt auch mit den minimal erhöhten Stromkosten klar.
Beim Verbrauch geht es mir persönlich nicht ums Geld sondern darum, dass man mehr Abwärme auch aus dem Gehäuse schaffen muss, dass die Lautstärke oder die Temperaturen höher sind. Ob man 10€ mehr oder weniger im Jahr für Strom hinlegen muss spielt hier glaube für niemanden eine Rolle.
 
Na-Krul schrieb:
Beim Verbrauch geht es mir persönlich nicht ums Geld sondern darum, dass man mehr Abwärme auch aus dem Gehäuse schaffen muss, dass die Lautstärke oder die Temperaturen höher sind. Ob man 10€ mehr oder weniger im Jahr für Strom hinlegen muss spielt hier glaube für niemanden eine Rolle.

Dazu gibts nach meiner Meinung die Lautstärketests, Temperaturtests bzw. Tests ob die Karte bei hohen Temps throttelt... Allerdings kann man ein Testgehäuse nur selten mit seinem eigenen vergleichen.
 
iAtNeH schrieb:
Das kommt darauf an was jeder 1^zelne zahlt,
was willst mir mit meinen 13,9 Cent sagen.

Jo kauf dir eine 980TI Super OC,
obwohl eine Fury X günstiger ist.

Obwohl ich mit der Leistung einer 760/7870 zufrieden bin.
Hauptsache das Maul aufgemacht?

Sachte mein Freund, hier war NIE die Rede von Nvidia und AMD. Aber Fanboys müssen immer wieder zurück zu dem Thema.

Hier war die Rede von zwei "ERFUNDENEN" Karten.

Lies nochmal ohne deine Fanboy-Brille und beantworte dann meine Frage, du wirst sehen, du wirst mir Recht geben ;-)

Mir doch egal ob AMD oder Nvidia..Das was mir einen Mehrwert gibt zum selben Preis beschert, wird gekauft, Ende.
 
Und wenn man dann mit der Fury X die FPS für CS mit dem FPS Target im Treiber noch fest auf 120 setzt, spart man nochmal ..... X % Energie ein?
Sorry leute .. aber von diesem Gespann bin ich nicht.

Am liebsten hätte ich nen doppelten Chrom Auspuff am Netzteil hängen und n Gaspedal unter dem Schreibtisch.
Ich kauf mir doch keinen Ferrari damit ich mit Energieffizienz angeben kann, sondern weil er schnell und laut ist.

Das hier ist so wie Vegetarier die auf nem Grillfest versuchen mit Argumentationen zu kommen.

mfg,
Max
 
Wo hab ich geschrieben dass ich laute Rechner toll finde? Please quote me :)
Wenn du das mit dem Auspuff meinst, dann ist deine Anspielung sehr weit hergeholt, ergo "hauptsache was geschrieben".

Wo hab ich was von nem 60Hz Monitor geschrieben? Please quote me again :)
Wusstest du dass man auch mit 200Fps auf nem 60Hz Monitor spielen kann? Wusstest du weiter, dass das Spielerlebnis hierdurch sehr wohl steigen kann? Oder war dies "nur" die zweite haltlose Anspielung, um nicht zu behaupten Anstachelung deinerseits?

Defakto gibt es keinen vernünftigen Grund in dieser Klasse von Hardware aufgrund von einigen Cents an Stromkosten zu verzweifeln. Und wenn dem doch so ist, dem Gnade Gott. Würde mal jemand ausrechnen wie viel Strom ein Monitor bei 2 Stunden ComputerBase Forum am Tag benötigt?
Wegen dem relativ hellen Hintergrund und so ...

mfg,
Max
 
Zuletzt bearbeitet:
100% Last auf der Gpu = mehr Leistungsaufnahme = mehr Wärme = mehr Wärme muss abgeführt werden = mehr Lautstärke. Einfach und verständlich, oder? Das Geld interessiert in der Tat nicht.
Meine Aussage bezüglich fps und Hz war allgemein gehalten und nicht auf dich gemünzt. Aber auch gerne bei dir, ich habs eben ausprobiert und CS:GO auf dem 144Hz Monitor mit 160 und dann mit 220fps laufen lassen, mehr packt meine Grafikkarte leider nicht. Für mich war zwischen beidem kein Unterschied ersichtlich. Aber ich will da niemandem Illusionen nehmen.
 
max_1234 schrieb:
Würde mal jemand ausrechnen wie viel Strom ein Monitor bei 2 Stunden ComputerBase Forum am Tag benötigt?
Wegen dem relativ hellen Hintergrund und so ...

mfg,
Max

Wenn du jemanden gefunden hast, der diese Berechnung durchführen will => bitte zu mir schicken. Der kann dann gleich ausrechnen wie viel W mein Deckenventilator nachts verbraucht. Sollte den wohl aus Stromkostengründen im Sommer bestimmt abstellen :freak:

Auf der einen Seite sage ich: "Ja man sollte schon ein bisschen auf den Verbrauch achten" auf der andren Seite betreiben genau die Leute, die immer laut danach schreien irgendwo totalst veraltete Elektrogeräte (Waschmaschine, Geschirrspüler, Wasserkocher, Toaster, Föhn, Rasierer, Glätteisen, Pumpen und co - könnte man erweitern mit Dämmung der Fenster/ des Hauses etc. - double standards)
 
Zurück
Oben