Sennox
Commander
- Registriert
- Mai 2008
- Beiträge
- 2.565
Diese Pseudoargumente wurden hier (anderer Thread) schon zu Hauf widerlegtmiagi schrieb:jo hier
Naja stundenlag Autorennen ist eher selten aber 6 oder 8 Stunden bei Anno auf den Bildschirm starren wie ein Zombie ist so normal dass das Spiel selber darauf hinweist wie lange man schon spielt.
Was du nennst sind Extremfälle (natürlich gibt's die!), leider finde ich gerade keinen Verbrauchstest zum aktuellen Anno.
Alleine wenn man sich seine Aktivitätskurve beim Gaming ansieht muss einem doch klar werden dass die GPU nicht ständig am Limit läuft (was wie du oben siehst ohnehin schwammig definiert ist!).
Und ja, selbst mit SSDs gibt es noch immer gewisse Ladezeiten
Aber nahezu kein Mensch zockt 40 Stunden die Woche, jede Woche, das ganze Jahr über!
Hör auf!
Das machen vielleicht ein paar Pro ESport Teams und da sollen die paar Watt relevant sein?
Ja ne...
Ergänzung ()
Joa da sieht Navi aber, wie schon tausend mal belegt, sehr gut gegen Nvidia aus: https://www.computerbase.de/2019-09...hme-der-grafikkarte-shadow-of-the-tomb-raiderMetallmann schrieb:Mehr Bilder pro Sekunde bei weniger Stromverbrauch.
Die schnelleren Turings verbrauchen auch ein wenig mehr Strom, da bleibt vom Effizienzvorsprung im Falle der 2070 Super ca. 3% über - Wahnsinn!
Ergänzung ()
Siehe meine Screenshots in #239, ich kann's dir technisch nicht erklären weil ich da nicht tief genug drinstecke aber Fakt ist: Der Verbrauch einer Grafikkarte schwankt zwischen verschiedenen Spielen trotz ~100% Auslastung.xexex schrieb:Wo hast du bei abgeschalteten VSYNC nicht durchgehend Vollast? Bestenfalls dann, wenn deine CPU nicht schnell genug die Daten liefern kann oder wenn du dich irgendwo im Inventar oder Ladescreen befindest.
Das obige Beispiel tritt durch die Bank bei diversen Titeln auf.
Darum: 100/99% ist nicht gleich komplette Auslastung!
Vsync ist btw. bei fast allen Titeln standardmäßig "On" und da wir uns mit diesen Verbrauchsdiskussionen ja auch auf die allgemeine Gamerschaft beziehen wollen, kann man davon ausgehen dass viele das wohl auch benutzen werden.
Ich kenn's eigentlich nur aus'm ESport Bereich dass man VSync extra abschaltet, oder wenn man Free/G-Sync hat. Dann rendert die Graka aber auch nicht mehr 100+ Bilder ^^ (jaja schon klar, gibt auch 144/240Hz usw. AdaptiveSync Monitore, müssen wir jeden kleinen Spezialfall abhandeln?!)
Zumal es ja auch immer wieder Engines gibt die nicht ohne weiteres mehr als 60 FPS zulassen (hallo Bethesda).
Ergänzung ()
Im Vergleich zu was? 😅CrustiCroc schrieb:Zumal die Dinger auch viel zu teuer sind.
Vergleichbare NVidias sind doch noch teurer, ich versteh's nicht
🙈
Zuletzt bearbeitet: