Test GPUs von AMD und Nvidia im Test: 9 Jahre Ober- und Mittelklasse im Vergleich

@duskstalker
Ums kurz zu machen: Ja die 1080 ist effizienter als die Vega64:D Beides jedoch sehr gute Karten.

Ich habe ja meine GTX670 Lightning geliebt. Die ließ sich dermaßen gut übertakten, dass sie laut Benches ein gutes Stück schneller als ne GTX680 war. Mit der Karte wäre man heute noch gut bedient auf FHD.
Meine GTX980 OC war ein sehr netter Zwischenschritt. Aber von meiner jetzigen 1080 OC bin ich dermaßen angetan, dass ich sie noch lange behalten werde:evillol::love: Die packt auch alles in 3440*1440 auf sehr hohen bis maximalen Details >70FPS
 
Taxxor schrieb:
Schon, aber wie ich sagte, im Test geht es nicht um die Effizienz, sondern einfach nur um die Leistungsaufnahme, die benötigt wird, um bei Vollast 60fps zu erhalten, was idR der Standard in der Praxis ist.
Habe ich eine stärkere Karte, schraube ich die Settings hoch, habe ich eine schwächere Karte, schraube ich sie runter. In jedem Fall versuche ich möglichst auf fps um die 60 zu kommen(die 144Hz Gamer mal ausgenommen, aber selbst als solcher würde ich in einem Spiel wie WoW eher auf 60 cappen).
Naja, es geht halt darum das dieser Vorgang dazu benutzt wurde um die Effizienz zu ermitteln. Und der Vorgang ist halt sehr Fragwürdig. Verstellt man etwas an den Einstellungen, reagieren nicht alle Karten gleich.

Praxisorientierte Tests machen nur Sinn, wenn man allgemein gültige Tests vorranstellt. Alleine haben sie keine Aussagekraft. Und viele CB Tests sind halt nur Praxisnah.
 
Taxxor schrieb:
Gut, es gibt Spiele da benötigt meine GPU mit 100% Auslastung teilweise bis zu 50W mehr als bei anderen Spielen mit der gleichen 100% Auslastung, daher kann man den Einwand verstehen, dass die Verbrauchswerte hier nicht vergleichbar sind, wenn nicht alle mit gleichen Settings durchgeführt werden.

Allerdings - genau deshalb sollte man hier das gleiche einstellen. Auch wenn bei der GTX 460 dann nur 4FPS rauskommen...die GTX 460 wird allerdings auch mit "niedrigeren" Settings @100% GPU Last immer noch in etwa das gleiche verbrauchen.
Allerdings nochmal, ein solcher Test hätte keine Praxisrelevanz, da eben niemand mit einer GTX460 in Settigns spielen würde, in der sie unter 10fps produziert, somit wäre der Verbrauch bei diesem Szenario völlig irrelevant.
Deswegen wurde ja im Performance-Teil des Tests mit zum Teil 2FPS in 4k gebenched....hätte man sich auch sparen können, keiner "spielt" mit 2FPS ....dennoch ist es für die Vergleichbarkeit der Performance hier eben wichtig gewesen das gleiche einzustellen.

Wenn man schon für jede GPU andere settings einstellt für die Leistungsaufnahme-Messung, dann sollte man aber auch hergehen und diese Settings offen legen. Noch besser wäre es mit GPU-Z während des Messdurchgangs die GPU-Last zu loggen und den jeweiligen Mittelwert über die Testsequenz auch mit angeben.
Am allerbesten wäre es wenn die während des Messdurchgangs aufgenommenen FPS AUCH noch dabei stehen würden.

Ob ich jetzt wirklich AVG 60.0 FPS habe oder evtl. 55 FPS bei der GTX 460, aber z.B. 65 FPS bei Vega sind auch 20% differenz in der "Last" !
Ohne jedwede Dokumentation der Ergebnisse sind die Leistungsaufnahme-Tests so wie HIER dargestellt eben leider (fast) wertlos.
 
  • Gefällt mir
Reaktionen: incurable
incurable schrieb:
Ist Dir klar, dass die "Leistungsaufnahme der Grafikkarte bei 60 FPS in World of Warcraft" mit mutmaßlich je Karte unterschiedlichen Einstellungen gemessen wurde?
Man könnte dazu z.B. einen Framelimiter verwenden. Dann taktet jede Karte bei gleichen Einstellungen nur so schnell, wie sie muss, um 60 fps zu erreichen. Weniger Takt => weniger Spannung. Weniger Takt + weniger Spannung => viel weniger Leistung.
 
Finde es ziemlich bemerkenswert, dass die RX480 in 4K nirgends Vorteile im Vergleich zur 290X ausspielen kann.
Wobei wenn die Settings so gewählt sind, dass auch 3 GB noch gut ausreichen ;-)
 
Zuletzt bearbeitet:
Iscaran schrieb:
Allerdings - genau deshalb sollte man hier das gleiche einstellen. Auch wenn bei der GTX 460 dann nur 4FPS rauskommen...die GTX 460 wird allerdings auch mit "niedrigeren" Settings @100% GPU Last immer noch in etwa das gleiche verbrauchen.
Das wäre zu testen, ich denke schon, dass da doch ganz schön große Unterschiede im Verbrauch herauskommen können, wenn eine Karte einmal 100% ausgelastet ist mit 4FPS und einmal mit 60FPS
Iscaran schrieb:
Deswegen wurde ja im Performance-Teil des Tests mit zum Teil 2FPS in 4k gebenched....hätte man sich auch sparen können, keiner "spielt" mit 2FPS ....dennoch ist es für die Vergleichbarkeit der Performance hier eben wichtig gewesen das gleiche einzustellen.
Ich unterscheide, wie auch CB, hier einfach zwischen einem sturen Leistungstest und einem Praxisnahen Test.

Iscaran schrieb:
Ob ich jetzt wirklich AVG 60.0 FPS habe oder evtl. 55 FPS bei der GTX 460, aber z.B. 65 FPS bei Vega sind auch 20% differenz in der "Last" !
Ohne jedwede Dokumentation der Ergebnisse sind die Leistungsaufnahme-Tests so wie HIER dargestellt eben leider (fast) wertlos.
Hier stimme ich dir zu, wobei man mit der Angabe, dass es bei 60fps gemessen wurde zusammen mit der Angabe dass z.B. eine Vega64 300W verbraucht hat eigentlich ziemlich sicher sein kann, dass eben die Settings soweit angepasst wurden und nicht etwa die frames manuell limitiert wurden. Daher hat es schon einen Wert.
 
  • Gefällt mir
Reaktionen: Colindo
Darkscream schrieb:
Wurden aber nur die Karten gemessen. Macht so auch keinen Sinn weil eine 1080 mit Framelimiter auf unter 1000MHz runter takten würde und mit der dazugehörigen Spannung unter 100W wäre.
Meine Vermutung ist das man es genommen hat weil es sich am großzügigsten (bessesten) anpassen ließ.

Wo steht, dass nur die Karten gemessen wurden (wofür sowohl die PCIe-Stecker, als auch der Slot als Messpunkte verkabelt werden müssen - diesen Aufwand kenne ich bisher nur von THW)?

Und wo liegt das Problem, wenn die 1080 (erwartungsgemäß) unter 100W liegt? Es geht um die Effizienzsteigerung, nicht den absoluten Verbrauch.
 
duskstalker schrieb:
das ist hier im beispiel offenbar nicht der fall - es gibt kein frame limit - wohl aber eine "limitierung" über "settings".

jetzt sind aber die getesteten settings absolut unbekannt, die settings können unterschiedlich viel verbrauch verusachen und skalieren auf jeden fall nicht linear, und schon garnicht zwischen amd und nvidia - nicht bei einem delta von 20% bei 100% load.

kann man vielleicht mal offen legen, was diese settings sind, und wieso es wow sein muss?

Ich bezweifle aber, dass das irgendjemandem hier etwas bringt, denn auch wenn verschiedene Settings unterschiedlich mit den beiden Karten skalieren sollten, wer von uns kann denn sagen, welche Settings dies wie stark tun?
Dass AMD und Nvidia bei max Settings 20% auseinander liegen, sagt ja erst mal nichts darüber aus, ob bei zurückdrehen einer Einstellung beide Karten auch unterschiedlich stark zulegen würden.
Somit würde uns die Offenlegung der Settings nicht wirklich weiterhelfen.
 
  • Gefällt mir
Reaktionen: joomoo
...Wobei man mit der Angabe, dass es bei 60fps gemessen wurde

Achja - dann stell mal ein Game derart ein Dass du 60FPS +-1 FPS OHNE framelimiter hast und das dann auf 20 verschiedenen GPUs, jedesmal exakt so dass diese Bedingung stimmt.

DESWEGEN wäre es viel sinnvoller gewesen den Leistungsaufnahmewert eben anders zu ermitteln. Eben über die Messung der "freien" FPS bei 100% GPU-Last. Wenn eine GTX460 dann halt für die Messung nur 5FPS hat so what....wenigstens ist der ermittelte Wert einigermaßen korrekt übertragbar. So eben nicht ohne das 90% der relevanten Angaben fehlen.(nur z.b.)

EDIT: Eine andere Methode die auch schon angesprochen wurde wäre es gewesen eben genau über einen Framelimiter zu gehen und die niedrigeren Verbrauchswerte spiegeln dann eben die "Effizienzsteigerung" wieder.
 
  • Gefällt mir
Reaktionen: incurable, duskstalker und TheOpenfield
Mal eine Fragestellung in die Runde: Wie würdet ihr denn die Effizienzsteigerung ermitteln, wenn ihr nur den Verbrauch des Gesamtsystems ermittelt?

Bei unterschiedlichen FPS wird auch die CPU unterschiedlich gefordert und hat einen unterschiedlichen Beitrag zum Verbrauch, das ist also nicht Zielführend.
 
  • Gefällt mir
Reaktionen: Iscaran
Nach Ansicht einiger User können wir uns ja glücklich schätzen, dass die 1080 nicht 8-9 mal so teuer wie eine GTX 460 oder HD 5770 ist.

Die 1080 ist schon ein Beast, schade dass die 700er Reihe so stark abgestürzt ist.

Schöner Test CB.
 
@TheOpenfield Das dürfte wohl mit ein Grund sein, warum CB hier mit dem Test WoW bei 60fps gegangen ist, so ist der Verbrauch der restlichen Komponenten annähernd gleichbleibend über alle Karten.
Den Punkt habe ich bisher auch noch gar nicht bedacht.
 
TheOpenfield schrieb:
Wo steht, dass nur die Karten gemessen wurden (wofür sowohl die PCIe-Stecker, als auch der Slot als Messpunkte verkabelt werden müssen - diesen Aufwand kenne ich bisher nur von THW)?

Und wo liegt das Problem, wenn die 1080 (erwartungsgemäß) unter 100W liegt? Es geht um die Effizienzsteigerung, nicht den absoluten Verbrauch.
Das siehst du an den Messwerten, eine Founders braucht 180W bis zum PT, da sie manchmal runter taktet oder manchmal nicht voll ausgelastet wird passen 178W voll rein ;)
Wie willst du die Effizienzsteigerung messen wenn die Karte nicht mal richtig hoch taktet und weit unter dem läuft was man Sweetspot nennt?
 
Foxman schrieb:
Die 1060 steht immer noch sehr gut da. War gut investiertes Geld damals :)

Die hat bei mir letztes Jahr eine 660 Ti abgelöst, bin super zufrieden. So schnell brauche ich sicher keine neue :)
 
Roche schrieb:
Viele behaupten ja, bei Polaris hätte sich nichts getan in Sachen Energieeffizienz.
Ich habe letzte Woche meine RX470 durch eine RX580 ersetzt [Bruder brauchte dringend eine GPU, also hat er meine RX470 bekommen]

Ich also fix hin und den Stromverbrauch [RX470] vs [RX580] verglichen.

[75W] Desktop Idle [71W]
[96W] Film @ VLC [79W]
[100-130W] Film auf YouTube im Firefox [78-88W]
[312W] Metro Last Light Redux [338W@Standardeinstellungen] [301W@OC+UV]

Hinweis: Sämtliche Verbrauchswerte beziehen sich auf den kompletten PC incl. Monitor & Peripherie.

Der Polaris-Refresh macht also gerade bei der Filmwiedergabe im Browser einiges besser.
Das lustigste ist, dass sich der Refresh sehr viel schöner übertakten und untervolten lässt.
Trotz mehr Performance in Metro weniger Verbrauch.
 
Zuletzt bearbeitet:
Guter Punkt @TheOpenfield !
Dann wäre wohl am besten man nimmt ein Framecap bei 60 FPS und stellt das dann so ein dass es auf der SCHWÄCHSTEN GPU noch erreicht wird...

Die 1080 läuft halt dann mit 5% Last. Aber da alle GPUs 60FPS leisten müssen ist die CPU Last gleich. Was ebenso durch die gleichen Settings gewährleistet ist.

Was übrigens, das hatte ich auch noch gar nicht im Blick, ja bei Messung des Gesamtsystem und dem Wechseln der Game settings auch reinschlägt wenn man alle Settings "anpasst" an die GPUs ...jedes Setting hat schliesslich auch einen anderen CPU Impact.

Also wäre dann die beste Methode wohl eben Framecap und Settings so dass die schwächste GPU eben 60 FPS liefert.
 
Darkscream schrieb:
Das siehst du an den Messwerten...

Eben nicht, ohne entsprechenden Aufwand lässt sich das nicht direkt Messen - allerhöchstens (mehr oder weniger akkurat) in einer indirekten Messung.

Und ja, der "Sweetspot" kann natürlich zusätzliche Auswirkungen haben, das will ich nicht bestreiten. Allerdings kennen wir auch nicht den Rahmen, in welchem man sich hier befindet. Und mit den aktuellen Generationen kann man ohnehin nur selten von "konstantem Takt/Spannung" sprechen.

Stimmen deswegen auch der Allgemeinheit hier im Thread zu: CB, bitte Details zu diesem nicht-trivialem Thema ;)
 
Zurück
Oben