Test GPUs von AMD und Nvidia im Test: 9 Jahre Ober- und Mittelklasse im Vergleich

Schaby schrieb:
Effizienz hat nichts mit dem max. Verbrauch zu tun. Und die kann man halt nur ermitteln, indem ich die Karten zu 100% auslaste und dann Gegenüberstelle, wieviel Leistung dann jede Karte bringt.
Aber dann hast du doch genau den max Verbrauch oder etwa nicht? Ich sprach ja auch nicht von Effizienz.

Und wie du schon sagtest, Auslastung und Verbrauch kann man nicht linear runterrechnen, man kann aber durch die überall mit verschiedenen settings angepeilten 60fps eine fps/Watt Angabe machen die auch wenigstens teilweise praxisnah ist (Wer spielt WoW mit 5fps).

Wenn die Settings jeweils so angepasst wurden, dass jede Karte eben ca 100% Auslastung hat und damit 60fps liefert, dann passt das doch.
Über die Karten hinweg lässt sich dann aber auch nur der Verbrauch und nicht die Effizienz vergleichen, denn dafür hätte man überall die gleichen Settings und so unterschiedliche fps haben müssen.
Aber darum geht es in der Tabelle ja auch nicht, sondern nur um die Leistungsaufnahme bei für PC Spieler typischen Settings für die jeweiligen Karten
 
MaexxDesign schrieb:
Bei der Effizienz der Vega ist aber viel Luft nach oben.
Sie ist sogar laut diesen Tests noch schlechter als bei deren Vorgängern.
Ich denke das liegt daran, dass Vega 64 weit über dem Sweetspot läuft, um mit der 1080 mithalten zu können. Vega 56 wäre bei der Effizienz bestimmt AMDs beste Karte.

Shoryuken94 schrieb:
Dann verstehst du den Test nicht. Es geht hier um den Generationsvergleich und den Entwicklungsstand der Karten. Wenn du einen Vergleich zwischen den Karten zur Marktkonkurrenz willst, dann schau dir den Test zur jeweiligen Karte an.
Auch ein Vergleich zwischen GTX 680 und Titan Xp ist doch uninteressant.
 
  • Gefällt mir
Reaktionen: Colindo
habla2k schrieb:
Ich zocke jetzt seit über 20 Jahren. Und ich musste während dieser Zeit niemals jährlich upgraden. Was für eine Zeit soll das denn gewesen sein?
Ich sagte ja spätestens nach zwei Jahren (wenn man noch vernünftig spielen wollte). Die Entwicklung in den Anfangszeiten der 3D Chips war bei weitem viel schneller und somit die Grakas viel kurzlebiger als sie es jetzt sind.
 

Anhänge

  • 3d1.jpg
    3d1.jpg
    94,7 KB · Aufrufe: 544
  • 3d2.jpg
    3d2.jpg
    94,8 KB · Aufrufe: 543
Taxxor schrieb:
Über die Karten hinweg lässt sich dann aber auch nur der Verbrauch und nicht die Effizienz vergleichen, denn dafür hätte man überall die gleichen Settings und so unterschiedliche fps haben müssen.
Genau, das habe ich auch in meinem Beitrag davor geschrieben (ich hasse es mich selbst zu zitieren):
Schaby schrieb:
Richtig, der Fehler ist, die 60 FPS zu loggen. Richtig wäre es gewesen, das Setting festzulegen und dann die FPS zu ermitteln.
 
joomoo schrieb:
Auch ein Vergleich zwischen GTX 680 und Titan Xp ist doch uninteressant.
Dürfte wohl noch mehr Leute interessieren als manch eine andere Paarung hier im Test ^^

Man kann es drehen und wenden wie man möchte, es geht hier halt schlicht darum, wie sich die verschiedenen Generationen entwickelt haben. Und in den Originalartikeln worden ja auch nur Karten des gleichen Herstellers verglichen. Also wie es sich bei Nvidia und wie bei AMD entwickelt hat. Dabei interessiert der Einführungspreis relativ wenig.
 
Sehr interessant. Danke für die Zusammenstellung.

Ich bin (in der Übersicht) von der GTX 580 zur 290X hin zur 1080ti gegangen und hab damit die Leistung quasi immer verzweieinhalbfacht.
Gutes Maß für die nächsten Überlegungen...
 
Wenn man die FPS nicht capped und nicht im CPU-Limit ist sollte jede GPU auf nahezu 100% Last (Mittelwert) laufen.

=> Wenn man die Effizienz Generationenübergreifend vergleichen will stelle ich 1 Game derart ein dass es mit der stärksten GPU NICHT im CPU-Limit ist.
GPU Vega = 100% ausgelastet und ich messe den Verbrauch und ermittle die FPS.

Analog die schwächeren Karten, welche dann EBENFALLS mit 100% Last dabei sind, nur eben weniger FPS liefern.

Logge die Watt. Ermittle FPS/Watt. Vergleiche dann FPS/Watt-Zahl. Fertig.

Alle Karten im "gleichen" setting und @100% Last. Übergreifend und gut vergleichbar da identisches Rendering.

Wenn ich "bessere" Datenbasis haben will mache ich das mit mehr als 1 Game und mittele dann die erhaltenen FPS/Watt. Oder normiere erst jeden FPS/Watt/Game auf 100%-0% und mittele dann die erhaltenen %-Werte zu einem Gesamt-Game-Übergreifenden Wert.
 
  • Gefällt mir
Reaktionen: duskstalker
ich vermisse etwas die 780 TI und 980 TI ^^
Ergänzung ()

GERminumus schrieb:
Waren die Release Preise der 290x zur 780ti nicht ähnlich?
Sowie zwischen fury x und 980ti?

exakt. Deswegen gehören die auch in den Vergleich und nicht die winzigen Nvidia "Mainstream" Chips ^^

Und dann sollte man noch im Hinterkopf haben dass die Customs da alle ~15% schneller als das Ref Design waren. Manuell OC auch schnell 20-25%. Bei der 780 TI sind es im OC Test mit der Ref Karte fast 30%
https://www.computerbase.de/artikel...ce-gtx-780-ti-vs-gtx-titan-test.2287/seite-10
 
Zuletzt bearbeitet:
Brixx schrieb:
Ich bin überrascht, dass die GTX 980 die GTX 1060 schlägt, die waren doch bei erscheinen der 1060 noch knapper beisammen bzw. die 1060 etwas stärker, oder?

Ne, die 980 war immer etwas vorne im Schnitt, mit OC dann noch etwas mehr.
 
  • Gefällt mir
Reaktionen: Brixx
Schaby schrieb:
Genau, das habe ich auch in meinem Beitrag davor geschrieben (ich hasse es mich selbst zu zitieren):
Schon, aber wie ich sagte, im Test geht es nicht um die Effizienz, sondern einfach nur um die Leistungsaufnahme, die benötigt wird, um bei Vollast 60fps zu erhalten, was idR der Standard in der Praxis ist.
Habe ich eine stärkere Karte, schraube ich die Settings hoch, habe ich eine schwächere Karte, schraube ich sie runter. In jedem Fall versuche ich möglichst auf fps um die 60 zu kommen(die 144Hz Gamer mal ausgenommen, aber selbst als solcher würde ich in einem Spiel wie WoW eher auf 60 cappen).

Zumal, wenn die Settings wirklich so gut gewählt wurden, dass jede Karte bei den 60fps auch voll ausgelastet ist, macht es überhaupt keinen Unterschied ob man jetzt auf 60fps zielt oder überall die höchsten Settings nimmt und den Verbrauch und fps dabei misst.
Die fps, die die Karten bei WoW in 1080p mit max Settings erreichen, kannst du dir eine Seite weiter vorne ansehen.
Nur dass man dann eben Resultate durch Anwendungen hätte, die so in der Praxis nie vorkommen würden, z.B. eben maximale Details mit einer GTX460
Ergänzung ()

Iscaran schrieb:
=> Wenn man die Effizienz Generationenübergreifend vergleichen will stelle ich 1 Game derart ein dass es mit der stärksten GPU NICHT im CPU-Limit ist.
GPU Vega = 100% ausgelastet und ich messe den Verbrauch und ermittle die FPS.

Analog die schwächeren Karten, welche dann EBENFALLS mit 100% Last dabei sind, nur eben weniger FPS liefern.
Und von einer Vega64 runter zur GTX460 völlig unspielbar wäre, deshalb nimmt man dafür die Settings mit der man in der Realität auch spielen würde, um auch einen Verbrauch zu haben, wie er in der Realität auch vorkommen würde.

Gut, es gibt Spiele da benötigt meine GPU mit 100% Auslastung teilweise bis zu 50W mehr als bei anderen Spielen mit der gleichen 100% Auslastung, daher kann man den Einwand verstehen, dass die Verbrauchswerte hier nicht vergleichbar sind, wenn nicht alle mit gleichen Settings durchgeführt werden.

Allerdings nochmal, ein solcher Test hätte keine Praxisrelevanz, da eben niemand mit einer GTX460 in Settigns spielen würde, in der sie unter 10fps produziert, somit wäre der Verbrauch bei diesem Szenario völlig irrelevant.

Andersrum wäre es genau das gleiche. Wenn man WoW auf Low stellen würde und mit den Settings für alle Karten testet, dann hätte man z.B. mit einer Vega 350fps(CPU limit mal außen vor) und mit einer GTX460 60fps

Jetzt verbraucht die Vega aber sehr viel mehr, als wenn man die Settings hochschrauben würde und auf 60fps kommen würde, wobei sie ebenfalls voll ausgelastet wäre, aber weniger fps produzieren muss(Deshalb gab es in manchen Spielen auch Probleme mit Temperatur und Verbrauch der GPUs, wenn diese im Hauptmenü mit 1000fps liefen, obwohl sie laut Anzeige nicht mal leicht ausgelastet waren)

Der realistischere fall ist aber, dass der Nutzer WoW nicht mit 350fps spielt sondern mit 60, also ist der Verbrauch in diesem Szenario auch praxisrelevanter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
Schön das es zum Abschluss der Serie eine vollständige Übersicht aller getesteten GPUs gibt. Super Job @Wolfgang ... war sicherlich eine Menge Arbeit.

Weshalb sich einige hier wieder hochschaukeln? Es geht doch vielmehr darum, einen groben Überblick der Entwicklung in Sachen Effizienz zu erhalten und das ist doch ganz gut gelungen.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: chris333 und Johnny_2018
ich bereue es bis heute keine Geforce 600 gekauft zu haben. Kein NVENC, rausgepatchtes CUDA ENC
nur aus Angst vor Inkompatibilitäten bei der ersten PCIe3.0 Karten. Wenn man bedenkt wie lange sich der Standard gehalten hat im Gegensatz zu den Vorgängern.
 
@Wolfgang / Computerbase
OMG, was für ein toller Zusammenfassender Vergleich, auf sowas hab ich Jahrelang gewartet, vielen Dank!

Schmerzlich hab ich GTA5 im Parcour vermisst, aber ansonnsten Vielen Dank für die tolle Arbeit !
 
  • Gefällt mir
Reaktionen: phoenixtr
Schade, dass hier die sehr angestaubte Auflösung von Full HD getestet wird und dazu gibt es dann 4K. Was ist mit WQHD als Auflösung? Das fehlt mir hier und es ist doch für Spieler auch viel realistischer als 4K!
 
joomoo schrieb:
Was wäre denn daran fair, wenn man unterschiedlich teure Modelle vergleicht?


Die Klassen definieren sich nicht über die Namen, sondern hauptsächlich über den Preis. Ansonsten hätte Nvidia ja auch einfach die "Titan V" "1090 Ti" oder so nennen können und dann hätten wir hier nen Vergleich mit einer 3000€ Karte.
Wusste nicht das ich hier aus mydealzbase surfe, weil preise in die performancewertung miteinbezogen werden. Ist doch einfach vollausbau mit vollausbau zu vergleichen.
 
Leute... Die Überlegung ist doch ganz simpel: da vermutlich nur das Gesamtsystem gemessen wird, sucht man sich ein Spiel, in welchem alle Karten die 60 FPS packen. Mit Framelimiter bleibt somit der Verbrauch des Restsystems konstant und nur die GPUs variieren. Damit lässt sich der relative Effizienzsprung gut ermitteln.
 
Bob_Busfahrer schrieb:
Schaut euch mal in FarCry 5 oder Kingdom Come die Performance von Kepler an...
Ist nur so weil die Referenzkarte mit 900MHz genommen wurde, die zudem noch ins TT läuft und runter taktet.
Meine GTX780 taktete out of the Box mit 1176MHz was 30% mehr Takt ohne zusätzliches OC entspricht. Mit OC waren auch 1320MHz (+45%) drin. Das sind zwei ganz unterschiedliche Balken zumal man den Speichertakt in Afterburner auch noch auf +500MHz ziehen konnte.
TheOpenfield schrieb:
da vermutlich nur das Gesamtsystem gemessen wird
Wurden aber nur die Karten gemessen. Macht so auch keinen Sinn weil eine 1080 mit Framelimiter auf unter 1000MHz runter takten würde und mit der dazugehörigen Spannung unter 100W wäre.
Meine Vermutung ist das man es genommen hat weil es sich am großzügigsten (bessesten) anpassen ließ.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable und ciapal
bemerkenswert wie sich die zweieinhalb jahre alte GTX1080 schlägt. Danke für den Test ;)
 
Zuletzt bearbeitet:
Taxxor schrieb:
Ist das denn wichtig bei diesem Test? 60fps sind 60fps, die 1080 bekommt, da sie in WoW 20% mehr fps bringt, einfach noch ein paar Grafiksettings zusätzlich draufgepackt, eben so lange bis beide Karten die gleichen fps liefern.

ich nehme jetzt mit absicht nicht die zahlen aus dem test, das ist nur eine rein exemplarische methodenanalyse.

das ganze mal gedanklich durchspielen:


vega 64 280w bei 100% load
gtx 1080 180w bei 100% load

vega 64 120 fps bei 100% load
gtx 1080 120 fps bei 100% load

-----------------------------------------
vega 64 0,43 fps pro watt
gtx 1080 0,67 fps pro watt

effizienz:

gtx 1080 = 100%
vega 64 = 64% (zufall :daumen:)

wenn wir jetzt einen titel wählen, bei dem die gtx 1080 20% mehr fps liefert als die vega, sieht das ergebnis so aus:

vega 64 280w bei 100% load
gtx 1080 180w bei 100% load

vega 64 120 fps bei 100% load
gtx 1080 144 fps bei 100% load

-----------------------------------------
vega 64 0,43 fps pro watt
gtx 1080 0,8 fps pro watt

effizienz:

gtx 1080 = 100%
vega 64 = 54%


umgekehrt würde das bedeuten, dass die gtx 1080 in einem titel mit 20% mehr performance in einem framecap, das vega zu 100% auslastet, ~20% weniger last hat und daher auch entsprechend weniger verbraucht.

das ist hier im beispiel offenbar nicht der fall - es gibt kein frame limit - wohl aber eine "limitierung" über "settings".

jetzt sind aber die getesteten settings absolut unbekannt, die settings können unterschiedlich viel verbrauch verusachen und skalieren auf jeden fall nicht linear, und schon garnicht zwischen amd und nvidia - nicht bei einem delta von 20% bei 100% load.

und wieso das dann ausgerechnet wow mit dem größten pro nvidia bias im parkour sein muss, entzieht sich meinem verständnis.


kann man vielleicht mal offen legen, was diese settings sind, und wieso es wow sein muss?
 
  • Gefällt mir
Reaktionen: Baal Netbeck, incurable und tic-tac-toe-x-o
Zurück
Oben