Test GPUs von AMD und Nvidia im Test: 9 Jahre Ober- und Mittelklasse im Vergleich

GERminumus schrieb:
Also ist ein 20k teurer Polo gti ein asiatischer Kombi, weil er soviel kostet wie ein kia kombi?
Hä? Habe nie gesagt, dass wenn A und B einen gleichen Preis haben, dass dann A B ist.

Und bitte vergleiche mal den Release preis der fury x und der 980ti dann siehst du das dein Argument nicht stimmt.
980 Ti: 649$ https://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units
Fury X: 649$ https://en.wikipedia.org/wiki/List_of_AMD_graphics_processing_units

Die ti ist das was bei amd das x aus gemacht hat.
Bei Vega gibt's aber kein X mehr.

Nvidia hat dann nur noch Eibe weitere Stufe ( Titan) eingeführt, welche aber nicht als offizielle Gaming Karte verkauft wird.
Also wenn Nvidia die Titan V als Gaming Karte offiziell für 3000€ verkauft hätte, dann würdest du sie gerne als in Tests als Vergleich für ne Vega 64 sehen?

Shoryuken94 schrieb:
Es geht ja nicht um den Preis, sondern um den jeweiligen Technikstand der Generationen!

"Technikstand" ist aber sehr schwer definierbar. Ist damit die DirectX-Version gemeint? Oder nm der Fertigungstechnik?

Taxxor schrieb:
Schneller als was?
1080 Ti

Hatten sie, bis auf die Fury X auch nicht.
Die 290X(2013) stand gegen die GTX780
Die 780Ti(2013) stand über der 290X
Das wars dann auch schon, die 390X stand ebenso nur gegen die 980 und kam nicht gegen die 980Ti an, und die Fury X war die letzte Karte, die sich gegen eine Ti behaupten konnte.

Fury X kam aber viel später als die 980 Ti, wenn ich mich recht erinnere.
 
Toller Test und Überblick für den Kauf eine gebrauchten älteren Karte.

Schön wäre auch mal als Ergänzung ein Test der integrierten GPUs der Prozessoren von Intel und AMD.
Was hat sich da in den letzten Jahren getan und wo stehen die im Vergleich zu alten (uralten) Grafikkarten.

p.s auch als Bitte beim nächsten CPU Test: mal die CPU-Grafiken mit älteren Einsteiger Grafikkarten vergleichen.
 
Mit V-Sync würden aktuelle Karten bei gleichen Einstellungen fast gar nichts mehr ziehen, zumindest keine 100W mehr. Es geht gar nicht anders als über die Einstellungen die gleichen FPS ein zu stellen, dafür ist die Leistung zu unterschiedlich.
In Borderlands hat sogar schon meine GTX780 auf 876MHz (alles außer PhysX auf Anschlag) runter getaktet bei fesgelegten 60 FPS.
Freiheraus schrieb:
Idealerweise sollte es aber ein Titel sein, in dem beide Lager neutral performen
:daumen: Da hast du allerdings recht, ist mir erst beim lesen in den Sinn gekommen das die AMD Karten in dem Spiel im Nachteil sind.
 
joomoo schrieb:
Die 1080Ti hatte aber schon mit der Titan X ihre Konkurrenz, die ebenfalls Enthusiast Klasse war und diese wurde geschlagen.
Nur weil später noch eine weitere etwas stärkere Enthusiast Karte kommt, die mit einer 1080Ti OC gleichzusetzen war, rutscht die 1080Ti nicht aus der Klasse.

joomoo schrieb:
Fury X kam aber viel später als die 980 Ti, wenn ich mich recht erinnere.
Ja viel später, über 3 Wochen sogar. Die 980Ti kam am 1.6. und die Fury X am 24.6.

War die 980Ti nicht sogar die Karte die extra ganz schnell und ohne große Ankündigung auf dem Markt geworfen wurde, um der Fury den Wind aus den Segeln zu nehmen? Ansonsten hätte AMD nämlich wieder die Leistungskrone(abseits der teuren Titan) bekommen.
 
  • Gefällt mir
Reaktionen: Hatch
Könnte mir gut vorstellen, dass die 2060 bei über 300€ landen wird, die 2050 bei über 200€.

Dadurch bleibt die gute alte 7970 weiterhin konkurrenzfähig in der Mittelklasse um die 150€. Die Karte gibts seit Ende 2011, 2013 war sie schon Mittelklasse um die 250€.

Erbärmlich. Das wäre als ob eine Geforce 3 ti mit einer Geforce 8800GT einigermaßen mithalten könnte wenn man 10 Jahre zurück geht.
 
Iscaran schrieb:
Dann käme vermutlich auch was sinnvolles und interpretierbares raus.

Sinnvoll und Interpretierbar finde ich auch den Ansatz, den CB gewählt hat. Nur ist der innerhalb der Testreihen nicht ganz einheitlich.

Was die Leistung angeht, wurde der klassische Benchmark-Ansatz gewählt, zu messen, wie viel FPS die Karten bei identischen Einstellungen und sonstigen Rahmenbedigungen raushauen.
Das ist eine "technisch einwandfreie" Herangehensweise, wurde von manchen aber auch immer wieder als unrealistisch/praxisfern kritisiert.

Beim Verbrauch bzw. der Effizienz, hat CB jetzt einen anderen Ansatz genutzt, der versucht ein eher praxisnahes Szenation nachzustellen.
Viele Spieler werden Qualitätseinstellungen wählen, die zu der von ihnen angestrebten Framerate führen (oft 60FPS, weil der Monitor nicht mehr kann), nciht anders herum. Ein Spieler mit einer Mittelklasse-Grafikkarte spielt also wahrscheinlich eher mit halb runtergedrehten Qualitätseinstellungen, als mit schwankenden 30 FPS bei maximaler Qualität.

Man kann Argumente für und gegen beide Ansätze finden. Sowohl für den "synthetischen" als auch für den "praxisnahen". Es ist nur etwas gewöhnungsbedürftig, dass in diesem Test beide vermischt werden.
 
  • Gefällt mir
Reaktionen: Colindo
Die Testübersicht ist sehr interessant und aufschlussreich. Vielen Dank! Der Generationenvergleich über die verschiedenen Hersteller und Leistungsklassen ist damit super einfach. Wer seine spezielle Karte vermisst, kann das Ergebnis ja bis auf ein paar Frames interpolieren. Wir haben doch hier alle mehr als drei Benchmark-Ergebnislisten gelesen.

Wer sich hier nicht wiederfindet, sollte noch einmal die vorangegangenen Ergebnisse und die ausführliche Beschreibung zum Sinn und Zweck der Testreihe durchlesen.
 
Herdware schrieb:
Beim Verbrauch bzw. der Effizienz, hat CB jetzt einen anderen Ansatz genutzt, der versucht ein eher praxisnahes Szenation nachzustellen.
Viele Spieler werden Qualitätseinstellungen wählen, die zu der von ihnen angestrebten Framerate führen (oft 60FPS, weil der Monitor nicht mehr kann), nciht anders herum.
Nur gibt CB eben überhaupt keine Auskunft darüber ob sie das denn so gemacht haben.
Sie könnten auch einfach die fps auf 60 festgesetzt haben und dann die 1080 mit gemütlichen 40% Auslastung betreiben, während die 980 mit 70% Auslastung werkeln muss und die 780 auf Anschlag läuft. Das wäre sogar praxisnah, ich cappe meine fps in vielen Spielen auch auf einen festen Wert, sodass die Karte nicht immer auf Anschlag laufen muss, wenn ich nicht mehr fps brauche.

Da aber eine Vega64 dort 300W verbraucht, gehe ich davon aus, dass eben so lange alles mögliche hochgedreht wurde bis sie auf 60fps gefallen ist.
Was mMn aber praxisfern ist, da viele einfach Vsync anmachen und so auf 60 gecappt werden und die KArte eben nicht voll ausgelastet ist.
 
Naesh schrieb:
...
Wenn mir 2x hintereinander eine GPU hoch geht , warum sollte ich dann noch eine dritte holen?

Ich sage ja nicht, dass AMD schlecht ist, nur für MICH ist die Entscheidung gefallen, dass ich ein besseres Bauchgefühl habe, wenn in meinem PC eine NVIDIA GPU werkelt und keine AMD :)
...

Sorry aber es wäre irgendwie witzig wenn dir jetzt die nächsten 10 Nvidia GPUs abrauchen. Wobei es, wie hier schon erwähnt wurde, eigentlich immer andere Bauteile sind, die der Board-Partner verbaut.
 
Taxxor schrieb:
Die 1080Ti hatte aber schon mit der Titan X ihre Konkurrenz, die ebenfalls Enthusiast Klasse war und diese wurde geschlagen.
Nur weil später noch eine weitere etwas stärkere Enthusiast Karte kommt, die mit einer 1080Ti OC gleichzusetzen war, rutscht die 1080Ti nicht aus der Klasse.
Die 1080 Ti erschien auch nach der Titan X und das war dein ursprünglicher Vergleich.

JA viel später, die 980Ti kam am 1.6. und die Fury X am 24.6.
Offiziell nicht, aber ich meine da gab es extreme Lieferschwierigkeiten wegen dem HBM? Erinnere mich vielleicht aber auch falsch.
 
Taxxor schrieb:
gecappt hätte man das Problem, dass jede Karte unterschiedlich stark ausgelastet wird und so der Nutzen, nämlich die Ermittlung der Energieeffizienz völlig flöten geht.

Man muss die Einstellungen schon so wählen, dass jede Karte voll ausgelastet ist, wobei man dann Probleme bekommen kann, auf die 60fps hoch zu kommen bzw dahin zu fallen.
Richtig, der Fehler ist, die 60 FPS zu loggen. Richtig wäre es gewesen, das Setting festzulegen und dann die FPS zu ermitteln.

Noch besser wäre es aber, wenn man bestimmte Benchmarks dazu verwendet hätte, denn die setzen alles Gleich und die Auswertung ergibt dann eine bestimmte Punktzahl.
 
Poati schrieb:
Sorry aber es wäre irgendwie witzig wenn dir jetzt die nächsten 10 Nvidia GPUs abrauchen. Wobei es, wie hier schon erwähnt wurde, eigentlich immer andere Bauteile sind, die der Board-Partner verbaut.

Nach 2-3 würde ich dann wieder eine AMD verbauen :) Wie gesagt... ich habe nichrs gegen AMD oder NVIDIA. Ich kaufe das, was am längsten hält und die wenigsten Probleme macht.
 
Schaby schrieb:
Richtig, der Fehler ist, die 60 FPS zu loggen. Richtig wäre es gewesen, das Setting festzulegen und dann die FPS zu ermitteln.
Es sollte aber ja nicht die Leistung sondern die Leistungsaufnahme bei einer festen fps Zahl ermittelt werden.
Was bringt es mir zu wissen, dass eine GTX460 in WoW 120W verbraucht, wenn sie dabei nur 5fps generiert?(Wäre zu erwarten mit Settings, in denen eine Vega64 300W verbraucht und 60fps generiert)
 
  • Gefällt mir
Reaktionen: Colindo
vforce schrieb:
Könnte mir gut vorstellen, dass die 2060 bei über 300€ landen wird, die 2050 bei über 200€.

Die 1060 lag doch anfangs genauso über 300€, die Drittkarten auf jeden Fall. Die 2060 liegt dann wohl eher über 400€.
 
Taxxor schrieb:
Es sollte aber ja nicht die Leistung sondern die Leistungsaufnahme bei einer festen fps Zahl ermittelt werden.
Was bringt es mir zu wissen, dass eine GTX460 in WoW 120W verbraucht, wenn sie dabei nur 5fps generiert?(Wäre zu erwarten mit Settings, in denen eine Vega64 300W verbraucht und 60fps generiert)
Was bringt es mir den Stromverbrauch zu vergleichen, wenn die Karten nicht dasselbe rendern?
 
  • Gefällt mir
Reaktionen: Iscaran
joomoo schrieb:
Die 1080 Ti erschien auch nach der Titan X und das war dein ursprünglicher Vergleich.
Ja die Tis erscheinen immer nach den Titans, somit gehören Titan X und 1080Ti zusammen. Titan Xp war da die einzige Ausnahme, die keine Ti als Nachfolger hatte.
Und die Titan V hatte nicht mal eine einzige Gaming Karte in ihrer Architektur.
Ergänzung ()

joomoo schrieb:
Was bringt es mir den Stromverbrauch zu vergleichen, wenn die Karten nicht dasselbe rendern?

Weil du mit deiner RX570 OC wenn du WoW spielst, sowieso andere Settings nutzt als ich mit meiner Vega, somit ist es schon sinnig, unser beider Stromverbrauch in jeweils von uns gewählten Settings zu testen.
 
habla2k schrieb:
Die 1060 lag doch anfangs genauso über 300€, die Drittkarten auf jeden Fall. Die 2060 liegt dann wohl eher über 400€.

Straßenpreis war doch um die 270€ am Anfang oder? Ich glaub halt, dass die 2060 genauso schnell und teuer wie 1070 wird und auch bleibt. Es gibt dann nicht mehr Performance fürs Geld als bei der Vorgängergeneration.
 
Naesh schrieb:
Am beeindruckendsten finde ich den Idle Stromverbrauch von 5 Watt .... ey 62Watt im Idle bei der 6970? Gehts noch? xD

Ich hatte eine 6950 .... Stromverbrauch des Todes of Doom!

Naja nach einer defekten 5870 , einer defekten 6950 bin ich ja dann schlau geworden und habe nurnoch NVIDIA gekauft ... davon ist kein mehr abgeraucht. GTX 570, GTX 670, GTX 770, GTX 970, GTX 1080 (und Frau hat die GTX 970). Ich bleibe da weiterhin den Nvidia Karten treu, zahl ich lieber bisschen mehr und kann die immernoch für gutes Geld verkaufen anstatt die nach 2-3 Jahren in die Tonne zu schmeissen. Oooder meine Frau bekommt die dann einfach.


Also meine HD5870 läuft seit dem ersten Tag noch wie geschmiert ;-)

Nur die massive Leistungsaufnahme, besonders im Idle, ist schon wirklich heftig...


Ansonsten, echt super Gegenüberstellung, vielen Dank CB!
 
vforce schrieb:
Straßenpreis war doch um die 270€ am Anfang oder? Ich glaub halt, dass die 2060 genauso schnell und teuer wie 1070 wird und auch bleibt. Es gibt dann nicht mehr Performance fürs Geld als bei der Vorgängergeneration.

https://geizhals.de/?phist=1478791&age=9999

339€, ich war froh am Anfang eine für 330€ zu bekommen weil die so schnell vergriffen war.

Die 1070 war weit über 400€, dann würde die 2060 also auch über 400€ liegen, wenn du danach gehst.
 
Zurück
Oben