Test GPUs von AMD und Nvidia im Test: 9 Jahre Ober- und Mittelklasse im Vergleich

joomoo schrieb:
"Technikstand" ist aber sehr schwer definierbar. Ist damit die DirectX-Version gemeint? Oder nm der Fertigungstechnik?
Einfach die jeweilige Chipgeneration. Im Falle von Nvidia in diesem Fall Fermi (GTX 480) - Fermi Refresh (GTX 580) - Kepler (GTX 680) - Kepler Refresh (780Ti / Titan Black) - Maxwell (980Ti / Titan X) - Pascal (1080Ti / Titan Xp).

Ob man Kepler in zwei Generationen teilen will, da kann man sich streiten, dann könnte man auch noch die 1080 dazu nehmen bzw. die 680 streichen.
 
ich finde, dass diese tests viel zu ungenau sind und viel zu stark bewertet werden!
meine Sapphire RX 580 Nitro+ (absolute standard mainstream Karte) hat in genau den spielen, die dort auch getestet wurden(auf max. einstellungen), mehr wie jede 1060 und 1070 geleistet... für das überholen der werte, die eure 1070ti´s gemacht haben, hat es leider nicht gereicht - Preismäßig sind das aber auch keine gegenspieler! und komisch, das ich seit monaten auf einem 4K bildschirm mit einer Vega 64 Liquid arbeite/zocke und noch nie schlechter wie i.eine 1080 war xdxdxd ... meist gleich auf bis minimal schneller / langsamer wie eine 1080ti!... hm habt ihr wohl zu viele Intel und NVidia schecks angenommen :)?
 
habla2k schrieb:
https://geizhals.de/?phist=1478791&age=9999

339€, ich war froh am Anfang eine für 330€ zu bekommen weil die so schnell vergriffen war.

Die 1070 war weit über 400€, dann würde die 2060 also auch über 400€ liegen, wenn du danach gehst.

Die ausgesuchte Karte war aber auch recht teuer. Die hier gabs anscheinend zum launch für 280€:
https://geizhals.de/palit-geforce-gtx-1060-dual-ne51060015j9d-a1478630.html?hloc=at&hloc=de

Für die 2060 meinte ich die momentanen Preise der 1070. Geht bei 380€ los. Für weit über 400€ würde ja sonst jeder zur 1070 greifen statt zur 2060.
 
@APreacher Natürlich sind diese Behauptungen völlig Objektiv und mit standardisierten Benchmarks untermauert worden?
 
  • Gefällt mir
Reaktionen: [wege]mini, Oneplusfan, TheManneken und eine weitere Person
Schade, dass die vielen alten Spiele die Realität total verschieben...
Schaut euch mal in FarCry 5 oder Kingdom Come die Performance von Kepler an...
Da wischt eine 7970 mit der GTX 780 den Boden...
 
Shoryuken94 schrieb:
Einfach die jeweilige Chipgeneration. Im Falle von Nvidia in diesem Fall Fermi (GTX 480) - Fermi Refresh (GTX 580) - Kepler (GTX 680) - Kepler Refresh (780Ti / Titan Black) - Maxwell (980Ti / Titan X) - Pascal (1080Ti / Titan Xp).
Die Titan Xp kostet 1500€, das interessiert denke ich die wenigsten. Bei der Titan Black ähnlich, kennst du jemanden mit der Karte?

Ob man Kepler in zwei Generationen teilen will, da kann man sich streiten, dann könnte man auch noch die 1080 dazu nehmen bzw. die 680 streichen.
Also doch nicht so "einfach" ;)
 
wieso wird für die leistung pro watt bitte world of warcraft getestet, in dem die gtx 1080 20% mehr fps liefert als vega 64? oder in anderen worten: 20% effizienter ist.

diese effizienz würde dann stimmen, wenn die gtx 1080 immer 20% schneller als vega 64 wäre, ist sie aber nicht. nichtmal ansatzweise.

das ist ein schöner cherry pick um amd nochmal eine reinzudrücken, kurz vor turing.

was hält die redaktion bitte davon ab ein neutrales spiel für die watt/leistung zu nutzen, das dem tatsächlichen leistungsniveau der karten entspricht?
 
ein besonders interessanter Vergleich!!!
Allein wegen solcher Mühen, die ihr euch macht, seid ihr eine Ausnahmeerscheinung im Internet! VIELEN HERZLICHEN DANK DAFÜR!!!

Mich interessiert noch:
damit eine 80er-Karte von einer 60er eingeholt wird, scheint es stets 2 Generationen zu brauchen.
die 480er wird von der 660er kassiert.
die 580er - von der 760er ...
die 680er - von der 960er ...
die 780er - von der 1060er ... '
Interessant sind dabei die Leistungsunterschiede.
Mal sind es 23% Mehrleistung, die eine 60er gegenüber dem 80er-Vorgänger liefert. Mal nur 4% ... bei der 1060er sind es ganze 34%!!!

DEM STELLE ICH GEGENÜBER:
480er gegenüber 680er - 95%
580er gegenüber 780er - 113%
680er gegenüber 980er - 72% (wobei der 900er-Reihe sicher kein Flop war; siehe auch die 60er-Vergleich)
780er gegenüber 1080er - 95%

ähnlich auch das Bild bei den 60er-Vergleichen:

460er gegenüber 660er - 108%
560er gegenüber 760er - 114%
660er gegenüber 960er - nur 56%
760er gegenüber 1060er - 119%

MICH INTERESSIERT DABEI DER TECHNISCHE HINTERGRUND!
Werden die (kleineren) Chips gegenüber dem Vollausbau nach einem Bestimmten Mußter beschnitten? Weiß das jemand? Könnte es jemand erläutern?
 
  • Gefällt mir
Reaktionen: Wow4ikRU
Wie wurde Dota 2 denn getestet? In DX9 oder Opengl?
Ich komme mit ner Vega 64 und nem 1700x immer ans CPU Limit von grob 189fps... 1080p/Maxed out bis auf Vsync und Shadows :)

Der WOW 60fps test ist immernoch "grütze"... Entweder über alle Karten gleiche Settings und dann cap@60 oder gleich einfach nur die TDP angeben :) ... Aber das was hier gemacht wird (mit WOW vorallem) ist eigentlich nicht wiklich sinnvoll... :/
 
  • Gefällt mir
Reaktionen: Seeadler79, Baal Netbeck, Iscaran und eine weitere Person
joomoo schrieb:
Die Titan Xp kostet 1500€, das interessiert denke ich die wenigsten. Bei der Titan Black ähnlich, kennst du jemanden mit der Karte?
Titan Black Ja kenne ich. Xp, nö da keinen. War ja auch nur ein Beipspiel für den Maximalausbau der Chips in Consumer orientierten Karten. Das die nicht viele kaufen ist klar. Daher habe ich ja auch die "normalen" GTX Karten angegeben. Die 780Ti hat ja auch den GK110 Vollausbau. Schade, dass die neuen Tis auch alle beschnitten sind.

joomoo schrieb:
Also doch nicht so "einfach" ;)
Eigentlich schon. Einfach nach Chipnamen gehen und den Vollausbau vergleichen. Aber dann heißt es wieder, dass das ja unfair ist, weil die so teuer sind.
 
Ich finde WoW tatsächlich auch ein ziemlich schlecht gewähltes Szenario, denn das favorisiert seit eh und je nVidia Karten deutlich.
 
Ich frag mich schon, warum die 70er-Reihen und deren Customs (eine stellvertretend reicht ja) nich auftauchen im Vergleich? Immer nur die 80er nehmen is mM nach nicht wirklich aussagekräftig bzw hilfreich für einen großen Vergleich
 
Bob_Busfahrer schrieb:
Schade, dass die vielen alten Spiele die Realität total verschieben...
Schaut euch mal in FarCry 5 oder Kingdom Come die Performance von Kepler an...
Da wischt eine 7970 mit der GTX 780 den Boden...

Liegt einfach daran, das Nvidia seine GPU´s "Spitz auf Knopf" released, und AMD schon immer die Reserven hat, die nicht wirklich ausgenutzt werden. Hilft bei der Langzeitnutzung!
 
Renne immer noch üroblemlos mit meiner guten alten HD7870 rum. Das nenne ich mal ein erstklassig gealtertes Stück Hardware! :king:
 
duskstalker schrieb:
wieso wird für die leistung pro watt bitte world of warcraft getestet, in dem die gtx 1080 20% mehr fps liefert als vega 64? oder in anderen worten: 20% effizienter ist.
Ist das denn wichtig bei diesem Test? 60fps sind 60fps, die 1080 bekommt, da sie in WoW 20% mehr fps bringt, einfach noch ein paar Grafiksettings zusätzlich draufgepackt, eben so lange bis beide Karten die gleichen fps liefern.
 
Taxxor schrieb:
s sollte aber ja nicht die Leistung sondern die Leistungsaufnahme bei einer festen fps Zahl ermittelt werden.
Was bringt es mir zu wissen, dass eine GTX460 in WoW 120W verbraucht, wenn sie dabei nur 5fps generiert?(Wäre zu erwarten mit Settings, in denen eine Vega64 300W verbraucht und 60fps generiert)
Richtig, wo ist das Problem? Würde man jetzt die 460 auf 60Fps hochrechnen würde sie 1440W oder die Vega auf 5 Fps runterechnen, also nur 25W, verbrauchen.

In dem Fall, dass man alle Karten auf 60 Fps logt und dann den Verbrauch ermittelt, müsste es sicher sein, dass sich die Leistungsaufnahme linear zur Auslastung verhält. Das stimmt aber nicht. Eine Karte die zu 30% ausgelastet wird, verbraucht nicht automatisch auch nur 30% Strom.

Effizienz hat nichts mit dem max. Verbrauch zu tun. Und die kann man halt nur ermitteln, indem ich die Karten zu 100% auslaste und dann Gegenüberstelle, wieviel Leistung dann jede Karte bringt.
 
Shoryuken94 schrieb:
Eigentlich schon. Einfach nach Chipnamen gehen und den Vollausbau vergleichen. Aber dann heißt es wieder, dass das ja unfair ist, weil die so teuer sind.
Nicht unbedingt unfair, sondern langweilig: Die 1500€ Karte wird Vega 64 für 500€ schlagen, da brauch ich keinen Test für.
 
Jebbel schrieb:
Ich frag mich schon, warum die 70er-Reihen und deren Customs (eine stellvertretend reicht ja) nich auftauchen im Vergleich? Immer nur die 80er nehmen is mM nach nicht wirklich aussagekräftig bzw hilfreich für einen großen Vergleich
Weil nur die High Ende Karten und die Mittelklasse verglichen wurden. Die 70er liegen genau dazwischen.
joomoo schrieb:
Nicht unbedingt unfair, sondern langweilig: Die 1500€ Karte wird Vega 64 für 500€ schlagen, da brauch ich keinen Test für.
Dann verstehst du den Test nicht. Es geht hier um den Generationsvergleich und den Entwicklungsstand der Karten. Wenn du einen Vergleich zwischen den Karten zur Marktkonkurrenz willst, dann schau dir den Test zur jeweiligen Karte an.
 
Zurück
Oben