Test Nvidia-Grafikkarten im Test: GeForce GTX 480, 580, 680, 780, 980 und 1080 im Vergleich

Knito schrieb:
Logisch wäre, immer die gleichen kleinen Einstellungen zu nehmen und die Frames auf 60 zu cappen.

Alternativ könnte man auch die mittlere GPU-Last in % mitloggen über die Testsequenz und durch die gemessene Leistungswerte teilen oder zumindest einfach die GPU-Auslastungen jeweils mit Angeben.

Ich könnte mir vorstellen dass die ein oder andere GPU bei WoW auch bei max settings ggf. einfach nicht 100% Last fährt. Speziell eine 1080 wäre da ein Kandidat. Dies würde natürlich die gemessenen Verbrauchswerte DEUTLICH besser darstellen als sie ggf. wären wenn man 100% Last hätte.
 
  • Gefällt mir
Reaktionen: Colindo
Wolfgang schrieb:
Der 4. und letzte Teil einer ganzen Serie
what?! jetzt hab ich mich auf die (x)x70 serie gefreut und ihr springt gleich zur 80er?
die 60er hat zuwenig leistung und die 80er ist zu teuer, weshalb viele zur 70er serie greifen.
 
Ich persönlich bin froh das UHD getestet wird, nutze ich selber seit über 2 Jahren. Kann natürlich verstehen wenn hier einige Leute WQHD sehen wollen, aber der Wert liegt ja irgendwo da zwischen. Etwas in die Luft zu interpretieren wird da schon schwieriger.
Einige vergessen hier aber auch glaube ich die Liefersituation bei Relase, da können sich AMD und Nvidia beide nicht mit Ruhm bekleckern. Auch während der Mining Booms sind einige Karten einfach so überteuert gewesen das man halt zur Konkurrenz greifen musste wenn man überhaupt was haben wollte.
 
C1996 schrieb:
Was hat eine GTX 480 im Vergleich zu einer GTX 2080 gekostet?
Die 479€ in 2010 entsprechen 2018 etwa 530€.

Die 480 hätte bei dem heutigen Preisniveau der 2080 (850€) 2010 770€ kosten müssen.
 
  • Gefällt mir
Reaktionen: GERmaximus, mr_capello und Gtlng
@supermanlovers: das entspräche einer Inflationsrate von ca 1.3% war die wirklich so niedrig für 2010-2018 in D ?

Aber OK mit 2% Inflation käme man auf ~560€ 2018.
 
Wir hatten einige Jahre sehr niedrigen Werten:
2014: 0,9%
2015: 0.3%
2016: 0,5%

Werte über 2% sind in den letzten 20 Jahren sehr selten.
 
Zuletzt bearbeitet:
Burfi schrieb:
Nein hast du nicht - du beweist damit nur Farbenblindheit :evillol:
Die 480 war ein totaler Fehlgriff von Nvidia und zu dem Zeitpunkt war AMD in allen Belangen deutlich besser.
Als Vergleich hatte ich:
9600 Pro -> X800 Pro -> 8800 GTX -> HD 5850 -> HD 6950 -> GTX 770 -> GTX 1070

na das ist auch nicht viel besser...im grunde jede generation mitgemacht..
ich hatte in etwa 8800gt --> 280gtx --> 560ti --> gtx770 -> gtx1070 , also im grunde immer eine ganze generation übersprungen und ich musste auf kein game verzichten...
(irgendwo davon hatte ich noch eine radeon x1950pro und dazwischen sehr kurz eine hd5770)
 
Iscaran schrieb:
Alternativ könnte man auch die mittlere GPU-Last in % mitloggen über die Testsequenz und durch die gemessene Leistungswerte teilen oder zumindest einfach die GPU-Auslastungen jeweils mit Angeben.
Die GTX 1080 steht bei 178W, da ihr PT bei 180W liegt ist sie mit 178W genau da wo sie sein sollte, weil sie eben nicht über 180W kann. Das ist Founders auf Anschlag, wenn man das Bios unangetastet lässt.
 
Beim Stromverbrauch steht die GTX 460 würde 42 watt verbrauchen. Kann ich gerade nicht beurteilen, würde aber annehmen es ginge um die 480.

Ohje, will gar nicht wissen was meine
3GB Inno3D GeForce GTX 780 iChill HerculeZ X3 Ultra (bester Name)
Unter Last braucht. Naja, hat jetzt die kleine Schwester und da zahlt noch Papa.
 
Darkscream schrieb:
Die GTX 1080 steht bei 178W, da ihr PT bei 180W liegt ist sie mit 178W genau da wo sie sein sollte, weil sie eben nicht über 180W kann.
Das ist ja auch nicht verkehrt... :P
Andere Seite die HD 7970 = 250w TDP im Test dann 181w... Meinste die ist voll ausgelastet?
 
schöner test. ich hätte ihn ja, wie schon paar wochen zuvor angemerkt, "sag zum abschied leise servus" genannt,

wenn ich ehrlich bin, ich habe schon lange zeit nicht mehr so positiv in die hardware zukunft für die nächsten 5 jahre geschaut. das wird alles richtig fetzig :king:

wird schon werden, leider muss man ehrlich sagen, für paar pfandflaschen am tag sammeln wird man sich keine high end graka mehr leisten können, in absehbarer zeit. da muss man dann auf streaming systeme für 1-2euro pro tag zurück greifen....

mfg
 
pilzsammler2002 schrieb:
Andere Seite die HD 7970 = 250w TDP im Test dann 181w... Meinste die ist voll ausgelastet?
Du kannst die TDP Angaben von NV und AMD nicht wirklich vergleichen. Bei Nvidia stimmt die Angabe meistens sehr exakt.
 
Darkscream schrieb:
Du kannst die TDP Angaben von NV und AMD nicht wirklich vergleichen. Bei Nvidia stimmt die Angabe meistens sehr exakt.
Richtig. Bei AMD ging sie früher sogar über die TDP hinaus (siehe Furmark). Aber soviel geringer ist schon Kurios oder?

EDIT:
Im Test hier auf Cbase hat sie damals minimal weniger Strom gezogen wie die 580...
 
Danke für den Test und die Daten zur Entwicklung der letzten Jahre.

Natürlich auch was die Tests von AMD angeht :)
 
Khalinor schrieb:
Und was du bei deiner Rechnung vergisst ist, dass auf der 480 der Bigchip verbaut war und auf der 2080 eigentlich nur der Mittelklassechip zum Einsatz kommt.

Eigentlich müsste der Vergleich GTX 480 vs RTX 2080ti lauten (Bigchip vs Bigchip).

es MUSS hier prinzipiel erstmal garnichts.
die frage ist wofür der "bigchip" bei nvidia vorgesehen ist/war. aus bloßer chipvariante ableiten wo der verbaut werden müsste oder unter welchem modellnamen er vermarktet wird ist schlicht falsch.

bei der 400er serie gab es keine 480ti und die gtx480 war die maximale ausbaustude welche genau wie die gtx470 den gf100 nutzte - die verschiedenen chipvarianten waren anderes eingeteilt als das was nvidia dann mit pascal tat.
es wird zur zeit gemunkelt dass die rtx2070 unter umständen nicht den salvage der tu104 wie die rtx2080 nutzen wird, sondern dass die 2070er den tu106 (in vollausbau) nutzen wird und sich diesen mit der zukünftigen rtx2060 teilt und man irgendwann dann mit einer rtx2070ti oder rtx2075 auf basis des tu104 salvage rechnen könnte...
 
pilzsammler2002 schrieb:
Vergleich für die WOW "werte"/Ranking beibehalten... (Offizielle TDP und das Ergebnis aus dem Test dahinter)

1080 = 180w / 178w

Vega 64 = 295w / 303w

Das hatte ich schon fast vergessen. :o
Neben Halogenlampen, sollte das auch gleich verboten werden. :confused_alt:
Kein Wunder das "die" schnellstens auf 7nm wechseln müssen. ;)
 
Holzinternet schrieb:
Kannste meckern waste willst aber das kann Nvidia... Hatte ne 560ti, 770, 980 und aktuell 1080. Waren alle nen gewaltiger Sprung. Gerade die 1080 ist richtig gelungen. Preispolitik hin oder Preispolitik her dagegen ist kein Kraut gewachsen.
Mein Sprung von 560ti zu 1060 (1/4 Jahr nach Release) ist noch besser :-P
 
  • Gefällt mir
Reaktionen: Holzinternet
Prinzipiell ersteinmal ein großes Lob, dass man sich auch der Performance(etc.)-Vergleiche über die Jahre hin angenommen hat. Kritik gebührt allerdings der Aussagekraft dieses Tests, gerde wenn man sich Pascal anschaut.

Das Problem ist hiebei nämlich, dass Nvidia bei Pascal (wie es sich bei Turing auch ankündigt) einen Name/Kategorien-Shift gemacht hat. D.h. Preis- und Namenskategorie wurden gegeneinander verschoben. Eine x80 (von GTX 480 an) hat (zumindest laut geizhals) immer so um die 400€ +/- gekostet. Eine 1080 fällt da mit ihren Minimum (als Preiskategorie, d.h. ohne einzelne Ausreißer) 500-600€ deutlich raus. Der entsprechende Nachfolger wäre hier eigentlich eine 1070 gewesen. Da hätte man dann auch wieder ca. 30% Leistungssteigerung gehabt und nicht plötzlich 55%.
Wenn man sich fragt inwiefern das jetzt ein falsches Bild zeichnet bei dieser Art Test, kann man sich gerne das Extrem anschauen. Angenommen Nvidia "labelt" die Titan einfach als nächste GTX xx80 für einen entsprechenden Preis (der Titan) >1000€ um. In diesem Test würde dann einfach bei der Performance ein langer Balken stehen und der großartige Fortschritt gelobt werden bzgl. der vorigen Architektur (also selbst wenn hier (hypothetisch) die selbe Architektur der letzten Generation drin stecken würde und sich Performancemäßig (und Preismäßig) rein gar nichts getan hat).
Insofern hat der Test bezüglich Pascal kaum Aussagekraft. Der Rest (GTX 480-GTX980) kann aber ganz gut als Maßstab für die Performancesprünge/den Fortschritt im Verlauf der Zeit gesehen werden.

(Anmerkung: und ja, die Inflation kann hier außer Acht gelassen werden. ca. 2 Jahre zwischen Maxwell und Pascal geben keine 150-200€ Inflation. Und bei Fermi (GTX480) ist das schon dadurch abgegolten, dass die immer am unteren Ende der 400€ Kategorie mit (später) Dips in den 300er Bereich gelegen haben.)
Bei AMD ist auch sowas ähnliches passiert. R9/7 x70 war immer so im ca. 170€ Bereich. Polaris x70 eher im Anfang 200€ Bereich in dem sich vorwiegend früher die x80er befunden haben, wobei die Polaris x80 dann auch immer etwas stärker Richtung 300€ als 200€ tendieren (Ausnahme ist hier natürlich der Abverkauf der RX 4xxer Serie, da gingen die Preise deutlich runter).
Das scheint jetzt ein geringerer Shift zu sein, als bei Nvidia. Man muss hier aber bedenken, dass es die Mittelklasse ist. Da ist der Shift bei Nvidia genauso groß (bzw. klein). Mangels direkter Nachfolger der R9 x90er Reihe in der Oberklasse kann man den Vergleich Nvidia<->AMD bzgl. Kategorien-Shift nicht anstellen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: swael, alkaAdeluxx und Prophetic
schade das gtx 970 nicht dabei ist.. viele denken es ist eine schlechte karte wegen der speicheranbindung. dabei ist die 970 echt eine gute graka und hällt mit jedem spiel mit.. selbst bei 1440p Auflösung.
 
  • Gefällt mir
Reaktionen: Leon_FR
Mich haben Kepler und Pascal extrem beeindruckt. Beiden Generationen ist eine bis dato massiv bessere Architektur gelungen (P/W) ohne den Leistungszuwachs begrenzen zu müssen. Trotz aller Unkenrufe glaube ich an NVIDIA, ihre neuste Gen wird wieder technologisch wie leistungsmäßig einen starken Sprung machen.
ELMOKO schrieb:
schade das gtx 970 nicht dabei ist.. viele denken es ist eine schlechte karte wegen der speicheranbindung. dabei ist die 970 echt eine gute graka und hällt mit jedem spiel mit.. selbst bei 1440p Auflösung.
Das stimmt. Es ist jedoch eine Leistungsklasse darunter, sprich die kleinen Brüder. Die 670, 970 und 1070 waren extrem gute Karten, die nur einen leicht dezimierten Chip besitzen. Auch die P/W müsste besser sein.
 
Zurück
Oben