Test Nvidia-Grafikkarten im Test: GeForce GTX 480, 580, 680, 780, 980 und 1080 im Vergleich

cruse schrieb:
@Knito
während die 480(Beispiel) sich da einen abwürgt, kommt die 1080 nicht mal ausm idle takt.
nehmen wir mal an die 480 ist bei 100%, die 580 auch noch und die 680 bei 80%, danach haben wir vermutlich 60% und danach vielleicht schon 2x idle takt. wie willst du die beiden letzten von der Effizienz her vergleichen, wenn sie quasi das selbe verbrauchen ? verbrauchen sie dann das selbe ? - nein, sie brauchen in diesem Szenario das selbe, weil weniger nicht geht. spinnen wir das ganze weiter zur 2080, deren Nachfolger und deren Nachfolger und deren Nachfolger....
das Szenario mit immer gleichen Einstellungen und auf 60 gecapped ist ungenügend, da nicht unendlich oder rausreichend hoch skalierbar.

Ähm, genau darum geht es? Die Effizienz im Laufe der Jahre zu vergleichen. Und wenn Pascal da so dermaßen gut ist, dass die Karte fast einschläft, dann sagt das etwas über die Effizienz aus. Man kann aber auch ganz problemlos ein Setting ersinnen, das auch die neuen Karten normal takten lässt und sinnvolle FPS bei den Alten bringt.

Wenn man die Entwicklung eines Faktors ermitteln will, dann müssen alle anderen Faktoren konstant gehalten werden. Alles andere ist völliger Unsinn und nicht im Entferntesten wissenschaftlich oder auch nur irgendwie sinnvoll. Damit schafft man nur völlig verwirrende Ergebnisse.
Um die Effizienz zu ermitteln muss ich also die Belastung gleich halten. Dass sich dadurch die individuelle Beanspruchung ändert ist völlig klar und auch korrekt.

Bei diesem komischen Test hatte irgendwer eine Schnapsidee nicht zuende gedacht und nun lässt der Stolz keine Änderung zu. Nützen tut dieser "Test" jedenfalls absolut niemandem. Schon gar nicht ohne genaue Angaben zur Methodik. (Grundprinzip wissenschaftlicher Veröffentlichungen)
 
  • Gefällt mir
Reaktionen: Shadow86, McLovin14 und cruse
Jedi3 schrieb:
Wolfgangs Ansatz zielt darauf ab...

Kann er ja machen wie er will. Wenn "praxisnah" bei unterschiedlichen, nicht genannten Einstellungen getestet wird, hat das aber nichts mehr mit der wissenschaftlichen Methode zu tun, im Gegensatz zu meinem Vorschlag, der auch mit Grafikkarten von 1998 und 2088 noch vergleichbare Werte liefert.
 
Schrotti schrieb:
Wozu 1440p? Der Unterschied zu FULL HD ist so gering das es sich nicht lohnt. Außerdem bekommt man UHD Monitore mittlerweile schon ab 249€ -> https://geizhals.de/?cat=monlcd19wide&xf=14591_38402160

Es soll Leute geben (Ich), die 1080p bei 27" als Pixelbrei empfinden, also mehr wollen, aber gleichzeitig gerne min. 144 Hz und diese auch adäquat befeuern wollen. Da bleibt nichts außer 1440p. Ich bin mit der Auflösung sehr zufrieden. Bis bezahlbare 144Hz+ Monitore mit UHD kommen und diese auch befeuert werden können, wird noch einige Zeit ins Land ziehen. So lange bleibt mein 165Hz 1440p Monitor aufm Schreibtisch.
 
Moep89 schrieb:
"Wenn man die Entwicklung eines Faktors ermitteln will, dann müssen alle anderen Faktoren konstant gehalten werden"
vollkommen korrekt! in diesem falle wäre es ~60fps bei 100% last.
sicherlich könnte man hier auch generell anders vorgehen und man nimmt die neuste karte und legt hier 100% last an und nimmt die identischen Einstellungen auch bei den anderen karten.
wobei ich mich bei diesem Setting frage inwieweit die ältesten karten das darstellen können, außerdem ist dieser test nicht skalierbar (falls wieder neue karten kommen müssen die Einstellungen geändert werden)

generell gleiche Einstellungen +framecap bei allen halte ich für nicht endlos linear skalierbar.
 
Duke00 schrieb:
Aber meistens sind die alten Karten bei dem neuen Test wie mit der 2080 nicht mit in den Listen enthalten.
Muss es ja auch nicht. Wenn jetzt alles bis zur 1080er dabei ist und im neuen Test die 2080er mit der letzten Generation verglichen wird, hast du doch alles was du brauchst.
eax1990 schrieb:
Die letzte Karte die man relativ lange nutzen konnte, war doch vor der 1080 nur die GTX 680 mit 4GB - alle anderen so dazwischen haben auch nie die großen Sprünge gehabt.
Aber unterm Strich bekommt man mittlerweile zum jetzigen Zeitpunkt viel mehr mögliche Frames per Second, als es früher der Fall war.
Da kam ein Triple A Titel nach der GPU raus und schon war das Ding wieder veraltet, man musste die Regler so hart nach Links schlagen, dass selbst bildlich vorgestellt das Optionsmenü angefangen hat mies auszuschauen
Das gleiche Problem wirst du mit der neuen Generation wieder bekommen, wenn Raytracing im Spiel ist. Mit BF5 geht das schon los. Jetzt werden lt. Dice schon diese neuen Effekte reduziert damit man noch halbwegs vernünftige Frames mit den neuen Karten erreichen kann. 4K wird man da dann wohl ganz vergessen können.
Aber wer weis, vielleicht schiebt Nvidia eine neue Titan schon kurze Zeit nach dem Release der 2080(ti) nach. Solche Überraschungen beherrschen sie ja ganz gut. Obwohl dafür die noch nicht mal reichen wird. Also warten wir auf eine 3080 (ti/Xt?). ;)
 
Zuletzt bearbeitet:
Darkscream schrieb:
Und was siehst du da so raus... ohne zu Raten?
Rein dein Kommentar dazu, ganz ohne Begründung lässt mich doch sehr stark zweifeln.

Nvidia hat sich spezialisiert und stark zwischen Pro und Consumer differenziert, das resultierte in kleinere Chips, billigere Fertigung, höhere Effizienz. Der Rest wurde per Software gelöst. Das zeigt sich in der recht konstanten Leistungsteigerung, das Konzept war schlüssig.
Gefällt nicht Jedem (wir kriegen nicht den Vollausbau! Nvidia cheated mit Gameworks! Treiber sind nur für DX11 gut!), aber über die Jahre betrachtet kann man nicht in Abrede Stellen dass es funktioniert hat.

AMD war eigentlich mit der 4000/5000er gut aufgestellt, hat sich aber nach GCN verrannt. Ein Chipkonzept für Pro und Consumer, dadurch größere Chips, Teil-Rebrands um den Mangel der unteren Serien auszugleichen (Stichwort Hawaii), Fertigungsexklusiven und -probleme (Tonga), mehr Featureexperimente (HBM), suboptimal für beide Einsatzzwecke. Viele schieben es auf Notwendigkeit, ich denke da war auch ein bisschen Wunschdenken in der Strategie vorhanden (2 Fliegen mit einer Klappe).

Die Tests zeigen dann auch diese Inkonsistenz über die Generationen, die sich im Consumer Markt nicht bewährt hat. Vega ist nur das Endstadium dieser fehlgeschlagenen Strategie, und Polaris, ein Produkt das nie geplant war (Zitat Koduri), muss für ein weiteres Jahr die Kohlen aus dem Feuer holen, da wo das Geld gemacht wird.
 
  • Gefällt mir
Reaktionen: Shadow86
Cool Master schrieb:
Also die 2080 Ti ;) Eine 2080 Titan also Titan T wird es wohl erstmal nicht mehr geben weil die dann wohl bei 2k oder mehr liegen würde.
Die 2080 Ti ist aber auch kein Vollausbau (sonst hätte sie 384 bit und 12 GB VRAM).

Aber die Titans sind doch sowieso keine normalen Consumer-Karten. Daher passt das schon.

Blödsinnig war dagegen dass man hier 780, 980 und 1080 Non-Ti getestet hat. Man sollte schon immer das Topmodell testen und vergleichen.

Oder wird ein Vergleichtest 780 Ti, 980 Ti und 1080 Ti noch nachgeliefert?
 
An Stelle der GTX 480 und 580 hätte man lieber mit den GPUs mit ähnlich großen Chips GTX 460 (GF 104) und GTX 560ti (GF 114) vergleichen sollen. So vergleicht man den großen Chip bei Fermi mit den mittleren Chips danach. Aus Preissicht ist das logisch, weil Nvidia einfach seit Kepler die mittleren Chips als High End verkauft, aber nicht aus technischer Sicht.
 
TNM schrieb:
Nvidia hat sich spezialisiert und stark zwischen Pro und Consumer differenziert, das resultierte in kleinere Chips, billigere Fertigung, höhere Effizienz. Der Rest wurde per Software gelöst. Das zeigt sich in der recht konstanten Leistungsteigerung, das Konzept war schlüssig.
Gefällt nicht Jedem (wir kriegen nicht den Vollausbau! Nvidia cheated mit Gameworks! Treiber sind nur für DX11 gut!), aber über die Jahre betrachtet kann man nicht in Abrede Stellen dass es funktioniert hat.

AMD war eigentlich mit der 4000/5000er gut aufgestellt, hat sich aber nach GCN verrannt. Ein Chipkonzept für Pro und Consumer, dadurch größere Chips, Teil-Rebrands um den Mangel der unteren Serien auszugleichen (Stichwort Hawaii), Fertigungsexklusiven und -probleme (Tonga), mehr Featureexperimente (HBM), suboptimal für beide Einsatzzwecke. Viele schieben es auf Notwendigkeit, ich denke da war auch ein bisschen Wunschdenken in der Strategie vorhanden (2 Fliegen mit einer Klappe).

Die Tests zeigen dann auch diese Inkonsistenz über die Generationen, die sich im Consumer Markt nicht bewährt hat. Vega ist nur das Endstadium dieser fehlgeschlagenen Strategie, und Polaris, ein Produkt das nie geplant war (Zitat Koduri), muss für ein weiteres Jahr die Kohlen aus dem Feuer holen, da wo das Geld gemacht wird.

AMD hat sich finanziell und marketingtechnisch verrant, da stimme ich zu. Aber AMDs GPU waren für den Kunden deutlich besser als Nvidias GPUs, mit einer HD 7970 3GB kannst du heute noch problemlos zocken, das damalige Gegenstück GTX 680 taugt kaum noch was im Vergleich. Damals war die GTX sogar leicht schneller - mittlerweile siehts anders aus. Genau das Gleiche mit der 780 / 780ti - keine Chance mehr gegen die R9 290er. Maxwell war dann wirklich ein Geniestreich mit dem Tile Based Rasterizer - zum Launch z.B. war die GTX 960 kaum schneller als die GTX 760 - mittlerweile wischt die 960er in neuen Games sogar mit der GTX 680 den Boden.

Doof nur, dass AMD mit "guten" Karten kein Geld verdient - sie werden länger benutzt, bleiben auf dem Gebrauchtmarkt attraktiv und reduzieren die Nachfrage nach neuen Mid-Range oder Entry-Level GPUs.

Leider zeigt hier die Erfahrung, dass ein gutes Produkt für den Kunden nicht zwingend gut für den Hersteller sein muss :(
 
ODST schrieb:
...Das man den Wechsel von High End Chips (580) auf die Midrange Lösung (680) und somit der Einführung der Titan mit keinem Wort erwähnt, liegt mir dennoch schwer im Magen...
Das alles liegt in der näheren Vergangenheit und sollte dementsprechend auch ein wenig mehr Beachtung bekommen


Finde ich auch, es muss ja nicht gleich voll durchgekaut werden aber es sollte doch mindestens eine Erwähnung geben, da auch dies sehr viel mit der Effizienzsteigerung aller Geforce-Karten ab einschließlich der 6XXer-Reihe zu tun hatte. Eine kurze Erläuterung wäre auch nett um diese Information in den Kontext von Nvidias Preispolitik seit jenem Zeitpunkt einordnen zu können.
Dem gegenüber sollte man aber auch, um fair zu bleiben, den Modellshift von der HD5XXXer-Reihe zur 6XXXer erwähnen bei den AMD-Vergleichen.


Als weiteren Wunsch würde ich gerne den Gen-Vergleich der 70er-Reihe der Nvidias anbringen. Nach einer 295 bin ich bei den 70ern geblieben weil dort die Preis-/Leistung noch am ehesten gegeben war (295->570->770->1070). Dies sind eigentlich auch die Modelle die noch am ehesten den Einstieg in den Performance-Bereich ebneten.
 
  • Gefällt mir
Reaktionen: derSafran
Moep89 schrieb:
Ähm, genau darum geht es? Die Effizienz im Laufe der Jahre zu vergleichen. Und wenn Pascal da so dermaßen gut ist, dass die Karte fast einschläft, dann sagt das etwas über die Effizienz aus. Man kann aber auch ganz problemlos ein Setting ersinnen, das auch die neuen Karten normal takten lässt und sinnvolle FPS bei den Alten bringt.

Wenn man die Entwicklung eines Faktors ermitteln will, dann müssen alle anderen Faktoren konstant gehalten werden. Alles andere ist völliger Unsinn und nicht im Entferntesten wissenschaftlich oder auch nur irgendwie sinnvoll. Damit schafft man nur völlig verwirrende Ergebnisse.
Um die Effizienz zu ermitteln muss ich also die Belastung gleich halten. Dass sich dadurch die individuelle Beanspruchung ändert ist völlig klar und auch korrekt.

Bei diesem komischen Test hatte irgendwer eine Schnapsidee nicht zuende gedacht und nun lässt der Stolz keine Änderung zu. Nützen tut dieser "Test" jedenfalls absolut niemandem. Schon gar nicht ohne genaue Angaben zur Methodik. (Grundprinzip wissenschaftlicher Veröffentlichungen)
Da steht was geschrieben? - Leider nix. Tatsächlich lässt sich das NV-Zeugs ganz einfach umschreiben. Funktioniert einfach gut. Ich hab ne olle Kepler-Karte und ne Maxwell-GPU im Dienst. Beide Karten laufen gut.
Ich messe nichts, ich schalte nur jeden Tag meine Rechner ein und möchte die auch nutzen...
Ich bin PC-Daddler - dafür rennt das Zeugs aber verdammt gut.
 
Darkblade08 schrieb:
Gerade die Energieeffizienz von Maxwell und Pascal ist schon sehr beeindruckend.

Naja mit Turing alias Volta ändert sich dass massive denke ich da der Chip viel größer ist.
 
Interessant.
Meine Sprünge bei 3D Karten waren.
RivaTNT2, Radeon8500, Radeon9600XT, GeForce6600GT, GeForce8800GT, GeForce GTX460, Geforce GTX770.
Und eigentlich war geplant vor ca 1,5 Jahren eine neue zu Kaufen. Aber dann kam meine Tochter und dann der Mining Boom....
 
Schrotti schrieb:
Wozu 1440p? Der Unterschied zu FULL HD ist so gering das es sich nicht lohnt. Außerdem bekommt man UHD Monitore mittlerweile schon ab 249€ -> https://geizhals.de/?cat=monlcd19wide&xf=14591_38402160
Für mich ist ja ein gewichtiger Grund gegen 4K, dass man dann Windows skalieren muss und das funktioniert nach wie vor nicht gescheit (und vor allem nicht für _ausnahmslos alle Programme_) - naja, und die Hardware kostet dann ein Vermögen, weil in 4K brauchste VIEEL stärkere Hardware als für FullHD (oder WQHD).

Aber die Leute sind aus unbekannten Gründen total geil auf hohe Auflösungen, obwohl man das wohl gar nicht wahr nimmt. Vor allem bei Smartphones. Ob du auf dem 5.5"-Display nämlich Full HD hast oder noch mehr, das wird man kaum sehen können. Da gibts sicher auch wissenschaftliche Untersuchungen drüber.

Und vor allem: Wenn ich schon ne höhere Auflösung wollte, dann nicht zum Zocken (da reicht Full HD völlig)... sondern zum Arbeiten. Denn einen Haufen Fenster auf/nebeneinander ist schon ne sehr gute Sache. Aber wie gesagt, 4K ist dafür dann wieder zu viel. Denn da wird die Schrift so klein, dass das kein Mensch lesen kann.
 
  • Gefällt mir
Reaktionen: Iscaran
Colindo schrieb:
Verstehe nicht, warum nach dem vierten Thread immer noch Leute schreiben, dass sie diesen Teiltest nicht verstehen... Es werden Einstellungen so gewählt, dass WOW mit 60fps läuft. Die Einstellungen sind dadurch bei jeder Karte anders. Die Belastung der Karte ist aber in jedem Falle gleich groß, dadurch kann die "typische Leistungsaufnahme" bestimmt werden, in einer Situation wo WOW mit 60fps läuft. Also sehr sinnvoll, um den Lastzustand zu beschreiben.
Einerseits das was du geschrieben hast, andererseits kann man das wohl auch als Durchschnittswert nehmen, was man so in den Settings einstellt. Also wenn ich eine neue Grafikkarte habe, stelle ich natürlich auch die Details und andere Grafikeinstellungen hoch. Es wechselt ja kaum jemand von einer GTX580 zu einer GTX980 um dann auf niedrigen Details mit 200 fps bei WOW rumzulaufen? Somit hast du einen realistischeren vergleich, was du mit den einzelnen Karten durchschnittlich an Strom verbrauchen würdest beim zocken.
 
  • Gefällt mir
Reaktionen: Colindo
Elverado schrieb:
Da hätte man dann auch wieder ca. 30% Leistungssteigerung gehabt und nicht plötzlich 55%.

hey Elverado, stimme dir im großen und ganzen zu, nur zu der Aussage nicht ganz, es ist bei GPU's normal gewesen das es mal Sprünge von einer auf die nächste Gen von 55 bis sogar teils 100 % gab und dass ohne die Bezeichnungen geshiftet wurden oder sogar neue dazu "erfunden" worden sind (auf Titan guck) um einen Mondpreis zu rechtfertigen, aber die BWLer wissen schon wie man den Kunden melken kann ;)
 
  • Gefällt mir
Reaktionen: Elverado
IntelCyphe schrieb:
Wieso ein Test kurz vor Release von RTX? Und nicht mit RTX? Manchmal bleibt mir die Welt ein Rätzel.
Hast du den Text gelesen? Zumindest bis zum vierten Absatz?
Wer das soweit verstanden hat und dann noch ein bisschen mitdenkt, der kann doch direkt vergleichen, wenn bei Erscheinen der RTX der Test zur RTX veröffentlich wird...
Damit kann zum Beispiel jemand, der noch eine ältere Grafikkarte hat, die in den neueren Tests nicht mehr berücksichtigt wird, dennoch einen ganz guten Vergleich ziehen.
 
@BrollyLSSJ

Die V war aber eher für Unternehmen und war keine "Klassische" Titan.
 
Zurück
Oben