Test Nvidia-Grafikkarten im Test: GeForce GTX 480, 580, 680, 780, 980 und 1080 im Vergleich

Lars_SHG schrieb:
nope, bei der Ur-Titan war auch die Titan "kastriert" und der Vollausbau kam erst mit der GTX780ti.
Aber alle drei /GTX780 -> Titan -> GTX780ti waren basierend auf dem Big-Chip!
Du hast die Titan Black vergessen, denn auch die 780Ti war kein Vollausbau...
Hatte damals ne gebrauchte UrTitan drin, da ich entweder 780 6GB neu, 780Ti 3GB oder gebrauchte Titan zur Wahl hatte.
Kam defekt an und wurde von EVGA gegen eine neue getauscht, war damals ein guter Kauf.
 
damals war die tesla der vollausbau, mit allen shadern und voller double precision leistung. es ist zwar immer schwer zu erklären, wann ein chip "vollausbau" ist und wann nicht, aber einfach vorstellen, die konsumer karten sind wie intel chips ohne avx und lvl2 cache.

https://www.golem.de/news/tesla-k40...byte-und-festen-boost-stufen-1311-102819.html

das ist der "vollausbau" von gk110. alles andere läuft "weniger genau" für mehr fps. doofes bsp aber kann man mal so sagen. immer wenn ich eure ram mengen sehe, muss ich lachen^^ 3gb bei kepler vollausbau :D

mfg
 
Also unterm Strich muss man schon sagen, es kam Einiges dabei raus über die Jahre was Performance/Watt angeht.
Die 1080 ist bis jetzt die einzige Grafikkarte wo ich wirklich mit zufrieden bin, alle Anderen brachten mir schon wenige Monate später nach dem Kauf tränen in die Augen als in Titel X dann alle Details nach unten gedreht werden mussten und es dennoch nicht sauber gelaufen ist.

Da denke ich an so Sachen wie z.B. GTX 470 in Battlefield 3 ~ 40-70 FPS Lowdetails und wo dann so GTX 560 Ti 448 c Karten gekommen sind, flogen mir schier die Augen raus und dann gab es wieder dieses "ich brauch was Neues" Gefühl.

Die letzte Karte die man relativ lange nutzen konnte, war doch vor der 1080 nur die GTX 680 mit 4GB - alle anderen so dazwischen haben auch nie die großen Sprünge gehabt.
Aber unterm Strich bekommt man mittlerweile zum jetzigen Zeitpunkt viel mehr mögliche Frames per Second, als es früher der Fall war.
Da kam ein Triple A Titel nach der GPU raus und schon war das Ding wieder veraltet, man musste die Regler so hart nach Links schlagen, dass selbst bildlich vorgestellt das Optionsmenü angefangen hat mies auszuschauen :heul::D

Eines weiß ich aber Heute ganz sicher, ich kaufe mir nie wieder irgend so einen Sonderfall wie GTX 970 (bzw. damals wegen Garantie bekommen), oder GTX 780 - diese ungeraden Viecher aka Speicher kannste nicht anständig einsetzen, weil jeder für 2,4,8,16,32 usw. entwickelt so wie es eben ein Standard ist.

Die 970 ging mir das erste mal so richtig aufn Zeiger in Rainbow Six Siege mit dem UHD Texture Pack, das konnte man nicht nutzen so wies rumgestottert hat und ständig Nachgeladen.
 
Danke für die gesamte Testreihen. Die unterschiedlichen Herangehensweisen zwischen Nvidia und AMD werden recht gut ersichtlich, am Ende ist das Urteil dann doch klar.
 
@eax1990

völlig richtig. aktuell passiert mal etwas, was nicht häufig in der hardware entwicklung passiert. der pascal war einfach so unfassbar gut, da sind sogar bei nvidia die kinnladen runter gefallen. daher gab es keinen volta und wir bekommen jetzt diesen hybriden, der nichts halbes und nichts ganzes ist. der gp102 auf 2ghz ist halt ein absolutes monster.

btw....deine goes like hell von gainward finde ich nett. ich "hatte" mal eine glh geforce3. die ist so schön, die liegt hier immer noch in einer kiste :D

mfg
 
^^, ist meine erste Gainward Karte überhaupt - bin aber so schwer begeistert davon, würde mir wieder eine kaufen - hatte zuvor fast nur Gigabyte mit Sturmböe 3 Kühler oder wie das Ding heißt :D.
 
jo, ich bin schon seit fast 8 jahren bei laptops gelandet. asus und msi ausprobiert, jetzt seit fast 6 jahren clevo. immer der re-seller der das beste angebot macht, aktuell ein gebrauchtes xmg von 2016 mit gtx1070m :evillol:

p.s.

was hier sonst noch so an hardware steht, für den race seat z.b., ist ja egal ^^

:D
 

Anhänge

  • Gefällt mir
Reaktionen: Pat, Transistor 22, alkaAdeluxx und 5 andere
TNM schrieb:
Danke für die gesamte Testreihen. Die unterschiedlichen Herangehensweisen zwischen Nvidia und AMD werden recht gut ersichtlich, am Ende ist das Urteil dann doch klar.
Und was siehst du da so raus... ohne zu Raten?
Rein dein Kommentar dazu, ganz ohne Begründung lässt mich doch sehr stark zweifeln.
 
Cool Master schrieb:
Gibt es eigentlich ein Grund warum 1440p nicht immer dabei ist? Bei einem Test ist es dabei und dann mal wieder nicht. UHD ist zwar ganz Nett aber das ist nicht wirklich relevant, da deutlich mehr Leute in 1440p Unterwegs sind, zumindest wenn man dem Steam HW Survey vertrauen darf.

Wozu 1440p? Der Unterschied zu FULL HD ist so gering das es sich nicht lohnt. Außerdem bekommt man UHD Monitore mittlerweile schon ab 249€ -> https://geizhals.de/?cat=monlcd19wide&xf=14591_38402160
 
  • Gefällt mir
Reaktionen: cruse
incurable schrieb:
Nur behält der gute Wolfgang eben diese Einstellungen seit nunmehr 3 Wochen und 4 Artikeln einfach für sich.
Der Schlawiner ! (mich würde es aber auch interessieren)
Knito schrieb:
Logisch wäre, immer die gleichen kleinen Einstellungen zu nehmen und die Frames auf 60 zu cappen.
dann landet die eine bei 30% und die andere bei 80% - super auslastungstest.
neofelis schrieb:
Auch, was dann auf beiden Systemen Undervolting noch bringt.
das würde den testrahmen sprengen. zudem reagiert jeder chip etwas anders auf under/overvolting. wenn wolfgang das machen würde, dann würden hier wieder 1000 user ankommen: "aber mein blabla"
Iscaran schrieb:
Alternativ könnte man auch die mittlere GPU-Last in % mitloggen über die Testsequenz und durch die gemessene Leistungswerte teilen oder zumindest einfach die GPU-Auslastungen jeweils mit Angeben.

Ich könnte mir vorstellen dass die ein oder andere GPU bei WoW auch bei max settings ggf. einfach nicht 100% Last fährt. Speziell eine 1080 wäre da ein Kandidat. Dies würde natürlich die gemessenen Verbrauchswerte DEUTLICH besser darstellen als sie ggf. wären wenn man 100% Last hätte.
nein, man stellt es so ein, das es immer rund 60 fps bei ca 100% last sind. dazu kann man die Auflösung benutzen und die kann man sehr weit nach oben schrauben

deine lösung mit % mitloggen usw ist viel zu kompliziert, da man die werte am ende mitteln müsste.
matraj63 schrieb:
hier mal ein Versuch.
fettes lob!
SerErris schrieb:
alles Mutmaßungen.
1. müsste ich ein spiel besorgen wo die uralt karten 60 fps schaffen(und das dann auch noch gpu limitiert ist), zweitens würde die neuen karten nichtmal über den basistakt kommen. meine karte bricht bei Paladins(150 fps cap) komplett ein und schaltet sich halb ab, weil nur 200-300 mhz anliegen(mehr brauch sie nicht für 150 fps ^^). so wird es fast allen karten gehen. verbrauch = kaum etwas
test sinnlos... 1a aussage, gz
du unterschlägst hier vollkommen wie leistungsstark die neuen karten sind. dein test passt einfach nicht. es würde nichts verwertbares dabei rumkommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
Puh, die GTX 680 ist wirklich verdammt abgehängt worden. Mir wird schlecht wenn man bedenkt, dass man heute etwa 160€ für eine etwa gleichwertige 1050ti hinlegen muss.
 
deine lösung mit % mitloggen usw ist viel zu kompliziert, da man die werte am ende mitteln müsste.

Äh...schon mal was von GPU-Z gehört ? Das loggen ist total einfach. Und die Mittelung in der von GPU-Z automatisch erstellten .csv Tabelle geht mittels =MITTELWERT(SPALTE X) mit Excel z.B.
 
Die 580er hatte ich bis Januar 2017. Konnte damals noch eine ergattern bevor es zu Lieferengpässen kam. Palit mit Referenz Design. Für 480€^^

580.jpg


Solange hatte ich noch nie ne Graka gehabt. Klar musste ich die Regler mit der Zeit immer mehr nach Links schieben. Aber lief. Selbst Witcher 3. Nur die Doom Beta lief nicht flüssig und Vulkan wird mit der nicht unterstützt. Liegt immer noch bei mir als Ersatz Graka^^.
 
cruse schrieb:
dann landet die eine bei 30% und die andere bei 80% - super auslastungstest.

Ich glaub du hast da irgendwas nicht verstanden :rolleyes:
 
jeder hat halt so seine favorites. wenn z.b. mafia2 und hitman (kA wie der teil hieß) mit reingenommen worden wären, wäre die sache für beide parteien auch noch bitterer geworden. die engines die genommen worden, haben halt nicht gut nach unten scaliert, nur hätte ich persönlich nicht dota 2 als 60fps "check" genommen ;D

meckern auf hohem niveau und man kann an den werten schon eine gute tendenz erkennen. die schwankungen könnten noch aufpoliert oder ausgebeult werden, für die eine oder andere seite. aber insgesamt passen die werten schon so, wie sie sind. messtoleranzen im einstelligem prozent bereich natürlich inclusive :D

p.s.

bin ich hier immer noch der einzige, der die entwicklung nicht so besonders "schnell" findet? wenn die pascals nicht gekommen wären, würde nvidia echt mieß aus sehen. die rohleistung explodiert förmlich und die frames dümpeln bei +400% rum? alleine zwischen einer 7870 und einer vega64 liegen 600%+ unterschied in der rechenleistung aber die aktuelle software brauch nur round about 3k shader und takt bis der arzt kommt. klasse.

dafür hocken wiederum die armen software guys seit jahren bei kunstlicht in ihren butzen und können nicht fassen, dass moores law immer noch existiert aber immer noch keiner auf raytracing abgeht. lieber 4k kinderkacke als 480p in raytracing :D

mfg
 
@Knito
"Logisch wäre, immer die gleichen kleinen Einstellungen zu nehmen und die Frames auf 60 zu cappen."
was hab ich hier nicht verstanden ?
während die 480(Beispiel) sich da einen abwürgt, kommt die 1080 nicht mal ausm idle takt.
nehmen wir mal an die 480 ist bei 100%, die 580 auch noch und die 680 bei 80%, danach haben wir vermutlich 60% und danach vielleicht schon 2x idle takt. wie willst du die beiden letzten von der Effizienz her vergleichen, wenn sie quasi das selbe verbrauchen ? verbrauchen sie dann das selbe ? - nein, sie brauchen in diesem Szenario das selbe, weil weniger nicht geht. spinnen wir das ganze weiter zur 2080, deren Nachfolger und deren Nachfolger und deren Nachfolger....
das Szenario mit immer gleichen Einstellungen und auf 60 gecapped ist ungenügend, da nicht unendlich oder rausreichend hoch skalierbar.
 
Die vier Tests sind wirklich eine grossartige Vorbereitung auf die neue GPU Generation. Danke dafür Wolfgang.

Das man den Wechsel von High End Chips (580) auf die Midrange Lösung (680) und somit der Einführung der Titan mit keinem Wort erwähnt, liegt mir dennoch schwer im Magen. Mir ist schon bewusst, dass sich Nvidia sowas leisten konnte, weil sie eine ungewöhnlich starke Performance Karte im Petto hatten und den guten (teuren) Stoff für viel Geld an den Mann bringen wollten.

Das alles liegt in der näheren Vergangenheit und sollte dementsprechend auch ein wenig mehr Beachtung bekommen. Einen x80 Ti Rückblick kann man ja mit der RTX 4080 Ti bringen und bis dahin sollte man vielleicht High End Karte mit ihresgleichen vergleichen. Vielleicht stehe ich auch alleine dar mit der Meinung...
 
cruse schrieb:
Das ist falsch. So wie du das beschreibst, funktionieren Mikroprozessoren nicht. Auf so eine Diskussion lass sich mich nicht ein.
 
Knito schrieb:
Ich glaub du hast da irgendwas nicht verstanden :rolleyes:
Er hat das schon richtig verstanden: Dein Ansatz würde die meisten Karten gar nicht auslasten und evtl. sogar ein CPU-Limit erzeugen. Was willst du damit vergleichen?

Wolfgangs Ansatz zielt darauf ab, über die Einstellungen ein GPU-Limit und damit Vollauslastung zu erzeugen. Die dabei anvisierten 60 FPS sollen eine realistische Last wiederspiegeln, welche so auch praktisch vorkommt.
Der anschließende Effizienzvergleich macht zudem nur Sinn, wenn vorher Volllastleistungen ermittelt wurden.
 
  • Gefällt mir
Reaktionen: Darkseth88 und Colindo
Zurück
Oben