Test GeForce GTX 980/970 im Test: Nvidia Maxwell 2.0 für High-End ist da

D3xo schrieb:
Es hängt doch davon ab was du spielst, ich zocke sogar mit meiner Karte alles mit max. Details und 1440p aber ich zocke keine Shooter. Laut CB dürfte ich bei Anno 2070 mit meiner Karte keine 15 fps haben aber das Spiel läuft bei mir komischerweise mit 34 fps. Was ich dir damit sagen, selber testen ! Wozu braucht man 90 fps ?

Um näher an die 120 HZ zu kommen, ein Flüssiges Spielerlebniss ist mir wichtiger als gute Grafik.
 
Sourcesys schrieb:
Um näher an die 120 HZ zu kommen, ein Flüssiges Spielerlebniss ist mir wichtiger als gute Grafik.

Also doch Shooter Fan. Ich kann dir leider nichts dazu sagen und ich kann es auch nicht testen, aber ich vermute mal wenn du es mit einer 770 nicht packt auf 90 fps zu kommen, dann wirst du es auch mit einer 970 nicht packen. 1440p benutze ich nicht wegen besserer Grafik, sondern wegen größeren Bildausschnitt bei spielen wie civ5 z.b.
 
D3xo schrieb:
aber ich vermute mal wenn du es mit einer 770 nicht packt auf 90 fps zu kommen, dann wirst du es auch mit einer 970 nicht packen.

Wieso sollte das der Fall sein? :D

Mir geht es einfach um die Mehrleistung, ich würde meine 770 verkaufen und eine 970 kaufen.
 
Sourcesys schrieb:
Wieso sollte das der Fall sein? :D
Mir geht es einfach um die Mehrleistung, ich würde meine 770 verkaufen und eine 970 kaufen.

Viel Spaß mit deiner neuen 970, ich muss dich nicht finanzieren. :D
 
Zuletzt bearbeitet:
Eine 770 würde ich eher auf 980 aufrüsten. Da lohnt sich der Sprung.
 
Was mich bei der Diskussion um den Mehrverbrauch bei GPGPU-Benchmarks interessieren würde ist, ob man Spiele eigentlich auch so programmieren könnte, dass sie die Grafikkarte voll und kontinuierlich auslasten und es den Entwicklern nur zu viel Aufwand ist oder ob das grundsätzlich Workloadbedingt nicht möglich ist bzw. bei GPGPU einfach andere Funktionseinheiten genutz werden.
 
GPGPU hat mit Spielen eigentlich nicht zu tun. Deswegen ist die Frage, nun ja.
 
@Miuwa:
Man nehme ein eher triviales Spiel wie Thief und warte ingame im Menü, bis die Kühler anfangen zu orgeln. Dann liegen die Werte auch über der TDP. Oder man nehme Metro 2033 oder LL und vergleiche die Werte mit und ohne PhysX. Mit Metro liege ich dann ebenfalls schon weit über der TDP.

GPGPU hat mit Spielen eigentlich nicht zu tun
Solange PhysX und Direct Compute nicht mit ins Spiel kommen :)
 
. Evtl. will man ja einfach abwarten, was AMD so bringen wird und kontert dann eben mal.
Genau so schauts aus, die Titan II Maxwell wird es erst geben bzw. die finalen Specs. davon, wenn AMD ihre Karten auf den Tisch gelegt hat.

, ob man Spiele eigentlich auch so programmieren könnte, dass sie die Grafikkarte voll und kontinuierlich auslasten und es den Entwicklern nur zu viel Aufwand ist
Möglich ist alles, nur kostet das zu viel am PC, da es zu viele GPU Architekturen gibt die berücksichtigt werden müssen. Deshalb werden alle über einen Kamm geschoren, ineffizient, aber kompatibel zu allen. Bei perfekter Optimierung wären da Leistungssprünge von bis zu ca. 1000% drin.
 
Zuletzt bearbeitet:
Das Zauberwort lautet bei Spielen Skalierung. Spiele müssen sowohl auf Schrott PCs laufen, als auch auf Highend PC sehr gut aussehen. Und damit werden die Entwickler idR gut zu tun haben.
 
MikelMolto schrieb:
Ach ihr seit doch Langnasen!
NVidia selbst hat gesagt, das die GTX 980 NICHT die GTX 780ti ersetzen soll sonder die GTX 780. Nur mal so um euer Denken anzuschubsen: Da liegt noch etwas bei NVidia im Backofen, was die 780ti ersetzen wird. Evtl. will man ja einfach abwarten, was AMD so bringen wird und kontert dann eben mal.

Ich kann mir nicht vorstellen, dass die so schnell schon den Shrink rankriegen, um den GM210/GM200 in eine GTX980TI zu packen. Und der GM204 ist bereits im Vollausbau. Und ein GM202 mit 2560 Shadereinheiten wird es eher nicht geben, vermute ich.
 
Also mal vorab: Ich mag die Karten aufgrund des geringeren Stromverbrauchs bei nahezu gleicher Leistung zur Vorgängergeneration.

Aber er hat Recht weil ...
Wir werden auf der Basis wieder eine Flut von Karten sehen, die genau diese Karten entwertet (siehe 780 gtx bla blub)
und die nummerische Namensgebung ganz bewusst darauf abzielt den Konsumenten ein höherwertiges Produkt vorzugaukeln als es das technologisch in der Serie eigentlich ist.

Ich finde im Übrigen die 980er deutlich schlechter vom P/L als die 970er was er schrieb.

Und ja so funktioniert Marketing ... Aber für mich ist mehr oder weniger offensichtlich
 
Mal einige Gedankenspielchen für euch:
Ein Shrink ermöglicht bei gleicher Fläche nahezu eine Verdoppelung der Transistordichte und somit prinzipiell auch der Leistung. Im Endeffekt kommt eigentlich nie die doppelte Transistordichte raus da man beim Chipdesign immer auch andere Faktoren berücksichtigen muss.

Der GM204 kommt nun auf knapp 400mm². Das bedeutet dass der Chip in 20nm nur etwa 200mm² gehabt hätte - sehr wenig für einen typischen NVidia X04er Chip. Diese liegen eigentlich immer zwischen 300 und 350mm². Das lässt folgende Schlüsse zu:
1. GM204 war mit 28nm Fertigungsbreite geplant und ist nicht nur eine Notdürftige Vergrößerung des 20nm Chips (was auch nicht mal eben so gemacht ist da auch bei einem Shrink einige Änderungen am Chip notwendig sind)
2. Wir werden in 20nm noch einen neuen Mittelklassechip sehen - vielleicht einen GM214, oder aber einen 304er oder auch einen 202. Letzeres halte ich aber wie Banger für sehr unwahrscheinlich, vor allem in der Größenklasse der 04er Chips. Wahrscheinlich wird dieser Chip dann eine hypotetische GTX 1000 begründen.
3. Danach, wenn die Yields passen (oder aber AMD einen richtigen Knaller auspackt) wird es einen GM200 in 20nm geben - ein Chip der Größenmäßig nicht Wirtschaftlich in 28nm produziert werden kann wenn man nicht Einstiegspreise von 10.000€ für Teildeaktivierte Chips aufruft. Immerhin reden wir hier von ~1.000mm² oder mehr!

Eine 980Ti wird, wenn sie wirklich kommen sollte, nur eine OC-Version der 980 sein. Bei der 980 ist der gesamte Chip aktiviert und somit bleibt nur der Takt als Möglichkeit zur Leistungssteigerung.
 
Kasmopaya schrieb:
Also von mir nicht. Die 780 TI 3GB war schon seit Verkaufsstart mit dabei, nicht erst seit heute. :)
Meine Aussage sollte man(n) nicht für voll nehmen Kasmo, besonders nach dem Vermerk ..."Dies wurde von oberster Stelle abgesegnet", aber ich kenne deine
Meinung dazu & diese teile ich teilweise, speziell für ein SLI-Gespann. :)
 
Eine 980Ti wird, wenn sie wirklich kommen sollte, nur eine OC-Version der 980 sein. Bei der 980 ist der gesamte Chip aktiviert und somit bleibt nur der Takt als Möglichkeit zur Leistungssteigerung.
Die 980 TI könnte eine im Vram kastrierte Abwandlung von Big Maxwell, also dem Titan Modell von Maxwell werden. Also ganz neuer Chip. (würde sehr lange dauern, bis Titan Maxwell EOL ist) Oder man macht da gleich eine neue Serie auf 1080 TI mit vielen kleinen 20nm Ablegern bei der Mittelklasse bis High End.

Die 680 blieb ja auch ohne TI Nachfolger, ich denke das dürfte auch hier der Fall sein. Erst Big Maxwell wird wieder in viele kleine Teile zerschnitten, würde mich nicht wundern wenn beim neuen 20nm Prozess dann erstmal eine kastrierte Titan Version raus kommt für 1000€ und der Vollausbau wieder viel später. Dazwischen dann Vram Krüppel mit dem Namen TI.
Meine Aussage sollte man(n) nicht für voll nehmen
Nächstes mal mache ich das ;) dahinter. ;)
 
Zuletzt bearbeitet:
würde mich nicht wundern wenn beim neuen 20nm Prozess dann erstmal eine kastrierte Titan Version raus kommt für 1000€ und der Vollausbau wieder viel später...
Ich denke auch mal, daß sich da "die Geschichte" wiederholt ... es sei denn, AMD überrascht & schlägt NV ein Schnippchen, nur die letzten Meldungen
diesbezüglich lassen wohl nicht darauf hoffen, daß der Trend gestoppt werden kann --> Preisspannen bis zum Exitus ...^^
 
Was mich bei der Diskussion um den Mehrverbrauch bei GPGPU-Benchmarks interessieren würde ist, ob man Spiele eigentlich auch so programmieren könnte, dass sie die Grafikkarte voll und kontinuierlich auslasten und es den Entwicklern nur zu viel Aufwand ist oder ob das grundsätzlich Workloadbedingt nicht möglich ist bzw. bei GPGPU einfach andere Funktionseinheiten genutz werden.

Es hat nichts mit den Funktionseinheiten zu tun. Denn diejenigen Funktionseinheiten, welche man in GPGPU verwendet kann man fast alle ebenfalls mit Direct3D oder OpenGL mit der Rasterpipeline verwenden. Das Problem liegt eher in den extrem unterschiedlichen Algorithmen der Spiele begraben. Diese lasten die GPU nur extrem einseitig aus, ein Problem was die Programmierer generell auch nicht beheben können. Will man zum Beispiel eine Shadowmap zeichnen (also Schattenwurf), so sind fast alle Shaderkerne untätig und nur die Rasterpipeline augelastet. Meist ist man massiv durch die Pixelfüllrate limitiert. Ebenso verhält es sich im ersten Pass eines deferred Renderers (das sind die meisten Renderer heutzutage) , bei welchen man ohne Shading nur eine Tiefentextur und mehrere Farbtexturen erstellt. Will man aufwändige Partikeleffekte mit massivem Overdraw berechnen, so tritt ebenfalls diese Limitierung ein. Bei anderen Post-Processing-Pässen liegt man dann wieder extrem hart an der Texel-Füllrate und ist wieder durch die TMUs limitiert.
 
Zurück
Oben