Test GeForce GTX 980/970 im Test: Nvidia Maxwell 2.0 für High-End ist da

Klar, ich hab hier auch nie was zu GTX980/980 gepostet... Alles nur Flames. Wenn Playstation 4 was mit dem Thema zu tun hat, dann weiss ich es nicht.
Aber macht mal. Ich entledige Euch jetzt meiner unwürdigen Anwesenheit hier. In einem anderen Thread wird nämlich erheblich mehr und sachlicher über die neuen Karten diskutiert, als hier...
 
zeedy schrieb:
...Hab dazu aber einige Fragen :
zum einen gibst du auf der ersten Seite die offizielle TDP der GTX980 mit 180W an. Die PTs der 290er Karten fehlen. Bei den Taktangaben wären die Boosttaktraten interessanter gewesen, weil die Custom GTXen meist nicht mit dem Basistakt arbeiten. Bie der 290X mit +40MHz Takt kann man übrigens nicht wirklich von OC sprechen. Das erklärt auch, warum die beiden Hawaii Karten so ähnlich performen. Warum wurde eigentlich nur Thief in 4K gebencht? Wurden in BF4 und Thief Mantle verwendet?

Mantle... Proprietäre Schnittstellen sind aus meiner Sicht in speziell so einem Test verfälschend. Dann hätte ich ja bei Metro auch PhysX aktivieren können. Bei den R9 290(X) ist das mit der Target Power etwas anders gelöst, so dass man da kaum vergleichbare Werte bekommt. Der Boost-Takt von Nvidia ist übrigens bei jedem Chip, je nach Güte und gehaltener Spannung leicht unterschiedlich, das ist auch wieder so eine Sache, die bei jeder Karte anders ausfallen kann. AMD geht ja (marketingtechnisch) den genau umgekehrten Weg, die takten einfach runter, wenn es eng wird. Je nach Chip mehr oder weniger.
 
FormatC schrieb:
Der Boost-Takt von Nvidia ist übrigens bei jedem Chip, je nach Güte und gehaltener Spannung leicht unterschiedlich, das ist auch wieder so eine Sache, die bei jeder Karte anders ausfallen kann.

Nur als Anregung fände ich es interessant, wie sich der Boost verhält bei Karten mit differierender ASIC aber identischem Bios.
 
An sich finde ich die 970 jetzt auch ziemlich gut. Für 310€ gibts ne Graka, die sogar schneller ist, als die 400€ teure 290x, zumindest auf dem gleichen Level. Nur sind das gegenüber einer 280x (oder 7970ghz) immernoch nur 25-30% Mehrleistung. Ein verfluchter Witz nach über 2,5 Jahren :(

Die 980 kommt im Schnitt auf 50%+, immerhin. Kann man jetzt davon ausgehen, dass AMD im Januar was nachschiebt, oder schon früher? Nochmal 10-15% auf die 980 und wir kommen in interessante, kraftvolle Regionen :)
 
FormatC schrieb:
Mantle... Proprietäre Schnittstellen sind aus meiner Sicht in speziell so einem Test verfälschend. Dann hätte ich ja bei Metro auch PhysX aktivieren können.
Nunja, ich finde gerade das verfälscht die Ergebnisse. Denn während PhysX nur ein Grafikeffekt ist, erhöht Mantle die fps. Und genau darum geht es doch in dem Artikel, um fps/W. Jeder 290(X) Besitzer wird es in den Spielen aktivieren. Das ist wie mit einem alten Treiber benchen, oder BF4 mit W7 testen und argumentieren, dass die allermeisten Zocker Windows 7 verwenden. Im übrigen hat Mantle keinen negativen Einfluss auf die GPUs von Nvidia, was bei Physx ja nicht der Fall ist (GPU Physx vs. CPU Physx).

Und warum eigentlich nur Thief in 4K und mittleren Einstellungen? Und nicht einfach 1080p @max ^^
 
zeedy schrieb:
Nunja, ich finde gerade das verfälscht die Ergebnisse. Denn während PhysX nur ein Grafikeffekt ist, erhöht Mantle die fps.
Max. Details und AA sind auch nur Grafikeffekte. So gesehen kann man nur min. Details und Auflösung ernst nehmen. Und das kann ja auch nicht der Sinn sein.

zeedy schrieb:
Im übrigen hat Mantle keinen negativen Einfluss auf die GPUs von Nvidia, was bei Physx ja nicht der Fall ist (GPU Physx vs. CPU Physx).
PhysiX auch nicht zwangsläufig. Wenn dir die Leistung unter AMD nicht reicht kannst du PhysiX schließlich auch deaktivieren oder reduzieren.
 
Bei der Leistungsbetrachtung einer GTX 970 oder 980 interessiert deaktiviertes PhysX einfach nicht. Jeder 970/980 Benutzer wird es aktivieren, erfährt aber durch den Test nicht, wie sich diese nun im Vergleich zu Vorgängern schlagen.
 
@zeedy: Wenn du mal die rote Brille abnimmst und das ganze etwas objektiver betrachtest, wirst du feststellen dass NVidia mit PhysX nix anderes macht als AMD mit Mantle auch. Man verschiebt Berechnungen von der CPU auf die GPU. Mantle ist da nur die konsequente Fortsetzung. Bei PhysX waren es nur Physik Berechnungen, dafür hast du da noch zusätzliche Grafikqualität bekommen. Bei AMD wir lediglich die Framerate höher. Beides kannst du nur mit den Karten der jeweiligen Hersteller richtig nutzen.

Egal sobald DX12 da ist prophezeie ich einfach mal, dass sowieso kein Hahn mehr nach Mantle krähen wird. Dennoch hatte Mantle sein Positives. Ich glaube AMD hat MS da mal ein bisschen aus der Reserve gelockt.
 
Der Landvogt schrieb:
Max. Details und AA sind auch nur Grafikeffekte. So gesehen kann man nur min. Details und Auflösung ernst nehmen. Und das kann ja auch nicht der Sinn sein.

PhysiX auch nicht zwangsläufig. Wenn dir die Leistung unter AMD nicht reicht kannst du PhysiX schließlich auch deaktivieren oder reduzieren.
Deine Gegenargumente sind albern.
Wie vergleicht man High End Grafikkarten miteinander? In hohen Auflösungen, also mind. 1080p und max. Details. Auf jeden Fall bei gleicher Bildqualität. Dann gibts noch spezielle Effekte, die kaum ein Spiel unterstützt, wie Physx und TressFx.
Benche ich mit Physx, wird eine Nvidia weniger einbrechen als eine AMD Karte.
Benche ich mit Mantle, wird eine Nvidia nicht langsamer, sondern nur AMD schneller. Das ist der entscheidende Unterschied. Würde z.B. PhysX für mehr Leistung bei Nvidia Karten sorgen, so MÜSSTE man das auch aktivieren.
Ich kann bei solchen Spielen doch nicht so tun, als könnten bestimmte Karten bei gleicher Bildqualität nicht schneller sein...

Ein anderes, noch besseres Beispiel: Karte A unterstützt DX11, Karte B DX12, und ist dabei schneller. Soll ich Karte B trotzdem unter DX11 benchen?

@simsp würdest du deine grüne Brille abnehmen und meine Beiträge unvoreingenommen lesen, hättest du schon längst festgestellt, dass ich die Dinge so objektiv betrachte wie kaum ein anderer hier im Forum. Wäre ich nämlich mit einer roten Brille unterwegs, hätte ich ein paar Seiten zuvor z.B. nicht geschrieben, dass die GTX970 momentan die beste (High End) Gamerkarte ist.
 
@SimsP

Mantle bewirkt einen geringeren CPU-Overhead und dieser resultiert daraus in einer besseren GPU-Auslastung

-> mehr FPS.

Inwiefern deiner Meinung nach CPU-Berechnungen auf die GPU geschoben werden und deshalb mehr FPS hinten raus kommen sollen erschliesst sich mir nicht? Daran liegt auch ein "Unterschied" zwischen Mantle und PhysX. Da du anscheinend von der Funktionsweise dieser API(!) nicht viel Ahnung hast disqualifizierst du dich auch gleich für diesen Apfel-Birnen-Vergleich zwischen PhysX und Mantle. Aber zuerst von der "Fanboy-Brille" reden.....
 
@SimsP
​Man muss keine rote Brille aufhaben, um sich einen Vergleich von Nvidia und AMD unter Zuhilfenahme von Mantle zu wünschen. Schließlich sollten die Tests nahe an der Realität sein und da interessiert die Leistung ohne Mantle wenig.

Physx ist ein Sonderfall, da man hiermit Grafikeffekte erhält, während man Leistung opfert. Theoretisch würde es Sinn machen, einmal mit und ohne Physx zu machen. Aber auch nur um Nvidia Karten untereinander zu vergleichen.
 
@Booker: Ah tatsächlich. Wieder was gelernt. Ich dachte immer Mantle würde vor allem den CPU Overhead dadurch bekämpfen, dass man gewisse Berechnungen auf die GPU verschiebt. Tatsächlich ist das aber wohl nicht der Fall. War Mantle wohl doch nicht so revolutionär wie ich gedacht hab. Dann ist Mantle wohl eher noch mit Cuda vergleichbar.

@Smagjus: Das hängt davon ab wie du PhysX verwendest. Im 3D Mark wurde es damals beispielsweise so eingesetzt, dass es die CPU massiv entlastet hat. Wäre auch in aktuellen Titeln möglich, bei denen die CPU der limitierende Faktor ist.
 
zeedy schrieb:
Deine Gegenargumente sind albern.
Wie vergleicht man High End Grafikkarten miteinander? In hohen Auflösungen, also mind. 1080p und max. Details. Auf jeden Fall bei gleicher Bildqualität. Dann gibts noch spezielle Effekte, die kaum ein Spiel unterstützt, wie Physx und TressFx.
Benche ich mit Physx, wird eine Nvidia weniger einbrechen als eine AMD Karte.
Benche ich mit Mantle, wird eine Nvidia nicht langsamer, sondern nur AMD schneller. Das ist der entscheidende Unterschied. Würde z.B. PhysX für mehr Leistung bei Nvidia Karten sorgen, so MÜSSTE man das auch aktivieren.
Ich kann bei solchen Spielen doch nicht so tun, als könnten bestimmte Karten bei gleicher Bildqualität nicht schneller sein...
Dann dürfte man kein Spiel benchen das PhysiX oder andere exklusive Features unterstützt, da man beide Hersteller nicht miteinander vergleichen kann. Denn wenn du bei einem von beiden reduzieren musst hast du nicht mehr Max. Details.
Daher müssen Exklusivfeatures wie Mantle oder PhysiX aus den Wertungen und dem Fazit rausfliegen. Wenn AMD wegen einem Mantle-Spiel insgesamt die Leistungskrone bekommt ist der Test verfälscht (das ist er auch wenn dieses eine Spiel nicht ausschlaggebend ist). Gewinnt NV nur wegen einem PhysiX-Spiel gilt dasselbe.
 
Zuletzt bearbeitet:
|paladin| schrieb:
Nvidia ‘Big Daddy’ Maxwell GM200 GPU Alleged Specs Leaked – GTX 980 Ti or GTX Titan X?

http://wccftech.com/nvidia-geforce-gtx-980-ti-gtx-titan-x-coming/


Die Size: 551mm^2
SMMs/CUDA Cores: 20-22/ 2560-2816
Memory Bus: 384 Bit
Performance: ~50% Boost over GTX Titan Black
Launch: Q4 2014

speziell bei der performance wird amd wohl nicht mithalten können. dafür aber nen guten preis gegenhalten können. bestimmt 20% vor der 980 bei 550 euro startpreis. nvidia wird für big daddy wohl wieder 999 haben wollen.
 
ich habs bestimmt nur übersehen, aber wo stehen da mal die Einstellungswerte für den Tessmark? meine Graka (Titan) ist nicht in der Liste und ich wollte daher selber mal schauen, wo ich liege?!
 
|paladin| schrieb:

Also ein GM200 doch in 28nm mit 2816 Shadereinheiten. Der braucht aber dann 1000 bis 1200MHz Grundtakt und weitere 100MHz mehr Boost? Thanok, wo bleibst du? Dann wird der Shrink dann GM210 heißen und doch evl. auch ein GM214 kommen.

Edit: Glaskugel:
- GTX980TI: GM200, 28nm, 20SMMs, 2560 Shader, ca. 1050MHz, ca. 300GB/s, 384 Bit, 6GB
- GTX Titan X: GM200, 28nm, 22SMMs, 2816 Shader, ca. 1000-1050MHz, ca. 300-330GB/s 384 Bit, 12GB
- "GTX1080": GM214, 20nm, xSMMs, ca. 2500-3000 Shader, ca 900-1100MHz ca. 220GB/s, 256 Bit, 8GB
- "GTX Titan Black 2": GM210, 20nm, xSMMs, ca. 4000-5000 Shader, ca. 850MHz, ca. 330GB/s, 384 Bit, 12GB
Der Shrink würde noch mehr Cache haben und eine noch bessere Kompression, sodass die schlechtere Bandbreite wieder egalisiet wird.

Schätzen dass die Profis hier jetzt ähnlich anhand des Links von Paladin? Oder ist meine Einschätzung doch eher als hochgradiger Schwachsinn einzuschätzen?
 
Zuletzt bearbeitet:
Der Landvogt schrieb:
Dann dürfte man kein Spiel benchen das PhysiX oder andere exklusive Features unterstützt

PhysiX Unterstützung - ja
[zusätzliche] PhysiX Effekte - nein

Mantle Unterstützung - ja

Wenn AMD wegen einem Mantle-Spiel insgesamt die Leistungskrone bekommt ist der Test verfälscht

Sehe ich wiederum auch so, denn Mantle steht nur in einigen Spielen zur Verfügung. Die Gesamtwertung sollte Ausreißer wie Mantle und PhysiX zwar erwähnen aber nicht berücksichtigen. Im Gegensatz zur Einzelwertung, da gehören sie rein.
 
Zuletzt bearbeitet:
Smagjus schrieb:
@SimsP
​Man muss keine rote Brille aufhaben, um sich einen Vergleich von Nvidia und AMD unter Zuhilfenahme von Mantle zu wünschen. Schließlich sollten die Tests nahe an der Realität sein und da interessiert die Leistung ohne Mantle wenig.

Im Prinzip ist es doch das selbe Thema, wie z.B. die Verwendung der jeweils aktuellsten Grafiktreiber, über die in der Vergangenheit schon so viel diskutiert wurde.

CB hat zwei Alternativen: Entweder im Vergleichtest bei jeder einzelnen Karte jedes mal mit allen verfügbaren Mitteln das Maximum herauskitzeln, oder einen Vergleich auf möglichst "gleichem Niveau" zu machen und Besonderheiten wie aktualisierte Treiber, Mantle, Physx und Co. in seperaten Tests abzuhandeln.
Das Letztere ist eindeutig der praktikablere Weg, auch wenn man den Lesern damit zumutet, das sie abhängig von ihrer eigenen Situation, die jeweiligen zusätzlichen Einflussfaktoren aus anderen Sonder-Tests auf die Ergebnisse der allgemeinen Vergleichstests drauf rechnen.

Und die Praxisnähe ist auch so ein Thema für sich.
Damit so ein allgemeiner Vergleichtests direkt für jeden Einzelnen das relevante, praxisnahe Ergebniss liefert, müssten ja alle Konfigurationen aus Hard- und Software getestet werden, die die Leser zu Hause haben könnten. Das kann so nicht funktionieren. Es wäre zu viel Testaufwand und der daraus resultierende Datenberg auch einfach unübersichtlich. (Man sah ja schon im Artikel über den Einfluss von verschiedenen Gehäusen auf verschiedenen Grafikkarten, wie schnell da nur aus diesen beiden Kombinationsmöglichkeiten riesige Datenmengen zusammenkommen.)

Man kann deshalb nur einen Vergleich unter möglichst identischen Grundvoraussetzungen machen, der so gut wie möglich andere Faktoren (z.B. bei Grafikkarten auch einen CPU-Flaschenhals oder Einfluss des Betriebssystems usw.) ausschließt. Diese Faktoren muss sich der Leser dann wie gesagt nach seinem eigenen Bedingungen/Anforderungen aus den entsprechenden seperaten Tests dazu rechnen.

Wenn man sich als Leser diese Mühe macht, in den verschiedenen Test-Artikeln nachzulesen, bekommt man am Ende auch ein relativ praxisnahes Ergebnis für sowas wie:
Mit Mantle aber ohne Physx, Mittelklasse-CPU, eher schlecht belüftetes Silent-Gehäuse, Custom-Karte mit offenem Kühlerdesign, vorletzte Treiberversion (weil man mit der aktuellesten in Spie XY einen Darstellungsfehler hat) und das Ganze unter Windows 8.1 Update 1.
 
Zuletzt bearbeitet:
Also was sich manche hier fürn Gespräch abhalten ist ja echt nicht mehr schön. :rolleyes:
Dachte dieses Forum heißt "Fachgespräche" und nicht "Streitgespräche".
Manche sollten einfach mal ihre roten und grünen Brillen absetzen und mal über den Tellerrand schauen.
Ich hatte beides. AMD und nVidia. Beides gut, beides Vor und Nachteile, für mich aber nicht relevant.
Nun bringt NV gerade zu dem Zeitpunkt wo ich aufrüsten will ne hammer Graka in Form der GTX970 raus. Von AMD gibts nix vergleichbares.
Also greife ich zu NV weil ich jetzt aufrüsten will. Hätte beinahe eine R9 290 Tri-X genommen, bis mich hier jemand auf die 970 aufmerksam gemacht hat. Bin mir nur noch nicht sicher ob ich zur Gigabyte oder MSI greifen soll.
Und zu den Leuten die meinen "In dieser Preisklasse interessiert sich doch niemand für den Stromverbrauch": Werdet erstmal erwachsen und reif, zieht von zu Hause aus und bezahlt euern Strom mal selbst. Dann denkt ihr auch anders. Was ist das für ne Schwachsinns Aussage? Wenig Stromverbrauch ist immer gut. Und wenn ich eben meine Spiele in der höchsten Grafik zocken will, brauch ich so ne Karte. Aber trotzdem ist mir der Stromverbrauch doch nicht egal. Leute gibts...
 
Zurück
Oben