Test GeForce GTX 980/970 im Test: Nvidia Maxwell 2.0 für High-End ist da

Die neuen Karten sind echt sehr gut geworden, in Sachen Leistung zu Verbrauch besser wie erwartet. Das die GTX 980 mit der GTX 780 Ti gleichzieht war ja schon vorher klar, sogar auch da ein klein wenig besser wie man das evtl. dachte. Ein paar nette Gimmicks, nichts bewegendes aber interessant. Also darauf aufbauen und die nächste Generation dann richtig aufdrumpfen lassen + DX12 schon auf dem Markt, dann lohnt sich das und man kann zufrieden zuschlagen!

Wirklich sehr schade, daß man ständig nur die GTX 780 Ti Referenzwerte nimmt, wirklich niemand wird sowas mit seiner GTX 780 Ti fahren.....selbst wenn man ein Custom-Modell anschafft und gar nichts dran macht hat man immer deutlich bessere Werte (halt gängige Karten auf dem Markt nehmen, die 780 Ti`s sind ja eben in der Regel schon recht stark ab Werk übertacktet).
Standardtakt ~ 1000MHz + ensprechend Boost sollte man schon testen, mindestens mit ~ 950MHz. Auch den Speicher haben die meisten etwas höher, was bei den höheren Auflösungen interessant zu sehen wäre.
Alles in allem wird jede GTX 780 Ti damit wieder leicht vorne sein bzw. auch mit den Custom-Modellen der GTX 980 gleichziehen.....denn dann wird auch der Verbrauchsvorteil der 9xx-Serie verpuffen, leider (ausserdem bezweifle ich das sich eine GTX 980 generell so gut übertackten lässt wie ein GTX 780 Ti, aber das wird man sehen).
 
Zuletzt bearbeitet:
FormatC schrieb:
Da Du ganz offensichtlich klüger bist, als die hochbezahlten Ingenieure bei Gigabyte und MSI - bitte sehr. Ich habe die intern genutzten Messprotokolle der Hersteller hier, weil ich mich immer absichere, bevor ich etwas veröffentliche das aus der Norm ausbricht, :D

Das Temperatur-Target beeinflusst bei der GeForce zunächst erst einmal den Takt und damit nur indirekt auch die Spannung - manchmal. Mehr nicht. Lies dich erst einmal in die Funktionsweise von DVFS ein und dann reden wir weiter. Gigabyte kommt intern mit Furmark sogar knapp über 300 Watt. Interessant sind hier auch die im Treiber abgefangenen Einschränkungen beim Erkennen von sogenannten "Powerviren", also Torture-Programmen, die Reviewer gern benutzen. Hebelt man das aus, wird man bös Augen machen ;)

Der Kühler der Referenzkarte ist zudem weitgehend identisch mit dem der Titan Black. Misst man den Verlauf der Wärmeentwicklung und - Verteilung unter Vollast, dann verhalten sich beide Karten bei identischem Takt sehr ähnlich. Lässt man der GTX 280 den hohen Basistakt, erwärmt sie sich sogar schneller. Über die Wärmeentwicklung und Lüfterdrehzahlen kann man die Verlustleistung bei bekannten Kühlern ziemlich genau abschätzen.

das spricht dafür das der Kühler nicht wirklich shclechter geworden ist, sondern vielmehr auch ein Problem mit der kleineren Chipfläche hat?
 
mastertier79 schrieb:
warten wir mal ab was die zukünftigen Treiber bringen!
Das geht doch jetzt schon seit über 15 Jahren so ... sowas von dermaßen langweilig!
Und das "gebashe" der Fanboys - grauenhaft!
Da kommt in ferner Zukunft ein neuer Treiber -> dann ein Re-Test und schwups ... ist eine Grafikkarte auf einmal um 10% schneller ...
Immer dasselbe ...
Und ob CB unabhängig berichtet ist auch fraglich ... vielleicht hat NVIDIA CB dafür bezahlt (reine Fiktion, keine Unterstellung!), um eventuell besser dazustehen?!?

Bezahlt oder nicht. Wichtig ist doch, dass man sich als Leser seine eigene Meinung bilden kann. Das erreicht man meiner Meinung nach aber nur, wenn man die Tests verschiedener Seiten querliest und sich nicht auf eine Seite verlässt. :)

Ich persönlich glaube übrigens nicht, dass CB für den Test bezahlt wurde.
 
Meine 780Ti Kingpin ist verkauft, morgen kommen die neuen 970 GTX an. Habe direkt 2 für SLI bestellt. Diesmal im Referenz Design von Palit.

Für mich ist das unfassbar. Meine Kingpin hat 800€ gekostet und kostet diese noch immer.

Eine süße 970 kostet gerade mal 309€ bei fast gleicher Leistung. 618€ für so viel Performance...das ist der Knaller.

Endlich BF4 auf Ultra mit super Bildqualität auch bei 1080p, dank dieser neuen Scaling Technologie.
 
FormatC schrieb:
Gigabyte kommt intern mit Furmark sogar knapp über 300 Watt.
Wo liegt denn dann eine 290X bei Gigabyte intern im Furmark?
Ohne diese Info ist deine Aussage nichts wert.

tic-tac-toe-x-o schrieb:
Dann werd ich das im entsprechend AMD Thread auch bringen müssen. Hier gehts ja jetzt um die neuen Nvidia Karten. Die zwar im ersten Blick gut zu sein scheinen. Aber dahinter mehr nur Marketing steckt.
...
Aber dieses Angöttern... Haben sie nicht verdient.
Die höhere Effizienz, Leistung und Features sind also eine reine Lüge. Du hast dafür sicher auch eine Quelle.
 
Da hab ich doch nen kleinen Fehler entdeckt:
"Der geringste Faktor 1,2× lässt von der ursprünglichen Leistung in Bioshock: Infinite noch 84 Prozent übrig" Seite 14
 
@mastertier79
Das einzig langweilige hier sind Deine dummen Kommentare.

Wer so etwas schreibt:
Und ob CB unabhängig berichtet ist auch fraglich ... vielleicht hat NVIDIA CB dafür bezahlt (reine Fiktion, keine Unterstellung!), um eventuell besser dazustehen?!?
Der unterstellt etwas. Lese halt Testberichte von anderen Seiten, wenn Dir die hier nicht gefallen und suche Dir den aus, der Dir am besten gefällt aber vor Allem werde Erwachsen.
 
klasse karten, super test

weiss jemand warum bei der gtx 970strix hier und bei pcgameshardware solche Abweichungen bei der Lautstärke gibt? Dort wird sie als leiseste Karte der 970er beworben, mit 0,7 sone...gibts ist ne gigabyte leiser...
 
FormatC schrieb:
Da Du ganz offensichtlich klüger bist, als die hochbezahlten Ingenieure bei Gigabyte und MSI - bitte sehr. Ich habe die intern genutzten Messprotokolle der Hersteller hier, weil ich mich immer absichere, bevor ich etwas veröffentliche das aus der Norm ausbricht, :D

Stimmt - die machen ja auch nie Fehler. :evillol:

Das Temperatur-Target beeinflusst bei der GeForce zunächst erst einmal den Takt und damit nur indirekt auch die Spannung - manchmal. Mehr nicht. Lies dich erst einmal in die Funktionsweise von DVFS ein und dann reden wir weiter. Gigabyte kommt intern mit Furmark sogar knapp über 300 Watt. Interessant sind hier auch die im Treiber abgefangenen Einschränkungen beim Erkennen von sogenannten "Powerviren", also Torture-Programmen, die Reviewer gern benutzen. Hebelt man das aus, wird man bös Augen machen ;)

Wow. Soviel unwissenheit, unglaublich. Jeder Boost-Step bei nVidia ist gekoppelt mit einer bestimmten Spannung. Je geringer der Takt, umso geringer die angelegte Spannung.

Der Kühler der Referenzkarte ist zudem weitgehend identisch mit dem der Titan Black. Misst man den Verlauf der Wärmeentwicklung und - Verteilung unter Vollast, dann verhalten sich beide Karten bei identischem Takt sehr ähnlich. Lässt man der GTX 280 den hohen Basistakt, erwärmt sie sich sogar schneller. Über die Wärmeentwicklung und Lüfterdrehzahlen kann man die Verlustleistung bei bekannten Kühlern ziemlich genau abschätzen.

Der Kühler der GTX980 ist nicht "weitgehend identisch" sondern benutzt nur einen 3-pipe Kühlkörper anstelle einer Vaporcamber. Er ist also minderwertiger und schlechter. Sieht man sehr schön hier bei Anno:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-980-970-test.2591/seite-11

Gleiche Lautstärke zur GTX780, aber 42W geringeren Verbrauch beim Gesamtsystem.
 
@Sontin:
Wie Du meinst. "Boost-Steps", joah.... Wenn Du wüsstest, wie komplex das Ganze ist. Nichts begriffen, aber egal. :D
 
Wobei man dabei auch bedenken muss dass die Fläche zur Wärmeabgabe beim GM204 kleiner ist - der Verbrauch pro mm² im Alltag fällt allerdings niedriger aus so dass Sontins Beispiel sich sehr gut mit NVs Aussage deckt dass das Kühlsystem abgespeckt wurde.

Und zum Boost: Ich empfehle mal den Link in meiner Sig bei Unklarheiten. Der NV Boost ist als Tabelle ausgeführt, wobei bei jeder Spannungsstufe 13Mhz Takt hinzugefügt werden. Das fängt meist noch unter dem Basistakt an und geht bis zum Maximaltakt hoch, wobei die genauen Grenzen anhand der jeweiligen ASIC festgelegt werden. Bei der Titan gab es so z.B. Exemplare bei denen bei 967Mhz schon Schluss war und andere bis 1.030Mhz oder gar höher gingen - von Werk aus wohlgemerkt.
Wird die Spannung auf regulärem Weg erhöht, wird der jeweilige Wert auf die ursprüngliche Spannung addiert so dass man in der Tabelle um 1, 2 oder 3 Zeilen nach oben rückt (mit BIOS Flash auch 4). Dadurch werden auch automatisch Bereiche der Tabelle erreicht die im Normalbetrieb nicht hätten erreicht werden können. Wenn man stark genug OC't kommt man auch an den oberen Rand der Tabelle und kann erst nach einem BIOS-Flash weiter machen.
 
Thanok schrieb:
Die 980 ist schneller, sparsamer, besser ausgestattet (Speicher) und leiser als die Ti, im Grunde also in allen Belängen überlegen oder schlimmstenfalls gleich gut.

Ich hab mal davor schon ein Bild gemacht. Ich machs gern nochmal:

e5b3477201.JPG

Deswegen ist die GTX 980 absolut uninteressant.

Wow man hat eine neue Chiparchitektur rausgebracht, welches um einiges effizienter läuft und somit weniger Energie für Spiele braucht (ALLES ANDERE WÄRE EH NE TOTALE ENTTÄUSCHUNG). Und dann macht man das etwas schneller als ne 780Ti und verkauft es als neues High-End.
Und dann gibts auch noch Leute die meinen von einem Titan Black auf ne 980 wechseln zu wollen.
Oder Leute die ne 290X gekauft haben oder mal einen älteren Rechner mit nem 8800 Ultra hatten und davon sprechen, dass der Verbrauch der Killerargument wäre, aber noch nie darauf geschaut worden war.

Marketing bei Nvidia. Will gar nicht die Marge für das möchtegern Premiumprodukt wissen.... Sonst wird mir noch kotzübel.
Marketing beinhaltet auch die Art wie man ein Produkt darstellt und somit wie man den Preis angibt.
Und exakt darauf wird reingefallen.

Gott sei Dank gibt es aber auch schlauere Menschen hier wie t3chn0 (ein paar Posts darüber), der genau weiss wie man in die neuen Karten investieren soll.

Die GTX 970 ist dabei nämlich total in Ordnung. :)

Ne GTX 980 ist eine totale Fehlinvestition.
Wetten wir, dass hier einige verarscht vorkommen werden, wenn erst mal nach ein paar Monate der nächste Titan rauskommt?
Das geht nämlich seit der GTX 680 schon so... Man fühlt sich verarscht und ausgenommen. Aber kauft dann blind weiter irgendwelche nicht-High-End Karten zum High-End Preis. Ist nicht meine Kohle... ;)
Freue mich aber schon auf die kommenden Threads in 5-12 Monaten. Wie auch immer sich das entwickelt.

Füttert Nvidia ruhig weiter mit leicht (un)verdientes Geld, mit Produkten die nur häppchenweise mehr Leistung bekommen und im Halbjahrestakt erscheinen. :D
Wartet doch einfach auf den letzten Ti, dann kann man ruhig den Premiumpreis zahlen. Wer unbedingt aufrüsten muss (z.B. 1-2 Generationen dahinter ist), der sollte lieber zu eine 970 greifen.

Ein unnötig überteuertes Hobby, der total ineffizient geführt wird. ;D
Das Geld was ihr aus dem Fenster schmeisst, bekommt ihr niemals mit dem niedrigeren Verbrauch zurück.

Die 970 kostet 309 in Moment? Dann sollte die 980, wenns denn unbedingt sein muss, vllt. um die 400 kosten. Aber keine 500 oder mehr. Das ist doch absurd... Weit weg von jeglicher Vernunft auf der Welt. Das unlogischste seit es logisches Denken gibt. Oder kurz gesagt: Einfach nur dumm.
 
Zuletzt bearbeitet:
@sontin:
Hast recht, Gigabyte und MSI sollten wieder auf die altbewährte 20€ Steckdosen Messung zurückgreifen, alles andere würde nicht deren Entwicklung Standards entsprechen ...
Ich vertraue eher auf den renommierten Reviewer, dem die Industrie tausende Euro teure Hardware zur Verfügung stellt als irgend einem dahergelaufenen Forentroll
 
Zuletzt bearbeitet:
Bei der Leistung der GTX 970 und dem Preis von 321€ (UVP), bin ich wirklich auf die GTX 960 und GTX 950 gespannt.
Dabei wollte ich mir vor kurzem noch eine GTX 760 bei Alternate kaufen, die derzeit für knappe 120€ zu haben sind, aber ich glaube jetzt warte ich erstmal die GTX 960/950 ab. :)
 
Zuletzt bearbeitet:
@Thanok:
Das Prinzip ist mir bekannt, auch dass mit Boost 2.0 die Komponente Temperatur dazu gekommen ist. Interessant ist aber, dass die Spannungen mehr oder weniger schwanken, obwohl der Takt gleich bleibt. Die DPM läuft ja mit einem Arbitrator, wo alle Werte zusammenlaufen und auch die Power Estimation Engine ein Wörtchen mitzureden hat. Der Arbitrator ändert dann Takt, Spannung und auch die Lüfterdrehzahlen. Was genau vor sich geht, regelt die Firmware.
 
melemakar schrieb:
Wenn es aber um Effizienz geht, schlägt der Turbo Motor den Sauger - Stichwort downsizing.
300-350PS aus so manchem (ca.) 2L 4-Zylinder moderner sportlichen Kompaktklassen (Golf R, Mazda MPS, Focus RS (ja, hat 5 Zyl.), etc...) bei moderatem Verbrauch sind schon eine Hausnummer - ob man so einen Sauger hochzüchten könnte?
Ich weiß es ehrlich gesagt nicht...
Aber 9000 RPM sind am Ende alles andere als effizient...

Auto-PC Vergleiche sind doof!

Richtig, die Vergleiche sind doof. Denn den Sauger kannst ohne Zangsbeatmung eben nicht so hoch züchten. Aber ohne Kompressor oder Turbolader sinkt halt auch der Wartungsaufwand und die Lebensdauer des Motors steigt. In Zeiten, in denen Autos gewechselt werden wie Smartphone oder Grafikkarten natürlich zunächst mal für die kurzzeitigen Eigentümer irrelevevant. Da wird dann halt auf Teufel komm raus der CO2 Ausstoß für nix und wieder nix gesenkt, während man am Ende drauf zahlt (Stichwort Start-Stopp-Automatik und teurere AGM Batterien die aber ebenso flott die Grätsche machen).

Naja, genug der Autovergleiche. Die Karten sind weiterhin zu teuer. Bei den Lebenszyklen amortisiert sich der Aufpreis nicht über den niedrigeren Verbrauch gegenüber den Vorgängern.
 
Mich wundert, das die 280x in den Benches so dicht an der 780dran ist, als die 780 released wurde, war der Abstand doch deutlicher oder täuscht mich meine Erinnerung so dermaßen. Selbst nutze ich eine 7970 zumeist im Triple Set und bin zur ERkenntnis gekommen, das die Performancezuwäche nicht die sprichwörtliche Wurst vom Teller reißen. Das sind dann 2 Regler ingame die sich kaum sichtbar auf die Optik jedoch stark auf die performance auswirken und die Mehrleistung wird wieder aufgezerrt, also warten wir weiter. Mit dem aktuellen Leistungsniveau wäre ich weiterhin nciht vor Kompromissen gefeit.
 
AnkH schrieb:
Ganz ehrlich gesagt nervt es mich auch, dass nie ein Reviewer den Mumm hat, die Preispolitik von nVidia offen und deutlich anzuprangern. Man muss echt kein AMD Fan sein um den hier wiederholt erwähnten Fakt zu sehen, dass die GTX-980 eigentlich eine GTX-970 sein müsste und die GTX-970 eine GTX-960. Aber das wird von ALLEN(!) Reviews totgeschwiegen, obwohl noch immer lustig die GM204 Bezeichnung mit in den Review fliesst, damit auch der letzte Trottel sieht, dass es der Nachfolger des GM104 ist, aber trotzdem wird es totgeschwiegen. Und dann werden noch Awards verteilt. Unverständlich...

versteh ich auch nicht ... auch wenn die technische Entwicklung der karte gut ist
 
Zurück
Oben