Test GeForce GTX 980/970 im Test: Nvidia Maxwell 2.0 für High-End ist da

Ich geh mal davon aus dass mit 970 Referenz das Limit auf Ref-Vorgabe liegt.
Das PT (was nur auf den Chip bezogen ist) ist @default ja immer die TDP, die auch nur auf den Chip bezogen ist. Der Test zeigt aber wie dicht beide Karten an der TDP liegen. Wobei viele Alternativdesigns der GPU auch mehr Spannung geben die dann bei geringerem Takt auch anliegt - das verfälscht den Verbrauch.
 
Thanok schrieb:
Die TDP Angabe bei NV (bei AMD kann ich es nicht mit Sicherheit sagen) bezieht sich nur auf die GPU.

Das ist doch Humbug! Nvidia gibt ohnehin seit längerem schon nicht mehr die TDP an. Nvidia gibt eine MGCP (Maximum Graphics Card Power) an.
 
Das höre ich jetzt zum ersten mal. NV gibt eigentlich immer nur die TDP des Chips an. Bei der Titan haben sie gesagt dass das PCB für 300W ausgelegt sei, das PT (für den Verbrauch des Chips an sich) ging maximal bis 265W. Default PT = TDP = 250W in meinem Beispiel. Gilt auch für 780 und 780Ti sowie Titan Black.
 
zeedy schrieb:
(...) Wenn ich aber bedenke, dass die 980 die Leistung der Titan Black mit nur 2048 Shadern erreicht, dann muss doch auch die Architektur an sich sehr viel effizienter geworden sein?
Wobei man auch sagen könnte, dass die Maxwell Karte bei Volllast trotz ihrer 2048 Cores soviel Energie verbraucht wie eine Titan Black (2880). Muss dann wohl an dem hohen Takt liegen.

@FormatC wie soll man sich denn am PT orientieren, wenn dieses bei der Produktbeschreibung meist nicht zu finden ist? Es wird praktisch immer (wenn überhaupt) nur die TDP der Referenzkarten angegeben.
 
Zuletzt bearbeitet:
Dann wundert es mich wieso das PT, das laut NV nur für den Chip gilt ganz zufällig auch immer der TDP entspricht (bezogen auf die Referenz versteht sich). Wieviel die Karte wirklich dauerhaft verbrauchen kann hat NV nur bei der Titan mal indirekt durchblicken lassen, eben 300W. Dies wird auch durch Tests bestätigt. Nimmt man einen kurzzeitigen Peakwert kann der Verbrauch bei entsprechender Kühlung auch mal 50% darüber liegen.
 
Zuletzt bearbeitet:
Thanok schrieb:
Dann wundert es mich wieso das PT, das laut NV nur für den Chip gilt ganz zufällig auch immer der TDP entspricht (bezogen auf die Referenz versteht sich).

Nochmal: Nvidia gibt m.W. keine TDP für ihre Karten/Chips an. Gerne kannst du mich aber mit entsprechendem Quellnachweis eines Besseren belehren.
 
Athlonscout schrieb:
Tja, wenn man mal hinter die Fassade schaut, bekommt der Lack der neuen Karter ja einige Kratzer, wenngleich die neuen Karten trotzdem (wenn auch etwas weniger als CB-Test vermitteln will) sparsamer zu sein scheinen.

für mich ist diese karte http://www.inno3d.com/products_detail.php?refid=122 die referenzkarte für die 970.

angegeben mit Maximum Graphics Card Power (W) 145

out of the box wird das durchschnittlich der verbrauch beim spielen sein. wenn du jetzt eine OC karte nimmst als extralang mit extra spawas mit erhöhtem powertarget, dann muss man damit rechnen das sie deutlich mehr verbraucht. ist jetzt kein betrug oder so finde ich.
 
In diversen Tests wird von der TDP gesprochen, NV selbst gibt auf der Website nur den Punkt "Leistungsaufnahme" an - das spricht für deine Aussage.
Dagegen sprechen wiederum diverse Aussagen die von NV stammen (sollen?) dass es sich eben um die TPD handle. Fakt ist jedenfalls dass das PT, welches sich eben nur auf die GPU bezieht, sich bisher immer mit der von NV angegebenen Leistungsaufnahme deckt. Das spricht wiederum für meine Aussage.

@SirBerserk: Der Dauerhafte Verbrauch wird bei der GPU wohl in diesem Bereich liegen, die Karte selbst kann aufgrund von Verlusten bei der Wandlung und natürlich dem Speicher wohl auch mehr ziehen. Kurzzeitige Peaks, die von der Überwachung nicht richtig erfasst werden, können dennoch auftreten.
Man sieht in jedem Fall dass NV die 970 und 980 relativ nah an die Verbrauchsgrenzen gebracht hat, wohl um die TDP schön niedrig angeben zu können.
 
Zuletzt bearbeitet:
@Arno: Da du es offensichtlich nicht verstehen willst und dir in deiner Aussage auch gerne 1-2 mal widersprichst, habe ich ehrlich gesagt keine wirkliche Lust mit dir über dieses Thema weiter zu diskutieren. Man kann sich die Wahrheit auch so drehen wie man sie haben will auch wenn man dazu alles vergessen muss was man vor 5 Sekunden gesagt hat und sämtliche Aussagen anderer Leute negiert.
Viel Spaß mit deiner PS4 und deinem 4K TV mit 60Hz!
 
ottoman schrieb:
@Arno Nimus

Ich will nicht deinen ganzen Beitrag zitieren, deswegen in dieser Form:
- Speicherbandbreite ist nicht gleich Speichermenge

Ich kenne den Unterschied zwischen Speicherbandbreite und Speichermenge (seit sehr langer Zeit) und habe nichts anderes behauptet.
Beides ist ja nicht berauschend bei der GTX 980, wobei die viel zu knapp bemessene Speichermenge natürlich stärker ins Gewicht fällt.

ottoman schrieb:
- eine GTX 980 schafft Tomb Raider in 1080p mit 60fps+ sogar mit 2xSSAA, siehe hier

Tja, dann lügen die Benchmarks und Frameratenverläufe hier im Test von CB (zu finden auf Seite 7= Full-HD und 8 = UHD) also und Wolfgang Andermahr und seine Kolegen haben sich bei ihren Messungen geirrt? (geh zu 10 verschiedenen Ärzten und du bekommst 10 verschiedene Diagnonen gestellt, schau dir 10 verschiedene Benchmarkmessungen auf 10 verschiedenen Portalen an und.... <- aber den eigenen Augen kann man schon vertrauen, jedenfalls für sich selbst oder müssen andere dir sagen, was du als flüssig/ruckelfrei empfindest?)

ottoman schrieb:
- deine heißgeliebte PS4 schafft es mit FXAA (!) nicht mal durchgängig auf 60fps, siehe hier und hier

Tja, du beziehst dich auf Theorie, während ich aus der Praxis spreche/schreibe. Und da ich fast 20 Jahre lang PC-Gamer war und bin, kann ich auch entsprechende Vergleiche anstellen. (jetzt bleibt dir nur noch, mein Urteilsvermögen in Frage zu stellen.)

ottoman schrieb:
- "minimalen Einbusse an Bildqualität butterweich und jederzeit superflüssig" ist dementsprechend sehr weit aus dem Fenster gelehnt

Besitzt du selbst eine PS4 oder Xbox1? Würde mich sehr wundern, falls es so wäre!

ottoman schrieb:
- wenn du hier PCs mit Konsolen vergleichen willst, bist du definitiv im falschen Thread

Warum nicht? Die Frage darf doch erlaubt sein, warum man 500+ € für eine Grafikkarte ausgeben sollte, die Spiele z.T. sogar ältere Spiele und nur in Full-HD (spätestens mit Bildverbesseren) noch immer nicht flüssig darstellen kann, während die Konsole das bei nur geringfügig schlechterer Bildqualität (maximal fehlt es etwas an dem letzten Quentchen Schärfe, was aber angesichts der heute meist noch immer gängigen gering aufgelösten Texturen sowieso nicht weiter ins Gewicht fällt IN DER PRAXIS kaum der Erwähnung wert ist und auch nur im direkten Vergleich aufällt.

Und ich glaube nicht, dass du derjenige bist, der mir mit meinen 44 Lenzen bestimmt, was ich hier schreiben darf und was nicht!

ottoman schrieb:
- hinzu kommt, dass diese Vergleiche einfach nur an den Haaren herbeigezogen sind (Tomb Raider habe ich eben erklärt, der Grund für das Ruckeln bei D3 wurde hier auch schon mehrfach erwähnt, noch dazu zeigen die ach so leistungsfähigen Konsolen bei anderen Titeln wie BF4 oder Watch Dogs ihr wahres "Potenzial")

Der Grund für das Ruckeln von D3 in der PC-Fassung (was war das nochmal gleich?) wurde hier keineswegs abschliessend geklärt. Es gibt darüber nur Spekulationen, angefangen bei fehlender Multikernunterstützung der CPU, über Latenzen auf Basis der Chars und Items, die auf den Blizzard-SErvern abgelegt sind, bis hin zu unzureichender Hardware (HDD statt SSD und eine zu schwache CPU, was in meinem Fall ausgeschlossen werden kann <- es ruckelt dennoch. Es gibt auch jede Menge Berichte von Leuten, mit noch potenterer Hardware, die ebenfalls bis heute stetige Mikroruckler haben.)

ottoman schrieb:
- der Grund für die geringen Performance Upgrades der letzten Jahre liegt nicht bei den GPU Herstellern, sondern an der Fertigungstechnik, da kann Nvidia leider auch nicht zaubern.

Weisst du das mit Bestimmtheit (stellst es ja sehr selbstbewusst so hin) oder sind das in Wahrheit nur Vermutungen/Annahmen deinerseits? Hast du Quellen, die das eindeutig bestätigen?

Aber wie auch immer: Es ändert eh nichts daran, dass es weder einen Grund dafür gibt, noch Sinn macht, angesichts dieser Gegebenheiten/Zustände eine entsprechende neue Grafikkarte für ~ 500 oder gar 1000 € zu kaufen oder selbst eine für 200-300 €.
(wer Geld verbrennen möchte oder muss, soll sich natürlich nicht abhalten lassen. Ich werde es jedenfalls nicht tun.)

Sollte nicht so schwer nachvollziehbar sein. (Ich kaufe ja keine Graka aus Verständnis für deren Hersteller, sondern deshalb weil ich damit in möglichst optimaler Bildqualität UND vor allem flüssig/ruckelfrei spielen möchte.)

ottoman schrieb:
- über die arg gestiegenen Preise in letzter Zeit kann man sich schon eher aufregen

Ich hätte kein Problem damit 500 oder ggf. sogar mehr € für eine "Highend-Grafikkarte" zu bezahlen, WENN die (Roh-)Leistung = Reserven denn angemessen wären und man sie entsprechend lange nutzen könnte. Ist sie aber nicht. (nichtmal ansatzweise.) Dass die "befangenen" Testmagazine die Karten dennoch mit Auszeichnungen und Kaufempfehlungen überhäufen (aus welchem Grund nochmal gleich?) und die Hardcorefanboys sofort wieder wie die Lemminge (oder kleinen ungeduldigen Kinder) in den Laden rennen und jubeln, ändert daran rein garnichts, aber spricht für sich selbst.

ottoman schrieb:
- wem die Grafik einer Konsole reicht, darf sich natürlich gern so ein Gerät zulegen, nur sollte man dann keine dämlichen Vergleiche anstellen, noch dazu im falschen Thread und in Form eines halben Romans
[/Quote]

Na immerhin KANN ich überhaupt praktische Vergleich anstellen, aus dem einfachen Grund, dass ich jetzt auf beiden Plattformen spiele und - so wie im Fall von D3/Ros - sogar dieselben Spiele.

Wie steht es denn mit deinen Vergleichsmöglichkeiten. (mein Gefühl, gemäss deinem schwammigen "Um-den-Brei-Herumgerede", da du ja nichtmal sagen kannst, WAS genau an der Grafik auf einer Next-Gen-Konsole an der Bildqualität so viel schlechter ist, als auf dem PC, sagt mir eher: Nicht so gut!)

ottoman schrieb:
noch dazu im falschen Thread und in Form eines halben Romans

Ach weisst du: Was sind schon meine Romane angesichts der Tatsache, was für Massen an grauer Theorie und vor Allem Vorurteilen hier stetig gepostet werden und in welchem Masse wie gesagt hier ständig um den Brei herumgeredet wird, ohne auf den Punkt zu kommen! (ganz schlechte Grundlage für Diskussionen)
 
Zuletzt bearbeitet:
Wenn ich mal die Grafik meines PCs mit meiner PS4 vergleiche, dann sind die Unterschiede schon recht deutlich. Das fängt bei fehlender oder unzureichender Kantenglättung an, geht über schwammigere Texturen bis hin zu pixeligen Schatten.
Es ist zwar schön zu sehen was man durch Optimierungen aus schwacher Hardware herauskitzeln kann (und da wird noch mehr kommen), doch wenn selbst Minecraft auf meinem PC besser aussieht als meine PS4 Games kann man nicht von Kleinigkeiten reden.

Dafür ist allerdings nicht nur Rohleistung sondern auch Speicher von Nöten. Texturen mit 16x oder höherer Auflösung als Normal sind nicht mal eben so abgelegt. Ich behaupte mal dass ich die 980 durch ihren Speicher gut knacken könnte.

Wer gerne Konsole spielt soll dies tun;
Ich werde dies niemanden Ausreden wollen zumal ich ja selbst PS4 Besitzer bin.

Ich kriege aber bei den meisten Games, auch wenn sie Spaß machen, Augenkrebs durch flimmernde Kanten und flackernde Texturen. Das macht das Spiel zwar nicht schlechter, schränkt das Erlebnis aber ein.
 
FormatC schrieb:
Das Power Target kann jeder Hersteller nach Gutdünken selbst wählen. 225 Watt sind ja noch zahm :)

225W mögen absolut gesehen zahm sein. Du hast aber von 250W gesprochen

Die Zahlen bei den Custom-Cards stimmen, denn Gigabyte hat (ganz offiziell) bei der GTX 970 ein Power-Target von 250 Watt

an einem Anschluß der laut Spezifikation maximal 225W sicher verorgen können muss.
Ergänzung ()

SirBerserk schrieb:
für mich ist diese karte {[inno3d]} die referenzkarte für die 970.

Könnte mir gefallen. Hat schon jemand was über die Lautstärke gefunden?
 
Zuletzt bearbeitet:
an einem Anschluß der laut Spezifikation maximal 225W sicher verorgen können muss.
Die Gigabyte hat als 970 einen 6-und einen 8-Pin Anschluss. 75 (PEG) + 75 (6-Pin) + 150 (8-Pin) = 300. Wie gesagt, es obliegt dem Willen des Herstellers, wo er das Power Target setzt und was er für ein PCB verwendet. 145 Watt für die gesamte Karte sind jedoch auch bei einem Power-Target von 145 Watt eine Illusion.

@zeedy:
Online. Und es reichte eine GTX 780 Ti OC. Ich habe mittlerweile die Titan Black OC mit dem WF 600W Kühler wieder drin. Leiser und vor allem schneller ;)
 
Zuletzt bearbeitet:
Bin gespannt was Rot jetzt macht. Die GTX 970 ist extrem gut aufgestellt in jeder Dispziplin. Würde schon fast wechseln :lol:.

Hm. Mal gucken was ein neuer Treiber bringt und wie sich das Ganze einpendelt. Bin gespannt was noch so auftaucht außer GTX 980...... Erstmal bisschen abwarten.
 
Zurück
Oben