Test Nvidia GeForce GTX 980 und GTX 970 im (SLI-)Test

AMD hat das große Problem, dass sie nicht nur Grafikkartenchips entwickeln, sondern auch CPUs, d.h. im Gegensatz zu nVidia/Intel haben sie nicht nur einen Konkurrenten, sondern gleich zwei und das auf zwei verschiedenen Fronten.
Ich nehme an, dass sie momentan wirklich mehr Geld/Zeit in die Forschung und Entwicklung von APUs stecken, da haben die Intel ja eh schon von Anfang an in der Tasche gehabt. Dann bleibt noch die Frage, was aus den ARM-Chips wird.

Deshalb würde ich nicht davon ausgehen, dass zeitnah eine neue GraKa gegen die 970/980 gestellt wird. Ich kann mich aber natürlich auch täuschen, vllt. haben die das nächste Ding schon fertig.
 
Athlonscout schrieb:
Ist nicht eher so etwas in der Richtung Referenz?: http://www.palit.biz/palit/vgapro.php?id=2406:evillol:

ich meinte eher das boarddesign im mini itx format, die von dir gezeigte karte könnte ebenfalls im referenzdesign gebaut sein, leider sieht man weder die rückseite noch wo die stromanschlüsse sind um einen rückschluss auf die größe zu ziehen.

Kenneth Coldy schrieb:
Könnte mir gefallen. Hat schon jemand was über die Lautstärke gefunden?

es gibt keine tests im referenzdesign.

daher kann keiner sagen wieviel die 970 im referenzdesign wirklich verbraucht.

aus einem anderen forum hab ich infos zu zotac http://www.zotac.com/products/graph...-970/sort/starttime/order/DESC/amount/10.html

"nvidiaInspector (nach 30 min FurMark BurnIn):


GPU:79 Grad
GPU Load: 99%
Fans: 57%
Speed: 2300 rpm
Current GPU Clock: 1240 MHz

Subjektiv: Wahrnehmbares Rauschen unter Voll-Last (FurMark), nicht mehr als "silent" einzustufen, aber
durch das niederfrequente Rauschen, wie bereits beschrieben, noch verträglich bzw. in alltäglichen Spielbetrieb sowieso noch ein Stück leiser."
 
zeedy schrieb:
Wobei man auch sagen könnte, dass die Maxwell Karte bei Volllast trotz ihrer 2048 Cores soviel Energie verbraucht wie eine Titan Black (2880). Muss dann wohl an dem hohen Takt liegen.

Sag mal, wie oft willst du hier eigentlich noch lügen und Unwahrheiten verbreiten? Schon traurig, mit welchen Mitteln AMD arbeitet. Abartig.

Nur mal hier für die Leute, die einfach keine Ahnung haben:
Der Verbrauch hängt vom PowerTarget ab. Bei den Gigabyte Karten liegt dieses bei 250W btw. 300W. Also können die Karten soviel verbrauchen.
Andere Custom-Karten werden ein anderes, standardmäßiges Target besitzen.

Eine Referenz GTX980 verbraucht nur 165W. Wer anderes behauptet, lügt.
 
Man darf sich nicht von den Zahlen der GTX980 blenden lassen (schon gar nicht bei CB meiner Meinung nach).
http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-12.html

Es ist äußerst positiv anzumerken, dass NV die Effizienz nur durch das effektivere Powermanagement steigern konnte.
Dennoch ist es ist es bedenklich, dass die wahre TDP der Grafikkarte bei ca. 300 Watt liegt und die Verlustleistung auch abgerufen werden kann obwohl sie dafür nicht spezifiziert ist (3x 75W = 225W).
Das bedeutet, man kann diese Energieeffizienz zwar liefern und damit trixen (nicht falsch verstehen, nicht negativ gemeint, das Powermanagement ist positiv für den Verbraucher), aber auch NV muss sich der Physik beugen. Wenn jetzt diese Karte schon weit über ihre Spezifikationen gehen kann (und diese Überschreitung kann durchaus extreme Formen annehmen) muss NV aufpassen (wie AMD bei der 295X i.Ü. auch), dass man diese 300W Max-Power nicht allzusehr überschreitet.
 
Zuletzt bearbeitet:
Wo wird denn das PT gerissen? Für 2ms zieht die Karte 300W, im Schnitt liegt Sie aber im Rahmen. Bedenke dass Ram und SpaWas auch Strom ziehen; Die 165W sind soweit ich weiß nur auf die GPU bezogen.
 
Thanok schrieb:
Die 165W sind soweit ich weiß nur auf die GPU bezogen.

Das hatten wir doch weiter oben schon. Nvidia gibt stets eine MGCP („MGCP“ steht kurz für „Maximum Graphics Card Power“ und bezeichnet die offiziell von nVidia angegebene, unter Normalbetrieb zu erwartende maximale Leistungsaufnahme einer Grafikkarte. Unter speziellen Bedingungen lässt sich unter Umständen aber eine noch höhere Leistungsaufnahme erreichen) an. Dieser Wert beinhaltet die Leistungsaufnahme der kompletten Karte!
Wenn du die Augen ständig vor Realitäten verschließt, muß man dir leider attestieren, dass lernresistent bist und dir deine eigenen Wahrheiten zusammenreimst.
 
Arno Nimus schrieb:
Ich kenne den Unterschied zwischen Speicherbandbreite und Speichermenge (seit sehr langer Zeit) und habe nichts anderes behauptet.
Beides ist ja nicht berauschend bei der GTX 980, wobei die viel zu knapp bemessene Speichermenge natürlich stärker ins Gewicht fällt.
Der User "Mr.Seymour Buds" spricht von 3. Gen Delta Color Compression und Bandbreite während du darauf mit 8 Absätzen über Speichermenge antwortest. Zusammenhang?


Arno Nimus schrieb:
Tja, dann lügen die Benchmarks und Frameratenverläufe hier im Test von CB (zu finden auf Seite 7= Full-HD und 8 = UHD) also und Wolfgang Andermahr und seine Kolegen haben sich bei ihren Messungen geirrt? (geh zu 10 verschiedenen Ärzten und du bekommst 10 verschiedene Diagnonen gestellt, schau dir 10 verschiedene Benchmarkmessungen auf 10 verschiedenen Portalen an und.... <- aber den eigenen Augen kann man schon vertrauen, jedenfalls für sich selbst oder müssen andere dir sagen, was du als flüssig/ruckelfrei empfindest?)
Im Test von CB kommt die GTX 980 mit FXAA in 1080p auf 90fps, mit 4xSSAA auf 40fps im Durchschnitt. Die Frameratenverläufe wurden mit einer Auflösung von 2.560×1.600 erstellt. Das einzige was da mit PS4 vergleichbar ist, sind die 90fps. Selbst das ist eigentlich nicht vergleichbar, weil auf der PS4 neben anderen Dingen z.B. Tessellation fehlt, was einiges an Performance frisst. Die Vergleiche sind wie gesagt an den Haaren herbeigezogen. Vor allem weil du die Unterschiede ja sowieso nicht siehst zwischen FXAA und SSAA... Der PC darf mit 4xSSAA rendern, während bei der PS4 schon FXAA reicht und das vergleichst du dann? Na super.


Arno Nimus schrieb:
Tja, du beziehst dich auf Theorie, während ich aus der Praxis spreche/schreibe. Und da ich fast 20 Jahre lang PC-Gamer war und bin, kann ich auch entsprechende Vergleiche anstellen. (jetzt bleibt dir nur noch, mein Urteilsvermögen in Frage zu stellen.)
Ach, das Video mit den Frameratenverläufen und das Performance Review sind dir nicht Praxis genug? Nichts für ungut, aber wer hier so auftritt und solche Aussagen macht, an dessen Urteilsvermögen kann man berechtigt zweifeln. Hier sind noch ein paar Zitate aus dem Review, die sind für mich allemal vertrauenswürdiger als deine verblendeten Aussagen:

"Deeper analysis reveals that PS4 frame-rates can vary significantly depending on the effects work at play, resulting in variable controller latency and some on-screen judder."

"Activity is far more interesting on the PS4 side though, with frame-rate varying from anything between 32fps to 60fps across our sample, with elements such as TressFX, depth of field and transparent alpha effects hitting frame-rate in a cumulative manner."


Arno Nimus schrieb:
Warum nicht? Die Frage darf doch erlaubt sein, warum man 500+ € für eine Grafikkarte ausgeben sollte, die Spiele z.T. sogar ältere Spiele und nur in Full-HD (spätestens mit Bildverbesseren) noch immer nicht flüssig darstellen kann, während die Konsole das bei nur geringfügig schlechterer Bildqualität (maximal fehlt es etwas an dem letzten Quentchen Schärfe, was aber angesichts der heute meist noch immer gängigen gering aufgelösten Texturen sowieso nicht weiter ins Gewicht fällt IN DER PRAXIS kaum der Erwähnung wert ist und auch nur im direkten Vergleich aufällt.
Der FXAA Brei fällt dir nur im direkten Vergleich auf? Dann erledigt sich das eigentlich schon und bedarf keiner weiteren Diskussion. Übrigens solltest du "Bildverbesserer" vielleicht differenzieren. Man kann jedes Spiel mit "Bildverbesserern" in die Knie zwingen, trotz nur FullHD und egal welche Hardware du besitzt. Oder erwartest du ernsthaft, dass man mit 8x Downsampling trotzdem noch alles auf FullHD flüssig zocken können muss mit einer 500€ Graka? Und was 4xSSAA im Test von CB bedeutet ist dir hoffentlich bewusst?


Arno Nimus schrieb:
Der Grund für das Ruckeln von D3 in der PC-Fassung (was war das nochmal gleich?) wurde hier keineswegs abschliessend geklärt. Es gibt darüber nur Spekulationen, angefangen bei fehlender Multikernunterstützung der CPU, über Latenzen auf Basis der Chars und Items, die auf den Blizzard-SErvern abgelegt sind, bis hin zu unzureichender Hardware (HDD statt SSD und eine zu schwache CPU, was in meinem Fall ausgeschlossen werden kann <- es ruckelt dennoch. Es gibt auch jede Menge Berichte von Leuten, mit noch potenterer Hardware, die ebenfalls bis heute stetige Mikroruckler haben.)
Ja und eben das wurde doch geklärt. D3 ruckelt auf dem PC an bestimmten Stellen nun mal, egal welche HW verbaut ist. Das hat nichts mit der HW zu tun sondern liegt an Blizzard. Das kannst du doch nicht als Argument gegen PC Hardware ins Feld führen.


Arno Nimus schrieb:
Weisst du das mit Bestimmtheit (stellst es ja sehr selbstbewusst so hin) oder sind das in Wahrheit nur Vermutungen/Annahmen deinerseits? Hast du Quellen, die das eindeutig bestätigen?
Dass GPUs jetzt schon seit mehreren Jahren in 28nm gefertigt werden ist dir hoffentlich aufgefallen? Dass kleinere Fertigungsverfahren in der Zeit davor häufiger erschienen sind vielleicht auch? Und die Relation von kleinerem Verfahren zu Performance der GPU ist dir bekannt?


Arno Nimus schrieb:
Aber wie auch immer: Es ändert eh nichts daran, dass es weder einen Grund dafür gibt, noch Sinn macht, angesichts dieser Gegebenheiten/Zustände eine entsprechende neue Grafikkarte für ~ 500 oder gar 1000 € zu kaufen oder selbst eine für 200-300 €.
(wer Geld verbrennen möchte oder muss, soll sich natürlich nicht abhalten lassen. Ich werde es jedenfalls nicht tun.)

Sollte nicht so schwer nachvollziehbar sein. (Ich kaufe ja keine Graka aus Verständnis für deren Hersteller, sondern deshalb weil ich damit in möglichst optimaler Bildqualität UND vor allem flüssig/ruckelfrei spielen möchte.)
Vielleicht macht es für dich keinen Sinn, aber das gleich für jeden hier pauschal zu beantworten halte ich doch für ziemlich gewagt. Würdest du einem BF4 Spieler auch eine PS4 empfehlen?


Arno Nimus schrieb:
Na immerhin KANN ich überhaupt praktische Vergleich anstellen, aus dem einfachen Grund, dass ich jetzt auf beiden Plattformen spiele und - so wie im Fall von D3/Ros - sogar dieselben Spiele.

Wie steht es denn mit deinen Vergleichsmöglichkeiten. (mein Gefühl, gemäss deinem schwammigen "Um-den-Brei-Herumgerede", da du ja nichtmal sagen kannst, WAS genau an der Grafik auf einer Next-Gen-Konsole an der Bildqualität so viel schlechter ist, als auf dem PC, sagt mir eher: Nicht so gut!)
Ich habe hier selbst eine PS4 stehen, hauptsächlich wegen The Last of Us. Wo habe ich schwammig um den Brei herum geredet?


Arno Nimus schrieb:
Und ich glaube nicht, dass du derjenige bist, der mir mit meinen 44 Lenzen bestimmt, was ich hier schreiben darf und was nicht!
Stimmt, das kann ich nicht. Aber wer so viel geballten Unsinn schreibt, muss leider mit einer Antwort rechnen.
 
Zuletzt bearbeitet:
Jetzt weißt Du auch, warum das Power Target von GB auf 250 watt gesetzt wurde (Knapp 280 mit Erhöhung über z.B. Afterburner) :D
 
GamingWiidesire schrieb:
Unigine zeigt bei meiner Gigabyte GTX 970 einen falschen Takt an.

Unigine sagt 1650 mhz bei meiner, Real liegen nur 1540mhz an. Insofern halte ich das Video für irreführend, bei ihm liegen allerhöchstens 1700mhz an. (Glück in der Lotterie gehabt)

Angezeigt wird da der gegenüber dem tatsächlichen anliegenden Boosttakt wesentlich höhere Max Table Clock.

Hier dürfte die Differenz sogar 200 MHz ausmachen.
 
Athlonscout schrieb:
Das hatten wir doch weiter oben schon. Nvidia gibt stets eine MGCP („MGCP“ steht kurz für „Maximum Graphics Card Power“ und bezeichnet die offiziell von nVidia angegebene, unter Normalbetrieb zu erwartende maximale Leistungsaufnahme einer Grafikkarte.

Und wieder wiedersprichst du dir selbst. Vorher hieß es noch "Meines Wissens" (was übrigens auch das gleiche Bedeutet wie mein "soweit ich weiß") und jetzt ist es die unanfechtbare Wahrheit und wer wiedersprichst frisst kleine Kinder. Kannst du dich mal entscheiden?
Außerdem wären Quellen mal ganz gut, sonst komme ich bald nicht mehr dazu Argumente vorzubringen weil ich damit beschäftigt bin dir die Inkonsistenz deiner eigenen Argumentation aufzuzeigen.
So langsam gehst du mir echt auf den Keks; ich habe meinen Spaß an sowas...
 
@Thanok @ Athlonscout @ottoman @armin

Schlagt mal alle auf wikipedia Klugscheisser nach, da findet ihr ne Bescheibung von euch. Recht zu haben ist ja so wichtig.
Ist doch vollkommen gleichgültig, ob irgendeiner dumm stirbt oder nicht. Wenn du weißt, dass du RICHTIG liegst, warum willst du dann unbedingt RECHT haben? Denn Unterschied könnt ihr auch mal nachschlagen... Immer diese Endlosdebatten um den Nerd-Thron, hier geht´s um Fakten bezüglich der neuen GTX900 und nicht um euer Ego, ihr Schlümpfe. WAS, zum Teufel, hat ne PS4-Debatte hier zu suchen?! PS4 = GTX970, oder was?
Der Thread ist erst ein paar Tage alt, und nur noch voll mit OT.
Schade drum, das Thema 980/970 sollte mehr hergeben, vor Allem, wo doch alle im Vorfeld nach den neuen GraKas geschrien haben...
 
Sontin schrieb:
Sag mal, wie oft willst du hier eigentlich noch lügen und Unwahrheiten verbreiten? Schon traurig, mit welchen Mitteln AMD arbeitet. Abartig.

Nur mal hier für die Leute, die einfach keine Ahnung haben:
Der Verbrauch hängt vom PowerTarget ab. Bei den Gigabyte Karten liegt dieses bei 250W btw. 300W. Also können die Karten soviel verbrauchen.
Andere Custom-Karten werden ein anderes, standardmäßiges Target besitzen.

Eine Referenz GTX980 verbraucht nur 165W. Wer anderes behauptet, lügt.

Dass ausgerechnet du, der größte Lügner und Dummschwätzer der CB Community, mir sowas vorwirfst, hat schon was ironisches. Ich weiß nicht ob du blind, lernresistent, ein nvidiabezahlter Forentroll oder einfach alles zusammen bist, und die Dinge so siehst, wie du es gerne hättest, aber die Referenz GTX 980 kommt auf 185W. Und eine GTX 970 mit 145W Gaming Aufnahme gibts anscheinend auch nicht. Im Gegensatz zu dir untermauere ich meine Aussagen mit Fakten
http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-13.html
Also höre du mal endlich auf, Lügen und Unwahrheiten zu verbreiten.

@FormatC vielen Dank für den Test, eine sehr gute Idee, zu jedem Spielebenchmark auch die entsprechende Leistungsaufnahme zu messen! Hab dazu aber einige Fragen :
zum einen gibst du auf der ersten Seite die offizielle TDP der GTX980 mit 180W an. Die PTs der 290er Karten fehlen. Bei den Taktangaben wären die Boosttaktraten interessanter gewesen, weil die Custom GTXen meist nicht mit dem Basistakt arbeiten. Bie der 290X mit +40MHz Takt kann man übrigens nicht wirklich von OC sprechen. Das erklärt auch, warum die beiden Hawaii Karten so ähnlich performen. Warum wurde eigentlich nur Thief in 4K gebencht? Wurden in BF4 und Thief Mantle verwendet?

Jedenfalls kann man zusammenfassend festhalten, dass eine GTX 970 derzeit die beste Gamer Karte ist. Preis, Leistung und Verbrauch sind gut bis sehr gut.
 
Zuletzt bearbeitet:
Super Sache Nvidia!
Die GTX 980 ist für mich sehr interessant.
Das P/L Verhältnis ist überraschenderweise auch in Ordnung :)
 
@Thanok

Nvidia gibt nur noch die MGCP der Karten an: http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-980/specifications
"Meines Wissens" schrieb ich nur, um dir die Option zu geben, deine falschen Ausführungen zu belegen. War mir aber klar, dass von deiner Seite diesbezüglich nichts mehr konstruktives kommt.

So wie du dich hier offenbarst, ist dir an einem Erkenntnisgewinn augenscheinlich nicht gelegen, du sonnst dich lieber in deinen selbstgestrickten, falschen Annahmen und führst diese ein uns andere Mal aus, obwohl längst wiederlegt.
Zumindest weiß man (spätestens) jetzt wie deine Posts zu werten sind.
 
@ottoman:

"...während du darauf mit 8 Absätzen über Speichermenge antwortest."

Weshalb du das dann natürlich mit 9 Absätzen deinerseits wiederum korrigieren musst. Wer im Glashaus sitzt...
 
SimsP schrieb:
@Arno: Da du es offensichtlich nicht verstehen willst und dir in deiner Aussage auch gerne 1-2 mal widersprichst, habe ich ehrlich gesagt keine wirkliche Lust mit dir über dieses Thema weiter zu diskutieren. Man kann sich die Wahrheit auch so drehen wie man sie haben will auch wenn man dazu alles vergessen muss was man vor 5 Sekunden gesagt hat und sämtliche Aussagen anderer Leute negiert.
Viel Spaß mit deiner PS4 und deinem 4K TV mit 60Hz!

Was genau verstehe ich angeblich nicht?

Und inwiefern widerspreche ich mir angeblich selbst?
(wenn du anderen sowas unterstellst, dann musst du auch eine Begründung dafür abliefern.)

johnniedelta schrieb:
Dann ist die Welt ja gerettet.
Der Messias ist gekommen, uns alle zu erretten.

johnniedelta schrieb:
Da spricht der Hohepriester der Prägnanz.

Purer Spam in Reinkultur. Mal ehrlich: Kommst du dir dabei nicht selbst etwas albern/kindisch vor?!

Nur persönliche Beleidigungen Dritter (nicht nur mir gegenüber) ohne etwas Themenbezogenes beizutragen. Aber so kann man seinen Postcounter natürlich auch hochschrauben....

johnniedelta schrieb:
@Arno:
gibt´s für deine posts keine Kompression?

.. und anderen dann gleichzeitig "Längen" vorhalten (passt gut zusammen/sehr überzeugend.)

Leidest du unter Konzentrations- oder/und Textverständlichkeistsproblemen?

Hier extra für dich die auf den Punkt gebrachte Kurzfassung:

Die als UHD-tauglich beworbene neue GTX 980 (das neue Flaggschiff Nvidias und z.Z. wohl/angeblich schnellste Single-GPU-Gamingkarte der Welt) ist ihre ~ 520 € nichtmal ansatzweise wert, weil sie selbst mit vielen getesteten aktuellen und sogar älteren Titeln meist nichtmal in Full-HD flüssige/konstante und somit durchgehend ruckelfreie 6ofps erreichen kann, die dafür nötig wären (siehe Seite 8 im Test) und die meisten Titel in UHD mit einer Diashow bei 10- max. 20fps darstellt. (siehe S.9 im Test.)

Und dazu habe ich dann eben die berechtigte Frage gestellt, warum bzw. wofür so eine Graka eine Kaufempfehlung und/oder Auszeichnungen erhält?! (eine Antwort habe ich natürlich nicht erhalten, wahrscheinlich weil es einfach keine gibt, bzw. keine, die man laut aussprechen/öffentlich zugeben würde.)

Denn: Was nutzt mir eine Karte, selbst wenn sie eine noch so tolle Bildqualität liefert, solange sie nicht in der Lage ist, meine Spiele flüssig auszugeben, weil es einfach offensichtlich nach wie vor massiv an dringend nötiger Rohleistung mangelt? (diese naheliegende, rethorische Frage sollte sich ggf. jeder, der auch über den Kauf so einer Karte nachdenkt, in seinem eigenen Interesse/Sinn mal stellen. <- Letztlich ist es mir natürlich egal/nicht mein Problem, wenn und wie andere ihr Geld verbrennen.)

"Prägnant"/Kurz genug?!

Oder macht die Konzentration/das Textverständnis wieder Probleme?
 
Zuletzt bearbeitet:
Athlonscout schrieb:
Nvidia gibt nur noch die MGCP der Karten an:[...]
"Meines Wissens" schrieb ich nur, um dir die Option zu geben, deine falschen Ausführungen zu belegen.
Genau aus diesem Grund versuche ich auch stets bei jedem Post "meines Wissens", "Soweit ich weiß" oder ähnliche Formulierungen einzubauen. Allerdings steht bei mir in dem Link nur "Graphics Card Power (W)", von Maximum ist nicht die Rede. Die Formulierung liest sich eher so als sei dies der typische Verbrauch, was allerdings erst bei den beiden 900ern auch wirklich zutreffend ist. Bei anderen Karten (nun gut bei der Z kann ich mir kein Urteil bilden) deckt sich die GCP wiederum mit dem was man oft als TDP liest. Das beides nicht das gleiche ist, ist mir bekannt und dir so hoffe ich auch.

Aber gut, du hast natürlich Recht und ich werde mir jetzt auch erstmal ein schönes Schnitzel aus dem Fleisch kleiner Kinder braten um dich in deiner eigenen kleinen Welt zu bestätigen. Dreh du dir nur alles so wie du es meinst, ich lasse mich gerne eines besseren Belehren wenn ich entsprechende Gegenargumente kriege, was bei dir nicht der Fall ist. "Das ist nicht so und wenn du mir nicht glaubst bist du lernresistent" ist eine ziemlich vage Argumentation.
 
Zurück
Oben