Test GeForce GTX 980/970 im Test: Nvidia Maxwell 2.0 für High-End ist da

Ich hab das jetzt einfach in den Raum geworfen, weil das meine Antwort auf alles war, was ich bisher im Thread gelesen hab.
@tic-tac-toe-x-o
Danke für die Antwort, dennoch muß ich sagen, für einen gepflegten Austausch nicht dienlich ...^^
 
Finde die Karten gar nicht mal so schlecht. Die GTX 980 würde mich schon interessieren. Wer will meine 290 kaufen? ;). Werde noch warten ob und wie sich die Preise verändern werden. Mal sehen, vllt. wird es wirklich eine GTX 980. Hoffe aber immer noch auf eine GTX 980 TI.
 
@tic-tac-toe-x-o
Niemand hier erwartet, dass sich jetzt jeder eine GTX 980 oder GTX 970 kauft. Du darfst also ruhig etwas anderes kaufen, wenn dir die neuen NVidia GPU's nicht gefallen. Wir mögen Dich trotzdem!
 
tic-tac-toe-x-o schrieb:
Tja. Marketingmaschine Nvidia enttäuscht nicht... Wie immer das selbe mit denen. :rolleyes:

Und die Leute hier fallen wie immer hinein. :D

Ich bin wirklich kein Fan von Nvidia aber die GTX 970 hat doch alles was ich von einer neuen Grafikkarte erwarte.

Neue Features - Check
Schneller als die GTX 780 Ti - Check
Genug Leistung für 1440P - Check
4GB - Check
Leise und Effizient - Check
250€ - Fail

Ok, nur der Preis entspricht nicht meiner Vorstellung aber sonst ?
 
D3xo schrieb:
Ich bin wirklich kein Fan von Nvidia aber die GTX 970 hat doch alles was ich von einer neuen Grafikkarte erwarte.

Neue Features - Check
Schneller als die GTX 780 Ti - Check

Die 970 ist nicht schneller als die 780Ti.
 
Gaspedal schrieb:
LOL, mein EVGA GeForce GTX 780Ti ACX Classified + OC (mit Wakü) ist mindestens 20-30% schneller als GTX 980. :D :D

ja dann leg ma die referenz werte an ma schauen was dann sache ist^^

äpfel mit birnen und so.

ich hab meine 780 ti auch auf 1300mhz laufen und?
die 980 kann laut nvidia übertaktet werden alos abwarten was da kommt.
 
FormatC schrieb:
2. Die bei Nvidia verwendet Methode des Dynamic Voltage and Frequency Scaling (DVFS) ist nur eine eine von mehreren möglichen Techniken des dynamische Power-Managements (DPM). Es ist genau so, wie im Artikel beschrieben, denn der Vergleich mit einem Komprimierungsverfahren ist sehr bildlich. Bei Nvidia tritt die Komponente Takt allerdings erst dann auf, wenn (a) das thermische Limit erreicht/überschritten wird oder (b) die Last dauerhaft soweit absinkt, dass die Karte generell runtertakten kann (Idle, lower load states). Der Rest ist ein komplexer Algorithmus zur Abschätzung und Voraussage der aktuellen und kommenden Leistungsaufnahme.

Ich lese eine Zeitangabe von 280W. Das ist nicht möglich, da das TempTarget hier schneller einkicken wird als du schauen kannst.

Aber wenn du so überzeugt bist: Einfach ein simples Strommessgerät dazuwischen anschließen und den Unterschied zwischen Spiel und Cuda-Anwendung zeigen. Müsste ja locker >120W betragen.
 
tic-tac-toe-x-o schrieb:
Kann man das mit Fanboys heutzutage?

Es wurde hier alles schon gesagt. Einfach alle relativ neutrale (und mehr in richtung Kontra Nvidia) Posts lesen und dann hast du alles.
Wenn wir jetzt alle die rote Fanboybrille anziehen werden wir sicher zu dem Schluss kommen, dass AMD wesentlich effizienter ist und bessere Features/Leistung bietet. :banghead:
 
Endlich, auf so eine Karte habe ich gewartet - schnell, geile Features, sparsam. Könnte nach langer Zeit mal wieder ein echter P/L-Knüller von NVIDIA werden. :) Wenn die Preise sich in den nächsten paar Monaten noch gut entwickeln, kann ich meine doch mittlerweile arg angestaubte GTX 560 Ti endlich in Rente schicken. :king:
 
Sontin schrieb:
Ich lese eine Zeitangabe von 280W. Das ist nicht möglich, da das TempTarget hier schneller einkicken wird als du schauen kannst.
Aber wenn du so überzeugt bist: Einfach ein simples Strommessgerät dazuwischen anschließen und den Unterschied zwischen Spiel und Cuda-Anwendung zeigen. Müsste ja locker >120W betragen.

Da Du ganz offensichtlich klüger bist, als die hochbezahlten Ingenieure bei Gigabyte und MSI - bitte sehr. Ich habe die intern genutzten Messprotokolle der Hersteller hier, weil ich mich immer absichere, bevor ich etwas veröffentliche das aus der Norm ausbricht, :D

Das Temperatur-Target beeinflusst bei der GeForce zunächst erst einmal den Takt und damit nur indirekt auch die Spannung - manchmal. Mehr nicht. Lies dich erst einmal in die Funktionsweise von DVFS ein und dann reden wir weiter. Gigabyte kommt intern mit Furmark sogar knapp über 300 Watt. Interessant sind hier auch die im Treiber abgefangenen Einschränkungen beim Erkennen von sogenannten "Powerviren", also Torture-Programmen, die Reviewer gern benutzen. Hebelt man das aus, wird man bös Augen machen ;)

Der Kühler der Referenzkarte ist zudem weitgehend identisch mit dem der Titan Black. Misst man den Verlauf der Wärmeentwicklung und - Verteilung unter Vollast, dann verhalten sich beide Karten bei identischem Takt sehr ähnlich. Lässt man der GTX 280 den hohen Basistakt, erwärmt sie sich sogar schneller. Über die Wärmeentwicklung und Lüfterdrehzahlen kann man die Verlustleistung bei bekannten Kühlern ziemlich genau abschätzen.
 
Zuletzt bearbeitet:
Und mein Fahrrad ist beim Bergab fahren schneller als dein Fahrrad auf gerader Ebene... :rolleyes:
Ist das Blödheit oder vergleichen hier wirklich einige eine übertaktete Grafikkarte gegen eine nicht übertaktete Grafikkarte?

Ich jedenfalls bin voll zufrieden damit! Ich wollte mir diesen Monat eine neue Grafikkarte kaufen, weil meine GTX 570 nicht mehr meine gewünschten FPS aufbringen kann und werde mir nun die GTX 770 kaufen. Für mich ist das ein ordentlicher Performancegewinn!
 
Der Landvogt schrieb:
Wenn wir jetzt alle die rote Fanboybrille anziehen werden wir sicher zu dem Schluss kommen, dass AMD wesentlich effizienter ist und bessere Features/Leistung bietet. :banghead:

Dann werd ich das im entsprechend AMD Thread auch bringen müssen. Hier gehts ja jetzt um die neuen Nvidia Karten. Die zwar im ersten Blick gut zu sein scheinen. Aber dahinter mehr nur Marketing steckt.

Gut mehr kann man ja auch nicht bringen bis die 20nm Karten nicht kommen...

Aber dieses Angöttern... Haben sie nicht verdient.
 
Der Test des Verbrauchs ist wirklich lesenswert und sehr interessant. Aber für den Nutzer ist letztlich nur wichtig wie viel die Karte im Schnitt verbraucht und da stehen die beiden wirklich gut da. Kurzzeitige Spikes von 280W sind auch für Dünne Kabel nicht weiter tragisch da die Last nur extrem kurz anliegt uns so eine Erwärmung nicht auftritt.
Bei der 295X2 liegt die Last permanent sehr nah an der Grenze und gelegentlich sogar darüber - dadurch ist der Verlust durch die Kabel natürlich konstant höher als bei kurzen Verbrauchsspitzen.

Btw: Die TDP bei NV bezieht sich nur auf die GPU, nicht auf die ganze Karte. Das PT wird entsprechend auch nur für die GPU justiert. Der Rest ist soweit ich weiß nicht künstlich limitiert. Das Board der Titan ist z.B. auch für 300W ausgelegt, obwohl das PT maximal 265W zulässt. Der Rest entfällt auf Verluste durch SpaWas und vor allem den Speicher - und auch hier ist nicht gesagt dass der Verbrauch nicht stellenweise oberhalb der 300W liegt.

@tic-tac-toe-x-o:
Was hast du gegen die Karten? Die 980 ist schneller, sparsamer, besser ausgestattet (Speicher) und leiser als die Ti, im Grunde also in allen Belängen überlegen oder schlimmstenfalls gleich gut. Dabei hat sie noch extra Fähigkeiten und eine niedrigere UVP. Dass der Verbrauch kurzzeitig hoch ist juckt doch dabei nicht - am Ende ziehen die Karten vergleichsweise wenig Strom aus der Dose und das wird auch bezahlt. Wer nicht gerade Furmark spielt (und da wird das PT dann recht zeitnah eingreifen) wird dadurch keinerlei Nachteile haben. Der Chip geht dadurch ja auch nicht binnen 2ms in Flammen auf.
 
Zuletzt bearbeitet:
Würde gerne mal nen testen sehen bei gleichem takt von 290x, GTX 780ti und gtx980, bei sagen wir mal 1200 mhz.
 
Moriendor schrieb:
Die 970 ist nicht schneller als die 780Ti.

Welche aber mehr säuft und keine Standards unterstützt die nach den Pyramiden auf die Menschheit losgelassen wurden.
 
warten wir mal ab was die zukünftigen Treiber bringen!
Das geht doch jetzt schon seit über 15 Jahren so ... sowas von dermaßen langweilig!
Und das "gebashe" der Fanboys - grauenhaft!
Da kommt in ferner Zukunft ein neuer Treiber -> dann ein Re-Test und schwups ... ist eine Grafikkarte auf einmal um 10% schneller ...
Immer dasselbe ...
Und ob CB unabhängig berichtet ist auch fraglich ... vielleicht hat NVIDIA CB dafür bezahlt (reine Fiktion, keine Unterstellung!), um eventuell besser dazustehen?!?
 
FormatC schrieb:
Ich habe es übrigens auch so geschrieben, dass von Maxwells Herrlichkeit nichts übrig bleibt, wenn man konstante Shaderlast anlegt

Mit welchen Spielen hast Du denn diese konstante Shaderlast anlegen können?
 
Zurück
Oben