Test 10 GeForce GTX 980 im Test

DeathShark schrieb:
So etwas ist wirklich ärgerlich, aber leider üblich -.-' Auch Nvidia selbst spart bei ihrem Referenzkühler gegenüber GTX Titan und GTX 780 Ti deutlich ein, was ich schade finde, denn wäre der Kühler gleichwertig geblieben, gäbe es jetzt vielleicht endlich mal wieder eine ansprechend leise Karte mit Radialbelüftung.

Was das Spulenfiepen angeht, so hoffe ich, dass AMD es im kommenden Jahr besser macht und nicht an den entsprechenden Komponenten spart. Dieses Problem ist gerade bei Karten, die eigentlich so effizient arbeiten und problemlos leise gekühlt werden können eine echte Schande.

Man darf halt nicht vergessen, dass Nvidia die Mainstreamkarten im Oberklasse Segment verkauft! Preislich sind sie in der Oberklasse angesiedelt, aber die Qualität ist es nicht. Man kann es drehen wie man will, der GM104 ist wie der GK104 ein Mittelklasse Chip und da AMD noch keinen neuen Chip gezeigt hat, wird Nvidia nicht die Oberklasse präsentieren. Um es den Leuten zu verkaufen, Missbraucht man halt ein paar Namen. Man hat bei der 680 und insbesonders bei der 670 gut gesehen, dass es eigentlich KKarten sind, die in das 160-220 Euro Segment gehören. Dafür werden jetzt die Oberklasse Karten halt für 700-1000 Euro verkauft.

Ich bin aber mal gespannt,wenn AMD wirklich 1Q 2015 schon die 390x rausbringt und diese dann die 980 den Boden aufwischt könnte es interessant werden. Denn wenn AMD bei den Preise gleich bleibt, wird die 390x um die 550 Euro zum Release kosten. Ich kann mir nicht vorstellen, dass Nvidia dann viele 700-1000 Euro GM100 Karten loswird. Mit AMDs "neuer" Architektur, die in der 285 zum Einsatz kommt, kann man auch die 290x pimpen, die dann auch locker mit der 980 mithalten kann. Ich bin gespannt auf die 390x, wenn die gerüchte mit der Serien Wakü stimmen, werden sie sicherlich ein extremes Monster bauen und einfach mal auf den Stromverbrauch etc. sch....en und einfach nur brachial auf Rohleistung gehen. So in etwa hat man es ja auch bei der 295x2 gemacht. PCI Spezifikationen? Wozu! Und @ die ganzen pseudo Grünen... ich will eine High End Karte und kein Stromsparwunder! Leistung, Abwärme und Leistungsaufnahme hängen nuneinmal untrennbar physikalisch zusammen! Wer damit ein Problem hat, soll sich so eine Karten ebend nicht kaufen. Supersportwagen fahren und Benzin sparen passt auch nicht zusammen. Kann mir schon vorstellen, dass eine 390x mit mindestens 250 Watt entwickelt wird, aber doch ehr richtung 300 Watt. 250 Watt halten sich seit Jahren in der Oberklasse, Quasi seit der GTX480 ist das die magische Grenze. Möglicherweise Korregiert AMD diese nun auf 300 Watt nach oben, umsonst wird da kein Wasserkühler drauf sein. Stark übertaktete GTX780ti / Titan (Black) und Raden R9 290 / 290x spielen eh schon in der Klasse
 
Cool Master schrieb:
Süß ;) Heute kann man schon eher mit 0,3 rechnen. Aber ja, es spielt keine Rolle wenn die Graka nicht gerade 24/7 auf 100% läuft.

1. Süß sieht z.B. so aus: unterstrichen.
75% mehr bezahlen,
und bei niedrigen Auflösungen <1440p ~ 5% bis 30% schneller sein.
und bei höheren Auflösungen >1440p ~ -20% bis 5% Ab-/Aufwärtung.
Und dabei den Rechner 8 Jahre lang benutzen um seine Mehrkosten rauszuholen.

Dann macht es eben anstatt 10€, 14€ (bei 0,3 Cent) aus. (Durchschnitt in D = 0,275 Cent)
1,17€ pro Monat.

R9 290X ~ 290€
GTX 980 ~ 505€
Unterschied: 215€

Hat man so in 7,5 Jahren raus das Geld. Hier benehmen sich manche als würde es 7 Std dauern, bis man den Ausgleich fände.
Wer von euch will die Karten noch 7 Jahre im Gehäuse haben?
 
@Katillah

Ich bin in der glücklichen Position, dass es mich nicht juckt was ich verbrauche. Ich achte zwar drauf aber am ende vom Tag ist es mir egal ob die Graka nun 150 oder 250 Watt brauch. Hobbys kosten nun mal Geld ;)
 
Shoryuken94 schrieb:

Sich über den Verbrauch von Grafikkarten zu echauffieren ist dann eh doppelmoralig, wenn man Glühbirnen hat oder einen alten Kühlschrank. Oder haben die alle schon LEDs mit gleicher Farbtemperatur und Kühlschränke mit A++++++++++++++++++++++++++++++++++++? :evillol:

Ist nicht so verkehrt, wenn die Ati R9 390 hammer Leistung hat und sehr billig ist, damit es Nvidia dazu bringt, die 980TI auf 500€ zu setzen zur Veröffentlichung und nicht auf 700€.
 
Hardware Opfer schrieb:
ich konnte eine meiner karten die 3 sone hatte, beim spielbetrieb nicht störbar raushören, was ca. bis 55 db wäre. wer bei diesen karten von laut spricht solte seine komponenten mal aus dem katzenkäfig in nen normalen tower packen...

Wer hier von leise spricht hat ein schlechtes Gehör. ;)

Meine iChills machen etwa 2.1 Sone und das ist mir deutlich zu laut.
Insbesondere wenn man so wie ich 2 Stück verbaut.

Und die befinden sich in einem gedämmten NZXT H630.
 
Wolfgang schrieb:
JMax bedeutet bei uns immer maximiertes Power-Target und Temperature-Target (Nvidia) bzw. wenn vorhanden Uber-Modus plus maximiertes PowerTune (AMD).
Danke. Aber das sollte doch irgendwo erwähnt werden. Für dich ist es sicher selbstverständlich was gemeint ist, für Aussenstehende nicht wirklich...

Standard sollte auf jeden Fall drin bleiben, das ist immerhin der Auslieferungszustand. Max bei der Geforce ist dagen imho nur ein konstruiertes Gegenstück um AMD nicht alleine mit Uber zu lassen, aber sinnvoll ist es gewiss nicht.

Banger schrieb:
Sich über den Verbrauch von Grafikkarten zu echauffieren ist dann eh doppelmoralig, wenn man Glühbirnen hat oder einen alten Kühlschrank.
Meine letzte 100W Birne liegt wie ein heiliges Ei gepolstert im Schrank. Die Nachbarn handhaben das offenbar ähnlich und sitzen lieber im Dunkeln. Das ist dann die Frage, was verbraucht mehr Energie, der angeschaltete PC oder die ausgeschaltete Beleuchtung? :lol:
Wie auch immer, eine Glühbirne kommt idr. Regel ohne nervige Lüfter aus. Eine Grafikkarte nicht.

Shoryuken94 schrieb:
Ich bin gespannt auf die 390x, wenn die gerüchte mit der Serien Wakü stimmen, werden sie sicherlich ein extremes Monster bauen und einfach mal auf den Stromverbrauch etc. sch....en und einfach nur brachial auf Rohleistung gehen. So in etwa hat man es ja auch bei der 295x2 gemacht. PCI Spezifikationen? Wozu!
Spezifikationen gibt es nicht zum Spass. Auch AMD wird Fermi nicht endlos übertrumpfen.

Man kann es drehen wie man will, der GM104 ist wie der GK104 ein Mittelklasse Chip und da AMD noch keinen neuen Chip gezeigt hat, wird Nvidia nicht die Oberklasse präsentieren.
Falsch. AMD ist sehr froh darüber, das nvidia vernünftig handelt. Die Wartezeit bis zum nächsten Generationssprung ist noch sehr lang. AMD wird gerne die 390X für 550€ raushauen, aber das geht nur wenn nvidia bei GM200 wieder in die Vollen geht und 1500€ für Titan verlangt und 700-800€ für das deutlich später erscheinende Salvage Modell.

Was macht den nun einen "Mittelklasse Chip" aus? Die Bennenung? Tatsächlich ist das GM204 fast so groß, wie die größte AMD GPU aller Zeiten. Oder ist es nur doch nur High-End wenns 3x1000€ im SLI sind?

Um es den Leuten zu verkaufen, Missbraucht man halt ein paar Namen. Man hat bei der 680 und insbesonders bei der 670 gut gesehen, dass es eigentlich KKarten sind, die in das 160-220 Euro Segment gehören.
Genau, 2 Monate nach der 7970 hätte AMD die Preise halbieren müssen. Ist klar. GK104 war so Mittelklasse mäßig, das er GF110 an die Wand gespielt hat. Der Unterschied GK110 zu GK104 war NICHT größer.
 
Zuletzt bearbeitet:
till69 schrieb:
Für Palit spricht ausserdem, dass es eine günstigere (aber offenbar baugleiche) Jetstream gibt, die man per BIOS zur Super JetStream machen kann :daumen:

wenn man es so sieht, kann man aus jeder karte eine andere machen. Eine MSI GTX 970 schafft auf die 1550 Mhz stable wen man eine gescheite erwischt und kann so über einer gigabyte g1 gaming liegen. Das ist glaub kein passendes Argument hier.
 
Unyu schrieb:
Meine letzte 100W Birne liegt wie ein heiliges Ei gepolstert im Schrank. Die Nachbarn handhaben das offenbar ähnlich und sitzen lieber im Dunkeln. Das ist dann die Frage, was verbraucht mehr Energie, der angeschaltete PC oder die ausgeschaltete Beleuchtung? :lol:
Wie auch immer, eine Glühbirne kommt idr. Regel ohne nervige Lüfter aus. Eine Grafikkarte nicht.

Nachschub gibt es bei AfD, wenn man nicht die teuren Halogenlampen will. :freak: Und aus sind deine Lampen und die von den Nachbarn nicht durchgehend. :D

300W TDP werden sie vermutlich vermeiden wollen, bevor hart geflamed wird wie bei der GTX480.
 
Meine 2 Cents wurden sowieso für die geschrieben, die ganz Wund vor Kratzen geworden sind obwohl es tatsächlich nicht einmal wirklich juckt ;)
@Cool Master
@Farang Lao
 
@Banger
Gut ein paar Vereinzelte Nachbarn haben jetzt im Dunkeln ihre Beleuchtung an. Vllt 5 - 10%. :lol:
Und wegen meiner Beleuchtung brauchst du dir keine Sorgen machen, was der Herd in 30min wegsaugt ist viel. Dagen sind LEDs, Glühbirnen und Giftstofflampen ein Witz. Doch das Beste: Nichts davon ist störend laut! Abgesehen von der extrem fiependen Ikea Schreibtischlampe, die darum auch nicht mehr benutzt wird.
 
Wolfgang schrieb:
Das ist eine Idee, die sich sehr interessant anhört. Meinungen dazu?
Der Haken an der Variante ist jedoch eben, dass man so etwas erst machen kann, wenn man sich schon mehrere Partnerkarten angeschaut hat.

Halte ich auch für eine gute Idee. Man hat einen etwas aussagekräftigeren Mittelwert und bekommt keine Probleme mit Behauptungen, dass man voreingenommen/"gekauft" sei, wenn man eine spezifische Custom-Karte referenziert. Hört sich erstmal nach einer Win-Win Situation an ; )
 
Supersportwagen fahren und Benzin sparen passt auch nicht zusammen.
Du lebst im letzten Jahrtausend, wir schreiben das Jahr 2014, da ist das schnellste Auto, gleichzeitig das sparsamste in seiner Klasse, max. Effizienz, extrem beeindruckend wenn du mich fragst: (vor allem weil man es ohne Turbos und somit mit super Sound bei 9000RPM schafft)
http://www.youtube.com/watch?v=eaOfgevPphk
http://www.youtube.com/watch?v=2Yz8cizr6sI

http://www.techpowerup.com/reviews/MSI/GTX_980_Gaming/26.html
http://www.techpowerup.com/reviews/Palit/GeForce_GTX_970_JetStream/26.html
http://www.techpowerup.com/reviews/EVGA/GTX_970_SC_ACX_Cooler/26.html

Maxwell hat nicht nur eine extreme Effizienz gegenüber der Konkurrenz, egal ob OC oder nicht, auch der Grundverbrauch ist für so eine Speed beeindruckend. Was glaubst du verkauft sich Ding wie geschnitten Brot. Die allgemeine Effizienz hat Auswirkungen auf zig Features der Karte, nicht zuletzt der Lautstärke. Eben was ich schon imemr sage, Effizienz hat nur Vorteile und NV sieht das genau so und konzentriert sich seit Kepler maximal auf das.
250 Watt halten sich seit Jahren in der Oberklasse, Quasi seit der GTX480 ist das die magische Grenze.
Diese "magische Grenze" wurde von der Thermi zb. schon lange geknackt. 320-350Watt musste man da für das NT einplanen bei 100% Last, allein für die GPU. Trotz 250Watt TDP. Heutige Karten verschleiern die max. Auslastung nur sehr gut weil die ein ausgeklügeltes Power Management haben.
 
Zuletzt bearbeitet:
...Du mit deinem Porsche 918..wie oft willst du diese videos noch posten? Erinnere mich noch an deine scharfe Analyse beim 980/970 Release "da hat sich Nvidia beim der Entwicklung der Karte anscheinend an dem neuen Porsche 918 spyder orientiert" :freak: wie albern

Die Leistungsaufnahme ist jedenfalls nicht so beeindruckend wie die TDP
102-Overview-Power-Consumption-Gaming.pngroundup.jpg
http://www.tomshardware.de/nvidia-g...up-vergleichstest,testberichte-241658-17.html


@Wolfgang, du bist auf so viele Beiträge eingegangen, aber dass ein Leistungsrating aus 5 Spielen einfach kein Leistungsrating ist, hast du ignoriert. Ich finde, wenn man schon ein Leistungsdiagramm erstellen will, dann sollen möglichst viele aktuellere Spiele vertreten sein, mMn mindestens 12 Spiele.

Dass ihr Kritik nicht ignoriert sondern darauf generell eingeht, offen für Verbesserungsvorschläge seid und eure Testmethodik teilweise verändert, finde ich aber schon echt klasse.

Wolfgang schrieb:
Das ist eine Idee, die sich sehr interessant anhört. Meinungen dazu?
Der Haken an der Variante ist jedoch eben, dass man so etwas erst machen kann, wenn man sich schon mehrere Partnerkarten angeschaut hat.
Man könnte es einfacher machen. Nehmt doch eine durchschnittlich übertaktete Partnerkarte des jeweiligen Modells und ersetzt damit die Referenzdinger in allen Messungen. Z.B. eine Sapphire 290(X) Tri-X oder Vapor-X und eine MSI 980/970, halt die beliebtesten Modelle. Damit würde man die Referenzkartendiskussion ein für alle mal beenden.
 
Zuletzt bearbeitet:
da hat sich Nvidia beim der Entwicklung der Karte anscheinend an dem neuen Porsche 918 spyder orientiert"
Du Held! Das war ein Witz. Sag jetzt nicht das hast du ernst genommen?(bin mir sicher ich hab da ein Smiley oder so gesetzt;)) Eine kleine Anspielung. Denn der 918 mit seinen vielen Hybrid Modi ist einer Maxwell mit der feinen Staffelung des Power Management nicht unähnlich. Vor allem haben sie 2 Sachen gemeinsam, schnellster ihrer Klasse + effizienteste ihrer Klasse in einem. Ergo perfekter Vergleich. Vor allem war die Kombi vor ein paar Jahren noch unmöglich. (Thermi(bei den Autos das gleiche Effizienz und max. Speed war nicht unter einen Hut zu bekommen)

wie oft willst du diese videos noch posten?
Solange Aussagen wie "Sprit sparen und Sportwagen sind unmöglich" Aussagen kommen. Oder allgemein, im Prinzip nicht verstanden wird was Maxwell überhaupt bedeutet für den GPU Markt.
 
Zuletzt bearbeitet:
@Wolfgang & Computerbase:

Ich finde es sehr gut, dass ihr Standardtakt und Maximaltakt testet. Bitte beibehalten!

Diese Referenzkartendiskussion ist doch Quatsch, man kann einfach im Test des Custommodells für das man sich interessiert sehen wie viel Prozent es vor der Referenz liegt und so das Custommodell mit einem anderen vergleichen. Die Referenzkarten zu nehmen ist halt einfach und praktikabel, und ein bisschen Nachdenken beim Leser dürfte nicht zu viel verlangt sein. Nimmt man Customodelle gibt's nur wieder Diskussionen darüber welches nun "durchschnittlich" und geeignet ist und welches nicht ... wahrscheinlich von den selben die jetzt durch die Referenzmodelle ihren Lieblingshersteller benachteiligt sehen.
 
Zuletzt bearbeitet von einem Moderator:
NeXuS schrieb:
moin!

hab ich bei dem test irgendwas verpasst oder warum wird die palit testsieger?

wenn ich die ergebnisse mal mit der zotac extreme vergleich bietet die karte von zotac ...

- die höchste leistung
- geringste temperatur unter last
- geringes spulenfiepen (nicht hörbar beim spielen)
- bei höherer leistung eine deutlich geringere leistungsaufnahme des systems unter last (standard/maximiert)

Das habe ich mich auch gefragt. Ich sehe MSI, Zotec und EVGA noch vor der Palit. Zudem "frisst" letztere auch noch recht viel Strom, kein Wunder denn der VCore wurde ja auch auf ca. 1,187 V angehoben laut Tests in Fachzeitschriften. Mit diesem Wert kann man mit den anderen Herstellern (manuelles OC) locker den Takt der Palit überbieten. MSI, EVGA und Zotec haben darüber hinaus längere Garantiezeiten.
 
Insgesamt, schöner Test! Auch das auslesen der PTs, lobenswert.

Es zeigt sich, dass kein Unterschied zwischen den Karten ist, wie auch schon vorher bekannt war und das höhere PT spielt nahezu keine Rolle, Chipgüte macht alles.

Das nächste mal noch die Asic bei jeder Karte, mit dazuschreiben, dann ists top!
 
Zuletzt bearbeitet:
Hmm die Palit ist ja wirklich top was Lautstärke betrifft. Leider brechen die NVidia Karten bei hohen Auflösungen immernoch zu stark ein so das ich 500€ nicht angemessen erachte. Klar kann man trotzdem einen Award vergeben, zu der hauseigenen 970 und zur 290(x) ist der Preisunterschied aber so enorm das die Karte wirklich völlig überteuert ist. Teuer wäre sie so der so, würde niemals so viel Geld ausgeben.

Eine Stock AMD im "Über" Modus zu vergleichen ist ja wohl alles andere als objektiv, setzen 6!
PowerColor 290X - 289€ zu einer Zotac 980 - 503€, das spannenste Battle des Jahres.
 
Zuletzt bearbeitet:
Zurück
Oben