Test Nvidia GeForce GTX 980 und GTX 970 im (SLI-)Test

Allerdings ist das suboptimal für Spiele die sehr effektiv arbeiten. Ich bekomme mit meinen aktuellen Settings bei Left4Dead 2 durchaus 140% Leistungsaufnahme hin, wogegen moderne Games vielleicht 110% nutzen. Das auf Maxwell bezogen lässt die Vermutung zu dass der Verbrauch bei Maxwell bei letzteren sehr gering ist, bei einigen Ausnahmen aber auf Kepler Niveau liegt. Hier sollte aber eigentlich das PT relativ zeitig eingreifen wenn der Verbrauch zu lange zu hoch ist.

Letzlich ist es mir auch egal woher die Verbrauchsvorteile kommen, solange der Schnitt im Grünen Bereich ist. Wenn dann halt für 20ms 300W anliegen dann ist das so.
 
Thanok schrieb:
@met: Dennoch ist die Leistung auf High-End Niveau. Außerdem ist der 204er für einen 28nm Mittelklassechip zu groß und für einen 20nm Chip zu klein (der hätte dann nur ~200-250mm²), also eigentlich eher ein GM202.

Jein. Eigentlich war GM204 ja als GM104 in 20nm geplant. Die Größe ist also eher ein Resultat des nicht vollzogenen Strukturwechsels (398 / 28 * 20 = 284mm²). Das haut also äußert präzise hin.

Mich würde es auch wundern wenn überhaupt ein GM200 kommt. Der müsste nämlich fasst 700mm² fassen. Das ist absolut unwahrscheinlich.

Ich denke mal Nvidia wird nun erst auf den 20nm Prozess schwenken und dann den GM114 (GM204-Refresh) bringen, oder eben gleich den GM110 (GM100-Refresh).
 
Zuletzt bearbeitet: (nm -> mm²)
Der Landvogt schrieb:
Stellt sich nur die Frage, warum deine alte tolle Karte nicht Stock mit der Taktrate der 980 läuft. ;)
Warum sollte Nvidia das auch machen? Nvidia hat es geschafft, die GTX 780 mit ihren geringen Boost-Takt von 900 MHz, 20% schneller als Ihren Vorgänger GTX 680 / 770 zu machen. Hätten sie von vornherein den Takt werksseitig auf 1.200 / 3.500 MHz festgelegt, würde die Karte knapp 50% schneller sein als die GTX 680 / 770. Dann hätte keiner den kleinen Maxwell GTX 980 gekauft, der nun genauso viel bringt. Somit hat Nvidia alles richtig gemacht.
 
Zuletzt bearbeitet:
met schrieb:
Mich würde es auch wundern wenn überhaupt ein GM200 kommt. Der müsste nämlich fasst 700nm fassen. Das ist absolut unwahrscheinlich.

Ja. Absolut unwahrscheinlich. Zumal das Tape-Out bereits im Juli war. :eek: :lol:
 
t3chn0 schrieb:
Dazu ist die Karte noch wirklich sehr kompakt und leicht und zieht kaum Strom und gibt kaum Abwärme ab.
Oh zieht kaum Strom? krass.

JmGer schrieb:
OK, dann sage ich, allgemein scheint das Gameworks bei NV besser zu sein und der Preis lockt mich natürlich auch. Die Mantle-Funktion nutzt bis jetzt leider nur bei bestimmten Onlinegames/MP-Modi.

Ouch.."das Gameworks bei NV scheint besser zu sein" ? Was bedeutet das ^^
Mantle kannst du halt bisher nur in BF4, PvZ Garden Warfare und Thief nutzen. Ob Sniper Elite 3 endlich den Mantle Patch erhalten hat, weiß ich noch nicht.

Btw Leute, ich habe auch eine Idee was am 25.09. passieren könnte. Rot steht ja für AMD , Blau für Intel, "no pills requiered", vielleicht wirds irgendeine Mantleankündigung geben. Vielleicht wird Mantle die Betaphase verlassen und/oder wird "open source".
So nach dem Motto, kein besserer Prozessor wird benötigt, egal ob Intel oder AMD, die GPU wird unlocked ^^

An eine wassergekühlte GK glaub ich nicht, weil Asetek ja gemeldet hat, dass die Auslieferung der Kühler im ersten Halbjahr 2015 beginnt.
 
Mr.Seymour Buds schrieb:
Ja. Absolut unwahrscheinlich. Zumal das Tape-Out bereits im Juli war. :eek: :lol:

Krass. Dann aber in einer abgespeckten Version. Selbst Nvidia ist nicht so blöd und versucht einen 700mm² Chip herstellen zu lassen.
 
Zuletzt bearbeitet: (nm -> mm²)
met schrieb:
Krass. Dann aber in einer abgespeckten Version. Selbst Nvidia ist nicht so blöd und versucht einen 700nm Chip herstellen zu lassen.

Nein. 700nm würde wirklich niemand mehr herstellen. Das wäre dann doch etwas zu alt.
 
Thanok schrieb:
Hier sollte aber eigentlich das PT relativ zeitig eingreifen wenn der Verbrauch zu lange zu hoch ist.

Letzlich ist es mir auch egal woher die Verbrauchsvorteile kommen, solange der Schnitt im Grünen Bereich ist. Wenn dann halt für 20ms 300W anliegen dann ist das so.

Das funktioniert ja auch, siehe Furmark. Die kurzen Spitzen sind auch nicht tragisch, solange das Netzteil und alle weiteren beteiligten Komponenten mitmachen.
Aber wenn nun jmd. die Karte fürs für irgendwelche GPU Computing Anwendungen einsetzt darf er sich nicht wundern, wenn die Stromkosten nicht sinken :D
 
Furmark würd ich da garnicht benutzen, hätte da viel zu viel schiss dass der mir die Karte zerlegt...

Gabs schonmal nen Forenfred mit 1000+ Beiträgen?
 
Dai6oro schrieb:
Hier mal ein interessanter Artikel, dass offensichtlich nicht die Architektur für die guten Verbrauchswerte bei Maxwell verantwortlich ist, sondern eine höchst effiziente Lastverteilung:
http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-12.html

Läuft Maxwell auf Dauer-Vollast ist nix mehr mit überragender Effizienz. Intelligent gemacht von Nvidia. Auch hier wieder überzeugt THG mit ihren Messungen auf absolut profesionellem Niveau auch dank der überaus teuren Messinstrumente. CB und viele andere Seiten haben dem nichts entgegenzusetzen, düfte aber auch für viele nicht von Intresse sein.
Mit den Steckdosenmessungen soll bald Schluss sein. Ich habe die Information erhalten, dass die CB Redaktion eine kleinere Version der TH Messanlage erwerben wird :daumen:

Aber nochmal meine Frage, die unbeantwortet geblieben ist:
Wenn MSI's Afterburner eine GPU Auslastung von etwa 99% anzeigt -> quasi maximale Shaderlast? Ist ja z.B. bei Bioshock Infinite der Fall. Oder ist der Afterburner einfach zu lahm für die schnellen Lastwechsel und rundet die Auslastung grob mit 99% ab?

@Hisn, ah super, hab mich schon gefragt warum es eigentlich keinen taktbereinigten Vergleich gibt.
 
Zuletzt bearbeitet:
@HisN

Ja, habs gesehen, taktbereinigt sieht die GTX 980 wie schon mehrfach angesprochen gegenüber der 780 / Ti ganz schön alt aus. Deshalb ist der Aufpreis zur GTX 980 total ungerechtfertigt. Warte auf den Big-Chip GTX 1080, welcher dann übertaktet hoffentlich wieder 30-40% schneller ist.
 
Thanok schrieb:
Das Hauptproblem sehe ich aber in der Kühlung der Stromversorgung. Jedes Watt was die GraKa braucht geht über die SpaWas und die werden richtig heiß. Viele Designs haben eine aggressive Lüfterkürve um die SpaWas zu kühlen doch nur wenige setzen wirklich auf eine direkte Kühlung der Wandler. Solange die GPU Temp niedrig ist schert sich der Kunde auch nicht drum, die Lebensdauer wird aber durch heiße SpaWas stark reduziert. Deswegen würde ich bei anderen Designs die Kühlung überprüfen ehe ich diese Kaufe - nur wer macht das sonst noch? Kaum einer.

Grafikkarten ohne Speicher- und Spannungswandlerkühler würde ich mir gar nicht kaufen. Selbst bei meiner Inno-3D erachte ich die Spannungswandlerkühlung als grenzwertig. Die Platten auf beiden Seiten des PCBs anfassen und die Finger verbrennen, während die Kühlrippen des Hauptkühlers lauwarm sind. Chiptemperatur um die 60°C.

Hier nochmal ein schlechtes Beispiel für die Kühlung :skull_alt: : http://www.hardwareluxx.de/communit...x-600kb-part-12-a-715540-89.html#post22663327

mfJade schrieb:
Deswegen ist die 970 ja Etikettenschwindel ;) Müsste eigentlich ne 960 sein und die 980 ne 960Ti^^

^^ GM200/210 als GTX970, 980, 980TI also. ^^ Hätte nicht soviel Geldpotenzial gehabt.
 
zeedy schrieb:
Oh zieht kaum Strom? krass.



Ouch.."das Gameworks bei NV scheint besser zu sein" ? Was bedeutet das ^^
Mantle kannst du halt bisher nur in BF4, PvZ Garden Warfare und Thief nutzen. Ob Sniper Elite 3 endlich den Mantle Patch erhalten hat, weiß ich noch nicht.

Naja, also wenn ich den Benchmarks von tomshardware/igor und denen hier auf cb glauben darf, dann scheint mantle auch in höheren Auflösungen keinen Vorteil mehr zu bieten. Ich gehe ja mal davon aus, dass die OC Varianten bei den 970ern auch noch etwas rausholen. Aber hier scheint ja der Standardtakt schon mehr fps gerade aus mantle-Spielen wie BF4 und Thief zu ziehen und AMD kann mal gerade so mit aktiviertem mantle mithalten. http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-8.html

Wenn also trotz aktiviertem mantle AMD mit NV gleich aufliegt, bleiben für mich nur noch die zahlreichen gameworks.features, da steht auch nur subjektiv NV weit vor AMD.

Möglw. sind das aber auch nur treiberseitige Geschwindigkeitsrennen. Aber ob die R290er-Reihe noch große Chancen gegen die 900er von NV hat, kann ich mir nicht wirklich vorstellen. Was soll AMD nun auch schon noch groß bringen können, eine Karte mit 80 fps in BF4 für weniger als 330 Euro?
 
Ich verstehe immer noch nicht wie man darauf kommt, dass der GM204 ein Mittelklasse Chip sein soll. NVidia bewirbt ihn als High End, er liefert entsprechende Leistung und kostet auch so viel.

Bei Sandy Bridge kommt ja auch keiner auf die Idee zu behaupten, dass es eine Mittelklasse Version von Ivy Bridge gewesen wäre.

Und was ihr alle mit taktbereinigten Tests habt ... die sagen gunnix über die Leistungsfähigkeit aus. Taktbereinigt wäre auch eine GTX 780 Ti im Schnitt langsamer als eine Titan.

Seid doch froh. Die GTX780 Karten fallen jetzt im Preis.

Edit: Ahja zu Mantle, ich weiß damals noch als ein Aufschrei der Untrüstung kam, als NVidias PhysX sämtliche 3D Mark Vantage Ergebnisse "verfälscht" hat. Letztlich hat NVidia damals aber auch nix anderes gemacht als AMD jetzt. Rechenlast von der CPU zur GPU übertragen. Aber natürlich ist Mantle revolutionär und PhysX reine Abzocke und Benchmark-Betrug...
 
Zuletzt bearbeitet:
Ich verstehe immer noch nicht wie man darauf kommt, dass der GM204 ein Mittelklasse Chip sein soll. NVidia bewirbt ihn als High End, er liefert entsprechende Leistung und kostet auch so viel.

Gabs nicht ähnliches schon bei 680/780?
 
SimsP schrieb:
Ich verstehe immer noch nicht wie man darauf kommt, dass der GM204 ein Mittelklasse Chip sein soll. NVidia bewirbt ihn als High End, er liefert entsprechende Leistung und kostet auch so viel.

Auch wenn viele Leute die gesamte Grafikkarte heutzutage kurioserweise immer als GPU bezeichnen:

Eine Graka besteht ja nicht allein aus dem Grafikchip!

Und 4GB Vram (wo bereits die Titan vor 1,5 Jahren 6GB bot) sowie ein Speicherinterface von nur 256bit Breite sind ja nun im Jahr 2014 angesichts der aufkommenden 4K-Ära und Highres-Texturen nicht eben "Indizien" für eine Highendgrafikkarte, oder?!

Für mich ist die GTX 980 somit nichts anderes als die (inoffizielle) Nachfolgerin der GTX 680 (das war auch eine sogn. "Performance"-Karte, sprich das was man früher mit dem Kürzel "GT" gekennzeichnet hat.)

Die richtige, echte "Highendkarte", sprich die "legitime" (GTX-) Nachfolgerin der Titan oder Titan Z kommt erst noch.

Die wird dann sicher 12GB Vram bieten, ein 384-512bittiges Speicherinterface und natürlich eine "aufgebohrte" GPU im "Vollausbau" und mit höherer Taktung für ~ 800-1000 €.

Warten wir einfach mal ~ 6 Monate ab....
 
Arno Nimus schrieb:
Ich bereue z.T. auch den Kauf der GTX 780 (vor knapp einem Jahr) da diese im Vergleich zu meiner alten 8800GTX (die ich über 4 Jahre im Hauptrechner in Betrieb hatte) z.B. "Diablo 3" in 2560x1600@60Hz noch immer nicht ruckelfrei darstellen kann.

Ich bin bei Dir, Bruder, obwohl ich genau den umgekehrten Weg gegangen bin. Im Bewußtsein das entsprechende Angebote nur eine Frage der Zeit sind habe ich extrem lange an 1280*1024 und erwähnter 4670 festgehalten. Dumm nur das AMDATI und NV den Performancezuwachs pro Generation gedrosselt haben und ich langsam weich werde. Aktuell steht hier ein 24'er mit 1920*1200 Auflösung der in ED in maximalen Settings eine arg ruckelige Slideshow zeigt.

Den Stand bezüglich 4K Gaming schaue ich mir dann in weiteren sechs Jahren an ;-)
 
Und es liegt an der Graka?
D3 ist doch grafisch völlig nichtssagend. Was rucken lässt sind die verbreiteten lahmen CPUs, und Games auf HDDs anstatt auf SSDs, jedenfalls wenn man D3 betrachtet.

Wenn die Graka 40% Last zeigt, dann ist es nicht die Graka die zu lahm ist um irgendwas darzustellen. Ihr beobachet nur nicht genau genug.

Bei ED sieht es schon völlig anders aus.
Eine Titan schafft im Weltall auf Max lockere 80 FPS. Nur in den doch sehr detaillierten Stationen bricht sie auf 40 FPS ein.

 
Zuletzt bearbeitet:
Zurück
Oben