News Erster Test der Nvidia GeForce GTX 680

ExcaliburCasi schrieb:
GK110 kommt dieses Jahr und wird die beste je dagewesene GPGPU Leistung bringen.
Alles Andere steht auf einem anderen Blatt.

Sehr geil, wie du aus einem Wort was ein "h" zuviel hat sich lüstig machst ;) War ein vertippen...

PS: was soll denn deiner Meinung denn GK110 mehr haben als GK104? Wenn du es gleich nennst, dann siehst du selbst, dass es wenig Sinn macht so ein Chip raus zu bringen.
 
Tomahawk schrieb:
Hast du denn noch weitere Informationen zur Leistungsaufnahme der GTX 680 oder gehst du davon aus, dass die 170W den Mittelwert darstellen? Könnte ja sein, dass die Leistungsaufnahme aufgrund höherer Taktung resp. aufgrund des "Turbos" stark schwankt und die 170W übersteigt. Um einen Vergleich anzustellen müsste man die Leistungsaufnahme über den gesamten Testlauf ermitteln und schlussendlich die verrichtete Arbeit (kWh) berechnen.
 
Schaby
Die Die der 7870 ist ca bei 200mm^2 (weiß jz nicht genau) Wenn man diese Overclocked ist der Verbrauch ca bei 200 watt die Leistung ca bei einer 7950.
Scheinbar verbrauchen die shader nicht viel mehr wenn man overclocked. Der Fehler der 7970 ist dass sie nicht eine 1 ghz Edition wurde.
Somit bin ich auf einen Vollständigen Test gespannt und hoffe es wird auch eine overclocked Versionen beider Karten verglichen.
 
Mal abwarten was der Test sagen wird. Mich freut vor allem, dass nun wieder etwas Schwung in den Markt der Grafikkarten kommt. Mir ist es letzten Endes völlig egal, wer mehr Leistung bringt. Mir kommt es auf das P/L-Verhältnis an und das meine Stromkasten nicht noch weiter strapaziert werden

Noch reicht mir meine GTX 460 OC, eine neue Karte gibt es erst 2013. Vielleicht dann eine AMD.
 
reale Leistungsaufnahme mit Gesamtsystemmessungen vergleichen.
Klar kann ich das. Oder denkst du, dass eine CPU in Verbindung mit unterschiedlichen Grafikkarten unterschiedliche Verbräuche hat? Das gesamte System (also alles außer der Grafikkarte) wird doch den bei Spielen mit unterschiedlichen Grafikkarten stets den selben Verbrauch haben.

Hast du denn noch weitere Informationen zur Leistungsaufnahme der GTX 680 oder gehst du davon aus, dass die 170W den Mittelwert darstellen
Der Sinn der Rechnung war die Verfügbaren Informationen zu nehmen und daraus ein Perf./Watt-Verhältnis abzuleiten. Natürlich kann der Stromverbrauch schwanken, ebenso scheint die GTX680 im 3D Mark besonders stark zu sein.
 
Zuletzt bearbeitet:
Tomahawk schrieb:
Das gesamte System (also alles außer der Grafikkarte) wird doch den bei Spielen mit unterschiedlichen Grafikkarten stets den selben Verbrauch haben.
Zu mindestens 90% schon, ja. Wenn man zwei Highendkarten misst, die den Prozessor auszulasten wissen, sollte davon auszugehen sein.
 
Ich habe zwar noch nicht alles gelesen, aber ich hätte die Karte doch schon gerne. Die würde meine 480 sowas von in der Toilette runterspülen und dann noch Strom sparen. :o

Und ich hoffe mal, dass Nvidia gelernt hat und nicht den Lüfter kastriert, oder bei bestimmten Programmen nur den halben Takt zulässt. :rolleyes: Siehe GTX580 im Referenzdesign.
 
Kriegsgeier schrieb:
"Ausführlicher über die GTX 680 berichten wir, sobald es das NDA auch uns erlaubt." ---> d.h., dass ihr in diesem Moment schon viel mehr wisst? Krass und sabber :)

Habt ihr auch die Karte schon bei euch?

Ist ja wohl sehr offensichtlich, dass das NDA am 22-23ten fällt wie mehrfach angesprochen.

Von daher ist es naheliegend, dass CB schon felißig am benchen ist :evillol:
 
Meine natürlich 780GTX da die 680 nur ne performance karte ist
nVidias Performance-Karten kosten also 549 USD? Dann kosten Enthusiast-Karten 900 USD? Der GK110 (alias deine GTX 780) soll eher in Q3 kommen
 
für einen möglich 7980 kann nvidia einfach die letze phase auflöten und 8 + 6 pin verbauen
dazu vllt noch a3 (b1) stepping und auch der chip könnte noch mehr hergeben


gk110 ist dafür nicht nötig. dennoch glaube ich, dass dieser kommen wird und muss. nur halt wirklich spät, also frühstens im herbst

bulldozer1 schrieb:
Ist ja wohl sehr offensichtlich, dass das NDA am 22-23ten fällt wie mehrfach angesprochen.

Von daher ist es naheliegend, dass CB schon felißig am benchen ist :evillol:

die werden hoffentlich schon fertig sein, oder schnellsten zusehen, dass sie es werden...

... falls nvidia das nda vorverlegt
 
die Leute, die noch an GK110 glauben - denken einfach zu starr. Die Nvidia hat ihre Politik geändert! Deswegen GK104 ist die Highend Chip!
 
Ladezeit von HKEPC liegt echt bei Minuten. :D
 
Tomahawk schrieb:
Klar kann ich das. Oder denkst du, dass eine CPU in Verbindung mit unterschiedlichen Grafikkarten unterschiedliche Verbräuche hat? Das gesamte System (also alles außer der Grafikkarte) wird doch den bei Spielen mit unterschiedlichen Grafikkarten stets den selben Verbrauch haben.

Haha, nee so einfach ist das nicht. Wenn eine Grafikkarte schneller ist, wird das Grafiklimit etwas weiter hinausgezögert und dadurch wird in der Regel die CPU ebenfalls stärker ausgelastet. Wenn ein Grafiklimit dank schwacher Karte viel früher einsetzt, wird eine CPU parallel auch weniger ausgelastet. Ausserdem kann eine Nvidia-Karte unabhängig von ihrer Leistung eine Intel oder AMD CPU anderes auslasten als eine AMD-Karte. Daher sind Gesamtsystemmessungen für Grafikkarten ohnehin kaum aussagekräftig und zeigen ein sehr einseitiges Szenario. Wer wissen will was eine Karte tatsächlich verbraucht, muss auf Realmessungen wie beispielsweise von HT4U warten.
 
Zuletzt bearbeitet:
Absolut geiles Perf/Watt Verhätnis!
Hätte noch gerne gewusst was der GK104 noch OC mitmacht. Laut Chinesischen Foren sind 1,2GHZ überhaupt kein Problem. 1,4GHZ sollen noch mit Luftkühlung zu kühlen sein.
Also wirklich hammer geiles Teil, vorallem der GK110 kommt ja noch.
 
Lihnt sich ein Umstieg von einer 295 GTX zu einer single Karte 680 GTX?In all Bereichen Strom,Lautstärke und Leistung.
 
Hallo!

Ich weiß jetzt nicht ob jemand schon mal die Grafik ohne Beschriftung im Balken von BF3 gepostet hat aber ich hab sie mal im Anhang gepackt


Edit:

Von hier:

http://www.hkepc.com/7672/page/6#view
 

Anhänge

  • 1702470727834307124.png
    1702470727834307124.png
    39 KB · Aufrufe: 751
Zuletzt bearbeitet:
ich rechne auch mit 800euro-karten im herbst *zähneknirrsch
Das wird sich zeigen. Ich denke kaum, dass es einen Markt für 800 Euro-(Single-Chip)-Karten gibt. Aber nVidia und AMD werden schon wissen, was sie zu welchen Preisen rausbringen. Bei ganz schlechter Yields ist es sicherlich besser einige wenige Chips für 800 Euro zu verkaufen als den fertigen Chip gar nicht erst anzubieten.

Haha, nee so einfach ist das nicht. Wenn eine Grafikkarte schneller ist, wird das Grafiklimit etwas weiter hinausgezögert und dadurch wird in der Regel die CPU ebenfalls stärker ausgelastete
Na ja, du kannst ja gerne die reinen Graka-Verbrauchswerte (h4u) + PC, aber on Board Grafikchip mit Systemen, die gleich diese Grafikkarte haben, vergleichen.

Also Verbrauch (System mit onBoard-Grafik) + Verbrauch (dedizierte Grafikkarte) vs. Verbrauch(System mit dedizierter Grafikkarte).

Als ich das (ist etwas her) nachgeschaut habe, war der Unterschied recht klein. Wenn nun die Graka ähnlich schnell ist, dann dürfte der Unterschied wirklich zu vernachlässigen sein.
 
Zuletzt bearbeitet:
Zurück
Oben