Test GeForce GTX 680 im Test: Mit Kepler ist Nvidia wieder die Nummer 1

und wen die treiber stimmen kann amd wieso einpacken :-D
 
Aber leute nicht vergessen die gtx680 hat nen mittelklasse chip
Sie ist sozusagen der nachfolger von der gtx560
Deswegen ist sie ja so gut geworden - der nVidia-Mittelklassechip ist flotter und effizienter als AMDs HighEnd Chip.
 
Cey123 schrieb:
Wie bereits geschrieben: Effizienz ist 47 % höher.

Falls es euch noch nicht aufgefallen ist. Ihr könnt immer "6 Monate auf eine bessere Grafikkarte warten", bis ihr alt werdet! Das ist leider etwas frustrierend bei Grafikkarten, aber es ist mehr oder weniger so. ;)

Meine GTX 570 reicht ja noch für die 6 Monate, danach kommt die GK110 und dann wieder 1-2 Jahre warten auf die nächste Graka Generation.

Wer zuviel Geld hat kann sich natürlich jetzt für 500 Euro die inoffizielle GTX 670 kaufen und dann in 6 Monaten die GK110 für ca. 700 Euro.
 
Nett, wie die Leute grade die 7970 mit dem Argument "Ja wenn man die 7970 aber übertaktet, dann..." schönreden wollen. Übertakten kann man die 680 ja genauso, da sie schon im Standardzustand weniger Strom und Spannung benötigt, vermutlich noch mehr.

Und neue Architektur heißt ja nicht bessere Architektur. Siehe Bulldozer.
 
Und da sieht man mal wieder, daß Leistung und gleichzeitig eine merkliche Stromersparnis wieder nicht ermöglicht wurde... :(
 
stimmt so nicht und kepler kommt mit 1006MHz
und AMD HD mit 9xxMHz
Dafür kommt Kepler mit einer deutlich geringeren VCore ...
 
Mir kommt auch langsam der verdacht auf das sie absichtlich "nur" 2x 6pin stormstecker verbaut haben.

Es scheint, als hätten die gelockerten Stromvorgaben einen gewissen zusätzlichen Spielraum ermöglicht. Also erhöhen wir den Taktoffset um 100 MHz, was sich erneut in einer höheren Performance äußert, nämlich 76,1 FPS. Dieses Mal zeigt der Taktzähler allerdings konstante 1215 MHz. Laut Nvidia wird die Karte in diesem Benchmark und dem Stromlimit nicht noch schneller werden.

Was liegt näher, als das Stromlimit ein weiteres Mal zu lockern? Bei 130 Prozent, also faktisch den maximal möglichen 225 Watt der kombinierten Stromanschlüsse, fällt die Performance auf 75,6 FPS. Wir hatten mit mehr Performance gerechnet, nicht mit weniger. Was ist passiert? Und genau hier werden einige Nutzer ein Problem mit GPU Boost bekommen. Weil das Ergebnis von diversen Faktoren abhängt, die ständig überwacht werden, verändert sich die Performance im Laufe der Zeit. Wenn sich die GPU aufheizt, nehmen Leckströme zu, und sobald das passiert, regelt GPU Boost Variablen wie Takt und Spannung herunter, um einem Teufelskreis vorzubeugen.

Zusammengefasst ist es so, dass man problemlos höhere Ergebnisse erreichen kann, wenn man kurze Benchmarks nutzt und der Karte die Gelegenheit gibt, sich zwischen Wiederholungen abzukühlen. Steht hingegen stundenlanges Spielen an, ist GPU Boost weniger effektiv.
 
ja es ging aber ums übertakten.. ich habe nur die vermutung aufgestellt
das wenn man beide karten so weit übertaktet bis sie stabil laufen
und danach bei 2560x 1600 testet, das dann eben AMD "vorne sein könnte"..
 
Die Karte sieht in Arma 2 kein Land gegen die HD7970:

http://www.bit-tech.net/hardware/2012/03/22/nvidia-geforce-gtx-680-2gb-review/8

Kommt mir daher nicht in den PC....

Da die Karte in den meisten restlichen Games aber meist schneller ist als die HD7970, sofern man nicht mit höheren Einstellungen als 1920x1080 8xAA spielt, könnte ich mir vorstellen, dass das dafür sorgt, dass die Preise der ATI-Karten ein gutes Stück runter gehen.

In meinen Augen ist die Karte dennoch nur auf gleichem Niveau als die HD7970, sie schwächelt mir in Arma sowie in hohen Qualitätseinstellungen zu stark. Ich spiele in 1920x1200 8xAA und die Karte hat dort schon bei 1920x1080 8xAA nur noch einen Vorsprung von 7% (Der Vorsprung dürfte also bei der 1200er Auflösung noch geringer ausfallen...). Von den höheren Auflösungen brauchen wir gar nicht erst Anfangen zu sprechen. Eine High-End Karte darf einfach nicht in den Qualitätseinstellungen schwächeln für die sie eigentlich gebaut wurde.

So eine Karte kauft man nicht wenn man nur in 1650x1050er Auflösung, ohne Kantenglättung oder noch niedriger spielen möchte.

mfg
Seb89
 
Cey123 schrieb:
Nett, wie die Leute grade die 7970 mit dem Argument "Ja wenn man die 7970 aber übertaktet, dann..." schönreden wollen. Übertakten kann man die 680 ja genauso, da sie schon im Standardzustand weniger Strom und Spannung benötigt, vermutlich noch mehr.

Und neue Architektur heißt ja nicht bessere Architektur. Siehe Bulldozer.

nur mal so nebenbei, der bulldozer ist eine sehr gute und fortschrittliche architektur, jedohc kann es heute in games noch nicht richtig unterstützt werden. gehört aber nciht hier hin. die 680 ist aber anscheinend auch durch die max 195watt ( korrigiert mich wenn ich mich irre) im übertaktungspotenzial etwas eingeschrängt.
 
riDDi schrieb:
Man liest etwas von 2560 für den GK110 (+66%). Sprich auch 300W+, Dual-GPU Territorium.
Ständig heißt es "das ist nur ein Performance-Chip". Dabei ist das der ganz normale Lauf der Dinge. Die schnellste GPU haben ist schön, aber man kann das nur bis zu einem gewissen Punkt weiter treiben. Irgendwann lässt sich so ein Chip einfach nicht mehr auf eine für den Consumer-Markt angemessene Weise kühlen. Free Lunch is over, ab jetzt werden die Leistungszuwächse bei Grafikkarten nicht mehr so krass ausfallen wie bisher.

die Frage ist nicht ob, sondern wann. Und das wann ist entscheidend davon abhängig, wann es für Nvidia wirtschaftlich Sinn machen wird. Das Tapeout ist lang hinter sich, 2304 Shader und 512 Bit sind so gut wie sicher und auch nur logisch.

Stand heute wäre es Unsinn diese zu bringen, Stand August wird es vermutlich immer noch Unsinn sein.

Les dir das durch, das trifft es gut.

http://www.3dcenter.org/news/was-vom-nvidia-gk110-chip-zu-erwarten-ist

Zudem geht es nicht um die Leistungschritte wie sie ausfallen, diese fallen bisher in 28 nm recht "klein" aus da diese nicht die 500mm² und 300-350W erreicht haben. Fertigungstechnisch wäre das, da bin ich mir sicher, jetzt schon kein Problem. Nur ist es wirtschaftlich.

AMD ist nun am Zug. Nvdiia wird dann auf den GK110 wechseln, wenn AMD den GK104 (mit einem Singel Chip Design) hinter sich lässt.

So einfach ist das.

PiPaPa schrieb:
Beim Lesen einiger Kommentare kann ich echt nur schmunzeln....

Da heißt es dann
- ja GPGPU ist ja nicht so wichtig und würde eh keine Rolle spielen - bei der GTX 4xx/5xx Reihe wurde dann in jedem 2. Post CUDA gebracht :freak:


naja, ich glaube du steigerst dich etwas rein. Cude / GPGPU trifft sowohl für den GTX 580 als auch für den Tahiti zu. Beide fallen auf Grunde der Orientierung dahin gehend nen tick größer und ggf ineffizienter aus.

Ich für meinen Teil finde die GPGPU Leistung sogar sehr gut. Für den 25% kleineren Chip kann hier NV mithalten, was ich so gar nicht erwartet hätte. Durch die Wegrationalisierung des GPU Zeugs und Gamingausrichtung hätte ich mir eher GTX460-GTX570 Niveau vorstellen können.

Imho spielt es für die Gemeinde auf CB wirklich kaum von Bedeutung.

- 2GB VRAM reichen vollkommen aus, wer spielt denn schon über 1920x1080 - aber vorher immer wieder betonen wie großartig das Downsampling bei nvidia ist und mit Tools die BQ verbessern usw Jetzt wo der Karte der VRAM ausgeht ist es auch wieder nicht so wichtig :freak:

es gab immer ein paar die die HIGH END Karten wegen HQ Settings verteidigen mussten. Aber abgesehen davon reichen Stand heute auch 2GB bei diesen HQ Modi. Viel eher als die Speicher Menge limitiert wohl der Durchsatz.

Zudem 4 GB Karten ja bereits gelistet sind.

Du musst das schlicht aus Herstellersicht sehen. Nvidia wird schon allein wegen dem 256Bit SI + 2 GB Ram ne Latte mehr an der GTX 680 verdienen als Nvidia an ihrer HD7970. Die Karte ist einfach kosten nutzen optimierter. Natürlich fällt das in dieser Hinsicht zum Nachteil beim Kunden aus, der Stand heute aber so gut wie 0 ersichtlich ist.

- bla ist ja nicht Vollausbau und überhaupt, nur Nachfolger von der GTX 560 und nicht 570/580.....

Wie sich einige manche Dinge einfach schönreden und kaum gibt es Nachteile auf Seiten von nvidia wird es als nicht so wichtig abgetan. Herrlich. Und dabei besitze ich selber eine GTX 570 und frage mich ernsthaft was in den Köpfen mancher vorgeht.

siehe oben. Stand heute ist es ohne Frage Nvidias perfekt platziertes Topmodell. Etwa so teuer wie die HD7970, wirft aber weit mehr Gewinn / Karte ab. Nvidia ist am Drücker.

Was kann AMD machen, was werden sie vermutlich machen?

1. sie werden erstmal DualGPU bringen, zurück an die SPitze mit kleinen CHips, aber halt 2 davon.
2. vllt eine OC Karte mit ~250W und 1100 Mhz, sollte reichen für Platz 1.

Ob bis dahin sich Nvidia dazu genötigt fühlt den GK110 zu bringen, oder aber noch den GK104 noch weiter prügelt... das bleibt abzuwarten.

Ich denke der Kampf geht erstmal im Midrange weiter. Hier ist man mit der HD7870 gut aber zu teuer aufgestellt. Die Karte ist dank 256 Bit + 2 Gb Ram + kleinem DIE sicher die gewinnträchtigere für AMD.

Ich denke auch, dass der GkK10 erst dann kommt wenn AMD mit einem neuen TopModell namens HD8970 wieder vorlegt, auch wenn er bis dahin schon längst auf dem Markt sein könnte.


Edit:

es gibt immer beide Seiten, die AMD Jünger schimpfen auf das SI und auf die 2GB, die Nvidia Jünger geilen sich an 10% auf.

Ich verteidige CBs Fazit. Beide Karten sind gut, sehr ausgeglichen. Nvidia hat den innovativen Vorteil was sie dezent zur Stand heute interessanteren Karte macht... Punkt.
 
Zuletzt bearbeitet:
Ich finds spitze, wie sich hier alle die virtuellen Köpfe einschlagen! =D 10% Mehrleistung bemerkt kaum einer wirklich, genauso wie 5% Spromersparnis.
Lustig ist auch, wie verschiedene Reviews doch sehr unterschiedliche Ergebnisse streuen...
 
Wow, es gibt auch Spiele, wo die 7970 schneller ist. Schon mal etwas von "Durchschnitt" gehört, Seb89? ;-)

Aber halt immer schönreden mit wirklich grandiosen Argumenten...

Über 6pin-Stecker kann man btw. natürlich auch mehr als 75W ziehen, wenn man möchte.


Und nochmal, wer 500 Euro für eine Grafikkarte investiert und dann die Stromrechnung dafür nicht bezahlen kann oder will, das ist grotesk.
 
Zuletzt bearbeitet:
Kann PCIe 2.0 x16 die Karte eigentlich ausbremsen? Die 7970 zieht ja belegter Weise keinen nennenswerten Nutzen aus der größeren Bandbreite von 3.0 x16.
 
@ Seb89, du hast aber auch schon die anderen Benchs angesehen wo die GTX 680 um
11 FPS (Battlefield 3)
34 FPS (Skyrim)
36 FPS (Dirt 3)
schneller ist als die 7970?
Und das IN Qualiätätseinstellungen (1920x1080 4xAA, 16xAF) ? :D

Und das obwohl die GTX680 nur ein Performance und nicht wie die 7970 ein High End Chip ist. :lol:
 
Zuletzt bearbeitet:
Irgendwie wurde es still um nokia n97 mini, oder? ^^
wer muss sich jetzt bei wem entschuldigen und wer löscht seinen account? xD



ich bin wirklich froh dass die Katze aus dem Sack ist.
Meine GTX 260 fleht mich schon an endlich ersetzt zu werden :P

Jetzt nur noch ein paar Wochen warten bis die kleineren erschwinglichen karten raus kommen und dann wirds bei mir ne GTX 660 oder GTX 670 :)

AMD hätte ihre karten einfach billiger anbieten sollen, wenn das machbar gewesen wäre um schon mal einige mit neuen karten zu versorgen, die dann eher nicht mehr auf kepler geswitcht hätten (wie zB ich)
 
AMD hätte ihre karten einfach billiger anbieten sollen, wenn das machbar gewesen wäre um schon mal einige mit neuen karten zu versorgen, die dann eher nicht mehr auf kepler geswitcht hätten (wie zB ich)
Du kannst ziemlich sicher davon ausgehen, dass AMD sehr bald Preissenkungen durchführen wird. Für eine HD7970 zum Preis einer GTX680 gibt es keinen Markt. 80-100 Euro günstiger und sie wird interessant.
 
@Infect007
Ja das war ich, der sich bei ihm hätte entschuldigen müssen, glaube er ist meiner Wette nachgekommen und hat seinen Account gelöscht.... nicht!

@Tomahawk

Na mein lieber, was habe ich dir gesagt:

Deine ersten Hochrechnungen bzgl. der Effizienz à la "GK104 ist 50% effizienter als Tahiti " sind fürn Ars**!
Zumal Tahiti's Effizienz mit Overclocking steigt!
https://www.computerbase.de/forum/t...950-overclocking-undervolting-thread.1008559/

Für eine HD7970 zum Preis einer GTX680 gibt es keinen Markt
Ja bestimmt...
Ich würde bei gleichem Preis zu Tahiti greifen, da mehr OC Potenzial
 
Zuletzt bearbeitet:
Für mich ist die AMD HD 7970 und die Nvidia GTX 680 gleich gut. Das schöne bei den beiden ist, dass die eine die Vorteile hat und die andere ebene andere Vorteile. So kann man sich das optimale für sich aussuchen.

Wenn ich die Kohle hätte, würde ich beide kaufen, eine für meinen Lan PC und eine für mein Arbeits PC.
 
Zurück
Oben