Test GeForce GTX 680 im Test: Mit Kepler ist Nvidia wieder die Nummer 1

@fidschi: richtig. nur mal so als denkanstoß: die entwicklung der 8800gtx hat 8 jahre gedauert. die 2900xt kam ein halbes jahr später und war dennoch nicht schneller. aber die entwicklung hatte auch nicht zwangsläufig 8,5 jahre gedauert...

@moshkopp:
GTX 680 = Tolle Karte
Radeon 7970 = schlecht optimiert
so isses richtig:
Radeon 7970 = tolle karte
GTX680 = noch ein bisschen besser
 
Zuletzt bearbeitet:
SavageSkull schrieb:
Was im Test wieder gänzlich vergessen wurde, ist ein Praxistest mit HD Audio über HDMI, bzw überhaupt das Audio über HDMI. Das bei meiner 470 (bzw allen GF100 Karten) ist unter aller Kanone und kann einer X-Fi (Toslink) nicht das Wasser reichen. Anscheinend wird hier die Bitrate beim Ton gekürzt.

Mein Wunschtraum, wäre, dass Creative ihren neuen SOC auf Grafikkarten verbaut und man zum Beispiel noch eine Blende mit Klinke/Toslink beilegt.

o.O Biste dir da sicher? Das sollte eig ne 1:1 Stream Copy sein, kann mir nicht vorstellen dass Nvidia hier den Stream live komprimiert und wieder encodiert ^^

Wenn am Ausgang DTS / Dolby drüber geht sollte das 1.1 Quellmaterial sein genau wie beim X-Fi oder beim billigen OnBoard Toslink.

Ich hab auch ne X-Fi und es schenkt sich 0 ob ich über OnBoard SPDIF oder Xfi Coax an den Verstärker geh.

@Aza*

aber es ist doch logisch, dass derjenige, der das Konkurrenzprodukt studieren konnte und sein eigenes Stück dann anpassen durfte, klar im Vorteil ist. Und drei Monat bei einer Halbwertszeit eines Produktes von ca. 6 Monaten ist doch schon ganz ordentlich.

nein nein... also studieren und anpassen kannst du vergessen, da wurde nichts am Chip verändern. Das einzige was man angepasst hat ist der Takt und somit die Performance.

Der Fällt allen Anschein nach etwas höher aus als angedacht, vermute ich, auch wenn das BoardLayout offensichtlich genau das Gegenteil sagt.

Man wollte die GTX 680 genau da platzieren wo sie jetzt ist.
 
Lübke schrieb:
@fidschi: richtig. nur mal so als denkanstoß: die entwicklung der 8800gtx hat 8 jahre gedauert. die 2900xt kam ein halbes jahr später und war dennoch nicht schneller. aber die entwicklung hatte auch nicht zwangsläufig 8,5 jahre gedauert...

@moshkopp:
so isses richtig:
Radeon 7970 = tolle karte
GTX680 = noch ein bisschen besser

Kann ich alles genau so unterschreiben, absulot richtig! :)
 
Die Grafikkarte ist der Hammer!
Wenn sich der Preis bei EUR 450 einpendelt, müsste die AMD HD7970 recht schnell auf 350 - 380 Euro fallen.
Grund: Die 7970 ist ca. 10% langsamer - und verbraucht 5% mehr Energie...
Was heißt das für mich? In zwei bis drei Monaten gibt's eine gebrauchte HD7970 um 320 Euro =)

Und zum Fazit: Warum um Gottes Himmelswillen steht da beim negativen
"Hohe Leistungsaufnahme unter Last" ?!?!?!
Die Leistungsaufnahme ist 3% niedriger als bei der GTX 570 und die Leistung ist um 55% (!) höher!!
Habt ihr wohl zwanghaft noch etwas negatives gesucht, denn es kann ja nicht sein dass eine Karte einfach super ist.
... dass die Karte keine Empfehlung bekommen hat verstehe ich auch absolut nicht... =(
 
Manche Leute hier haben Preisvorstellungen... :rolleyes:

da merkt man dann wieder, dass die Leute keinen Plan haben, was solche aberwitzigen Preisänderungen für Auswirkungen auf das eigene Portfolio und die Verfügbarkeit der Chips haben.

Mittelfristig wird das sicher passieren, aber sicher nicht sofort...

Der Preis der HD7970 wird wohl erst signifikant runter gehen, wenn die 4GB-Versionen käuflich zu erwerben und auch lieferbar sind. Bis dahin gibt es seitens AMD eigentlich gar keinen Grund für größere Anpassungen.
 
Lübke schrieb:
@fidschi: richtig. nur mal so als denkanstoß: die entwicklung der 8800gtx hat 8 jahre gedauert. die 2900xt kam ein halbes jahr später und war dennoch nicht schneller. aber die entwicklung hatte auch nicht zwangsläufig 8,5 jahre gedauert...

@moshkopp:
so isses richtig:
Radeon 7970 = tolle karte
GTX680 = noch ein bisschen besser

Na ich weis auch nicht, wo soll die GTX 680 besser sein !? Also wirklich davon ziehen tut sie einer GTX 580 nicht bei Battlefield 3 und gegen eine 7970 kommt Sie auch nicht an !

Auflösung - Battlefield 3
GeForce GTX 580 (GF110):
1024x768
100,0%
1280x1024
77,5%
1680x1050
62,3%
1920x1080
55,2%
2048x1536
42,8%
2560x1600
34,2%

GeForce GTX 680 (GK104):
1024x768
100,0%
1280x1024
80,9%
1680x1050
65,2%
1920x1080
58,3%
2048x1536
45,9%
2560x1600
36,0%

Radeon HD 7970 (Tahiti):
1024x768
100,0%
1280x1024
86,3%
1680x1050
73,0%
1920x1080
67,0%
2048x1536
56,0%
2560x1600
46,0%

Angaben in Prozent

Auffällig ist eine Schwäche der GeForce GTX 680 bei Auflösungen, die höher als 1920x1080 sind. Bereits die GeForce GTX 580 bricht in diesem Szenario stark ein und bei der GeForce GTX 680 sieht es identisch aus. Die Radeon HD 7970 verhält sich in den hohen Qualitätseinstellungen dagegen deutlich besser.

So die Aussage bei dem Test !! ;)
 
Zuletzt bearbeitet:
"Hohe Leistungsaufnahme und Lautstärke unter Last"

Wenn man bedenkt das es zur Zeit die schnellste Single Gpu ist, würde ich das nicht als negativ ansehen
 
wenn der Postbote 2mal klingelt... :)
macht jetzt schon ordentlich Spaß das Teil!
 

Anhänge

  • IMG_0005[1].jpg
    IMG_0005[1].jpg
    305,7 KB · Aufrufe: 450
@lottepappe

das ist schon richtig so. Man könnte nun Munkeln, dass die HD7970 mehr Reserven für die Zukunft hat bei sehr auslastenden Szenarien (vor allem bei VRam). Beim der Skalierung mit der Auflösung trägt das breitere Si und die 3 GB Ram ihren Teil bei.

Nichts desto Trotz ist Stand heute die GTX680 leicht vorne (bei entsprechenden Heavy Spieltiteln mag sich das verschieben) - und / aber das "heute" zählt - zudem der große Feature Bonus den ich wichtiger finde als +- Spiele Leistung.

Eventuell rockt die AMD Karte bei der UE4 - wenn diese stark auf Texturen und Ramverbrauch anspringt. Zur Zeit brauchen aber wenige, auch aktuelle Titel wie Allan Wake oder Mass Effekt 3 die enorme Power, hier hat man mit der GTX 680 die Option richtig dick Saft zu sparen über den Limiter, gleichzeitig aber auch genug Reserven.

Ich erwarte wenig Spieletitel auf absehbare Zeit, bei denen die GTX680 zur HD7970 massiv verlieren könnte. Für DualGPU / Eyefinity / TrippleHead halte ich sogar die AMD Karte für meist die bessere Wahl (auch wenn die DP Pflicht hier suckt).

Wer sich aber einfach eine innovative starke Karte für Full HD sucht, ist mit der GTX 680 besser bedient. Zu diesem Fazit kommt auch CB, vollkommen zurecht, da dies auf die Mehrheit zutreffen dürfte und MultiGPU / TrippleHead Gaming eine Minderheit ist.
 
Zuletzt bearbeitet:
eLw00d schrieb:
Sorry, aber das sieht wohl jeder anders.

Ich spiele Battlefield mit fast allem auf "high" und es macht zehn mal mehr Spaß als bei schmaler Sicht nen Grashalm mehr zu sehen.
Halt mitten drin statt nur dabei.

Natürlich spielt niemand mit "ultra" settings und 5870x1080. Aber kleinere Triplehead-Auflösungen mit nicht ganz maximalen Grafikeinstellungen laufen auch mit einer Karte flüssig und machen wesentlich mehr Spaß als der 16:9 Kerkerausblick.

Und genau das Gleiche habe ich auch gesagt. Lies doch bitte noch mal, was ich geschrieben habe. Wir sind da doch einer Meinung.

Dann sollen sie doch bitte den Test mit "High-Settings" und Triple-HD fahren. Eben mit einem praxisnahen Szenario.
Vielleicht kommt da ein ähnliches Ergebnis raus, vielleicht auch nicht.
 
Da ist also endlich Nvidias GTX 680.

Bis zu 10% schneller. Aber nur in den Auflösungen, fuer die ich eine solche Karte eben nicht kaufe.
Schauen wir uns hingegen die Bereiche an wofuer man 1 o. 2 solche Karten kauft, wie das Nutzen von Downsampling oder das Betreiben von 2 o. 3 Monitoren, bricht die Karte ein und liegt auf 7970 Niveau.
Das ist nicht schlecht, aber nach Nvidias Fuelle an "Marketingmassnahmen" hat man doch einiges mehr erwartet.

Ein grosser Negativpunkt ist, das Nvidia bei SSAA, im Gegensatz zu AMD, weiterhin keine automatische LOD Anpassung fuer DX 10 + 11 bietet, was die Karte fuer Leute die auf hohe Bildqualitaet stehen disqualifiziert.

Positiv ist zu werten, das es Nvidia endlich geschafft hat, einen Chip zu designen, der nicht durch "nahezu" grenzenlosen Energiehunger negativ auffaellt. Hier hat Nvidia ganze Arbeit geleistet.


Nun gut, die Karte ist da. Und fuer uns Verbraucher wird nun wohl der Preis in dieser Leistungsklasse sinken. Aber sonst?
Alles in allem ist diese Karte eine riesige Enttaeuschung!
 
AMD brauch nur eine HD 7970 oder HD 7980 Gigahertz + Edition bringen.
Dann wars das mit der Singlekarten Krone von Nvidia. Wenn sie schlau sind passiert das in den nächsten 2 Wochen. Dann wars ne kurze Kronenzeit.:D
 
@ Great Evil
also von einer riesigen Enttäuschung zu reden, find ich einfach falsch!

Wer in 1080 p spielt, nicht übertakten möchte und einfach ne richtig flotte Karte will. Der findet nichts besseres als ne GTX 680.

Trotzdem steckt in der 7970 viel mehr Potential als es den Anschein hat.
 
joa, und ich hoffe zudem dass AMD mit einer stärkeren Karte kontert, einer starken OC Karte. Ich bezweifle es aber. Dafür gibts schon genug Boardpartner.

Das ist schade, denn so steht NV nicht wirklich unter Druck.

Ich denke den großen Bruder GK110 wird man erst zur HD89XX Serie sehen, oder kurz davor.

Edit:

AMD wird die Füße still halten und nicht den Preis anpassen. Genauso wenig wie NV. Die Situation jetzt ist ausgeglichen, das kommt beiden ganz recht.
 
Zuletzt bearbeitet:
GreatEvil schrieb:
Ein grosser Negativpunkt ist, das Nvidia bei SSAA, im Gegensatz zu AMD, weiterhin keine automatische LOD Anpassung fuer DX 10 + 11 bietet, was die Karte fuer Leute die auf hohe Bildqualitaet stehen disqualifiziert.

abwarten und Tee trinken :D Der große "Boom" kommt noch mit DX12! Wer jetzt eine gute Karte braucht kann zwischen AMD und Nvidia entscheiden, beide Karten sind gut.
 
Motkachler schrieb:
Hier gibts nen SLI Test der 680
Was für ne Karte für Multimoni bei Batlefield3 die bessere ist wenn die treiber funzen sieht man hier deutlich.
http://nl.hardware.info/reviews/2641/nvidia-geforce-gtx-680-quad-sli-review-english-version

Damit kann man schon mehr anfangen.

GTX 680 schneller, auch als SLI vs CF in Full HD, allerdings nicht mehr bei Triple HD.

Und Triple bzw. Quad SLI skaliert bei Single-monitor Betrieb so gut wie gar nicht, bei Triple HD nur wenig. Mehrfach CF skaliert hingegen noch sehr gut.

Da sind die Grenzen der 3 GB VRAM get GTX 680 dann sehr deutlich sichtbar.
 
HamHeRo schrieb:
Und genau das Gleiche habe ich auch gesagt. Lies doch bitte noch mal, was ich geschrieben habe. Wir sind da doch einer Meinung.

Dann sollen sie doch bitte den Test mit "High-Settings" und Triple-HD fahren. Eben mit einem praxisnahen Szenario.
Vielleicht kommt da ein ähnliches Ergebnis raus, vielleicht auch nicht.

Hoppla, hast Recht. ^^
War gestern dann doch etwas zu spät...

Praxisnähere Einstellungen beim Test wären wünschenswert, ja.
So muss man einfach hoffen, dass sich die Leistungsdifferenzen genauso auch in etwas niedrigeren Einstellungen zeigen.
 
Krautmaster schrieb:
Vollzitat entfernt

Ja richtig Interessant wird es dann eben wenn der vollwertigere Chip kommt. Mir gefällt, dass der Stromverbrauch ordentlich für diese Leistung ausfällt und selbst eine 7970er dies nicht besser kann.. Aber trotzdem habe ich irgendwie mehr erwartet. Also war für Nvidia die GTX 580 schon das Beste und konnten eigentlich nur andere Schwächen mit dem Nachfolger ausbessern, wie eben der Stromverbrauch usw. ! Und AMD konnte bis zum erscheinen der 79XX keine Karten als Gegenpart zur GTX 580 bieten und hatte dann eben ordentlich Nachgezogen.

Also warte ich doch noch die GTX 67X und 66X ab und dann werde ich entscheiden ob es wieder ne Nvidia wird oder nicht.. Und für den Geldbeutel tut das Warten ja auch gut ;)
 
Zuletzt bearbeitet von einem Moderator:
Krautmaster schrieb:
o.O Biste dir da sicher? Das sollte eig ne 1:1 Stream Copy sein, kann mir nicht vorstellen dass Nvidia hier den Stream live komprimiert und wieder encodiert ^^

Wenn am Ausgang DTS / Dolby drüber geht sollte das 1.1 Quellmaterial sein genau wie beim X-Fi oder beim billigen OnBoard Toslink.

Ich hab auch ne X-Fi und es schenkt sich 0 ob ich über OnBoard SPDIF oder Xfi Coax an den Verstärker geh.
Vorweg, bei meiner X-Fi sind diese Verschlimmbesserer wie Surround Encoder und 24Bit Quatsch ausgeschaltet.

Wenn die Quelle ein Dolby Signal ist und du am Ausgang auch Dolby ausgibst wird es keinen Unterschied geben. Nur ist das "nur" bei DVDs der Fall.
Bei Spielen wird (wenn sie überhaupt Dolby anbieten) das Signal erst codiert und da ist imho der Treiber der Soundkarte entscheident, was da wie passiert.

Bei meinem Blindtest habe ich den Media Player Classic genommen und eine 320bit/s MP3 und einmal von einem Freund über den HDMI Ausgang der 470 ausgeben lassen und einmal über das Toslink der X-Fi der Unterschied ist ziemlich deutlich.
Bei dem Metal Lied kann ich bei der X-Fi ganz klar die Tripple Base erkennen, während bei der Graka das alles ein verschwommenes Etwas ist (ähnlich wie wenn man den 24bit Crystaliser bei der X-Fi einschaltet nur noch schlimmer)

Ich weiß allerdings dass die GF104er Karten einen anderen Soundchip haben (die können zum Beispiel die BluRay HD Formate, die GF100er Karten nicht).
Leider habe ich nur diese eine Grafikkarte und kann daher nur für die GF100er Karten sprechen.

Ich hätte daher auch gerne mal etwas darüber in diesem Test gelesen.
Genauso findet man ja noch keinen Test für die Creative Recon3D. Soundtechnisch geht es am PC seit Windows Vista nur noch bergab...
 
Zurück
Oben