Test GeForce GTX 680 im Test: Mit Kepler ist Nvidia wieder die Nummer 1

Die meisten hier scheinen echt eines zu vergessen:
Die Karte wurde gute 3-4 Monate länger entwickelt. Das ist ein riesiger Zeitraum.

Daher ist ein besseres Produkt einfach nur zu erwarten gewesen.
Aber der Abstand ist beileibe nicht so groß, wie viele hier tun.
 
wohl eher 2-3 Monate und das ist in der Branche kaum der Rede Wert, zumal der 28nm Prozess bisher nicht ansatzweise die Nachfrage bedienen kann.

Es war schon immer AMDs Art Erster beim neuen Prozess zu sein.
 
Dann sagen wir 3.
Aber dass das nicht der Rede wert ist, ist mal schön in die eigene Tasche gelogen ;)

War es nicht NVidia die innerhalb von 6 Monate von der gtx 480 auf die 580 umgestiegen sind??
In der Zeit hat sich bei den beiden Karten viel getan.

Jetzt hatten Sie hier 3 Monate länger Zeit. Sorry, aber in 3 Monaten tut sich viel.
 
@Kikili
Also was welcher ehrsteller verwendet ist irrelevant wichtig ist was hinten rauskommt und da is die 7970 derzeit nachdem man die 680 sogar um 435 bekommt (oder bekahm?) das klar schlechtere produkt ausser für die 1% der freaks.
Und für die gibts dann noch ne 4gb variante.Ob die Preislich mit der 7970 mithalten kann ist eine andere Sache aber wer top Perforamnce will wird auch um diese nicht herumkommen.

Man kann wohl jede nv oder amd schönreden.Sogar bei der 480gtx fermi könnte ich als pro bringen das sie mehr vram hat wie die 5870 und von daher die ganzen 5er schon ein absoluter fail seitens amd waren :D .

WAs gewesen sein hätte können hat man ja an der 460 GTX gesehen aber fakt war die 480 war so wie sie war ein fail für Gamer ausser die negativpunkte waren einem egal.
Und mal ehrlich wäre ich preislich in der liga wär mir das alles so egal den dann hätte man ne wakü und das einzig interessante ist die performance.

Fakt is aber auch das die 78xx kein gpgpu haben und hier müssen sich die kleinen ableger von kepler erst noch beweisen denke ich !
Könnte fast wetten, das hier die Amds leicht vorne liegen werden und die ganzen amdler sich dann wieder an 10% mehr aufgeilen

Ein Teufelskreis meine lieben Talkfreunde
 
Zuletzt bearbeitet:
naja es ist etwas anderes ob man in einem Prozess umsteigt, der länger aktuell ist und mehr als die benötigten Kapazitäten liefern kann, oder jetzt, zu Beginn der 28nm.

Die GTX480 -> GTX 580 war schlicht ein kleines Redesign und auch der Prozess wurde besser, was erst ermöglichte den Vollausbau zu bringen. Der GF100 musste ja beschnitten werden damit er binnen der Specs bleibt ;)

Keiner weiß wann Nvidia mit dem Chip fertig war. Ausgehend von den Features nehme ich an, dass der Chip sicher ähnlich früh fertig war wie der Tahiti, allerdings fallen einiges an Treiberarbeit bei 4 Display Support, Turbo Boost, Power Limiter an, auch das Bios musste komplett umgestrickt werden.

Da es sich zudem um ein 500€ High End Modell mit geringen Verkaufszahlen handelt, ist das weniger kritisch. Wichtiger ist, dass die Mittelklasse Modelle, ~ HD7850 Niveau, zeitnahe folgen. Und diese ist bei AMD auch erst seit kurzem am Start.

Auch im wichtigen Mobilen Umfeld, Notebooks. Wo sind da die 28nm AMD Karten?
Der Markt bei Notebooks ist derweil größer als bei den Desktop PCs. Von Nvidia gibt es erste Kepler die mobil aufschlagen... bei AMD vermiss ich das noch.
 
Fazit für mich:

Pro:
Leistungsanpassung durch FPS Limiter/Power Limiter
Display Port

Contra:
SGSSAA geht immer noch nicht flüssig
LOD Anpassung fehlt immer noch
Gewinnsteigerung ist kaum der Rede wert
Stromaufnahme im Multimonitor Betrieb

Der Preis steht erstmal außen vor, da der sich eh immer erstmal entwickelt. Man kann nur hoffen, dass neuere Treiber noch die LOD Anpassung mitbringen.

Was im Test wieder gänzlich vergessen wurde, ist ein Praxistest mit HD Audio über HDMI, bzw überhaupt das Audio über HDMI. Das bei meiner 470 (bzw allen GF100 Karten) ist unter aller Kanone und kann einer X-Fi (Toslink) nicht das Wasser reichen. Anscheinend wird hier die Bitrate beim Ton gekürzt.

Mein Wunschtraum, wäre, dass Creative ihren neuen SOC auf Grafikkarten verbaut und man zum Beispiel noch eine Blende mit Klinke/Toslink beilegt.
 
Zuletzt bearbeitet:
Auf die GK110 brauch man wohl nicht warten da es eine dual GPU Karte wird die richtige High end karte kommt 2013 als GK112 laut NV roadmap

roadmapw.png


war also doch ne gute entscheidung die 680 zu ordern :)
 
@ krautmaster

aber es ist doch logisch, dass derjenige, der das Konkurrenzprodukt studieren konnte und sein eigenes Stück dann anpassen durfte, klar im Vorteil ist. Und drei Monat bei einer Halbwertszeit eines Produktes von ca. 6 Monaten ist doch schon ganz ordentlich.


Edith:
die Graphik über mir ist ja wohl tierisch alt oder einfach nur falsch, da für GK104 von einem 384Bit-Speicher ausgegangen wird...
 
@consolefanatic
Die Daten des GK104 stimmen schon mal nicht auf dem Bild. Warum glaubst Du dann, dass es verlässlich ist?
Alles nur Spekulatius.........
 
Eine kurze Frage an die Nvidia Gemeinde: Ich nutze seit Jahren eine ATI Karte, das liegt aber nicht daran das ich ein Fanboy bin, sondern das ATI seit Jahren Soundchips auf ihren Karten verbaut. Ich surfe zuhause an einem normalen Monitor und zocke an einem LCD. Der LCD ist per HDMI an meinen PC angeschlossen. Ich finde es immer sehr angenehm, das ich einfach im Treiber vom Monitor auf den LCD umschalte und das der PC dann das Audiosignal automatisch auf den HDMI Ausgang stellt. Geht sowas auch bei einer GTX680 ? Wenn ja wie (auch im Treiber) ? Ich habe die Suche und Google schon mehrfach benutzt, aber noch keine Richtige Antwort bekommen...


Gruss Stephan
 
kann mir einer sagen wo ich mit der GTX470 stehe? in etwa HD 6870 Leistung? Danke
 
Nach Seitenlangen Diskusionen zum Thema Effizienz versuch ich es mal zusammenzufassen:

Wer max. Leistung in Spielen mit hoher Effizienz sucht kommt um GK104 nicht herum.
Wer eine effiziente Karte sucht und nicht die maximale Leistung in Spielen braucht kommt um Pitcairn nicht herum.
Wer nebenbei noch Wert auf GPGPU Leistung legt kommt um Tahiti nicht rum.

Je nachdem was man sucht wird man bei Nvidia oder AMD fündig. Die „Eierlegende Wollmilchsau“ hat keine der Firmen!

Zum Thema "Vollausbau" aka GK110:

Natürlich wird es GK110 geben, alleine für die Tesla-Sparte ist das Ding wichtig. Und aufgrund einer DIE-Size von schätzungsweise > 500 mm² wird man auch die Leistungskrone in Spielen haben, aber GK110 wird bei Performance/Watt (in Spielen) schlechter abschneiden als GK104 und schätzungsweise auch schlechter als Tahiti. Möglicherweise wird es GK110 auch nur in Form von Teslas geben. Preislich wird es ansonsten verdammt teuer. Man bedenke, dass der 28 nm Prozess deutlich teurer ist als der 40 nm Prozess.
 
@Merlin

ups hast ja recht, ist mir garnicht aufgefallen.
dann wohl doch FAKE
 
A4-Freund schrieb:
Geht sowas auch bei einer GTX680 ? Wenn ja wie (auch im Treiber) ? Ich habe die Suche und Google schon mehrfach benutzt, aber noch keine Richtige Antwort bekommen...
Leider fehlt das im Test gänzlich.
Bei der 8000er/9000er Serie gab es Modelle mit HDMI, die den SPDIF durchgeschleift hatten. Einige (nicht alle) 200er Modelle hatten ähnlich wie ATI/AMD einen Soundchip onboard und seitdem funktioniert das auch genauso wie bei ATI/AMD. (Notebooks hatten diese Lösung schon früher).
Bei der 465/470/480 gabs allerdings einen schlechteren Soundchip als später bei den neueren Karten. Wie es bei der 680 bestellt ist weiß allerdings nochniemand, da anscheinend niemand das für Testenswert hält.
 
@SavageSkull
Danke für die Info. Dann habe ich im Test ja doch nichts überlesen. Leider findet man nirgens eine Info darüber.


Gruss Stephan
 
@wintel
siehste, machste wieder! Kommst mit dem schlechtesten Beispiel. Guck in meine Sig. schau mal mein Equipment an: vor BF3 hats für alles gereicht, in FullHD auf nem 42"er. (Die GTX560woti sollte nur ne übergangslösung sein,tuts aber trotz des mittlerweile schwachen E8400 ziemlich gut) 1920er Auflösung. Da kommen schon andere Ergebnisse. Fette GPGPU-Leistung bietet NVDIA reichlich, die von ATI brauch ich nicht, weil ich nicht prof. mit der Kiste arbeite. Mir kommts auf die Bildqualität an, und da ist halt NV immernoch deutlich besser, egal wieviel fps.
Ja, ich hab die aktuellen Vergleiche der Filter gesehen. ATI flimmer immernoch, wenngleich es besser geworden ist. Und ich geb nicht doppelt soviel aus wie fürn normalen 42" um die dann in ne flimmerkiste zu verwandeln! Nö,nö
TROTZDEM wäre ne HD79xx für mich in Frage gekommen, wenn, die Kepler im IDLE deutlich mehr verbrauchen würden, tun se aber nicht :D
Was nämlich noch wichtiger ist: Die Latstärke, ich will vom PC nix hören, wenn ich nicht zocke.
Jetzt wart' ich noch bis die Preise vernünfig werden und IVY rauskommt, dann wird aufgerüstet!
In meinen Schlafzimmer-HTPC kommt übrigens Trinity, nicht dass man mir noch unterstellt ich sei ein Fanboy, nur weil ich für mich die logisch richtige Wahl treffe!
 
Zuletzt bearbeitet:
@Plastikman: Das ist Nonsens! Woher willst du wissen wie lange NVidia effetiv daran entwickelt hat? Bist du Entwicklungsingeneur bei NVidia? Hast du Insiderinformationen? Ich könnte jetzt auch behaupten die letzte NVidia Generation ist nach der letzten Kartengeneration von AMD auf den Markt gekommen, was also die effektive Entwicklungszeit beider Parteien in etwa wieder gleichlang macht. Was zählt ist das Product und der Zeitpunkt. Fan hin oder her, Fakt ist wie es hier im Test zu lesen ist. Das hier ist kein Rennen, die Karten sind nun so wie sie sind und egal wer welche Karte früher oder später gebracht hat, die Fakten sind jetzt so wie sie sind.
 
Zuletzt bearbeitet:
GTX 680 = Tolle Karte
Radeon 7970 = schlecht optimiert

Trotzdem bereue ich den Kauf meiner Karte nicht, da steckt so verdammt viel Optimierungspotential drin. Meine läuft aktuell bei 1050/1500 @ 1,068 Volt. Hätte man die 7970 direkt mit 1000 Mhz Chiptakt rausgebracht, wäre der Abstand jetzt nochmals 5-10 % kleiner und somit könnte man quasi von einem Unentschieden reden.

Hoffe zusätzlich noch auf einige Treiberoptimierungen seitens AMD, immerhin ein ganz neuer Fertigungsprozess, welcher sicherlich noch nicht 100% optimal läuft.
 
Zurück
Oben