News Erster Test der Nvidia GeForce GTX 680

bruteforce9860 schrieb:
Dieses TXAA im direkten Vergleich zu 8xMSAA sieht ja mal genial aus.

Fragt sich nur wie es später in Spielen aussieht... - so klar definierte Linien gibt es nicht so oft und es könnte auch ein Weichzeichner sein.
 
wenn der Verbrauch der GTX680 wirklich nur bei 190Watt liegt, deutet das sehr darauf hin, dass Nvidia noch was Stärkeres in den Startlöchern hat

Und warum sollte das daraufhin deuten? :watt:
 
FatEric schrieb:
Mehr als 225 Watt kann die karte gar nicht ziehen ....

Sagt wer? Die Spezifikationen besagen zwar, dass man mit 2x 6 Pin und PCIe nur 225W zur Verfügung hat, wenn die Karte allerdings mehr anfordert wird sie auch mehr bekommen. Ob allerdings die Elektronik auf dem Board die Sache stabil mitmacht oder nicht, steht wiederum in den Sternen ;)
 
gino2780 schrieb:
40% bessere Performance? Beweise bitte...

Bei seiner Aussage geht es um Performance/Watt. Hättest du den ganzen Thread gelesen (wie ich, was ich eingentlich nicht vor hatte und besser schlafen gegangen wäre), hättest du auch seine Rechnung gesehen. Wobei diese ja nicht unbedingt als dingfest herangezogen werden kann. Aber sie zeigt durchaus Tendenzen.
 
Also ich würde wenn ich vor einer Kaufentscheidung stehen würde auf jeden fall warten was die ersten anständigen Deutschen Tests sagen.
 
Netrunner schrieb:
Also ich würde wenn ich vor einer Kaufentscheidung stehen würde auf jeden fall warten was die ersten anständigen Deutschen Tests sagen.

Ja, den DEUTSCHEN kann man uneingeschränkt vertrauen...

Oh Mann :rolleyes:
 
Antimon schrieb:
Sagt wer? Die Spezifikationen besagen zwar, dass man mit 2x 6 Pin und PCIe nur 225W zur Verfügung hat, wenn die Karte allerdings mehr anfordert wird sie auch mehr bekommen. Ob allerdings die Elektronik auf dem Board die Sache stabil mitmacht oder nicht, steht wiederum in den Sternen ;)

Und Du glaubst Hersteller verkaufen eine Karte die nur vielleicht auf den Systemen der Kunden läuft ? Sorry, aber Deine Theorie ist ziemlich unwahrscheinlich...genau dafür werden TDPs und Spezifikationen nämlich definiert...damit sich alle darauf verlassen können das es zusammenpasst. Ob die Karte wirklich nur 190W verbraucht ist bisher noch nicht sicher, vielleicht sind es auch 200W...aber bei 225W ist im Alltagsbetrieb Schluss, darauf kannst Du Dich schon verlassen.
Auch wenn es technisch möglich ist mehr Strom zu ziehen kenne ich keine Karte die das in den vom Hersteller definierten Alltagssituationen schafft. Deswegen wurde ja auch bei der 500er Serie ein Limiter eingebaut speziell für Furmark&Co, damit die Leistungsaufnahme nicht die TDP übersteigt, weil die Karte dafür nicht ausgelegt ist.

Desweiteren hieß es das die Karte sich bei Erreichen eines bestimmten Verbrauchswert automatisch hoch- oder runtertaktet...auch das spricht gegen eine Überschreitung. Solange nicht ihrendwelche OCler mit Lötarbeiten und Voltmods entsprechende Barrieren aufheben oder man extremes OC betreibt wird der Verbrauch sich innerhalb der definierten Grenzen bewegen, da bin ich sicher.
 
Zuletzt bearbeitet:
FatEric schrieb:
Dein Beitrag ist ja mal echt Informativ... :rolleyes:
Mehr als 225 Watt kann die karte gar nicht ziehen und VSync ist der letzte Rotz in Shootern. Da hätte ich aber mal lieber mikroruckler als ein Inputlag. Und wozu SLI? Wenn eine GTX680 jetzt schon alle auf dem Markt erhältlichen Spiele problemlos darstellt.


Die Karte kann mehr als das ziehen. Eine GTX480 rennt im Furmark auch fröhlich über die 300 Watt... :evillol:
 
R3sist_the_NW0 schrieb:
Ja, den DEUTSCHEN kann man uneingeschränkt vertrauen...

Oh Mann :rolleyes:

Ich kann mich nicht erinnern was davon gesagt zu haben das man den Deutschen Tests uneingeschränkt vertrauen kann oder ?
 
Ich stell mir gerade vor das dieser Leak voll daneben liegt und dann am Ende der NDA wird die Wahrheit ans Licht kommen,danach werden die Test seiten zu recht betonen das man keinem Leak vor der NDA richtig glauben schenken darf.Das wäre schon Lustig :lol:

PS:Persönliches Wunschdenken,nicht Ernst nehmen...
 
Es kann sein, dass die Werte falsch sind. Das Board z.B. hat nur 4 Phasen. Es anderes Bild zeigt jedoch 5 Phasen. Dazu sind die Bilder vom Tech-Day abfotografiert, statt aus dem Foliendeck entnommen.

Imo handelt es sich hier wohl ein ein Pre-Produktion-Board mit gedrosselter Taktung.
 
Erstaunlich, dass nun wieder nVidia den (nach aktuellem Stand wahrscheinlich) weniger komplexen und somit günstigeren Chip hat. Und es wurde auch langsam mal Zeit, dass wieder eine neue Topkarte mit weniger als 200 W TDP auf den Markt kommt - hoffentlich entwickelt sich daraus ein allgemeiner Trend.
 
bensen schrieb:
Sorry aber das ist doch vollkommen übertrieben. 2 GB reichen momentan mehr als Dicke und werden so schnell auch nicht ausgehen.

Es gibt ja heute bereits vereinzelt Titel, die knapp 2,5 GB V-Ram nutzen, vorausgesetzt er ist auf der Karte vorhanden. Für solche Fälle ist die Karte also genau genommen jetzt schon nicht mehr ausreichend! (ganz ähnlich wie damals eine 8800GT oder 9800GTX bereits bei der Markteinführung an ihre Grenzen stiessen) Es existiert hier im Forum ja auch ein sehr guter Topic von HisN zu dem Thema. Vielleicht sollte man da mal reinschauen... ;)

https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/page-77

bensen schrieb:
Da gibts dann ein paar Modelle von den Herstellern die mit 4 GB kommen. Können sich ja diejenigen kaufen die es brauchen.

Wenn so ein 2GB-Speicherkastrat bereits mit saftigen 500-600 € zu Buche schlagen soll, was wird dann wohl erst ein Sondermodell mit 4GB kosten? Wenn man sich die entsprechenden Modelle der GTX 580 im Vergleich anschaut, dann kann man sich das allerdings schon denken...

Für 500-600 € kann man eine ausreichende Speichermenge sicherlich schon beim "Standardmodell" erwarten (ebenso übrigens wie einen hochwertigen, leisen und effizienten Lüfter!)

bensen schrieb:
Sicher sollten Grafikkarten nicht zu knapp am Limit gebaut werden, wie damals ne 9800GTX mit 512MB oder die alte 8800GTS als 320 MB Version. Aber jetzt hier schon über den Speicher zu lamentieren halt ich für übertrieben.

Genauso wie die von dir erwähnten Karten damals zu wenige V-Ram hatten, so haben die heutigen Karten mit nur 1,5 GB (noch aktuelle GTX 580 Standardmodelle) oder 2GB (kommende GTX 680 als Standardmodell) auch wieder zu wenig, denn dass die Zeit nicht stillsteht und die Spiele heute sehr viel mehr Speicher einfordern, als noch vor 2-3 Jahren, ist dir hoffentlich bewusst? (siehe oben)

Für Leute, die Auflösungen jenseits der 1920x nutzen, ist das sogar noch wichtiger... (ebenso wie die Frage nach der Breite des Speicherinterfaces, denn ob diese Karte hier mit ihren 256bit in 2560x den Bock abschiessen kann, muss sich erst noch zeigen. <- glaube ich momentan nicht und ist vermutlich von Nvidia auch nicht beabsichtigt, denn wer soll denn dann noch die kommende Kepler-Highend-Karte (wie immer sie dann heissen mag) kaufen, die Nvidia dann sicherlich für supergünstige 800-1000 € feilbieten wird! (Platinverzierungen und Diamantbesatzt vermutlich inklusive!)

Eine 8800GTX hatte bereits 2006, als sie im Markt eingeführt wurde 768 MB V-Ram, was für die damalige Zeit ein exzellentes und für lange Zeit völlig hinreichendes Speicherpolster darstellte und sich im Zusammenspiel mit dem 384bittigen Speicherinterface i.Ü. auch total bewährt hat. Heute, ganze 6 Jahre später, sind wir gerade mal bei der doppelte Menge (bei einer ebenfalls im Highend-Sektor angesiedelten GTX 580) Daran erkennt man schon wie sehr sich der Speicherausbau auf Grafikkarten in den letzten Jahren verlangsamt hat und das, obwohl der Speicherbedarf von Spielen natürlich wie eh und je beständig wächst!
 
Sontin schrieb:
Es kann sein, dass die Werte falsch sind. Das Board z.B. hat nur 4 Phasen. Es anderes Bild zeigt jedoch 5 Phasen. Dazu sind die Bilder vom Tech-Day abfotografiert, statt aus dem Foliendeck entnommen.

Imo handelt es sich hier wohl ein ein Pre-Produktion-Board mit gedrosselter Taktung.

ich wünschte, das würde stimmen, aber so wie die news geschrieb ist, klingt volker recht sauer, dass sich andere nicht an die NDA halten, aber sie schon.
daher gehe ich mal davon aus, dass eckdaten und angegebene leistung schon stimmen werden.
 
Es kann sein, dass die Werte falsch sind. Das Board z.B. hat nur 4 Phasen. Es anderes Bild zeigt jedoch 5 Phasen. Dazu sind die Bilder vom Tech-Day abfotografiert, statt aus dem Foliendeck entnommen.

Find ich interessant. Auf welche Fotos genau beziehst Du Dich ?


Was die Speicherfrage betrifft: Bei BF3 kommen die meisten Leute auf ca. 1200-1500MB vRam-Last.
Die 2GB von Kepler erscheinen da doch etwas mager. Schließlich nutzt man die Karte unter Umständen mehrere Jahre.
Okay, Battlefield ist mit seinen hochwertigen Texturen eher ein Sonderfall, und für fast alle Spiele werden 2GB noch lange ausreichen. Trotzdem hätte Nvidia daraus besser 3GB gemacht.
Bei ATI geht dies ja auch; wie man sieht sind die Karten für die Hersteller immernoch rentabel genug, dass der Preis des Topmodells auf 450€ gesunken ist.
 
Zuletzt bearbeitet:
Schöne Karte :) Dass sie schneller werden wird als die 7970 war ohnehin klar. Muss sie ja wohl auch, wenn sie 4 Monate später rauskommt.

Der Stromverbrauch ist klasse, aber was die Leistung angeht habe ich doch etwas mehr erwartet. Vor allem wenn man bedenkt, dass bei den AMD 7000ern meist nochmal 20% durch OC rausgeholt werden können. Und wenn man sich dann den Battlefield 3 Benchmark anschaut und die 680 grad mal 1,7 fps mehr liefert als ne 7970@Stock...
Naja mal schauen wie gut die Karte zu übertakten sein wird. Das wird für mich der entscheidende Faktor.
 
Zuletzt bearbeitet:
chris233 schrieb:
Find ich interessant. Auf welche Fotos genau beziehst Du Dich ?

Hier:
16471384mjwmuxm887gs8y.jpg


Und die Vollbildkarte entspricht auch nicht dem Aussehen der Reviewkarten:
68f13bfdgw1dl8grzl2fwyiufk.jpg


Rechts unten gibt es das nVidia-Logo auf den Reviewkarten und die Vollbildkarte bei den Chinesen ist das selbe Bild, dass mit dem GTX670TI geshoppten Schriftzug versehen wurde...

Zum Vergleich mit dem offiziellen nVidia-Bild:
550x299px-LL-39d39092_gtx680_fastest_most_e4qzl9.jpeg
 
Zuletzt bearbeitet:
War klar das es so kommt, werde aber trotzdem noch auf den Vollausbau warten und dann vergleichen mal schauen ob AMD dann auch ihren High End Chip auf den Markt schmeisst. Ich befürchte nur fast Nvidia fährt jetzt die selbe effizienz schiene wie AMD aber mal schauen vielleicht täusche ich mich auch und es gibt doch noch ein kompromisslos auf Leistung getrimmtes Monster.
Ansonsten keine grüßen Überraschungen, das die GTX680 (eigentlich sollte sie ja eher GTX660TI heißen aber Nvidia halt.......^^) schneller wird war zu erwarten hat sich durch die Gerüchte ja schon angekündigt und durch Nvidias aussagen. Bin gespannt ob dieser Chip vielleicht das Erbe der guten alten 88xx Serie antreten kann.
 
Hallo,

was mich interessieren würde wäre eine Vergleichstabelle der GTX 680 mit der GTX 470.
Wie soll denn der Leistungszuwachs von der GTX 470 auf die GTX 680 sein? Gibt es da Infos?

Vielen Dank
 
Schön zu sehen das nV endlich auch mal den Stromverbrauch angegangen ist, nun hat nV bei Last die besseren Werte und AMD bei Idle. Eine Kombination aus beiden wären ideal :-)

Die Spiele Auswahl finde ich mal wieder sehr komisch, zwei 2 Spiele die schon immer nV bevorzugt waren, gewinnt nV auch wieder deutlich und zwei Spiele die neutral Optimiert sind und schon sind beide auf gleicher Augenhöhe. Denke hier sollte man ausführliche Tests abwarten und hoffen das CB zum Beispiel eine bessere Spiele auswahl trifft.
 
Zurück
Oben