News Erster Test der Nvidia GeForce GTX 680

Als kleiner AMD Fanboy muss ich schon sagen, nicht schlecht.
Das sie Leistungstechnisch vorne sein sollte war ja pflicht, aber der Verbrauch unter 200Watt.
Find ich echt klasse.
 
Jup das überzeugt! Endlich kommt NV in die Gänge. Das beste dürfte halt die Leistung/Watt sein, endlich kein Thermi oder sowas. Dann auch nocht die Bildqualität verbessert. So gehört sich das.

Aber bevor ich die Infos als Fakt akzeptiere will ich erstmal ein paar Tests sehen von CB, PCGH und co.
 
Die Antwort von AMD hängt eigentlich nur davon ab wie hochgezüchtet der GK104 ab Werk kommt. Wenn wir uns den Leak anschauen, kann man von so ca. 15% Vorteil im Schnitt für die GTX680 ausgehen, d.h. eine Tahiti @ 1050-1100 MHz wird in etwa gleichziehen können. Das sollte für AMD überhaupt kein Problem darstellen. Die Frage ist, welcher Hersteller hat mehr Luft nach oben? Tendenziell eher AMD, da man dank 8+6 Pin im Zweifel einfach mehr Power ziehen kann als mit 6+6. Brute-Force halt. Ich denke, dass man bei AMD durchaus schon fleißig Chips für einen Konter selektiert.
 
Ich kann die Euphorie irgendwie nicht ganz nachvollziehen.
Die Karte ist in etwa gleich schnell wie die HD 7970 die anfang Januar schon released wurde, bei ca 15 Watt weniger unter Last und wohl etwas mehr Verbrauch im Idle.
Allerdings bei höchstwahrscheinlicch weniger Taktreserven, einem kleineren Speicher und deutlich weniger Bandbreite.

Dieses erste Review hat relativ wenig Benchmarks geboten.
Mal sehen was Computerbase am Ende raus bekommt, ich schätze die GTX 680 hier etwas hinter der HD 7970 bei minimal weniger Stromverbrauch. (10 bis 20 Watt unter Last)

Insgesamt eine sehr gute Leistung. Die HD 7970 sehe ich im Gesamtpaket aber minimal vorne.

kann man von so ca. 15% Vorteil im Schnitt für die GTX680 ausgehen,

Hier auf CB eher ~5% Vorsprung für die HD 7970 in 1680x1050 bis HD; 2560x1600 wohl ca 15% in Front.
 
Kann schon sein. Theoretisch könnte AMD doch im Prinzip auch die Spannung senken und gleichzeitig auch mit höherem Takt ausliefern? Potential hat GCN ja dicke. Nach dem man auch noch praktisch 3-4 Monate mit den neuen 28nm Grakka Generation am Markt ist...

Auch ein zusätzlicher Performance Treiber könnte noch was reißen ^^ Das sind so für mich die Möglichkeiten die ich sehe, oder stelle ich mir das zu einfach vor? :D

Wenn das soweit stimmt dass NVIDIA endlich eine effiziente Karte gerbacht hat, klasse! Die richtige Einstellung! Ich hoffe das geht so in Zukunft weiter, quasi diesmal mehr um Perf./Watt. Statt nen Thermi auf den Markt zu schmeißen.
 
Zuletzt bearbeitet:
Arno Nimus schrieb:
Es gibt ja heute bereits vereinzelt Titel, die knapp 2,5 GB V-Ram nutzen, vorausgesetzt er ist auf der Karte vorhanden. Für solche Fälle ist die Karte also genau genommen jetzt schon nicht mehr ausreichend!
Gähn. Sollte doch mittlererweile bekannt sein, das ein Spiel welches 3 GB voll macht nicht automatisch bei nur 2 GB vorhandenen DRAM einbricht.
Zeig mir doch mal konkrete Messungen wo Karten mit nur 2 GB einbrechen.
Bisher hab ich hier im Thread nur einen einziges Beispiel gesehen. Und da lag die average FPS eh in Crysis ehnur bei 35 fps lagen, nicht gerade realitätsnah.

Genauso wie die von dir erwähnten Karten damals zu wenige V-Ram hatten, so haben die heutigen Karten mit nur 1,5 GB (noch aktuelle GTX 580 Standardmodelle) oder 2GB (kommende GTX 680 als Standardmodell) auch wieder zu wenig, denn dass die Zeit nicht stillsteht und die Spiele heute sehr viel mehr Speicher einfordern, als noch vor 2-3 Jahren, ist dir hoffentlich bewusst? (siehe oben)
Echt? Ich dachte der Speicherbedarf sinkt mit immer größer werdenden Texturen. :freaky:

Der Vergleich mit den 9800GTX hinkt in meinen Augen.
In manchen Einstellungen war die eigentlich stärkere 9800GTX schon im Einzelbetrieb einer 8800GTX unterlegen. Das sehe ich hier bei 2GB einfach nicht.
Es mag sicher Situationen geben mit Texturmod etc. und hohen AA-Modi und Auflösungen wo die 2 GB knapp werden. Aber das sind imho nur Szenarien wo man dann eh schon nen SLI-Gespann benötigt. So dass 2GB für die meisten sicher ausreichen.
Ich lass mich da gerne eines besseren belehren, aber bisher hab ich einfach noch keine Reviews gesehen die das zeigen.
 
Rayge schrieb:
Das kann ich bald echt nicht mehr hören. Vollkommen wurscht wie der Chip heisst für diese 600er Generation ist das Nvidias SingleGPU Highend Karte, die gegen AMDs SingleGPU Highend Karte antritt.

Aber es kommt ja noch nen stärkeren raus alias GK110 :lol: :D lol

Spass bei Seite. Langsam habe ich so das Gefühl dass die Hersteller nicht sowie früher einfach nur nen High End / Mainstream und Low End Chip raus bringen, sondern sich die Leistung beiden gegenüber anpassen, sowie auch der Preis.

Ich würde 100% Wetten, das falls AMD ne Potentere HD7970 herausgebracht hätte, wäre der GK104 nur der Konkurent für den Mainstream (bzw. heute nennt man es ja Perfomance) Karten.

Nicht destotrotz wird es sicherlich spanend falls sich die Informationen bewarheitet, und der GTX680 minim schneller wird als der HD7970 bei geringere Stromverbrauch.
Bisher steigen die leistung der nVidia Karten immer durch mehr Unifield Shader einheiten, und nachdem der GTX580 512 Shadern hat, sollte der neue GTX680 Theoretisch mit 1536 Shadern das 3x Leistung haben. Aber irgendwie geht es nicht mehr auf, trotz 1D Shadern.
 
eXtra schrieb:
Angebot und Nachfrage werden die Preise irgendwann anpassen, da mache ich mir keine Sorgen.
Das Problem ist halt, dass zur Zeit das Angebot (an 28nm-Chips von TSMC) relativ gering ist. Sobald sich das bessert werden auch die Preise wieder sinken.

Geht ja auch nicht anders, wenn die Lager voll sind aber keiner die Karten aufgrund der hohen Preise kaufen will bringt das AMD und Nvidia schließlich auch keinen Gewinn ein.

Würde ich nicht drauf wetten. Die alten Karten waren auch überraschend lange im Preis stabil. Ein bischen geht immer, denn die UVP wird sicherlich nicht lange Bestand haben. Viel wirds nicht sein.
 
Ich ziehe meinen Hit vor Nvidia.Endlich haben sie das größte Manko des Vorgängers ausgemerzt,die zu hohe Leistungsaufnahme unter Last.Wäre da nicht der zu hohe Preis.Mal sehen wie es sich dann mit den Mid Range karten verhält.
 
Netter Chip, der da ankommt. Das Große Aber ist aber, wie verhält die Karte sich bei "Neutralen" Spielen. 2 Synth. und 2 Game - benches sind für mich keine Aussagekräftigen Werte. Ich warte auf den HWLuxx und CB Bericht, vllt sind die Benchfolien ja doch noch nachträglich überarbeitet worden ;)

Die zweite Frage ist: Wie wird AMD kontern? Wäre ich AMD würde ich die 7970/50 um 50-70$ senken und mich zurücklehnen und zusehen wie NV den Papiertiger unters Volk bringen will, denn für 10% mehr Leistung würde ich persönlich keine 100$ mehr zahlen. Die Alternative ist, dass AMD mal locker via Treiber 15% mehr Performance rauskitzelt (Wäre möglich, denn die 78xx hats bewiesen)
Ich denke aber eine Absenkung der UVP um 50-70$ ist doch sehr Realistisch, womit AMD immer noch Gewinn macht und die HD7900 Serie wieder im besseren Licht dasteht. Zusätzlich kommt ja auch die "bessere" Verfügbarkeit hinzu
Die Angesetzte UVP von NV schreit aber gradezu nach Preisabsprache, also vllt wollen beide bis zum Weihnachtsgeschäft die Early Adaptor abgreifen und senken erst dann. Meine 470GTX bekommt nun nen neuen Kühler und mal schauen was der Refresh beider Chips so mit sich bringt.
Vom Hocker gehauen hat mich Kepler nun nicht, nur das Perf/W Verhältnis ist mal richtig nice

An die GK110 Spekulanten: Ich glaube auch kaum, dass ein GK110 kommt. Vllt wird NV ihn im HPC Markt etablieren, dann aber zu Mondpreisen, denn AMD hat in der Kategorie mal nichts zu liefern und Intel ebenso wenig. Knights Ferry ist immer noch keine Alternative auch wenn der Ansatz, der mit Ivy verfolgt wird, sehr für solche Karten Sprechen würde. Also warum soll NV den Gk110 bringen? Vllt wird er optimiert und als Kepler Refresh an den Markt gehen, denn selbst NV dürfte gemerkt haben, dass Stromsparen auch bei PCs in ist ;)
 
AMD-Mafiosi schrieb:
Ich denke aber eine Absenkung der UVP um 50-70$ ist doch sehr Realistisch, womit AMD immer noch Gewinn macht und die HD7900 Serie wieder im besseren Licht dasteht.

Worauf gründet sich die Vermutung, hast Du da Infos zu den Gewinnmargen ? Würd mich mal interessieren. Ich bin mir nämlich nicht sicher, ob 50-70 $ Preissenkung noch in der Gewinnzone landen. Für Außenstehende ist oft nicht ersichtlich wie hoch die Gewinnmargen wirklich sind...aber ich habe da keine Infos zu.
Eine Grafikkarte kann man leider auch nur schlecht außeinanderbauen, wie iSupply das oft bei Consumer Geräten macht um die Materialkosten zu berechnen...und dann kommen ja noch Lohn- und Entwicklungskosten dazu...

Mir wäre es recht wenn das funktioniert, Konkurrenz belebt das Geschäft :)
 
lol...bevor ich meinen hut ziehe oder die hose runterlasse vor freude, muss die 680 aber noch beweisen das sie diese leistung auch mit maximalen qualitätsfeatures und dem neuen txaa bringt. der eine test bisher sagt noch nicht all zuviel. was nützt es wenn diese resultate nur mit standartqualität ankommt und mit top bildqualität dann einbricht. also wartet mal noch wirkliche gute reviews ab. die 7970 läuft ja auch noch mit dem neuen super multi irgendwas aa sehr schnell.
 
Zuletzt bearbeitet:
moin... interessante Performance

bei (annährend) Gleichstand werden die Preise vlt. wirklich ein wenig nachgeben

mal auf offizielle Tests warten.
 
PR3D4TOR
Es wird gehypt und gegengewirkt, also sehr ausgelichen, würde das nicht passieren, würdest du wahrscheinlich vom sessel fallen xD oder zum Mond abheben oder was auch immer xD

Also die BF3 Folie war ja vorhin den AMD Balken verdeckt. und da ist man 2 Frames oder ähnliches schneller als AMD.
Weiterhin reden leute von 20% mehr Performance in diesem Game.
Bei Batman das NV spiel schlecht hin ist man 9 Frames schneller...
Also es gibt auch negatives zu sehen. Was positiv ist ist der Verbrauch, doch sollte man abwarten, aus dem Grund, weil das Programm auch optimiert sein könnte, was den Verbrauch angeht. Somit erwarte ich mir vom CB Test weit aus genaueres.
Die NV könnte auch 225 watt ziehen, und damit wäre man 25 watt entfernt von der 7970.
Weitres der niedrigere Verbrauch wird auch irwo seine Ursachen finden lassen.
Die 7870 lässt sich ja theoretisch beim gleichen Verbrauch der 7950 zu so einer overclocken.
Größe von 212 mm²
7970 verbraucht ca 50 watt weniger als die 7970, doch mit overclocking verbraucht man 35 watt mehr hat aber ca die leistung der 7970. (Ersparnis 15 watt ??)

Versteht ihr jz was ich meine ??? Die 7970 gibt es nicht als GHz Version. Wenn man aber die Performance rauskitzelt die Theoretisch ginge, würde die 680 gtx im schatten stehen und eher schneller als die 7950 overclocked sein beim etwas besseren verbrauch 30-35 watt.

Somit ist mir das was mir schon bei der HD7700 7800 aufgefallen ist (weniger shader als die vorgänger aber schneller und effizienter)
Seit der 28nm Struktur kann man wesentlich schneller sein mit einer kleineren Die und dafür einen höheren Takt aber weniger verbrauchen.
Somit lässt sich jz da es eine NV Karte gibt, verbesserte OC Varianten bringen die den NV viel besser angenähert sein könnten (Performance/Verbrauch)
Also ist es nicht unmöglich dass die 680 gtx mit dem Turbo schon sehr am Limit arbeitet, und overclocking vllt gar nicht mehr wirklich möglich ist. (Vermutung, kann auch anders sein :D)
 
Zuletzt bearbeitet:
NVIDIA hat übrigens noch einen Vorteil.
Sie könnten auch eine höhere UVP mit einer Karte verbinden die schwächer ist als eine Radeon 7970. NVIDIA hat nunmal einen Ruf der dergleichen erlaubt. Im Notebookmarkt kann NVIDIA bei ihren Highend Karten auch hunderte Euros mehr verlangen als AMD obwohl sie sich da beide auf einem Level befinden.

Aber was lustig ist:
Ich hatte am 09.01.2012 schon gesagt das die Preise Wahnsinn werden,
Irgendwie merkwürdig.

Der typische Highend Zuschlag ist bereits bei der GTX 580 3GB enthalten.
Was für ein Aufschlag hat dann die 7970?
High-end High-end Aufschlag?

Eigentlich sollte die Radeon ab 449€ einsteigen, nämlich genau da wo die Nvidia Karte steht.
Wenn ihr euch freut >50€ mehr zu zahlen freu ich mich auf eure Gesichter wenn Nvidia dann für jede 20% Leistungsstufe auch nochmal 50€ oben drauf legt.

Weitergesponnen:
Also GTX 760 550€, GTX 770 650€ und GTX 780 750€?
Denn nach eurer Logik wäre ja der High-end auf High-end Aufschlag beliebig fortsetzbar.
Wenn das so kommt werden die Grafikkartenpreise nochmal gewaltig anziehen. Warum sollte man die Karten denn nach solcher Logik billiger machen?

Eines ist mir aber klar, wann war Nvidia bei gleicher Leistung billiger als AMD?
Vor allem warum sollte denn Nvidia billiger sein als AMD wenn sie noch Physix, Cuda, besseres AF und Downsampling haben? Das wird teuer.

Traurig das ich Recht hatte. Einiges hat sich zwar inzwischen geändert, wie zum Beispiel AMDs Features und NVIDIAS Generationsnamen, aber gesamt war ich doch recht nah dran.
 
MADman_One schrieb:
Worauf gründet sich die Vermutung, hast Du da Infos zu den Gewinnmargen ? Würd mich mal interessieren. Ich bin mir nämlich nicht sicher, ob 50-70 $ Preissenkung noch in der Gewinnzone landen. Für Außenstehende ist oft nicht ersichtlich wie hoch die Gewinnmargen wirklich sind...aber ich habe da keine Infos zu.
Eine Grafikkarte kann man leider auch nur schlecht außeinanderbauen, wie iSupply das oft bei Consumer Geräten macht um die Materialkosten zu berechnen...und dann kommen ja noch Lohn- und Entwicklungskosten dazu...

Mir wäre es recht wenn das funktioniert, Konkurrenz belebt das Geschäft :)


Nunja ich begrüne meine Aussage drauf, dass die Chips normalerweise nicht mehr wie 30% der Grafikkarte ausmachen. Die Bauteile auf dem PCB sind dann wohl kein großer Kostenfaktor, Produktionskosten fallen eigentlich nur beim DIE an. Die PCB Bestückung wird über die Massenproduktion gering gehalten, Personalkosten sind in China/Taiwan etc eher gegen Null. ich denke 50$ wäre noch verschmerzbar, bei 100$ dürfte es für AMD mit einem Minusgeschäft behaftet sein. Aber man muss nunmal dazu sagen, dass Entwicklungskosten ja nicht unerheblich sind. Dennoch sollte die AMD nicht grade nur über Tahiti begründen ;) Denn mit Cypress hat AMD ja auch ganz gut Kasse gemacht :)
 
jajajajaaa....so viel zum lesen...und das nur meistens Fanboy gerede.
Von mir: ha! Ich werde definitiv weiter auf meiner HD5870 sitzen bleiben. DENN die "erwartete" Leistung wird NICHT dabei sein. Ich zahle doch keine 550 Euro (ODER MEHR!!) für 10-15% mehr FPS!? Nie im Leben!
Sehr sehr enttäuscht. Waren doch alles nur leere Versprechungen, das mit super viel Leistung blablabla. Alles so sinnfrei!
Für Leute die auf 4-5 jahre alten Grakas sitzen, und die neuesten Games wie Diablo-3, GW2 usw. zocken möchten ist das natürlich gute Graka. Oder quasi WIRD eine gute Graka sein.
 
Nun ja-bei mir wirds`dann halt ne 660er sein-und das wird noch ne Weile dauern,läßt aber hoffen,das da max 120 W verbraten werden..:evillol: Dazu noch ein 3770k und man kann den
Stromabzockern wieder ne Nase drehen..:D
 
Xedos99 schrieb:
Stromabzockern wieder ne Nase drehen..:D

Und schmeisst es lieber den CPU/GPU-Abzockern in den Rachen...
Vom Umweltaspekt ganz zu schweigen. Aber wir haben ja noch ne zweite Welt im Keller.

Dazu die ganzen Spekulationen, welche sich auf einen "Leak-Test" und Herstellerfolien beziehen. Schaun wir lieber mal und warten ab, wie die Karte in ausführlicheren Testprogrammen abschneidet.
 
Zurück
Oben