News Nvidia GeForce GTX 680 im ersten SLI-Test

aha, und was hätte Nvidia deiner Meinung nach davon? Ich behaupte nicht dass der GK110 bereits auf dem Markt sein könnte... aber selbst wenn, wieso sollte man ihn aktuell bringen?

Ähm, Nvidia natürlich? Wenn die Karte fertig wäre, dann würden sie sich auch releasen. Da stecken enorme Entwicklungskosten dahinter, gerade bei einem High-End Modell. Niemand könnte sich leisten eine fertige Karte nicht zu releasen wenn sie in irgendeiner Form einen Markwert hätte. Das wäre ein Desaster.
 
Klikidiklik schrieb:
Edit:
@Krautmaster: Bla bla bla... ohne Quellen absolut belangloses gequacke wie auch schon in den anderen Threads :stock:

ich hab für dich mal mein Posting so abgeändert, dass du hoffentlich genug Quellen zur Stützung meiner Aussagen finden wirst. :freaky:

Krautmaster schrieb:
das werden sie...

AMD setzt typischerweise auf 2 Chips auf einer Karte, zb HD7990. Nvidia scheint bis zum GK110 auch diesen Weg zu gehen (2xGK104), der GK110 wird sich dann darunter einreihen.

Ob AMD ihren Chip selbst nochmals vergrößert... es ist anzunehmen, dass sie ~3000 Shader drauf pappen werden in ihrer HD8XXX Serie, aber bis dahin ist es noch ein Stück und AMD müsste schauen dass sie den Chip effizienter gestalten und mehr Performance / mm² herausquetschen um hier zu NV aufzuschließen.

Diesen Vorteil der wichtigen Performance / mm² haben sie mit CGN aufgegeben.
(Tahiti -> 365mm² / GK104 -> 294mm²)

Es wird wie bisher auch sein, bei ~500 ... vllt. 550mm² ist Schluss. Der GK110 setzt also schon praktisch das technisch in 28nm Machbare um.

(GT200 / b 576mm² / 470mm² / GF110 520mm²)

Dass dies der eigentliche High End Chip ist sollte jedem klar sein, unabh. davon ob die GTX 680 nun eine zeitlang Nvidias High End Modell ist.

Nvidia hat nun einen Flächen Performance Vorteil von etwa 15-20%- das ist relativ viel.

(GK104 offenbar etwa gleich schnell als Tahiti bei selbem Takt)
=> 365/294mm² = 1,24 = 24% FlächenVorteil
=> 4,31M/3,54M = 1,21 = 21% TransitorenVorteil.

Pitcairn ist in Relation dazu auch sehr effizient und holt aus den 216mm² viel heraus, was aber vor allem auch an der hohen Density und Takt liegt. Der kleine Chip ist weniger Yield anfällig und wird sehr dicht bepackt.

Gerade hier wird 28nm noch überschaubare Fortschritte machen, die Density wird über ~2 Jahre nun ansteigen, auch werden die zukünftigen Chips vermutlich etwas besser mit Spannung + Takt skalieren. Große Steigerungen sind aber vorerst erst beim großen Chip GK110 zu erwarten, oder eben den Dual GPU Vertretern. Der GK110 wird übern Daumen etwa 30% zulegen. Danach muss man auf die nächste Fertigung warten ;)

@florian

500mm² sind mit Sicherheit auch jetzt schon produktionsfähig da die 28nm laut Berichten besser läuft als zu seiner Zeit die 40nm Fertigung. Gehen tut es, aber um welchen Preis.

Zudem... warum sollte man dies tun? Stand heute braucht es nur den GK104 um Käufern 500€ aus der Tasche zu ziehen.

Sry für full Quote aber die Änderungen waren so umfangreich ;)
 
Zuletzt bearbeitet:
Das wäre ein Desaster.
Das Desaster wäre noch größer wenn TSMC es nicht schaffen würde eine gute Ausbeute bei den Chips heraus zu bekommen, denn Nvidia hat vor nicht allzu langer Zeit versprochen Kepler erst zu veröffentlichen wenn sie auch liefern können.
Der GK 110 hatte sein Tape Out schon, das kann man überall im Netz lesen, nur warum soll Nvidia das Risiko mit einem nicht ausgereiften Produktionsprozess eingehen, wenn sie sich Zeit lassen können? Druck scheinen sie nicht zu haben, wenn die Werte der GTX 680 stimmen!
 
Krautmaster schrieb:
ich hab für dich mal mein Posting so abgeändert, dass du hoffentlich genug Quellen zur Stützung meiner Aussagen finden wirst. :freaky:

Deine Quelle zum GK110 kannst du mal absolut knicken. Da steht überhaupt nix vernünftiges über den GK110, außer dass er sein Tapeout hinter sich hat. Wann der Chip kommt ist reine Spekulation. Kuck doch mal bei Semiaccurate auf die sich deine Quelle beruft. Es sind keinerlei Spezifikationen bekannt, noch für was er tatsächlich angedacht ist. Spekulatius at its best. Lies halt selber nochmal nach: http://semiaccurate.com/2012/02/07/gk110-tapes-out-at-last/

Es gibt nix offizielles seitens Nvidia zu diesem Thema und trotzdem reitest du ständig drauf rum. Finde dich damit ab, dass wir in nächster Zeit keine Grafikkarte mit einem GK110 sehen werden.
 
Zuletzt bearbeitet:
man muss nicht besonders hell sein um die Spezifikationen selbst zusammen zu bekommen. Natürlich wirst du nicht auf den Transistor oder Shader genau alles in Stein meißeln können, noch ein LaunchDate anhand des Tapeouts ausmachen können ^^

Schaust du dir den GF110 und den GK104 an kannst du dir leicht und logisch ausmahlen dass es sich um einen 500-550mm² Klotz handelt der hauptsächlich für GPGPU gedacht ist, siehe auch Nvidias Folien zu der Kepler GPU-Performance.
Die Seiten wie SA (von denen ich abgesehen davon 0 halte) machen nichts anderes als sich sowas zusammenzureimen...

Da nimmt man an, dass der GK110 500mm² besitzt (logisch), schätzt pauschal 300W (da üblich für so einen Klotz) und skaliert die 1536 Shader noch übern Daumen noch und landet bei ~2300 wenn man die Density noch etwas geringer ansetzt da großer Chip... und packt es in eine News.

Auch wird er auf den Desktopmarkt kommen, vermutlich aber erst wenn AMD ein Gegenstück parat hat bzw der GK104 nicht mehr ausreichen sollte. Wann das sein wird liegt auch an AMD. 8 Monate wurden genannt, druch aus ein realistisches Szenario.

Natürlich ist es Spekulatius, genau wie der GK104 bisher nur Spekulatius ist.. trotzdem sind es Spekulationen die auf der Hand liegen und einfach nur logisch sind.

Von mir wirst du genauso wenig wie von jemand anderem erfahren wie der GK110 im Detail aussieht und wann er kommt.
 
Zuletzt bearbeitet:
Es gibt nix offizielles seitens Nvidia zu diesem Thema und trotzdem reitest du ständig drauf rum. Finde dich damit ab, dass wir in nächster Zeit keine Grafikkarte mit einem GK110 sehen werden.

Hat denn hier irgendjemand, bzw. Krautmaster, was davon gesagt das wir in nächster zeit mit GK110 rechnen können?

Es ist ja noch nicht mal der "Performance-Chip" draußen. Einfach mal abwarten und Tee trinken.
 
Krautmaster schrieb:
(GK104 offenbar etwa gleich schnell als Tahiti bei selbem Takt)
=> 365/294mm² = 1,24 = 24% Flächenvorteil
=> 4,31M/3,54 = 1,21 `= 21% TransitorenVorteil.

Der Vergleich ist äußerst ungünstig!

Wenn dann muss man GK104 mit Pitcairn XT vergleichen. Tahiti XT bietet rund die 6 fache DP Leistung als Pitcairn XT, da ist es logisch das man mehr Fläche und mehr Transistoren und mehr Strom braucht aber Spiele keinen wirklichen nutzen draus ziehen. Tahiti ist für GPGPU ausgelegt, also darf man Tahiti nicht mit einem Nvidia-Performance Chip vergleichen, sondern später mit dem GK110, der ja auch auf GPGPU getrimmt sein wird.
 
ich habe die zur Zeit größten in 28nm Fertigung vorhandenen Chips genommen (da sie es wohl auf absehbare Zeit bleiben werden). Alternativen gibts noch keine und die beiden batteln sich. Pitcairn wird man eher mit einem GK106 oÄ vergleichen müssen, da Pitcairn auch dank kleiner DIE eine sehr hohe Density besitzt.

GK_104_die_size.JPG


Auch ist DP Leistung relativ egal für das Gaming Umfeld. Tahiti wird sicher besser sein bei GPGPU als der GK104.

Das liegt daran, dass für AMD heute Tahiti das ist was für Nvidia GK110 ist, der GPGPU orientierte Chip...

Der Vergleich war ausdrücklich nur auf die High End Chips der neuen GTX 6XX Serie und HD7XXX Serie bezogen. Wie man sieht hat AMD bei Pitcairn GPU Zeugs eingespart, absolut richtig so. Selbes hat NV mit dem GK104 gemacht was ihnen einen Vorteil in der neuen Serie zu beschaffen scheint.
 
Zuletzt bearbeitet:
Dann verstehe ich die schwachsinnige Argumenation nicht, dass Nvidia noch den Gk110 in der Hinterhand hat und jetzt nur den GK104 releast weil die Perfomance doch so toll und ausreichend ist. Nvidia hat sich noch nie mit einem Gleichstand mit AMD zufrieden gegeben. Und wenn der 28nm Prozess tatsächlich dazu in der Lage wäre ein >500mm² Monster zu bewältigen, dann würde Nvidia mit nichten zögern und das Teil zurückhalten.
Ich glaube viel eher Sie haben sich mit dem GK110 zu viel vorgenommen und der 28nm Prozess ist für so eine GPU noch nicht ausgereift und wirtschaftlich genug. Deshalb auch der Kompromiss mit dem GK104.

Der GK110 wird kommen aber nicht in dieser Generation. Und bis dahin ist AMD eh so weit und hat wieder ein Konkurrenzprodukt. Von daher drehen wir uns im Kreis und die ganze Diskussion ebenfalls.

Fakt ist: Die GTX680 mit dem GK104 ist sowohl performancemässig als auch vom Preis her mit der 7970 zu vergleichen. Und solange es nix schnelleres gibt und vor allem keine verlässlichen Informationen diesbezüglich, brauch man auch nicht darüber zu diskutieren ob und vor allem was Nvidia oder AMD in der Hinterhand hat.

Und somit ist die GTX680 ggü. der GTX580 auch nicht das erhoffte Performancewunder. Zumindest ist der Abstand auch nicht größer als 7970 --> 6970 wo doch am Anfang alle so enttäuscht waren. Nvidia kocht eben auch nur mit Wasser.
 
Zuletzt bearbeitet:
das mag beides stimmen. Ich denke der GK110 war in der Tat zeitnahe geplant, das mag nicht unbedingt jetzt zutreffen, aber eventuell für ~ Juni.

An beidem kann was dran sein, dass der 28nm Prozess noch nicht den GK110 hergeben würde, als auch dass es total unwirtschaftlich für NV wäre ( ausgehend von den Leaks zu GK104 + 28nm Fertigung wär es das jetzt).

Bisher zieht es ja nicht so aus als ob der GK104 gleich zieht, er zieht minimal vorbei, viel mehr braucht NV doch gar nicht. In 40nm hat es dazu noch den 520mm² GF110 gebraucht. Heute schafft man das mit einem kleineren Chip was NV natürlich nur recht kommen kann.

Es passt auch zu Nvidias "wir haben mir erwartet" Aussagen.

Mit Sicherheit hatte man damit gerechnet, dass Tahiti eine Ecke schneller ist als GK104 (deswegen vllt 670Ti ursprünglich). Und typischerweise wollte man mit dem GK110 wieder davor liegen um die Performance Krone inne zu haben.

Ob der GK110 mit GK104 kommen sollte oder etwas später sei mal komplett dahingestellt.

Das einzige was unklar ist, ist ob der GK110 bereits auch draußen sein könnte. Das ist aber auch irrelevant und wird dir erstmal nur NV beantworten können.
Ergänzung ()

Klikidiklik schrieb:
Und somit ist die GTX680 ggü. der GTX580 auch nicht das erhoffte Performancewunder. Zumindest ist der Abstand auch nicht größer als 7970 --> 6970 wo doch am Anfang alle so enttäuscht waren. Nvidia kocht eben auch nur mit Wasser.

ausgehend von den Daten ist er das aber:

HD6970 -> HD7970 war ein Sprung von 2,6M Transistoren auf 4,31M - auch die mm² sind vergleichbar.

Bei der GTX580 -> GTX680 haben wir 3M auf 3,54M bei einer Verkleinerung von 520mm² auf 294mm².

Das ist der simple Grund dafür weshalb manche, wie ich, eigentlich sehr positiv überrascht sind, was NV mit diesem recht kleinen Chip vollbringt.

Dass er jetzt in einer GTX680 steckt ist das Resultat davon.

Tahiti wird deswegen ja nicht abgewertet, imho liegt seine Stärke ja gezielt im Computing Umfeld welches AMD erschließen will.

Edit:

Wenn TSMC einen 365mm² Chip fertigen können, können sie auch einen 520mm² Chip fertigen (wenn der Chip an sich natürlich fertig ist). Die großen NV Chips kommen typischerweise mit weniger Takt daher um die 300W einzuhalten. Dass der GF110 fertigbar wäre ist für mich eigentlich keine Frage, nur ist es unwirtschaftlich.
 
Zuletzt bearbeitet:
Fischkopp AMD Grakas waren das nicht diese Grakas wo selbst auf high end mit max details alles flimmert und die treiber nur probleme machen ? :)

Bitte hör dir mal die sopundsamples an die cb gelinkt hat und sag mir dann nochmal das nv föne produziert.

Naja ich denke einfach das für den desktopbereich, selbst für freaks eine 685GTX (gk100) einfach nicht wirklich verkaufbar wäre, da die preise von amd/nv jetzt schon so hoch angesetzt sind .
 
Zuletzt bearbeitet:
@Klikidiklik: nvidia legt es immer auf die performancekrone an, das ist richtig. wenn sie aber die wahl haben, wie teuer sie diese erkaufen müssen, dann werden sie sicherlich den wirtschaftlichsten weg wählen. in diesem fall scheint der gk104 zu reichen. es wäre also unklug, die preise für die gk104 karte kaputt zu machen indem man unter verlusten noch eine gk100-karte bringt.
erster platz ist erster platz. noch ersterer gehts nicht ;)
 
Ich weiß nicht, Computerbase, aber ist es nicht irgendwie lächerlich, dass ihr wegen NDA so ziemlich die
einzigen seid, die nichts veröffentlichen dürfen, dafür dann aber einfach Ergebnisse von anderen reinstellen
dürft? Wie wärs wenn ihr kurz beim Huang anruft und fragt ob man mit dem Mist nicht endlich mal aufhörn
kann und mal reinen Tisch macht mit einigen detaillierten Tests, die jeden Raum für Spekulationen unter-
bindet. Aber Nvidia will das ja so, dass man sich das Maul zerreißt, das hält den Hype relativ kostengünstig
am Leben. Saubere Sache. Nicht dumm, die Leute...
 
@Vitec:
Eigentlich wollte ich was die Lautstärke angeht eher die Klischees bedienen ;)
Wenn man sich das mal durchliest was so manch einer schreibt ist Nvidia immer die Firma mit den lauteren (High End!) Karten die viel mehr Strom verbrauchen!
Ich weiss seit Jahren nicht mehr wie laut eine Luftgekühlte GPU ist, weil die bei mir immer als erstes auf Wakü umgebaut oder gleich mit Wasserkühler gekauft werden :D
 
hehehe schon doof wenn man unter NDA steht und sich daran hält ^^
Zum release kann CB dann auch nichts neues mehr berichten nehme ich an... :P
 
Seit wann testet Volker Kepler?
 
Zuletzt bearbeitet: (Ein ! weniger *g*)
330€ für BenQ XL2410T. Jetzt noch was feines mit Nvidia GPU und alles ist schön.
 
Zurück
Oben