News Bilder der finalen Nvidia GeForce GTX 680?

Und wenn es keinen GK110 gibt? Hier wird mit sovielen Unbekannten jongliert, das ist wirklich trollig.

Die GTX480 war zwischen 50-75% im Schnitt schneller als die GTX285. GTX680 wird sich bei ca. 60% einpendeln. Wieso ersteres High-End wäre und zweiteres nicht, wird wohl kaum begründbar sein.
 
Natürlich gibt es einen GK110, der hatte schon sein Tapeout und wird in Teslas und Quadros verbaut werden.

Nicht vergessen, GK104 ist Performance, aber hochgezüchtet. Das ist doch sofort an Speicherausbau, Die Size, Verbrauch und Speicherinterface erkennbar. Nur weil man mit Kepler anscheinend besonders gut dasteht, heißt das nicht, dass da nichts mehr drüber kommt.
Als Beispiel: Ich hätte eine hochgeprügelte 8800GT auch nicht Highend genannt, sondern wollte eine 8800GTX/Ultra.
 
Du solltest mit deinen Behauptungen warten, ob sich deine Quellen wirklich als so richtig erweisen.

Alleine schon, dass die Anforderungen an Quadro identisch sind für Geforce ist, zeigt mir, dass da etwas nicht stimmt. ;)
 
@boxleitnerb: eine hochgeprügelte 8800gt ist aber etwas schneller als eine 8800gtx/ultra :D

ist alles ne frage der umsetzung. um mal beim beispiel mit der 8800gt/ultra zu bleiben:
der g92, der auf der 8800gt verbaut wurde, kam auch noch als gts250 sehr erfolgreich zum einsatz. und wie der name g92 schon erahnen lässt hatte nvidia wohl auch hier noch was in petto gehabt (g90), das aber aufgrund der damaligen konkurrenzsituation nicht mehr zum einsatz kam. erst mit der hd4k kam nvidia wieder in zugzwang und da war bereits der g200 an der reihe...
also wenn ein gk104 bis zur nächsten chipgeneration reichen sollte, ist es durchaus denkbar, dass der gk100 (gk110 wäre refresh des gk100) nicht in produktion gehen wird (oder nur für teslas kommt).
 
Und wenn wir schon bei den 65nm Karten sind:
Die GTX280 war damals auch nur 50% schneller und verbrauchte deutlich mehr Strom als die 9800GTX - hier bei cb.de fast 70 Watt für 56% Mehrleistung. :freak:

Das ist also richtiges High-End?
 
Wenn die 7970 gut 25% schneller ist als die 580, und die 680 overall nur 10% schneller als die 7970 wird, dann wäre NV bei 140% Steigerung und nicht bei 160%. Und da es sehr warscheinlich ist das der 104er mit unter 10% Mehrleistung auf HD79 kommen wird, und außerdem der kleine grüne Chip im Eyefinity völlig abkacken wird "mangels Konstruktion", sollten wir davon ausgehen das GK 110 kommt. Selbst wenn er nur 25% mehr Leistung als GK104 bringt und das bei 50% mehr Verbrauch.

Ich glaube 28nm wird ein Flop, zumindest kurz bis mittelfristig (Kosten/Leistung), vielleicht kriegen sie es ja auf Sicht hin.
 
Sontin schrieb:
Du solltest mit deinen Behauptungen warten, ob sich deine Quellen wirklich als so richtig erweisen.

Alleine schon, dass die Anforderungen an Quadro identisch sind für Geforce ist, zeigt mir, dass da etwas nicht stimmt. ;)

Ich hab keine Quellen, das sagt mir aber mein gesunder Menschenverstand. GK110 gibt es mit Sicherheit. Was sein könnte wäre, dass er ausschließlich in Teslas wandert. Aber das hat sich bis heute nicht gelohnt als eigenständige ASIC-Entwicklung, warum jetzt plötzlich doch?

Was genau zeigt es dir denn?

Bzgl. GTX280:
Ja, denn es gab in der gesamten GT2xx Generation bis auf den Mini-Refresh keine schnellere Karte.

Das ist alles ziemlich fließend und eine graue Zone, das stimmt schon. Ich kann aber nicht guten Gewissens einem 256-bit, 2GB, 300mm2 Minichipchen das Prädikat "Highend" verpassen - da sträubt sich der Enthusiast in mir einfach :D
Pack da jeweils 50% drauf, auch bei der Performance und wir sind im Geschäft.
 
Und wenn es keinen GK110 gibt? Hier wird mit sovielen Unbekannten jongliert, das ist wirklich trollig.

Die GTX480 war zwischen 50-75% im Schnitt schneller als die GTX285. GTX680 wird sich bei ca. 60% einpendeln. Wieso ersteres High-End wäre und zweiteres nicht, wird wohl kaum begründbar sein.

Och den gibt es und die testen und optimieren den auch schön. Du erwartest ja nicht ernsthaft, dass die jetzt rausposaunen, dass in Q3 dann der GK110 kommt. Das wäre ziemlich dumm. Ich bleib dabei. Hätte AMD nicht so schwach vorgelegt und TSMC genügend Kapa würden wir hier nicht über GK104 im High End Segment reden. Der wäre dann in einer ganz anderen Preisklasse und Nvidia würde den GK110 für Mai ankündigen.
 
P/L im Highend. Es geht hier ja um Highend (GTX 680).
 
Highend ist das was zur Zeit machbar ist und mehr als jetzt da ist von AMD oder noch kommt von NV kriegt man halt nicht hin. Mit dem neuen Prozess. TSMC hat mit den kleinen chips schon genug probleme. Was in nem halben Jahr möglich ist weis keiner. Egal ob NV oder AMD. Da von ungelegten eiern als Highend zu sprechen ist win Witz mehr nicht,
 
boxleitnerb
Wenn NV jz mit einer Die kommt die eigentlich für Mainstream gedacht war, und diese 680 gtx nennt, da der größere Chip nicht möglich bzw sinvoll ist momentan, hat AMD weit aus wirtschaftlicher gedacht als NV.
Begründung dafür gibt es von Seiten AMD ja schon zu kaufen.
Der Witz ist dass man jz den Hype auf das nachfolgende Produkt überträgt, und dann mit der 7970 vergleicht, die im Dezember dann schon ein Jahr alt ist. Denn AMD wird auch seinen Chip verbessern, bei der nächsten Generation. AMD könnte ja auch jz anfangen zu erzählen, wir haben einen Monster Chip... Aber ja Werbung ist nun mal Werbung.

Da sich scheinbar Highend durch die Die Größe definiert, soviel hat man mir hier erklärt. Wird weder AMD noch NV ein Highend Single Chip auf den markt bringen.
Im Gegensatz zu CPUs sind 6-8 Monate schon fast eine neue Generation. Das heißt egal ob NV nun den größeren Chip noch HD 600 nennt, AMD sicherlich auch mit einen größeren Chip am Markt sein. Vllt sogar wieder früher, da man früher wirtschaftlich gedacht hat und am Fertigungsprozess gedacht hat.
 
Zuletzt bearbeitet:
dass es den GK110 gibt steht außer Frage, wann es Nvidia für richtig hält diesen zu bringen ... ein anderes Thema. Imho sind diese großen Chips

1. Teuer in der Produktion
2. Ist Mainstream viel wichtiger für den Umsatz / Gewinn.

Nachdem nun 2 Generationen auf über 500mm² Monster gesetzt haben ist es nur logisch, dass es den GK110 auch gibt, auch das SI würde NV sicher nicht zurück fahren.

@pipip


wirtschaftlich gedacht... naja... weil früher gelaunched? Das hat AMD ind der Vergangenheit auch, man hatte über Jahre immer zuerst den kleineren Prozess... und viele Karten konnte man bei den Preisen und bei der geringen Verfügbarkeit wohl kaum.

Zumal der Prozess noch 3 Jahre aktuell sein dürfte.
 
Zuletzt bearbeitet:
boxleitnerb schrieb:
Ich hab keine Quellen, das sagt mir aber mein gesunder Menschenverstand. GK110 gibt es mit Sicherheit. Was sein könnte wäre, dass er ausschließlich in Teslas wandert. Aber das hat sich bis heute nicht gelohnt als eigenständige ASIC-Entwicklung, warum jetzt plötzlich doch?

Was genau zeigt es dir denn?

Quadro und Geforce sind "Graphics" Produkte. Verkauft nVidia einen Chip für Quadro, dann landet er auch in der Geforce-Sparte. Da gibt es anforderungstechnisch keine Unterschiede.

Außerdem sollte man bedenken, dass für Quadro und Tesla die TDP bei <= 225 Watt liegen muss. Es macht für nVidia keinen Sinn einen Chip zu designen, der im Vollausbau mit entsprechender Taktung an die 300 Watt nagt, um ihn dann mit deaktivierten Teilen und deutlich weniger Takt für Tesla und Quadro verwenden zu können. Das ist wirtschaftlich dumm. Und das ist eben das Problem mit Fermi gewesen.

Es macht dagegen viel mehr Sinn ein Chip zu designen, der im Vollausbau und mit entsprechender Taktung (deutlich) unter 225 Watt bleibt und ihn somit überall ohne Anpassung verkaufen zu können. Also wie GK104. :evillol:

/edit: Und diese Problematik gab es schon mal: Es gab nie eine GT200 Quadro-Karte mit 240SP. Die einzige GT200 Karte hatte 192SP. Erst mit GT200b konnte nVidia soetwas realisieren...
 
Zuletzt bearbeitet:
^
Wurde nicht Tessellation für Geforce sogar gedrosselt ggü. Quadro?

Außerdem sprach ich von Tesla. Hier sind DP-Performance, ECC und viel Speicher mit hoher Bandbreite wichtig. Das ist für Spieleperformance fast alles unnötig. Du musst immer Kompromisse eingehen - GK104 hat mit ziemlicher Sicherheit keines dieser Features. GK110 bietet angeblich erweiterte CUDA-Features "CUDA next" laut Ail - was dran ist, keine Ahnung.
Seit es Teslas gibt (Anfang machte der C870 auf Basis von G80) hat man ausschließlich Highend-GPUs dort verbaut: G80, GT200, GF100, GF110. Das wird sich mit Kepler auch so fortsetzen, da wette ich um eine Kiste Bier. Und die waren alle für ihre Zeit sehr hungrig und mussten, zumindest später, teildeaktiviert und taktreduziert werden. GK104 wird mit Sicherheit keine DP-Performance bzw. -Fähigkeiten haben, die Nvidia in eine Teslakarte stecken würde. GK104 ist ein Gamerchip, sonst nix.

Die einzigen beiden Fragen, die man hier stellen muss sind:
Kommt GK110 als Geforce für den Desktop?
Wenn ja, wann?

Ich würde mit "Ja" und "2012" antworten. Und wenn es nur wenige sind - bei $600 dürfte sich der Bedarf eh in Grenzen halten.
 
Zuletzt bearbeitet:
Ich finde es ja schon sehr Interessant, dass einige meinen Nvidia hält sich zurück mit dem GK110 weil Sie enttäuscht bzw. bei der schwachen Leistung der HD7k nichts vorlegen müssen.

erstens: Nvidia muss sich spurten, sie haben noch NIX released! Sie SIND unter zugzwang, da meint ihr sie halten sich zurück ach ne schwache Leistung von AMD wir haben Zeit :p

zweitens: Nvidia ist keine Eingetragene Stiftung die nur armen Menschen helfen will. Es ist eine AG = Geldgierige Anleger ....hehe, Sie werden sich garantiert nicht zurückhalten mit irgendwelchen Karten die Sie zuvor mit teuren Entwicklungskosten bezahlt haben.

Wenn Sie was haben bringen Sie es auch raus, wenn es geht ... Preis nach oben ist bekanntlich offen. Das war schon immer so;)

Warum Sie den GK110 nicht rausbringen werden wir in Zukunft vielleicht erfahren. Ob Fertigungsprozess oder Leistungsaufnahme alles Spekulatius.

So meine Worte zum Freitag schönes WE:)
 
Zurück
Oben