News Nvidias GK104-„Kepler“-GPU vermessen
- Ersteller Volker
- Erstellt am
- Zur News: Nvidias GK104-„Kepler“-GPU vermessen
D
Dawzon
Gast
riDDi schrieb:Aha? Und das riecht nicht nach feinstem Bullshit? Erst soll das Chip relativ klein sein, dann hat er plötzlich drei Mal so viele Einheiten wie ein GF110.
nVidia will bei Kepler auf Hot Clocking verzichten. Wo klingt es da nach "feinstem Bullshit"? Wenn ich an der einen Stelle einspare dann muss ich an der andere Stelle dazupacken. Und Hot Clocking benötigt einiges an Chipfläche pro Shader Core.

D
dermazz
Gast
Wir brauchen was handfestes 

A
Apocaliptica
Gast
Wenn die Gerüchte soweit stimmen, dann sehen wir ende nächster Woche eine Nvidia GTX 680 mit 1536 Cores, 2GB GDDR5 und einer TDP von <= 200W.
Wobei wir natürlich nicht wissen, wie sich diese ohne Hotclocking verhalten werden, daher kann man da nix vergleichen.
Bin mal gespannt, ob das so stimmt, vielleicht gibt Volker oder Leute auf anderen Seiten einen Wink mit dem Zaunpfahl und machen mehrdeutige forumposts oder gar news mit "angeblichen spezifikationen von gtx 680 geleakt"
Wobei wir natürlich nicht wissen, wie sich diese ohne Hotclocking verhalten werden, daher kann man da nix vergleichen.
Bin mal gespannt, ob das so stimmt, vielleicht gibt Volker oder Leute auf anderen Seiten einen Wink mit dem Zaunpfahl und machen mehrdeutige forumposts oder gar news mit "angeblichen spezifikationen von gtx 680 geleakt"

B
boxleitnerb
Gast
Die Leaks/Gerüchte aus Asien sprechen inzwischen von 190W TDP, 3.54 Mrd. Transistoren und 294mm2. Die Diegröße wurde mir übrigens von einer Quelle bestätigt, die ich hier nicht nennen darf. Die 190W beziehen sich möglicherweise auf den Turbo, wie es ohne Turbo aussieht, weiß ich nicht. Schätze aber auf 560Ti Niveau, also 160W. Dafür natürlich auch weniger Leistung.
Ein Fermi 2.0 wird das bestimmt nicht, wer das jetzt noch glaubt, dem ist nicht mehr zu helfen.
Ein Fermi 2.0 wird das bestimmt nicht, wer das jetzt noch glaubt, dem ist nicht mehr zu helfen.
riDDi
Admiral
- Registriert
- Aug. 2004
- Beiträge
- 7.565
Volker schrieb:So wie man Shader bei AMD und Nvidia nicht vergleichen kann, kann das auch bei einem Generationswechsel passieren. Denn wenn sich die Architektur ändert, kann viel passieren.
Dawzon schrieb:nVidia will bei Kepler auf Hot Clocking verzichten. Wo klingt es da nach "feinstem Bullshit"? Wenn ich an der einen Stelle einspare dann muss ich an der andere Stelle dazupacken. Und Hot Clocking benötigt einiges an Chipfläche pro Shader Core.![]()
Ja sicher kann sich einiges ändern. Statt Hot-Clocking soll es Dynamic Clock Adjustment geben und die Shadereinheiten laufen immer noch schneller als der restliche Chip.
Mit diesen Daten sollte der Chip irgendwo bei 2 TFlop/s liegen.low power mode is 300 MHz, standard is 705 MHz extendable to 950 MHz – while the cores alone will be able to reach 1411 MHz when the chip is loaded to 100%.
Wo sich die ganze Geschichte nicht ausgeht ist beim Uncore. 1536 Rechenwerke wollen erst mal beschäftigt werden. Wenn Nvidia also den Scheduler nicht deutlich vergrößert geht die Effizienz baden. Dann wäre da irgendwo noch diese dynamische Taktung unter zu bringen. Und das seh ich bei einem Chip der angeblich bei drei mal so vielen Recheneinheiten etwa den selben Transistor-Count wie ein GF110* hat nicht.
* etwa halbe Größe bei 28 vs 40nm bedeutet das einen vergleichbaren Transistor-Count von ~3 Mrd.; siehe auch der etwas kleinere Pitcairn mit 2,8 Mrd.
Nokia n97 mini
Ensign
- Registriert
- Jan. 2012
- Beiträge
- 201
boxleitnerb schrieb:Die Leaks/Gerüchte aus Asien sprechen inzwischen von 190W TDP, 3.54 Mrd. Transistoren und 294mm2. Die Diegröße wurde mir übrigens von einer Quelle bestätigt, die ich hier nicht nennen darf. Die 190W beziehen sich möglicherweise auf den Turbo, wie es ohne Turbo aussieht, weiß ich nicht. Schätze aber auf 560Ti Niveau, also 160W. Dafür natürlich auch weniger Leistung.
Ein Fermi 2.0 wird das bestimmt nicht, wer das jetzt noch glaubt, dem ist nicht mehr zu helfen.
Das hat auch keiner behauptet, ich meinte damit nicht die GK 104 sondern die GK 110.
Bitte richtig lesen bevor mann so was schreibt.
Ergänzung ()
Volker schrieb:Du schreibst zwar das falsche, aber solange ich nicht die Beweise auf den Tisch legen darf, sind die Worte von dir letztlich genau soviel wert wie meine
So wie man Shader bei AMD und Nvidia nicht vergleichen kann, kann das auch bei einem Generationswechsel passieren. Denn wenn sich die Architektur ändert, kann viel passieren. Also: Nicht vergleichbar!!
Lieber Volker ich weiß worauf du hin willst ^^
Zuletzt bearbeitet:
D
Dawzon
Gast
riDDi schrieb:Und das seh ich bei einem Chip der angeblich bei drei mal so vielen Recheneinheiten etwa den selben Transistor-Count wie ein GF110* hat nicht.
GK104 soll angeblich zwischen 270-300mm² groß sein. Wenn nVidia es also schafft die selbe Transistordichte wie bei AMD* hinzubekommen dann dürften es zwischen 3,5Mrd. - 3,8 Mrd. Transistoren werden. Ich lasse mich auf jeden Fall überraschen was nVidia da anstellt.

*bisher hatte nVidia aufgrund des Hot-Clockings eine wesentlich geringere Transistordichte als AMD, der GF110 war mit 3Mrd. Transistoren ca. 520mm² groß, während AMD bei 300 Mill. Transistoren weniger 389mm² hatte.
D
Dawzon
Gast
Im Uncore Bereich kann schon extremst viel eingespart werden durch Verringerung des SI und im Core Bereich durch abschaffen des Hot-Clocks.
Es könnte natürlich auch sein dass nVidia die GPU-Computing Fähigkeiten nur dem GK110 spendiert. Habe sowieso nie verstanden für was man so viel HPC Leistung in einer Gamer-Karte benötigt.
Es könnte natürlich auch sein dass nVidia die GPU-Computing Fähigkeiten nur dem GK110 spendiert. Habe sowieso nie verstanden für was man so viel HPC Leistung in einer Gamer-Karte benötigt.

Dawzon schrieb:Im Uncore Bereich kann schon extremst viel eingespart werden durch Verringerung des SI und im Core Bereich durch abschaffen des Hot-Clocks.
Es könnte natürlich auch sein dass nVidia die GPU-Computing Fähigkeiten nur dem GK110 spendiert. Habe sowieso nie verstanden für was man so viel HPC Leistung in einer Gamer-Karte benötigt.![]()
Vielleicht um OpenCL und DX11 konform zu sein?

A
Apocaliptica
Gast
Sontin schrieb:Vielleicht um OpenCL und DX11 konform zu sein?![]()
wundern würde es mich nicht

ps: warum hast du hier das trollface nicht drin?

riDDi
Admiral
- Registriert
- Aug. 2004
- Beiträge
- 7.565
@Dawzon: Macht das SI wirklich so viel aus? Klar braucht man weniger Controller, aber danach kommen heute doch schon direkt Caches. Also viel ändert sich durch ein schmäleres Interface IMO intern nicht. Hot clocks... ich denke vor allem Richtung weniger Pipeline Stages, weil die Anforderungen an die Schaltzeiten geringer sind.
Und warum der GF100/110 beschnittene HCP-Fähigkeiten hat? Ein ASIC ist nun mal sehr teuer. Für die wenigen Tesla-Karten eine eigene Produktionslinie zu fahren ist zu teuer. Außerdem hatte man so die Möglichkeit zur Auswahl und damit direkt voll ausgebaute GF100 für den HPC-Sektor erhalten. Viel früher als das für die Gamer-Karten möglich war.
Und warum der GF100/110 beschnittene HCP-Fähigkeiten hat? Ein ASIC ist nun mal sehr teuer. Für die wenigen Tesla-Karten eine eigene Produktionslinie zu fahren ist zu teuer. Außerdem hatte man so die Möglichkeit zur Auswahl und damit direkt voll ausgebaute GF100 für den HPC-Sektor erhalten. Viel früher als das für die Gamer-Karten möglich war.
Zuletzt bearbeitet:
D
Dawzon
Gast
Okay entschuldigt, ich hätte erweiterte GPGPU Fähigkeiten dazu schreiben sollen. Der GK104 wird m.M.n. ja leistungsmäßig dort etwas beschnitten sein ggü. der Vollausbau-Variante GK110. 

Jenergy
Rear Admiral
- Registriert
- Dez. 2008
- Beiträge
- 5.461
Du wirst von nVidia bezahlt, stimmt's?Nokia n97 mini schrieb:neben bei alle die sich eine neue karte kaufen möchten sollten dies jetzt tun den die preise werden so bleiben wenn nicht höher gehen !!!!
sagt nicht ich habe euch nicht gewarnt .
Zuletzt bearbeitet:
Nokia n97 mini
Ensign
- Registriert
- Jan. 2012
- Beiträge
- 201
Habe neue infos bekommen ich bin ziemlich sicher das die 670 raus kommt und die 680
über die 680 kann ich sagen :Speicherbus 256bit 1536 Cudacores 3GB vram und anscheinend neues Speichersystem !!!
2GB hat die 670 TI
Die TDP der 670 beträgt 195Watt
DIe TDP der 680 beträgt 250-260
beide karten setzten auf den GK 104
P.s Kein GDDR5 ich wiederhole kein GDDR5
über die 680 kann ich sagen :Speicherbus 256bit 1536 Cudacores 3GB vram und anscheinend neues Speichersystem !!!
2GB hat die 670 TI
Die TDP der 670 beträgt 195Watt
DIe TDP der 680 beträgt 250-260
beide karten setzten auf den GK 104
P.s Kein GDDR5 ich wiederhole kein GDDR5
Zuletzt bearbeitet:
B
boxleitnerb
Gast
Anscheinend? Weißt du das selbst nicht?
Außer GDDR5 und dem extrem unwahrscheinlichen XDR2 bleibt doch nichts mehr übrig. Es gibt verschiedene mögliche Nachfolgetechnologien, von denen aber keine marktreif ist:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=506896
Abgesehen davon wäre das Dinge, die auch AMD verwenden könnte soweit ich weiß.
Außer GDDR5 und dem extrem unwahrscheinlichen XDR2 bleibt doch nichts mehr übrig. Es gibt verschiedene mögliche Nachfolgetechnologien, von denen aber keine marktreif ist:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=506896
Abgesehen davon wäre das Dinge, die auch AMD verwenden könnte soweit ich weiß.
D
Dawzon
Gast
Ich hab auch neue Infos zur Radeon HD9000 Serie erhalten
:trollface:

Nokia n97 mini schrieb:Habe neue infos bekommen ich bin ziemlich sicher das die 670 raus kommt und die 680
über die 680 kann ich sagen :Speicherbus 256bit 1536 Cudacores 3GB vram und anscheinend neues Speichersystem !!!
Frage eines Laien: wie funktionieren 3GB VRAM mit einem 256bit SI? Oder liegt das am "neuen Speichersystem"?