News Berichte über erste Samples der Kepler-GPU von Nvidia

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.339
Bereits in der letzten Woche berichtete SemiAccurate darüber, dass zwei Nvidia-GPUs auf Basis der in 28 nm gefertigten „Kepler“-Architektur ihr Tape-Out hinter sich haben. Bei den Sample-Chips soll es sich um die Modelle GK117 und GK107 handeln. Die Existenz von Letzterem wird nun durch einen Bericht von VR-Zone bestätigt.

Zur News: Berichte über erste Samples der Kepler-GPU von Nvidia
 
Auch bei AMD melden die Gerüchte-Seiten, dass die Karten erst 2012 kommen werden. Offen steht noch, ob eventuell Profi-Karten doch noch dieses Jahr kommen könnten.

Bei nvidia siehts wohl derzeit nach April aus und bei AMD nach Februar.
 
Ich vermute mal, dass wenn AMD dieses Jahr noch was in 28 nm bringt, es sich dabei um einen Shrink der aktuellen Architektur handeln wird. Vermutlich hat man das auch letztens in San Francisco vorgeführt. Souhtern Islands kommt dann wahrscheinlich 2012. Sind aber nur reine Spekulatius ;)
 
Mittlerweile sehe ich dem Release der neuen Grafikkartengeneration sehr gelassen entgegen. Es kommt für mich so schnell kein Spiel bei dem ich sagen müsste, meine HD 5770 würde hier keine guten Dienste leisten. Und nein, Battlefield 3 interessiert mich nicht.
 
Mhh Kepler 1 übergehe ich sicher dann eher die verbesserte Version von Kepler alias GTX780. Meine GTX wird von meinen Spielen (ja ich brauche kein BF3 Oder CoD Mist) nicht annähernd in die Knie gezwungen. Solange meine Spiele auf Max in 1080p und 4xSSAA laufe, warum eine neue kaufen. Sobald dann eine GTX680 erschienen ist kaufe ich dann zwei günstige 580er und habe garantiert ausgesorgt.

Schuld daran sind die Konsolen Ports dank auch, kann man Geld sparen:evillol:
 
Die GTX 580 wird so lange so teuer bleiben, bis es keinen Sinn macht kein neueres Modell mit ähnlicher Performance zu erwerben. Das Ist seit Anbeginn der dedizierten Grafikkarten so.
 
@gerzerk:

Ich verstehe die Aussage in deinem Posts nicht. Kannst du diesen noch einmal überarbeiten?
 
Weiß man denn, auf welches Speicherinterface Kepler setzen wird? Ein "gerades" wäre zu begrüßen, vllt haben wir dann auch bei Nvidia endlich auch mal durch die Bank 2GB Modelle.
 
Was gibt's denn da nicht zu verstehen :p
Solange wie eine GTX580 für alles reicht, wird die Karte teuer bleiben.
Wenn der Tag gekommen ist, an dem eine GTX580 bei Spielen in die Knie geht, dann wird der Preis fallen, weil es keinen Sinn macht eine ehemalige Highend-Karte zu kaufen, die nicht alles schafft.
 
Hoffentlich werden die neuen GPUs mal stromsparender. Die derzeitig im Verkauf befindlichen sind nämlich die reinste Heizung.
 
@lars.vom.mars:

Das sehe ich anders. Der Preis wird fallen, sobald die Nachfrage zurückgeht. Und dies tritt oft früher ein, als dass die Karte nicht mehr "alles schaffen" würde, nämlich dann, wenn neuere Hardware verfügbar ist.

@Planet_Nerd:

Die Highend-GPUs werden bestimmt nicht stromsparender. Die Hersteller werden nach wie vor die maximale Performance aus einem Chip herausholen wollen.
 
Zuletzt bearbeitet:
sie werden aber vom leistung/verbrauch verhältnis garantiert besser sein, nicht zuletzt wegen shrink

trotzdem denk ich dass die tdp wieder angehoben wird

ich freu mich schon drauf, einfach nur weils vorwärts geht nich weil ich eine haben will xD

(gurk noch mit gts 250 512mb und gt555m 1024mb rum, aber es langt mir )
 
Das vermeintliche GK107-Flaggschiff N13E-GE soll einen 3DMark-Wert (wahrscheinlich 3DMark Vantage im Performance-Preset) von 11.000 Punkten bei einer TDP von 40 bis 45 Watt erzielen.
Das Spitzenmodell N13E-GE dürfte demzufolge die GTX 560M beerben, was aber ebenfalls reine Spekulation der Kollegen ist.

Die N12E-GE ist aber derzeit die GT 555M. Und die kommt derzeit mit 144 shadern und 128bit-GDDR5 auf ca. 5500 3DMark Vantage Punkte. Und durch den shrink soll sich das verdoppeln? Das würde nur passieren, wenn sie mit dem shrink annähernd doppelt so viele shader bekäme (wie z.B. die derzeitige GTX 570M die in der Tat auf ca. 11000 3DMark vantage punkte kommt - bei 256bit Interface)...

Und auch wenn ich mich gern positiv überraschen lasse, bleib ich wie in der letzten News https://www.computerbase.de/forum/threads/nvidias-mobil-gpus-auf-28-nm-basis-enthuellt.942368/ dabei:
Seit wann gibt Nvidia denn Benchmarkpunkte von Vantage an!?

Es waren schon immer 3DMark06 Scores, die vor dem Release verbreitet wurden. Und ähnliches wird wohl auch hier der Fall sein.
Eine ~35W TDP GT540M (N12P-GS) bringt dort bisher ca 8200Punkte, und wird nun wahrscheinlich von der N13P-GS mit ca. 9000 Punkten bei 25-30W TDP abgelöst. Die N13P-GT und N13E-GE entsprechen dann den bisherigen GT 550M und GT555M die auf ähnliche 3DMark Punkte wie ihre Nachfolger, bei höherer TDP, kommen.

Nur das hier keine Missverständnisse aufkommen, dass die Karten auf einmal doppelt so schnell werden, nur durch einen Die-shrink...

Greetz
dlrk
 
Ich freue mich auf jeden Fall, wenn die Midrange GPUs wahrscheinlich wesentlich weniger verbraten werden, als die Jetzigen (Richtung GTX560Ti, AMD 6850-6870)

Die High End Ableger werde ich mir aus Preis-Leistungs-Gründen eh nicht zulegen.

Mal davon abgesehen, dass es sich hierbei um Notebookchips handelt. Wird sich sicherlich auf die Desktopableger übertragen lassen
 
sse3 schrieb:
Mhh Kepler 1 übergehe ich sicher dann eher die verbesserte Version von Kepler alias GTX780. Meine GTX wird von meinen Spielen (ja ich brauche kein BF3 Oder CoD Mist) nicht annähernd in die Knie gezwungen. Solange meine Spiele auf Max in 1080p und 4xSSAA laufe, warum eine neue kaufen. Sobald dann eine GTX680 erschienen ist kaufe ich dann zwei günstige 580er und habe garantiert ausgesorgt.

Schuld daran sind die Konsolen Ports dank auch, kann man Geld sparen:evillol:

:o dann denk auch an die starkstromleitung für die 500watt die allein deine zwei 580er ziehen werden du laberbacke
 
Die Hersteller werden nach wie vor die maximale Performance aus einem Chip herausholen wollen.

Haha...mit Sicherheit nicht. Wie sollten Sie sonst immer viel Geld draus machen und immer ein Gegenprodukt zum Konkurrenten haben.

Deswegen haben wir auch immer alle 2-3 Jahre wieder was "richtig" neues was z.B: Architektur oder Technologie angeht.

Würden die jetzt die Maximale Performance aus den 40nm rausholen (Was denke ich letztendlich mit der GTX 580 / HD 6970 schon gut gemacht worden ist) gäbe es groe Probleme mit den aktuellen Preisen für Grafikkarten da man diesen sehr hoch ansetzen, oder den Rest herabsetzen müsste -> Marketingmäßig würde man sich ins eigene Fleisch schneiden, man will ja auch immer was "neues" rausbringen.
 
Zuletzt bearbeitet:
Zurück
Oben