News Erscheint Nvidias „Kepler“ als GK104-Grafikchip am 23. März?

@SuddenDeathStgt

joa klar, die Rechnung geht so nich auf ;)

Auch bleibt die Frage wie stark die einzelnen Shader sind, aber wieso sollte Nvidia hier zurückfahren.

Wenn ein GK104 Shader einem bisherigen 1D Shader gleich kommt, dann wäre die Leistung wirklich enorm, auch wenn die Taktraten erstmal geringer ausfallen als bei der Konkurrenz. (Shader Takt war dank HotClock schon ne ganze Zeit weit höher). Mich wundert, dass dieser angeblich beibehalten wurde. Aber warum auch ändern, war ja offensichtlich keine schlechte Sache.


@boxleitnerb

ich denke trotzdem, dass man 200W für die GPU ansetzen kann, 28nm hin oder her, 100W für die GK104 Karten, knapp 300 für die GK110 Karten mit höherem Takt und größerem Chip...

Auch Nvidia wird nicht hexen können und aus 130W TDP die Leistung einer HD7970 rausholen.
 
Ich glaube an eine TDP von etwa 160W, so wie die 560Ti sie auch hat. Pack dazu eine Ivy-CPU+SSD oder verwende das Netzteil nur für die Grafikkarte und du kommst auch mit 200W aus. Vielleicht knapp, aber es sollte gehen.
Das Ding wird eine 7970 nicht überholen, höchstens mit massivem Cherrypicking und/oder dem Turbomodus. Darauf deutet momentan alles hin.
 
joa so in etwa denk ich auch. Dezent kleinerer Chip als Tahiti, moderate Standardtaktraten, etwas höhere Performance / W.

Ich denke so knapp, also mit 200W PSU, hätte man einen Demo PC keines Falls ausgestattet. Mag sein dass direkt ein kleinerer Vertreter, der GK107 hier verbaut war.
 
Zuletzt bearbeitet:
Nvidia hat wirklich Glück, dass der Prozess so scheiße läuft und AMD die Karten verfrüht gebracht hat. Mit etwas mehr Reife könnte man die Spannung der 7000er sicher um 0,1V senken und Perf/W deutlich erhöhen, vielleicht um 20%. Ich bin mal auf die Spannungen gespannt. Wenn sich Kepler auch so gut undervolten/übertakten lässt, nehme ich meine Aussage natürlich zurück.

Edit:
GK107? Na das glaub ich nicht, so einen Performancesprung gibts dann doch nicht. Epic sagte doch etwas von 2.5TF für die Demo bei den Settings, das schafft ein GK107 nicht. Nichtmal ein GK106. Wobei ich ehrlich gesagt nicht weiß, wieviel Performance MSAA in der Demo frisst. Ich glaube eher, dass die 200W dann wirklich nur für die Karte waren und der Rest des Systems von einem anderen Netzteil befeuert wurde.
 
Zuletzt bearbeitet:
boxleitnerb schrieb:
Ich glaube eher, dass die 200W dann wirklich nur für die Karte waren und der Rest des Systems von einem anderen Netzteil befeuert wurde.

das schon eher. Würde mich auch wundern, wenn Nvidia urplötzlich den Ökotrend geht und die Performance Karte in Leistung und Verbrauch beschneidet.

@ HD79XX

Naja, der Prozess soll ja besser laufen als damals in 40nm, auch das OC Potential spricht für sich. Die Streuung wird relativ hoch sein, deswegen die hohe default Spannung - genau wie bei Llano.
Ich nehme aber auch an, dass eben diese Streuung mit kleineren Fertigungen zunimmt, also weniger mit der Qualität des Prozesses an sich zu tun hat.

Die Preise von AMD sind natürlich hoch, da man die geringe vorhandene Kapazität des neuen Prozess möglichst gewinnbringend an den Kunden bringen will. Hohe Nachfrage, geringes Angebot... da geht machen sich hohe Preise gut (und die tun auch AMD gut).

Ich denke eher, dass AMD noch recht kurzfristig den Takt seiner HD79XX Serie nach unten korrigierte. Warum? - ganz einfach, man stellt auch so locker das schnellste Flagschiff, Nvidias Karten kommen später als erwartet und man hält sich die Option für schnellere Karten wie HD7980 noch offen um nochmals etwas die Käuferschaft zu pushen. Warum also gleich in die Vollen gehen wenn man später nochmals einen "Wow" Effekt schaffen kann ;)
 
Zuletzt bearbeitet:
Habe das Gerücht zur "Samaritan" demo (http://www.gamesindustry.biz/articles/2012-03-08-gdc-epic-aiming-to-get-samaritan-into-flash) gelesen und man müsste davon ausgehen, dass es wahr ist, da hier ja ein neutraler Beobachter seine Erfahrung über ein eigentlich ganz anderes Produkt berichtet (eben zur Unreal Engine und "Samaritan" demo). Trotzdem bleiben noch einige Fragezeichen.

Geht dieses Demo an die Lastgrenze der GPU? Kein Mensch kennt doch die genauen Daten zu dem Demo, oder? Die Power die für die Wiedergabe benötigt wird, impliziert das aber wohl. Die neue GK104 soll ja zwei 580er ablösen. Das wär ja eine brachiale >Leistungs-Steigerung und das mit nur 200W? Das wäre eine enorme Verbesserung der Perf/W. Klingt irgendwie zu schön um wahr zu sein...

still: :confused_alt:
 
Aza* schrieb:
Das wäre eine enorme Verbesserung der Perf/W. Klingt irgendwie zu schön um wahr zu sein...

still: :confused_alt:

Ja und genau das ist der Punkt. Die Karten von Nvidia waren zwar bisher immer ein Stückchen schneller als das AMD Pendant, jedoch kaum mit deren Effizenz, geschweige denn Preis-Leistungsverhältnis gleichzusetzen.
Daher vermute ich trotz doppeltem Shrink sowie Optimierungen eine leicht höhere Leistungsaufnahme (25-75W?; GTX 680 verglichen mit HD 7970), dafür knapp 10-20% mehr Leistung.

Hoffentlich hat Nvidia die Zeit genutzt, damit eine ordentliche Karte rauskommt und die Preise auf beiden Seiten sinken. Wenn dann wirklich die Performance stimmt, dann hol' ich mir doch vielleicht eine GTX 680.
 
Zur Samaritan Demo:

1. Letztes Jahr: 2xGTX580 SLI + 1xGTX580 für GPU-PhysX. Da liegt nicht unbedingt ein Faktor 3 zur 580.
2. Dieses Jahr wahrscheinlich FXAA statt MSAA (siehe Artikel auf geforce.com)
3. Weitere Optimierungen, sie hatten ein Jahr lang Zeit
4. GK104 hat um die 3TF, also fast doppelt soviel Rechenpower wie eine GTX580.
5. fps nicht angegeben, weder damals noch heute

Ach ja, ein netter Fund:
Powertune bekommt Gesellschaft. Dieses nette Bildchen ist im aktuellen 295er Treiber versteckt in einer dll.



Scheint noch nicht ganz fertig zu sein. Laut Beschreibung:
"You can configure global and program-specific settings for GPU power and performance."

Das Zweite scheint der fps-Limiter zu sein, nun endlich im Treiberpanel integriert. Vielleicht kommt beides ja zum Kepler Launch.
 
Zuletzt bearbeitet:
Aza* schrieb:
Habe das Gerücht zur "Samaritan" demo (http://www.gamesindustry.biz/articles/2012-03-08-gdc-epic-aiming-to-get-samaritan-into-flash) gelesen und man müsste davon ausgehen, dass es wahr ist, da hier ja ein neutraler Beobachter seine Erfahrung über ein eigentlich ganz anderes Produkt berichtet (eben zur Unreal Engine und "Samaritan" demo).

PS3 hat kein richtiges AA, es zählt allein die reine shader/version/leistung ist also egal ob es da läuft, und so wie es schon John Carmack gesagt hatte, wird die meiste Leistung auf dem PC vergeudet mit dem "driver overhead"

John Carmack Interview: GPU Race, Intel Graphics, Ray Tracing, Voxels and more!
 
Athlonscout schrieb:
Für mich eher schwer vorstellbar, dass Nvidia mit Kepler Perf/W mäßig auch nur annährend wird gleichziehen können. Immerhin verbraucht eine GCN Karte bis zu 2/3 weniger als eine ähnlich performante Fermi. Imho ist solch ein Effizienzsprung kaum vorstellbar.
Tja - der erste nun ja "Test" sowie NVs geleakte Slides zeigen genau das: Geforce GTX 680 schneller oder gleichauf mit Radeon HD 7970 bei geringerem Stromverbrauch.

Warten dennoch die finalen Reviews ab, da wird sich aber IMHO nichts daran ändern: Kepler GK104 ist effizienter als GCN Tahiti XT und ich hatte Recht :p
 
Im Gamingbereich mag der Kepler efizienter sein. Ob das im GGPU bereich auch so ist bezweifle ich da NV wohl mit GK104 ne reine Gaming GPU bringt. Bei Tahiti sieht das anders aus.
 
NV wollte mit Kepler die 3x perf/watt von Fermi in DP erreichen, "dank" Gaming-Ausrichtung wird das aber mit dem GK104 wohl nicht, ja.
 
y33H@ schrieb:
Tja - der erste nun ja "Test" sowie NVs geleakte Slides zeigen genau das: Geforce GTX 680 schneller oder gleichauf mit Radeon HD 7970 bei geringerem Stromverbrauch.

Warten dennoch die finalen Reviews ab, da wird sich aber IMHO nichts daran ändern: Kepler GK104 ist effizienter als GCN Tahiti XT und ich hatte Recht :p

y33H@ schrieb:
NV wollte mit Kepler die 3x perf/watt von Fermi in DP erreichen, "dank" Gaming-Ausrichtung wird das aber mit dem GK104 wohl nicht, ja.

Tja, warten wir mal bis die endgültigen benches vorliegen und wie viele Taktreserven der geneigte OCer bei GK104 hat.

Wäre aber sehr enttäuschend, wenn das Versprechen von Nvidia die DP Performance deutlich zu steigern nicht eintrifft und relativiert die perf/W ggü Tahiti. Wenn dem so sein sollte ist der Chip ohnehineher eher vergleichbar mit Pitcairn, der ja eine deutlich bessere Gamingperf./W erreicht.
 
Athlonscout schrieb:
Tja, warten wir mal bis die endgültigen benches vorliegen und wie viele Taktreserven der geneigte OCer bei GK104 hat.

Wäre aber sehr enttäuschend, wenn das Versprechen von Nvidia die DP Performance deutlich zu steigern nicht eintrifft und relativiert die perf/W ggü Tahiti. Wenn dem so sein sollte ist der Chip ohnehineher eher vergleichbar mit Pitcairn, der ja eine deutlich bessere Gamingperf./W erreicht.

Wieso sollte man Kepler mit Pitcairn vergleichen? Ich dachte die 7970 ist das superdupermegatolle High-End Produkt. :evillol:

Wäre ja absurd, wenn man plötzlich Tahiti ignoriert. Aber wenn wir schon so denken: Dann hat AMD ja garnicht früher 28nm Produkte auf den Markt gebracht. Und nVidia hat die schnellste Single-GPU jetzt seit fast 2 Jahren. Gute Leistung.
 
Sontin schrieb:
Wieso sollte man Kepler mit Pitcairn vergleichen?

Wie der Diskussion zu entnehmen, kommt es auf die DP Performance an, inwiefern man GK104 mit Tahitit (oder eben mit Pitcairn) vergleichen kann. Zur Erinnerung: Tahiti bietet ~die 5-fache DP Leistung einer GTX580, Pitcairn leicht weniger als Fermi.:rolleyes:

Daran sieht man, dass das Augenmerk bei Tahiti auf hohe GPGPU Leistung legt, Pitcairn eher auf hohe Gamingperformance!;)
Ergänzung ()

boxleitnerb schrieb:
Na ich. Man muss auch kein Genie sein, um darauf zu kommen ;)

Ich habe nur eine Folie von Nvidia im Hinterkopf, wonach die Kepler Architektur deutlich bessere DP-perf./W als Fermi bieten soll.:(
 
Zurück
Oben