News Nvidia zeigt Tesla-„Fermi“-Grafikkarten

Mich würde mal die 6GB Version interessieren.
Bekommen die Speichergersteller bis Q3 2010 2GBit GDDR5 hin? Weil 48 Speicherchips auf so ein kleines PCB zu löten wird etwas knifflig. :D
 
Na das klingt doch mal richtig gut. Die Leistung ist bei dieser GPU Generation zwar enorm, aber aus programmiertechnischer Sicht bei weitem nicht das Interessanteste. Ein Shared Memory von 64KB, dass ist Fortschritt. Wie oft verschenkt man 100erte von Gigaflops, weil der Shared Memory zu klein ist und so die MPs nicht voll genutzt werden können. Mehrstufiger Cache, ein Traum (endlich verkraftbare Speicherzugriffe, locker mal ne Beschleunigung von 100 möglich). Eine höhere IEEE-754 Kompatibilität ist ebenfalls sehr entgegenkomment...und nun der Hammer: Komplette C++ Unterstützung, endlich Objektorientierung auf der GPU. Aus programmiertechnischer Sicht hätte das schon vollkommen gereicht, um die zu erzielende Geschwindigkeit - zumindest bei einigen Problemstellungen - zu verdoppeln....

Ganz ehrlich, die ATI ist ne tolle Karte und bestimmt auch richtig gut im Spielebereich, aber wenn man den GT200 - ach was sage ich, reicht der G92 - nur mit diesen Features ausstatten würde, ohne an der Leistung zu drehen...die HD5870 wäre keine ernsthafte Alternative! Und so....ich freu mich!

Hoffen wir mal das Nvidia auch einen vernünftigen Preis im Gamersegment trifft...sonst werden die bald nur noch Profikarten basteln....das wäre für alle ein grosses Problem.
 
Der Shadertakt macht mir Angst. So niedrig für die schnellere Version von den vorgestellten und ab Mai 2010?????

Und wenn ich mir dann das Zitat durch den Kopf gehen lasse, "Leistung auf GTX295 Niveau bei Games"....da kommt eine 5870xtx und neuere Treiber auch hin. Mal schauen ob nvidia das bei der TDP des Cypress auch hinbekommt:-)

Bei den 65nm GT200 gab es gar keinen Unterschied und bei GT200b basierten GPUs taktet die GTX285 36 MHz höher als die Teslas.


Nvidia hat nur Glück daß TSMC nicht liefern kann und es ATI etwas verschläft mehr in Tools bzw. Softwareentwicklung zu investieren.
 
Zuletzt bearbeitet:
glück? wenn tsmc den 40nm prozess besser beherrschen würde, gäbs vermutlich vor ende des monats die gtx380 (wie von nvidia vorgesehn). aber wenn schon ein "kleiner" cypress mit yields unter 40% zu kämpfen hat, dann macht es kaum sinn, einen fermi in dem prozess zu fertigen, weil dann wohl grade mal eine voll intakte gpu pro waver rausspringen würde. und wer zahlt schon freiwillig mehrere tausend euro für eine karte, die knapp vor einer 5870 liegt? ;)
 
Also eine GTX285 schafft mit 240 Shadern und DDR3 ca. 80% einer 5870.

Da wird eine Femi mit 512 Sahdern und DDR5 selbst ohne Fortschritte im Cache usw, ja mal bei mindestens 150% einer 5870 landen. Und vielleicht bringt ein 4x so großer Cache ja tatsächlich irgendwo noch nen Vorteil...
 
@Eusterw
nur bleibt der Shadertakt nicht gleich. GTX285 war ein ausgereifter Prozeß, GT200b, ein Refresh dazu. Bei höheren Auflösungen sinds nur noch 70% der HD5870.

Mhh, das scheint auch nicht besser zu werden:


"Unterdessen gibt es Gerüchte, dass es beim nächsten Schritt - zum 32-nm-Prozess - nicht besser aussieht. Angeblich hat TSMC mit seinen ersten 32-nm-Versuchen mehr Probleme als mit dem 40-nm-Prozess, als dieser im gleichen Entwicklungsstadium war."


Also ab zu Globalfoundries.
 
Zuletzt bearbeitet:
bensen schrieb:
Mich würde mal die 6GB Version interessieren.
Bekommen die Speichergersteller bis Q3 2010 2GBit GDDR5 hin? Weil 48 Speicherchips auf so ein kleines PCB zu löten wird etwas knifflig. :D
Das ist laut Dave Baumann der Hauptgrund für den Erscheinungstermin. Man wartet auf den Speicher.
http://forum.beyond3d.com/showpost.php?p=1359273&postcount=1206

Geforce kommt im Januar und breite Verfügbarkeit wohl etwas später. Im Januar hat ATI immerhin gute Verfügbarkeit laut letzten Meldungen.
Ailuros im 3DCenter-Forum hat schon vor Monaten gesagt, 2 Monate Abstand zwischen guter Verfügbarkeit und guter Verfügbarkeit. Aber so hat er sich das glaube nicht vorgestellt. ^^
 
GrooveXT schrieb:
und nun der Hammer: Komplette C++ Unterstützung, endlich Objektorientierung auf der GPU.
Äh, nein. Das ist eine leider sehr häufig gemachte Fehlinterpretation der nVidia Ankündigung. Der Fermi-Chip versteht natürlich nichts von den höheren Aspekten einer Programmiersprache, wie C++. Es geht hier vor allem darum, dass die neue Architektur mit Zeigern und Referenzen umgehen kann, was für C++ eben essenziell ist.

Das sagt nVidia dazu:

The implementation of a unified address space enables Fermi to support true C++ programs. In C++, all variables and functions reside in objects which are passed via pointers. PTX 2.0 makes it possible to use unified pointers to pass objects in any memory space, and Fermi’s hardware address translation unit automatically maps pointer references to the correct memory space. Fermi and the PTX 2.0 ISA also add support for C++ virtual functions, function pointers, and new and delete operators for dynamic object allocation and de-allocation. C++ exception handling operations ‘try’ and ‘catch’ are also supported.
 
Naja, das wäre dann schon eigentlich ein solides Fundament für OOP. Java hat bis auf die intuitiven Libraries, built in Patterns sowie Generezität auch nicht mehr zu bieten, und bis auf letzteres lässt sich logischerweise alles davon selber implementieren.

C++ hat natürlich ein wesentlich größeres Featureset, allerdings ist es fraglich, inwiefern zB eine komplette Template Spezifikation für die GPU Sinn machen würde.
 
Zuletzt bearbeitet:
Auch wenn GPUs immer flexibler werden, sie bleiben weiterhin Streamprozessoren mit hoher Latenz. Es machen also auch weiterhin nur Aufgaben Sinn, die sehr oft hintereinander wiederholt werden.
Man darf da nicht den Durchbruch für alles erwarten.
 
GodCast schrieb:
Intel sollte Nvidia komplett kaufen und dann schnell das Know How einsetzen, dann brauchen die den TMSC Saftladen nicht mehr. AMD bzw. ATI dürfte dumm schauen wenn der Fermi im 32nm Design kommt.

Glaube kaum das das geschehen wird. Intel hat jetzt schon über 50% Marktanteil bei Grafik Chips und wenn sie sich dann noch die 30% von Nvidia holen hätten sie ein Quasi Monopol.
 
Aber zum Glück wird das so nicht kommen. Ich denke eher nvidia wird "dumm schauen" da sie weiter bei tsmc fertigen werden müssen und das A-Team zu GF wechselt :-)
 
Ich finde die Einstellung von Nvidia in der Hinsicht auch etwas kindisch. Denn selbst wenn sie nicht ganz von TSMC weggehen, könnten sie so zumindest größere Stück Zahlen liefern.
 
bensen schrieb:
Mich würde mal die 6GB Version interessieren.
Bekommen die Speichergersteller bis Q3 2010 2GBit GDDR5 hin? Weil 48 Speicherchips auf so ein kleines PCB zu löten wird etwas knifflig. :D

Hm, man kann die Bausteine doch auch übereinander packen (wie z.b. in einigen SSDs der Fall) oder? Macht vermutlich das PCB erheblich teurer, aber anders als im Gamersegment kann man das ja beim GPUComputing problemlos an den Endkunden weitergeben.
 
Lübke schrieb:
doppeldecker-pcb. gabs früher schon^^
Ah ja? Kenn ich eigentlich nur bei Karten mit 2 GPUs. Der Weg vom Speicher zur GPU wäre etwas weit. Die werden ja nicht umsonst direkt neben die GPU gepackt.
digitalangel18 schrieb:
Hm, man kann die Bausteine doch auch übereinander packen oder?
Daran hab ich auch schon gedacht. Bei einigen reg. DIMMs werden die DRAM ja auch "stacked" verbaut. Hab ich allerdings noch nie bei Grafikkarten gesehen.
 
die doppeldecker kommen aus dem profibereich. das waren dann volle baulänge + draufgesetztes pcb. ist aber auch schon sehr lange her^^

und speicherbausteine bei ner highend-karte stapeln halte ich für unwahrscheinlich wegen der thermischen probleme. die würden sich gegenseitig aufheizen und nur die oberste schicht wäre einseitig zu kühlen.
 
Zurück
Oben