Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia zeigt Tesla-„Fermi“-Grafikkarten
- Ersteller Parwez
- Erstellt am
- Zur News: Nvidia zeigt Tesla-„Fermi“-Grafikkarten
GrooveXT
Commander
- Registriert
- Jan. 2007
- Beiträge
- 2.447
Na das klingt doch mal richtig gut. Die Leistung ist bei dieser GPU Generation zwar enorm, aber aus programmiertechnischer Sicht bei weitem nicht das Interessanteste. Ein Shared Memory von 64KB, dass ist Fortschritt. Wie oft verschenkt man 100erte von Gigaflops, weil der Shared Memory zu klein ist und so die MPs nicht voll genutzt werden können. Mehrstufiger Cache, ein Traum (endlich verkraftbare Speicherzugriffe, locker mal ne Beschleunigung von 100 möglich). Eine höhere IEEE-754 Kompatibilität ist ebenfalls sehr entgegenkomment...und nun der Hammer: Komplette C++ Unterstützung, endlich Objektorientierung auf der GPU. Aus programmiertechnischer Sicht hätte das schon vollkommen gereicht, um die zu erzielende Geschwindigkeit - zumindest bei einigen Problemstellungen - zu verdoppeln....
Ganz ehrlich, die ATI ist ne tolle Karte und bestimmt auch richtig gut im Spielebereich, aber wenn man den GT200 - ach was sage ich, reicht der G92 - nur mit diesen Features ausstatten würde, ohne an der Leistung zu drehen...die HD5870 wäre keine ernsthafte Alternative! Und so....ich freu mich!
Hoffen wir mal das Nvidia auch einen vernünftigen Preis im Gamersegment trifft...sonst werden die bald nur noch Profikarten basteln....das wäre für alle ein grosses Problem.
Ganz ehrlich, die ATI ist ne tolle Karte und bestimmt auch richtig gut im Spielebereich, aber wenn man den GT200 - ach was sage ich, reicht der G92 - nur mit diesen Features ausstatten würde, ohne an der Leistung zu drehen...die HD5870 wäre keine ernsthafte Alternative! Und so....ich freu mich!
Hoffen wir mal das Nvidia auch einen vernünftigen Preis im Gamersegment trifft...sonst werden die bald nur noch Profikarten basteln....das wäre für alle ein grosses Problem.
M
MR2
Gast
Der Shadertakt macht mir Angst. So niedrig für die schnellere Version von den vorgestellten und ab Mai 2010?????
Und wenn ich mir dann das Zitat durch den Kopf gehen lasse, "Leistung auf GTX295 Niveau bei Games"....da kommt eine 5870xtx und neuere Treiber auch hin. Mal schauen ob nvidia das bei der TDP des Cypress auch hinbekommt:-)
Bei den 65nm GT200 gab es gar keinen Unterschied und bei GT200b basierten GPUs taktet die GTX285 36 MHz höher als die Teslas.
Nvidia hat nur Glück daß TSMC nicht liefern kann und es ATI etwas verschläft mehr in Tools bzw. Softwareentwicklung zu investieren.
Und wenn ich mir dann das Zitat durch den Kopf gehen lasse, "Leistung auf GTX295 Niveau bei Games"....da kommt eine 5870xtx und neuere Treiber auch hin. Mal schauen ob nvidia das bei der TDP des Cypress auch hinbekommt:-)
Bei den 65nm GT200 gab es gar keinen Unterschied und bei GT200b basierten GPUs taktet die GTX285 36 MHz höher als die Teslas.
Nvidia hat nur Glück daß TSMC nicht liefern kann und es ATI etwas verschläft mehr in Tools bzw. Softwareentwicklung zu investieren.
Zuletzt bearbeitet:
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
glück? wenn tsmc den 40nm prozess besser beherrschen würde, gäbs vermutlich vor ende des monats die gtx380 (wie von nvidia vorgesehn). aber wenn schon ein "kleiner" cypress mit yields unter 40% zu kämpfen hat, dann macht es kaum sinn, einen fermi in dem prozess zu fertigen, weil dann wohl grade mal eine voll intakte gpu pro waver rausspringen würde. und wer zahlt schon freiwillig mehrere tausend euro für eine karte, die knapp vor einer 5870 liegt?
Eusterw
Lt. Commander
- Registriert
- Juni 2007
- Beiträge
- 1.201
Also eine GTX285 schafft mit 240 Shadern und DDR3 ca. 80% einer 5870.
Da wird eine Femi mit 512 Sahdern und DDR5 selbst ohne Fortschritte im Cache usw, ja mal bei mindestens 150% einer 5870 landen. Und vielleicht bringt ein 4x so großer Cache ja tatsächlich irgendwo noch nen Vorteil...
Da wird eine Femi mit 512 Sahdern und DDR5 selbst ohne Fortschritte im Cache usw, ja mal bei mindestens 150% einer 5870 landen. Und vielleicht bringt ein 4x so großer Cache ja tatsächlich irgendwo noch nen Vorteil...
M
MR2
Gast
@Eusterw
nur bleibt der Shadertakt nicht gleich. GTX285 war ein ausgereifter Prozeß, GT200b, ein Refresh dazu. Bei höheren Auflösungen sinds nur noch 70% der HD5870.
Mhh, das scheint auch nicht besser zu werden:
"Unterdessen gibt es Gerüchte, dass es beim nächsten Schritt - zum 32-nm-Prozess - nicht besser aussieht. Angeblich hat TSMC mit seinen ersten 32-nm-Versuchen mehr Probleme als mit dem 40-nm-Prozess, als dieser im gleichen Entwicklungsstadium war."
Also ab zu Globalfoundries.
nur bleibt der Shadertakt nicht gleich. GTX285 war ein ausgereifter Prozeß, GT200b, ein Refresh dazu. Bei höheren Auflösungen sinds nur noch 70% der HD5870.
Mhh, das scheint auch nicht besser zu werden:
"Unterdessen gibt es Gerüchte, dass es beim nächsten Schritt - zum 32-nm-Prozess - nicht besser aussieht. Angeblich hat TSMC mit seinen ersten 32-nm-Versuchen mehr Probleme als mit dem 40-nm-Prozess, als dieser im gleichen Entwicklungsstadium war."
Also ab zu Globalfoundries.
Zuletzt bearbeitet:
mapel110
Lieutenant
- Registriert
- März 2003
- Beiträge
- 990
Das ist laut Dave Baumann der Hauptgrund für den Erscheinungstermin. Man wartet auf den Speicher.bensen schrieb:Mich würde mal die 6GB Version interessieren.
Bekommen die Speichergersteller bis Q3 2010 2GBit GDDR5 hin? Weil 48 Speicherchips auf so ein kleines PCB zu löten wird etwas knifflig.
http://forum.beyond3d.com/showpost.php?p=1359273&postcount=1206
Geforce kommt im Januar und breite Verfügbarkeit wohl etwas später. Im Januar hat ATI immerhin gute Verfügbarkeit laut letzten Meldungen.
Ailuros im 3DCenter-Forum hat schon vor Monaten gesagt, 2 Monate Abstand zwischen guter Verfügbarkeit und guter Verfügbarkeit. Aber so hat er sich das glaube nicht vorgestellt. ^^
Äh, nein. Das ist eine leider sehr häufig gemachte Fehlinterpretation der nVidia Ankündigung. Der Fermi-Chip versteht natürlich nichts von den höheren Aspekten einer Programmiersprache, wie C++. Es geht hier vor allem darum, dass die neue Architektur mit Zeigern und Referenzen umgehen kann, was für C++ eben essenziell ist.GrooveXT schrieb:und nun der Hammer: Komplette C++ Unterstützung, endlich Objektorientierung auf der GPU.
Das sagt nVidia dazu:
The implementation of a unified address space enables Fermi to support true C++ programs. In C++, all variables and functions reside in objects which are passed via pointers. PTX 2.0 makes it possible to use unified pointers to pass objects in any memory space, and Fermi’s hardware address translation unit automatically maps pointer references to the correct memory space. Fermi and the PTX 2.0 ISA also add support for C++ virtual functions, function pointers, and new and delete operators for dynamic object allocation and de-allocation. C++ exception handling operations ‘try’ and ‘catch’ are also supported.
Naja, das wäre dann schon eigentlich ein solides Fundament für OOP. Java hat bis auf die intuitiven Libraries, built in Patterns sowie Generezität auch nicht mehr zu bieten, und bis auf letzteres lässt sich logischerweise alles davon selber implementieren.
C++ hat natürlich ein wesentlich größeres Featureset, allerdings ist es fraglich, inwiefern zB eine komplette Template Spezifikation für die GPU Sinn machen würde.
C++ hat natürlich ein wesentlich größeres Featureset, allerdings ist es fraglich, inwiefern zB eine komplette Template Spezifikation für die GPU Sinn machen würde.
Zuletzt bearbeitet:
mapel110
Lieutenant
- Registriert
- März 2003
- Beiträge
- 990
Auch wenn GPUs immer flexibler werden, sie bleiben weiterhin Streamprozessoren mit hoher Latenz. Es machen also auch weiterhin nur Aufgaben Sinn, die sehr oft hintereinander wiederholt werden.
Man darf da nicht den Durchbruch für alles erwarten.
Man darf da nicht den Durchbruch für alles erwarten.
nille02
Commander
- Registriert
- Okt. 2009
- Beiträge
- 2.327
GodCast schrieb:Intel sollte Nvidia komplett kaufen und dann schnell das Know How einsetzen, dann brauchen die den TMSC Saftladen nicht mehr. AMD bzw. ATI dürfte dumm schauen wenn der Fermi im 32nm Design kommt.
Glaube kaum das das geschehen wird. Intel hat jetzt schon über 50% Marktanteil bei Grafik Chips und wenn sie sich dann noch die 30% von Nvidia holen hätten sie ein Quasi Monopol.
M
MR2
Gast
Aber zum Glück wird das so nicht kommen. Ich denke eher nvidia wird "dumm schauen" da sie weiter bei tsmc fertigen werden müssen und das A-Team zu GF wechselt :-)
digitalangel18
Vice Admiral
- Registriert
- Mai 2005
- Beiträge
- 6.577
bensen schrieb:Mich würde mal die 6GB Version interessieren.
Bekommen die Speichergersteller bis Q3 2010 2GBit GDDR5 hin? Weil 48 Speicherchips auf so ein kleines PCB zu löten wird etwas knifflig.
Hm, man kann die Bausteine doch auch übereinander packen (wie z.b. in einigen SSDs der Fall) oder? Macht vermutlich das PCB erheblich teurer, aber anders als im Gamersegment kann man das ja beim GPUComputing problemlos an den Endkunden weitergeben.
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
doppeldecker-pcb. gabs früher schon^^Zitat von bensen
Mich würde mal die 6GB Version interessieren.
Bekommen die Speichergersteller bis Q3 2010 2GBit GDDR5 hin? Weil 48 Speicherchips auf so ein kleines PCB zu löten wird etwas knifflig.
Frazier schrieb:@Lübke:
1x 6pin: 75W, 1x 8pin: 150W + PCIe-Slot: 75W --> 300W maximal. Nicht?
Hä? Wo braucht der Ingenieur denn Leistung? ^^ AutoCAD braucht in den Planungsbüros keine extra Grafikkarte.. :>
Ah ja? Kenn ich eigentlich nur bei Karten mit 2 GPUs. Der Weg vom Speicher zur GPU wäre etwas weit. Die werden ja nicht umsonst direkt neben die GPU gepackt.Lübke schrieb:doppeldecker-pcb. gabs früher schon^^
Daran hab ich auch schon gedacht. Bei einigen reg. DIMMs werden die DRAM ja auch "stacked" verbaut. Hab ich allerdings noch nie bei Grafikkarten gesehen.digitalangel18 schrieb:Hm, man kann die Bausteine doch auch übereinander packen oder?
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
die doppeldecker kommen aus dem profibereich. das waren dann volle baulänge + draufgesetztes pcb. ist aber auch schon sehr lange her^^
und speicherbausteine bei ner highend-karte stapeln halte ich für unwahrscheinlich wegen der thermischen probleme. die würden sich gegenseitig aufheizen und nur die oberste schicht wäre einseitig zu kühlen.
und speicherbausteine bei ner highend-karte stapeln halte ich für unwahrscheinlich wegen der thermischen probleme. die würden sich gegenseitig aufheizen und nur die oberste schicht wäre einseitig zu kühlen.
Paladin-HH
Ensign
- Registriert
- Okt. 2005
- Beiträge
- 213
Consumer-Karten erst 2010
Zitat: [...] Editors’ note: As previously announced, the first Fermi-based consumer (GeForce®) products are expected to be available first quarter 2010. [...]
Zitat: [...] Editors’ note: As previously announced, the first Fermi-based consumer (GeForce®) products are expected to be available first quarter 2010. [...]