News Nvidia bringt „Tesla Personal Supercomputer“

eine 3d-szene, witzbold... beispielsweise eine cinema4d, maya, truespace, etc. szene, mit 10 beleuctungsquellen, spiegelung, nebel, schatten, etc. geschweige denn, man will mit http://www.realflow.com/ - realflow spielen...dann bricht die leistung alle quadcores zusammen. eine 1000-fache rohleistung eines penryn wäre erst akzeptabel... es gibt aber viele, viele beispiele, wo man heute praktisch nicht annährend manche programme bedienen kann: videoeffekte in after-effects, video-encoden in flash...usw.
 
taxishop schrieb:
eine 3d-szene, witzbold... beispielsweise eine cinema4d, maya, truespace, etc. szene, mit 10 beleuctungsquellen, spiegelung, nebel, schatten, etc. geschweige denn, man will mit http://www.realflow.com/ - realflow spielen...dann bricht die leistung alle quadcores zusammen. eine 1000-fache rohleistung eines penryn wäre erst akzeptabel... es gibt aber viele, viele beispiele, wo man heute praktisch nicht annährend manche programme bedienen kann: videoeffekte in after-effects, video-encoden in flash...usw.

Naja spiel dich ma auf, hat wohl jmd rausgefunden wie nen 3D programm funktoniert und nun will er prollen... zahlen bitte, danke.

Abgesehen davon das man solche Qualität garnicht brauch... da kein Monitor oder medium das aufnehmen kann, leb ma weiter in deiner super qualitätswelt.

Ich nehme an du hast auch nichts von optimierung gehört :>, aber schon okay.


Ich frag mich ob man sich so nen TeslaRack nehmen kann, nen Dell Rack dazu, cluster drauß und dann ab die post, aber halt programm frage :/.

Frage mich auch inwieweit das Ding noch brauchbar ist, wenn Cuda zurückgeschraubt wird und Dx11 kommt mit seiner Gpu brechnung.

Achso, und ne VitrualisierungsSoftware mit Cuda support will ich auch xD.
 
Zuletzt bearbeitet:
wow, was ne news...

TESLA gibt es schon etwas länger,
CUDA mittlerweile in der version 2.

wie auch immer,
ich glaube tesla ist nur für pro´s die das nötige kleingeld haben
für mainstreamhardware in anderem design.

aber auch ok so,
denn ein krankenhaus wird sich bestimmt keine 4 grakas mit bildern von aktuellen spielen drauf geklebt kaufen und die in ein gamer-case einsetzen.
jedoch für rendering wär das was.

tesla gibts auch bei ATI, heißt aber FIRE.

@octacore
machste mit deinem sparc dann auch nen 3d-mark und superPI bench? :D
 
kleiner Rechtschreibfehler:

Der Tesla Personal Supercomputer kommt in einem ziemlich gewöhnlich aussehendem Gehäuse daher und fast bis zu vier Tesla-Karten mit einer voll ausgestatteten GT200-GPU, ...
 
Jetzt nur mal so ein Vergleich: Unser Uni Supercomputer hat 400.000€ gekostet und frisst 40kW exkl. Klimaanlage und autonomer Stromversorgung. (252CPUs über 56Knoten, 32GB Ram/Knoten)

Der Rechner wird hauptsächlich für Finite Elemente Methoden Programme verwendet.
So einem Computer muss man genauso alle Befehle und Rechenschritte einprogrammieren - das läuft nicht im Windowstaschenrechner.;)

Nun bringt nVidia für 10.000$ ein Gerät, welches eine gigantische Leistung bringt, sehr effizient zu Werke geht, geringeren Wartungsaufwand hat, keine Klimanlage in dieser Größenordnung benötigt und und und....

Für mich DIE PC-Revolution der letzten Jahre.


btw: auch wenn es sich einige hier nicht vorstellen können, es besteht ein gigantischer Bedarf nach den Dingern. Rechenzeit ist sehr teuer geworden.;)
 
Vielleicht rechnet man auch 4x (78+933)GFLOPs = 4044 GFLOPs
________


Es ist Tesla S1070 1U gemeint: http://www.nvidia.com/object/tesla_s1070.html
"Frequency of processor cores 1.296 to 1.44 GHz depending on configuration"
"Single Precision floating point performance (peak) 3.73 to 4.14 TFlops"
"Double Precision floating point performance (peak) 311 to 345 GFlops"
 
SChön zu sehen, aber ist das wirklich schneller als wenn man einfach 4GT200 in einen Rechner packt und diese dann rechnen lässt?
 
Wurde zwar schon gefragt, aber geantwortet wurde nicht.

4 PCI-E-slot-board wie ASUS M3A32-MVP Deluxe
+ 4 GTX280 oder
+ 4 HD4870
kostet incl CPU, Speicher etc. um die 1000 Euro.
Dabei ist die Rechenleistung von sonnem Gespann nochmal ein gutes Stück höher.

Wieso sollte also jemand diesen "Supercomputer" für 10.000$ kaufen, wenn er einen besseren, selbst zusammengesteckten "Supercomputer" für wesentlich weniger Geld bekommt?

Selbst eine Firma wird doch wohl nicht nur für etwas Support darauf verzichten wollen viel Geld zu sparen. Und ob man sich nun einen Miditower hinstellt oder das in anderer Form stehen hat ist doch letztendlich völlig egal!

Gibt es sonst noch irgendwelche Gründe?
 
24h Support (das Ding wird schließlich auch von Dell vertrieben), erweitertet Softwaresupport.:rolleyes:
Treiber, wissenschaftliche Programme etc....

4 GTX 280, eine potente CPU und ein NT, das die Leistung liefert, kosten allerdings garantiert mehr als 1000€.:freak:
Obendrein hat das M3A32 MVP tatsächlich 4PCIe x16, allerdings lassen sich layoutbedingt trotzdem nur max. 3 Grafikkarten darauf betreiben.

Für mich ist der Preis 100% gerechtfertigt. Immerhin handelt es sich imho hier um die größte Computerrevolution der letzten Jahre. Die Preise werden schon noch früh genug fallen - überteuert ist dieses Paket keinesfalls.

Dies ist der erste Schritt in Richtung unendlicher Rechenleistung überall verfügbar und höchsteffizient eingesetzt.
 
Der tatsächliche Preis wurde doch im Artikel oder auf den Folien garnicht erwähnt.
Dieses < 10.000 US$ soll das Teil wohl nur in eine Preiskategorie einordnen, die weit unter Supercomputern liegt.
 
Realsmasher schrieb:
absolut nicht vergleichbar.

a(nzahl) * l(eistung) wächst um größenordnungen lansamer als 2^l und erst recht als a^l
Das meinte ich nicht, vll habe ich mich etwas umständlich ausgedrückt.

Was ich meinte ist, dass, das momentan Quantencomputer zwar unglaublich leistungsfähig aber auch unglaublich teuer und schwer zu bauen sind, wir also mit Missbrauch von GPUs erstmal viel besser vorankommen, da diese dank Cuda & Co leistungsfähiger als CPUs sind und viel einfacher in Massen zu produzieren sind als Quantenrechner.
Außerdem kann jeder normale Programmierer ganz einfach Cuda usw nutzen, da das ja nicht ganz neu ist, wobei Quantencomputer wieder eine ganz neue Sache sind.

Es ging mir also nicht um die Rechenleistung, sondern um
- den Preis
- den Stromverbrauch
- die verständliche Programmierung
- den Fortschritt mit "alter" Technik
- und die Massenproduktion

Ich hoffe das solche "Mini-Supercomputer" in nächster Zeit mehr auf dem Markt zu haben sind, so etwas ist echt eine gute Entwicklung!
 
Sind diese 4 TFlop eigentlich einfache oder doppelte Genauigkeit. AFAIK können Grakas gar keine doppelte Genauigkeit bei Fließkommaberechnungen. Somit sollte es viele Gebiete geben, wo TESLA einfach nie einsetzbar sein wird.

Vor allem sollte man das auch berücksichtigen, wenn man Quadcores mit Grakas vergleicht und nicht einfach irgendwelche Zahlen nebeneinanderstellen.
 
Desoxyribo schrieb:
aber sollten AMD & nVidia nicht zusammenarbeiten gegen intel ? ist doch mühsam wenn ati stream ne andere programmiersprache hat als CUDA:rolleyes:
NVidia hat AMD ja schon vor langer Zeit angeboten, ebenfalls CUDA zu nutzen. Und es wäre für ATI auch mit verschwindend geringer Arbeit zu realisieren, das CUDA auf ATI Karten zu fahren.

Aber statt sich dem schon sehr verbreiteten CUDA anzuschließen und somit endlich zum Standart zu führen, will AMD NVidia lieber an's Bein pissen und ihre eigene Suppe kochen.
Bzw. hatten sie ja erst irgendwas eigenes in der Entwicklung, dann meinten sie kurz, daß sie auch CUDA nutzen wollen, und das letzte, was ich gelesen hatte war, daß sie auf DX11 warten wollten.

Ziemlich kontraproduktiv das Ganze ... das Nachsehen hat der Kunde. :rolleyes:
 
Hm, schade das keiner in der Lage ist mir eine vernünftige Anwort zu geben.
Gibt sogar welche die auf eine Oder Frage mit Ja antworten (scherz zurück ;) )


naja, wenn mir einer sagen kann wie das leistungsverhältnis von 4x g200 zu 3xg200 mit Nehalem ist bitte pn ... genauso wenn einer weiß was leute die das ding brauchen bislang gekauft haben bzw. was sie dann an leistung hatten ....
ich zweifel nur dran das mir hier mal einer gescheit antwortet ...


Ps; ja ATI verzichtet auf CUDA wel se nvidia ans bein pissen wollen, warum auch sonst ...
 
ExcaliburCasi schrieb:
Ps; ja ATI verzichtet auf CUDA wel se nvidia ans bein pissen wollen, warum auch sonst ...
Naja, anders ausgedrückt:
Die wollen sich natürlich ihrem Hauptkonkurrenten nicht "geschlagen geben" beim Thema GPU-Computing und köcheln deshalb ihr eigenes Süppchen, was allerdings eh zum Scheitern verurteilt ist.
 
Zurück
Oben