News Nvidia bringt „Tesla Personal Supercomputer“

Was genau tut man mit so einem Gerät?
 
@Zwirbelkatz

Klick einfach die Bilder in der News durch, da stehts.
 
kann mir mal einer was in dem Gehäuse außer Netzteil, irgeneiner Platine und den Grakas noch drin ist ?

Können die GPUs "sich selbst verwalten " oder brauchen die doch noch eine CPU ?
Die dann wohl von Via sein würde, womit auch die Kooperation wieder mehr Sinn machen würde.

GPUComputing ist interessant, aber solange jede Anwendung mühevoll portiert werden muss wohl nicht wirklich massentauglich.
Vorallem nicht in de Markt den Nvidia hier ansteuert, "normale Firmen" bei denen laufen ja wohl denk ich immernoch vorallem "normale x86 anwendungen"
 
da steht doch "Bezahlbar" und 10.000 Dollar oder hab ich ein knick weg?

würde gerne mal n Groben Bench sehen, wo das ding gegen 3xGTX280 + Nehalem antritt oder lieber Standart Computer der bisherigen klasse in dem segment wo das ding einschlagen soll.
So rein um das mal zu verdeutlichen.
 
@Kr0nos

Dein Bäcker braucht sicher keine Supercomputing Leistung , es geht hier um wissenschaftliche Einrichtungen aller Art die Leistungen für theoretische Berechnungen brauchen.
 
ExcaliburCasi schrieb:
da steht doch "Bezahlbar" und 10.000 Dollar oder hab ich ein knick weg?

würde gerne mal n Groben Bench sehen, wo das ding gegen 3xGTX280 + Nehalem antritt oder lieber Standart Computer der bisherigen klasse in dem segment wo das ding einschlagen soll.
So rein um das mal zu verdeutlichen.

hmmm hier sollen doch die GPUS für Berechnungen jeglicher Art benutzt werden und bei deinem Standard PC werden sie nur für Grafikberechnungen benutzt. Also komplett was anderes, oder irre ich mich nun?

Und 10000 Dollar für nen Supercomputer ist doch klasse.
 
d-Raven-b schrieb:
@Keineahnung1234

Genau das habe ich auch gedacht, wegen 4 GFLOPS würde niemand so ein Theater machen, alleine die HD4870X2 hat ja schon (theoretische) 2 TeraFLOPS..
Es sind sogar 2,4 TFLOPS.

Kr0nos schrieb:
kann mir mal einer was in dem Gehäuse außer Netzteil, irgeneiner Platine und den Grakas noch drin ist ?

Können die GPUs "sich selbst verwalten " oder brauchen die doch noch eine CPU ?
Die dann wohl von Via sein würde, womit auch die Kooperation wieder mehr Sinn machen würde.
Da wird sicherlich genauso ne CPU drin sein, wie in jedem anderen PC, nur eben mit vielen Grakas dazu. VIA wirste da sicher nicht finden, höchstwahrscheinlich nen Xeon oder Opteron.

ExcaliburCasi schrieb:
da steht doch "Bezahlbar" und 10.000 Dollar oder hab ich ein knick weg?
$10k sind Peanuts gegenüber den Kosten für konventionelle Supercomputer und darum gehts. Das soll überhaupt nicht an Privatpersonen verkauft werden oder was willst du damit anfangen?
 
Ricky_b schrieb:
Bald gibt es Direct 3D 11 und damit eine direkte Schnittstelle und ein einheitlicher Standard, der CUDA und Stream ersetzen wird! Das wird es richtig rumpeln und jeder hat einen Supercomputer zu Hause! ;-)

Hoffentlich wird sich OpenCL statt Direct3D11 durchsetzen für GPU-Programmierung(Spiele mal ausgeklammert), wir sind schon genug von Redmond abhängig.

So oder so, bald sind Teraflops Mainstream. :cool_alt:
 
Rechenpower für alle xD, ... 10k€, nice, aber was unterscheidet das Ding, von einem normalen PC mit 4 Grafikkarten? (Sagen wir, ich würde die Berechnungen auf den GPU's durchführen lassen, ...) Wo läge der Unterschied, würden sie auf dem 10k teuren nVidia Supercomputer oder einem halb so teuren PC mit 4 Grafikkarten berechnet?
 
Hmm mal ne Frage, wo besteht der Unterschied wenn ich mir nen Rechner mit Quad-SLI baue und die CUDA Schnittstelle nutze? Mit Quad-SLI würde man ja deutlich billiger wegkommen.
 
Desoxyribo schrieb:
lol hoffentlich gibts auch nen supercomputer von amd, zb mit 16 RV780 (d.h. 8x HD4870X2):D

aber sollten AMD & nVidia nicht zusammenarbeiten gegen intel ? ist doch mühsam wenn ati stream ne andere programmiersprache hat als CUDA:rolleyes:

Warum sollte man sowas machen? AMD ist auch noch auf den Servermarkt, nicht nur Intel. AMD und NV sind außerdem immer noch Konkurrenten, falls du das vergessen hast.
 
hier ist noch jemand der sich fragt wo der sinn gegenüber einem normalen rechner ist.

2 * 4870x2 liefert mehr shaderleistung und 3 380er im zweifelsfall ähnlich viel wenns unbedingt cuda sein muss.

der Preis liegt ja etwa 10 mal so hoch :rolleyes:

also was kann das Teil besser ?


wird ja wohl nicht nur der support sein.
 
ExcaliburCasi schrieb:
da steht doch "Bezahlbar" und 10.000 Dollar oder hab ich ein knick weg?

Nein Du kennst dich bloß nicht mit der Materie aus ;).
*nit böse gemeint*

Schau dir an was du für Server/ Workstations bei Dell/Siemens/Hp/Apple für 10.000€ (Ich rechne einfach ma in € um, das wird nachher sowieso 1:1 umgerechnet.) bekommst, und dann schau dir die Komponenten an.

Die frage die sie hier aber stellt dann, was kann ich alles auf die GPU auslagern, in ersterline geht es ja derzeit um berechnungen, wäre aber nett wenn Server/workstation Programme irgendwann auch ma so ne unterstüzung hätten.
 
so können die iraner ihre atombombe schneller berechnen
Darauf spekulieren die auch! :D

Setzen, SECHS!!!! :D:D

kann mir mal einer was in dem Gehäuse außer Netzteil, irgeneiner Platine und den Grakas noch drin ist ?

Also da wird alles drin sein, was auch in einem normalen Server drin ist. Also CPU, RAM, Festplatte, etc.

da steht doch "Bezahlbar" und 10.000 Dollar oder hab ich ein knick weg?

Ja :lol: (kleiner Scherz am Rande)

hier ist noch jemand der sich fragt wo der sinn gegenüber einem normalen rechner ist.
2 * 4870x2 liefert mehr shaderleistung und 3 380er im zweifelsfall ähnlich viel wenns unbedingt cuda sein muss.
der Preis liegt ja etwa 10 mal so hoch
also was kann das Teil besser?

ATI wird mit Sicherheit da auch bald was anbieten.
Generell gibt es schon längere Zeit GPU-Superrechner mit GPUs sowohl von Nvidia als auch von ATI
 
Nvidia ging Cooperations ein und hat mit einigen Firmen PCs zusammen entwickelt.
http://www.nvidia.com/object/tesla_supercomputer_wtb.html

Diesen Personal Supercomputer kann man also nicht direkt von Nvidia beziehen.


Ich finde 10.000$ für so ein leistungsstarken PC...SUPER...ein Schnäppchen...wenn man sich mal überlegt wie viel Geld Firmen allein für Server pro Jahr ausgeben...



.
 
Das is doch mal ein Quantensprung.
Wir brauchen keine Quantencomputer, sondern müssen einfach nur unsere GPUs missbrauchen.
<10.000$ ist wunderbar, v.a. wenn man eine kleine Firma hat die irgendetwas spezielles berechnet (z.B. Finanzdienstleistung).
Auch die Universitäten müssen nicht mehr so viel zahlen, was für mich heißt, dass wahrscheinlich jede Universität wenn ich studieren werde über den einen oder anderen Supercomputer verfügen wird.

Stromkosten dürften im vergleich zu einem dicken Cluster System recht gering ausfallen; hat das Ding eigentlich irgendeinen Nachteil?
 
Bemtex schrieb:
Dazu müsste man sich erstmal von x86 lösen...
Und gut so das sich das keiner hier leisten kann, da es kein Schwein braucht. Jedenfalls keine Privatperson.

Sage niemals nie!
Bekomme im Februar 09 eine 4Way Sparc T2+ als Privatperson zur Verfügung gestellt. Wobei ich Forschung betreibe (Hybridcomputing) selber kaufen öhm nein :)

Papst_Benedikt schrieb:
wie viel Firmen für so ein großer Supercomputer bezahlen und warscheinlich nicht mal annähernd die Leistung haben haben, dann würde ich mal behaupten, dass das Teil doch recht günstig ist.

Das Problem vom den GPU Grid ist, das er ziemlich unflexibel ist gegenüber ein CPU Grid. Während ein CPU Grid evtl. lahmer wird um ein Problem zu lösen, kann es das GPU Grid gar nicht mehr lösen weil es zu wenig dynamisch arbeiten kann.
Das Aufgabenspektrum für so eine Maschine ist eher eingeschränkt, egal wie Bunt es Nvidia darstellt.

Kenne das Problem beim Hybridcomputing zu gut.

Dro'Doog schrieb:
Rechenpower für alle xD, ... 10k€, nice, aber was unterscheidet das Ding, von einem normalen PC mit 4 Grafikkarten? (Sagen wir, ich würde die Berechnungen auf den GPU's durchführen lassen, ...) Wo läge der Unterschied, würden sie auf dem 10k teuren nVidia Supercomputer oder einem halb so teuren PC mit 4 Grafikkarten berechnet?

Das System ist ein Paket, du brauchst dich als Anwender nicht darum kümmern ob das OS mit den GPUs auch richtig umgehen kann usw....
Du hast ein fertige Entwicklungsumgebung wo du nur dein Problem dem System vermittelst mit einer Hochsprache.
Bei einen PC steckst viel Zeit mal in den PC selber meist....vor allem mit ausgefallen Konfigurationen.
 
hmm...das ist immer noch zu wenig...die 100-fache rohleistung/fließkomma/cinebench eines q6600 wäre ein guter anfang...für das rendern einer komplexen szene braucht ein q6600 etwa 10min/Bild. wenn man schnell sich mal einen film rendern und anschauen will, dauert das ganze beispielsweise bei einem 10 minütigen film 10 min renderzeit x 24bilder x 600 minuten(film gesamt) = 144.000 minuten = 2400h = 100 tage. das ist verdammt viel, deshalb sind die tollsten rechner ganz einfach verdammt langsam. super-rechner. ich kann nur lachen. ah, noch vergessen, wenn ich antialiasing und alles auf 100% qualität einschalte, dann dauert es ca. 30 minuten/bild. na, dann viel spaß mit dem superrechner...

nur als beispiel, wofür man die leistung überhaupt braucht...
 
.Was für ne "komplexe Szene"? Was laberst du denn da?
 
Zurück
Oben