eine 3d-szene, witzbold... beispielsweise eine cinema4d, maya, truespace, etc. szene, mit 10 beleuctungsquellen, spiegelung, nebel, schatten, etc. geschweige denn, man will mit http://www.realflow.com/ - realflow spielen...dann bricht die leistung alle quadcores zusammen. eine 1000-fache rohleistung eines penryn wäre erst akzeptabel... es gibt aber viele, viele beispiele, wo man heute praktisch nicht annährend manche programme bedienen kann: videoeffekte in after-effects, video-encoden in flash...usw.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia bringt „Tesla Personal Supercomputer“
- Ersteller Wolfgang
- Erstellt am
- Zur News: Nvidia bringt „Tesla Personal Supercomputer“
Realsmasher
Captain
- Registriert
- Juli 2005
- Beiträge
- 4.046
M.E. schrieb:Wir brauchen keine Quantencomputer, sondern müssen einfach nur unsere GPUs missbrauchen.
absolut nicht vergleichbar.
a(nzahl) * l(eistung) wächst um größenordnungen lansamer als 2^l und erst recht als a^l
DeZomB
Lieutenant
- Registriert
- Aug. 2007
- Beiträge
- 591
taxishop schrieb:eine 3d-szene, witzbold... beispielsweise eine cinema4d, maya, truespace, etc. szene, mit 10 beleuctungsquellen, spiegelung, nebel, schatten, etc. geschweige denn, man will mit http://www.realflow.com/ - realflow spielen...dann bricht die leistung alle quadcores zusammen. eine 1000-fache rohleistung eines penryn wäre erst akzeptabel... es gibt aber viele, viele beispiele, wo man heute praktisch nicht annährend manche programme bedienen kann: videoeffekte in after-effects, video-encoden in flash...usw.
Naja spiel dich ma auf, hat wohl jmd rausgefunden wie nen 3D programm funktoniert und nun will er prollen... zahlen bitte, danke.
Abgesehen davon das man solche Qualität garnicht brauch... da kein Monitor oder medium das aufnehmen kann, leb ma weiter in deiner super qualitätswelt.
Ich nehme an du hast auch nichts von optimierung gehört :>, aber schon okay.
Ich frag mich ob man sich so nen TeslaRack nehmen kann, nen Dell Rack dazu, cluster drauß und dann ab die post, aber halt programm frage :/.
Frage mich auch inwieweit das Ding noch brauchbar ist, wenn Cuda zurückgeschraubt wird und Dx11 kommt mit seiner Gpu brechnung.
Achso, und ne VitrualisierungsSoftware mit Cuda support will ich auch xD.
Zuletzt bearbeitet:
EspE
Lieutenant
- Registriert
- Feb. 2008
- Beiträge
- 674
wow, was ne news...
TESLA gibt es schon etwas länger,
CUDA mittlerweile in der version 2.
wie auch immer,
ich glaube tesla ist nur für pro´s die das nötige kleingeld haben
für mainstreamhardware in anderem design.
aber auch ok so,
denn ein krankenhaus wird sich bestimmt keine 4 grakas mit bildern von aktuellen spielen drauf geklebt kaufen und die in ein gamer-case einsetzen.
jedoch für rendering wär das was.
tesla gibts auch bei ATI, heißt aber FIRE.
@octacore
machste mit deinem sparc dann auch nen 3d-mark und superPI bench?
TESLA gibt es schon etwas länger,
CUDA mittlerweile in der version 2.
wie auch immer,
ich glaube tesla ist nur für pro´s die das nötige kleingeld haben
für mainstreamhardware in anderem design.
aber auch ok so,
denn ein krankenhaus wird sich bestimmt keine 4 grakas mit bildern von aktuellen spielen drauf geklebt kaufen und die in ein gamer-case einsetzen.
jedoch für rendering wär das was.
tesla gibts auch bei ATI, heißt aber FIRE.
@octacore
machste mit deinem sparc dann auch nen 3d-mark und superPI bench?
Sherman123
Fleet Admiral
- Registriert
- Nov. 2002
- Beiträge
- 12.341
Jetzt nur mal so ein Vergleich: Unser Uni Supercomputer hat 400.000€ gekostet und frisst 40kW exkl. Klimaanlage und autonomer Stromversorgung. (252CPUs über 56Knoten, 32GB Ram/Knoten)
Der Rechner wird hauptsächlich für Finite Elemente Methoden Programme verwendet.
So einem Computer muss man genauso alle Befehle und Rechenschritte einprogrammieren - das läuft nicht im Windowstaschenrechner.
Nun bringt nVidia für 10.000$ ein Gerät, welches eine gigantische Leistung bringt, sehr effizient zu Werke geht, geringeren Wartungsaufwand hat, keine Klimanlage in dieser Größenordnung benötigt und und und....
Für mich DIE PC-Revolution der letzten Jahre.
btw: auch wenn es sich einige hier nicht vorstellen können, es besteht ein gigantischer Bedarf nach den Dingern. Rechenzeit ist sehr teuer geworden.
Der Rechner wird hauptsächlich für Finite Elemente Methoden Programme verwendet.
So einem Computer muss man genauso alle Befehle und Rechenschritte einprogrammieren - das läuft nicht im Windowstaschenrechner.
Nun bringt nVidia für 10.000$ ein Gerät, welches eine gigantische Leistung bringt, sehr effizient zu Werke geht, geringeren Wartungsaufwand hat, keine Klimanlage in dieser Größenordnung benötigt und und und....
Für mich DIE PC-Revolution der letzten Jahre.
btw: auch wenn es sich einige hier nicht vorstellen können, es besteht ein gigantischer Bedarf nach den Dingern. Rechenzeit ist sehr teuer geworden.
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Vielleicht rechnet man auch 4x (78+933)GFLOPs = 4044 GFLOPs
________
Es ist Tesla S1070 1U gemeint: http://www.nvidia.com/object/tesla_s1070.html
"Frequency of processor cores 1.296 to 1.44 GHz depending on configuration"
"Single Precision floating point performance (peak) 3.73 to 4.14 TFlops"
"Double Precision floating point performance (peak) 311 to 345 GFlops"
________
Es ist Tesla S1070 1U gemeint: http://www.nvidia.com/object/tesla_s1070.html
"Frequency of processor cores 1.296 to 1.44 GHz depending on configuration"
"Single Precision floating point performance (peak) 3.73 to 4.14 TFlops"
"Double Precision floating point performance (peak) 311 to 345 GFlops"
diciani
Cadet 3rd Year
- Registriert
- Feb. 2006
- Beiträge
- 62
Wurde zwar schon gefragt, aber geantwortet wurde nicht.
4 PCI-E-slot-board wie ASUS M3A32-MVP Deluxe
+ 4 GTX280 oder
+ 4 HD4870
kostet incl CPU, Speicher etc. um die 1000 Euro.
Dabei ist die Rechenleistung von sonnem Gespann nochmal ein gutes Stück höher.
Wieso sollte also jemand diesen "Supercomputer" für 10.000$ kaufen, wenn er einen besseren, selbst zusammengesteckten "Supercomputer" für wesentlich weniger Geld bekommt?
Selbst eine Firma wird doch wohl nicht nur für etwas Support darauf verzichten wollen viel Geld zu sparen. Und ob man sich nun einen Miditower hinstellt oder das in anderer Form stehen hat ist doch letztendlich völlig egal!
Gibt es sonst noch irgendwelche Gründe?
4 PCI-E-slot-board wie ASUS M3A32-MVP Deluxe
+ 4 GTX280 oder
+ 4 HD4870
kostet incl CPU, Speicher etc. um die 1000 Euro.
Dabei ist die Rechenleistung von sonnem Gespann nochmal ein gutes Stück höher.
Wieso sollte also jemand diesen "Supercomputer" für 10.000$ kaufen, wenn er einen besseren, selbst zusammengesteckten "Supercomputer" für wesentlich weniger Geld bekommt?
Selbst eine Firma wird doch wohl nicht nur für etwas Support darauf verzichten wollen viel Geld zu sparen. Und ob man sich nun einen Miditower hinstellt oder das in anderer Form stehen hat ist doch letztendlich völlig egal!
Gibt es sonst noch irgendwelche Gründe?
Sherman123
Fleet Admiral
- Registriert
- Nov. 2002
- Beiträge
- 12.341
24h Support (das Ding wird schließlich auch von Dell vertrieben), erweitertet Softwaresupport.
Treiber, wissenschaftliche Programme etc....
4 GTX 280, eine potente CPU und ein NT, das die Leistung liefert, kosten allerdings garantiert mehr als 1000€.
Obendrein hat das M3A32 MVP tatsächlich 4PCIe x16, allerdings lassen sich layoutbedingt trotzdem nur max. 3 Grafikkarten darauf betreiben.
Für mich ist der Preis 100% gerechtfertigt. Immerhin handelt es sich imho hier um die größte Computerrevolution der letzten Jahre. Die Preise werden schon noch früh genug fallen - überteuert ist dieses Paket keinesfalls.
Dies ist der erste Schritt in Richtung unendlicher Rechenleistung überall verfügbar und höchsteffizient eingesetzt.
Treiber, wissenschaftliche Programme etc....
4 GTX 280, eine potente CPU und ein NT, das die Leistung liefert, kosten allerdings garantiert mehr als 1000€.
Obendrein hat das M3A32 MVP tatsächlich 4PCIe x16, allerdings lassen sich layoutbedingt trotzdem nur max. 3 Grafikkarten darauf betreiben.
Für mich ist der Preis 100% gerechtfertigt. Immerhin handelt es sich imho hier um die größte Computerrevolution der letzten Jahre. Die Preise werden schon noch früh genug fallen - überteuert ist dieses Paket keinesfalls.
Dies ist der erste Schritt in Richtung unendlicher Rechenleistung überall verfügbar und höchsteffizient eingesetzt.
M.E.
Lt. Commander
- Registriert
- Jan. 2007
- Beiträge
- 1.923
Das meinte ich nicht, vll habe ich mich etwas umständlich ausgedrückt.Realsmasher schrieb:absolut nicht vergleichbar.
a(nzahl) * l(eistung) wächst um größenordnungen lansamer als 2^l und erst recht als a^l
Was ich meinte ist, dass, das momentan Quantencomputer zwar unglaublich leistungsfähig aber auch unglaublich teuer und schwer zu bauen sind, wir also mit Missbrauch von GPUs erstmal viel besser vorankommen, da diese dank Cuda & Co leistungsfähiger als CPUs sind und viel einfacher in Massen zu produzieren sind als Quantenrechner.
Außerdem kann jeder normale Programmierer ganz einfach Cuda usw nutzen, da das ja nicht ganz neu ist, wobei Quantencomputer wieder eine ganz neue Sache sind.
Es ging mir also nicht um die Rechenleistung, sondern um
- den Preis
- den Stromverbrauch
- die verständliche Programmierung
- den Fortschritt mit "alter" Technik
- und die Massenproduktion
Ich hoffe das solche "Mini-Supercomputer" in nächster Zeit mehr auf dem Markt zu haben sind, so etwas ist echt eine gute Entwicklung!
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
170 Tesla S1070 1U systems make Tokyo supercomputerdiciani schrieb:Gibt es sonst noch irgendwelche Gründe?
Wehrwolf
Lieutenant
- Registriert
- Mai 2008
- Beiträge
- 966
Sind diese 4 TFlop eigentlich einfache oder doppelte Genauigkeit. AFAIK können Grakas gar keine doppelte Genauigkeit bei Fließkommaberechnungen. Somit sollte es viele Gebiete geben, wo TESLA einfach nie einsetzbar sein wird.
Vor allem sollte man das auch berücksichtigen, wenn man Quadcores mit Grakas vergleicht und nicht einfach irgendwelche Zahlen nebeneinanderstellen.
Vor allem sollte man das auch berücksichtigen, wenn man Quadcores mit Grakas vergleicht und nicht einfach irgendwelche Zahlen nebeneinanderstellen.
Konti
Banned
- Registriert
- Apr. 2005
- Beiträge
- 6.421
NVidia hat AMD ja schon vor langer Zeit angeboten, ebenfalls CUDA zu nutzen. Und es wäre für ATI auch mit verschwindend geringer Arbeit zu realisieren, das CUDA auf ATI Karten zu fahren.Desoxyribo schrieb:aber sollten AMD & nVidia nicht zusammenarbeiten gegen intel ? ist doch mühsam wenn ati stream ne andere programmiersprache hat als CUDA
Aber statt sich dem schon sehr verbreiteten CUDA anzuschließen und somit endlich zum Standart zu führen, will AMD NVidia lieber an's Bein pissen und ihre eigene Suppe kochen.
Bzw. hatten sie ja erst irgendwas eigenes in der Entwicklung, dann meinten sie kurz, daß sie auch CUDA nutzen wollen, und das letzte, was ich gelesen hatte war, daß sie auf DX11 warten wollten.
Ziemlich kontraproduktiv das Ganze ... das Nachsehen hat der Kunde.
ExcaliburCasi
Lt. Commander
- Registriert
- März 2008
- Beiträge
- 1.691
Hm, schade das keiner in der Lage ist mir eine vernünftige Anwort zu geben.
Gibt sogar welche die auf eine Oder Frage mit Ja antworten (scherz zurück )
naja, wenn mir einer sagen kann wie das leistungsverhältnis von 4x g200 zu 3xg200 mit Nehalem ist bitte pn ... genauso wenn einer weiß was leute die das ding brauchen bislang gekauft haben bzw. was sie dann an leistung hatten ....
ich zweifel nur dran das mir hier mal einer gescheit antwortet ...
Ps; ja ATI verzichtet auf CUDA wel se nvidia ans bein pissen wollen, warum auch sonst ...
Gibt sogar welche die auf eine Oder Frage mit Ja antworten (scherz zurück )
naja, wenn mir einer sagen kann wie das leistungsverhältnis von 4x g200 zu 3xg200 mit Nehalem ist bitte pn ... genauso wenn einer weiß was leute die das ding brauchen bislang gekauft haben bzw. was sie dann an leistung hatten ....
ich zweifel nur dran das mir hier mal einer gescheit antwortet ...
Ps; ja ATI verzichtet auf CUDA wel se nvidia ans bein pissen wollen, warum auch sonst ...
Vielleicht beantwortet der Artikel im SpiegelOnline von heute einige Deiner Fragen:
Hochleistungsrechner: Desktop- Supercomputer aus Grafikkarten
Hochleistungsrechner: Desktop- Supercomputer aus Grafikkarten
Konti
Banned
- Registriert
- Apr. 2005
- Beiträge
- 6.421
Naja, anders ausgedrückt:ExcaliburCasi schrieb:Ps; ja ATI verzichtet auf CUDA wel se nvidia ans bein pissen wollen, warum auch sonst ...
Die wollen sich natürlich ihrem Hauptkonkurrenten nicht "geschlagen geben" beim Thema GPU-Computing und köcheln deshalb ihr eigenes Süppchen, was allerdings eh zum Scheitern verurteilt ist.
Ähnliche Themen
- Antworten
- 41
- Aufrufe
- 7.705
- Antworten
- 187
- Aufrufe
- 18.462
- Antworten
- 80
- Aufrufe
- 12.198
- Angepinnt
Leserartikel
Grafikkarten-Fibel – ein Guide für Käufer
- Antworten
- 2.524
- Aufrufe
- 640.097
- Angepinnt
- Antworten
- 124
- Aufrufe
- 33.891