Zum Server mein ich. Alles andere ist eh uninteressantChiller3333 schrieb:Also bei mir steht 256 GB LRDIMM DDR4
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia DGX Station: Vier wassergekühlte Tesla V100 als Mini-Supercomputer
- Ersteller MichaG
- Erstellt am
- Zur News: Nvidia DGX Station: Vier wassergekühlte Tesla V100 als Mini-Supercomputer
Will ich ja mal hoffen, aber dennoch so ein Fehler in nem Datenblatt, 2o ja gerade eben die Daten relevant sind....dbs.n schrieb:Das Benutzerhandbuch schreibt von 512 GB, verteilt auf 16 Slots. Das klingt etwas plausibler.
http://images.nvidia.com/content/technologies/deep-learning/pdf/DGX-1-UserGuide.pdf
http://images.nvidia.com/content/te...g/pdf/dgx-1-ai-supercomputer-datasheet-v2.pdf
Trestor
Ensign
- Registriert
- Aug. 2016
- Beiträge
- 151
Schade du warst schneller als ichxXQuadXx schrieb:Läuft Crysis damit flüssig?
DarkerThanBlack
Commander
- Registriert
- Juli 2016
- Beiträge
- 2.077
Hm, mal überlegen.
Einen neuen Porsche GT3 oder eine Nvidia DGX Station...Ich glaube, ich entscheide mich für den Porsche!
Einen neuen Porsche GT3 oder eine Nvidia DGX Station...Ich glaube, ich entscheide mich für den Porsche!
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
wenn man genau drüber nachdenkt gibt es fast in jedem Bereich Themen die sich für Self Learning eigenen würden. Sei es Verkehrsnetz oder auch so ziemlich jede Fertigungsstraße. Zb im Automobilbereich.
Hatte mit AI noch nix am Hut aber es wäre schon mal interessant reinzuschnuppern
Hatte mit AI noch nix am Hut aber es wäre schon mal interessant reinzuschnuppern
xXQuadXx schrieb:Ich bin dann mal der lustige..
Läuft Crysis damit flüssig?
Ich auch:
Spielt das noch jemand?
flickflack
Lieutenant
- Registriert
- Sep. 2006
- Beiträge
- 832
Die 960 resp. 480 Teraplops sind hier mit FP16 angegeben. Normalerweise sind es doch aber FP32 (einfache Genauigkeit) bzw FP64 (doppelte Genauigkeit). FP16 sind also nur "halbe Genauigkeit". Zwischen FP32 (4x15Teraflops) und FP 16 liegt wieder mal der Faktor 8 an. Ich nehme mal an, dass es auch so bei FP32 zu FP64 ist??
Wie auch immer, fair wäre eine Angabe mit 60 Teraflops bzw. 120 für 8 Karten gewesen. Da ich selber 80 Teraflops mit 12x RX480 für knapp 4500 Euro am laufen habe, haut mich das jetzt nicht so aus den Socken. Die neuen Karten sind natürlich trotzdem nice to have.
Wie auch immer, fair wäre eine Angabe mit 60 Teraflops bzw. 120 für 8 Karten gewesen. Da ich selber 80 Teraflops mit 12x RX480 für knapp 4500 Euro am laufen habe, haut mich das jetzt nicht so aus den Socken. Die neuen Karten sind natürlich trotzdem nice to have.
Schaby
Vice Admiral
- Registriert
- Apr. 2008
- Beiträge
- 6.295
Dr.Helium schrieb:Da ist mir fast die Milch aus der Nase gekommen. "Kleine Unternehmen ohne Server-Infrastruktur" vs "69000 $"
Ich muss dazu sagen ich weiß nicht was Volta bzw. Tesla sonst kosten, habe aber nicht mit so einem Preis gerechnet wenn von kleinen Firmen ohne Server geredet wird.
Das ist wohl wortwörtlich zu nehmen. Die meinen den Platz, ansonsten gibt das keinen Sinn. Ich meine, welches kleine Unternehmen hätte nicht Platz für doppelt so große, dafür aber nur halb so teure Systeme?
"Wie brauchen unbedingt einen besseren Computer!"
"Du weist doch, dafür haben wir keinen Platz!"
"Schau mal, hier, wir schmeißen da einfach den Seifenspender raus, da passt das locker hin!
"Gute Idee!"
Mr.Seymour Buds
Commodore
- Registriert
- Feb. 2012
- Beiträge
- 4.339
DarkerThanBlack schrieb:Hm, mal überlegen.
Einen neuen Porsche GT3 oder eine Nvidia DGX Station...Ich glaube, ich entscheide mich für den Porsche!
Ich nehm die DGX Station. Da sieht man mal, wie unterschiedlich die Geschmäcker sind.
Ergänzung ()
flickflack schrieb:Die 960 resp. 480 Teraplops sind hier mit FP16 angegeben. Normalerweise sind es doch aber FP32 ...
Die FP16 Halbgenauigkeit ist eine rechentechnische Optimierung für Deep Learning. Deswegen kann man die Werte nicht mehr einfach so über die Gens vergleichen.
Mega-Bryte
Lt. Commander
- Registriert
- Aug. 2016
- Beiträge
- 1.430
DarkerThanBlack schrieb:Hm, mal überlegen.
Einen neuen Porsche GT3 oder eine Nvidia DGX Station...Ich glaube, ich entscheide mich für den Porsche!
Bei weitem nicht so schön wie die ruhig gelegene Eigentumswohnung! Zwar schneller, aber nicht so ruhig.
Ergänzung ()
flickflack schrieb:Die 960 resp. 480 Teraplops sind hier mit FP16 angegeben.
Sind das die Plops mit dem Finger aus der Mundecke?