Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsChina baut schnellsten Supercomputer mit Nvidia-GPUs
Mir sieht das ganz so aus, wie der von Nvidia herbeigesehnte Paradigmenwechsel von der CPU zur GPU. Jaguar konkurrenzfähig zu machen, währe unbezahlbar und hätte einen doppelt so hohen Stromverbrauch zur Folge. Es wird spannend wie die Amerikaner reagieren werden. Reagieren könnten sie, denn die absolute Anzahl der Recheneinheiten von Tianhe-1A scheint ja überschaubar. Nur! währe ein Konkurrenzprodukt auf Nvidia Basis kein rein Amerikanisches Produkt mehr, wie es bisher ja immer der Fall war. Mit AMD währe das anders...Creazy shit! Bin gespannt wo der Hase lang läuft.
Ich glaube übrigens auch nicht, dass sich Moore´s Law auf Ewigkeiten halten wird. Mit der GPU Entwicklung gewinnt man 1, vielleicht 2 Jahrzehnte. Danach bleibt vielleicht noch ein "Man könnte wenn man wollte Moore´s Law", und irgendwann, wenn es immer aufwendiger und teuerer wird den physikalischen Grenzen etwas entgegezusetzen, wird Moore´s Law für den Desktop unerreichbar sein.
4 Megawatt verbrauch? Das sind doch falls ich mich nicht täusche 4000W, was ich mir bei 14k CPUs und 7k GPUs iwie nicht vorstellen kann. Vlt fehlt da ja ein 0er, also 40Megawatt oder sogar 400. Noch krasser wären ja 4Gigawatt, was dann aber auch wieder unrealistisch wird^^
edit: Huiiiii, blamiert Sry hab da was verwechselt, 1 kilowatt sind ja 1000W, naja egal, heut is wohl nicht mein Tag
aber scheinbar fällt vielen nix ein, also beschweren sie sich einfach über den Verbrauch.
über irgendwas muss man ja Meckern.
mal sind es die Atomsimulationen, mal der Stromverbrauch und manche Meckern gleich über beides.
Diese 4MW sind wahrscheinlich der Gesamtverbrauch der gesamten Anlage, des gesamten Gebäudes.
Wenn ja, dann nehmen wir mal an, dass die reine Computeranlage 2MW Verbraucht. Dann müßte doch auch rund ca. 2MW Abwärme erzeugt werden die das Kühlsystem runterkühlen muß (meinetwegen nutz man das dann als Fernwärme oder so)?
Ich glaub du hast da was falsch verstanden. Das eigentliche "Denken" der Maschine verbraucht überhaupt keinen Strom, vielmehr wird die gesamte Elektrische Energie(die vollen 4MW) in Verlustwärme umgewandelt. Diese Wärme ist die Folge von Reibungsverlusten, Reibungsverlusten in den Lüfterlagern, den Pumpen und Reibung der Elektronen in den Leiterbahnen in den Chips, auf den Boards und in den Kabeln, und wie man sieht, ist die entstehende Reibungswärme pro Rechenleistung bei GPU-CPU Mischsystemen um einiges niedriger als bei reinenen CPU Clustern.
Wenn man die Abwärme in ein Fehrnwärmenetz überführen will, sehe ich ein Problem darin, dass man die Energie ja erst mal so weit bündeln muss, dass man die Temperaturgrenze erreicht, ab der sich die Netzeinspeisung überhaupt erst lohnt. Aber vielleicht funktioniert das ja mit der ein oder anderen Wärmepumpe .
Coole Sache haben grade erzählt bekommen, dass der Trend bei Simulationen (nein nich nur Atombomben da gibts noch vieles mehr das man simulieren kann^^) zur NUtzung von GPU kommt weil diese nunmal schneller sind und zack paar Wochen später kommt ide finale news raus
Ein Beispiel unter vielen: http://www.weltderphysik.de/de/5081.php ; Wettervorhersage ist noch prominenter aber eher was für die kleinerern supercomputer.
Zum Verbrauch: Ich glaub nich, dass da das Gebäude gemeint is^^
Vll noch die Kühlanlagen, aber der großteil sollte der riesige Speicher+GPU/CPU sein.
sind ja "nur" 4 000 000 Watts bei 8k GPU und 15k CPU + Speicher is das wirklich recht effektiv(rechnet da mal den Leistungsbedarf eurer GPu+CPU+Speicher rein), andere mittlwerweile schwächere Supercomputer nutzen 4-7MW.