Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsSchnellster Supercomputer Europas kommt aus der Schweiz
@LundM:
Ich weiß nicht welches Video du gesehen hast, aber in dem Video hier werden keine CPU's wiedeholt mit "Fett batschern" besudelt.
In dem Video sieht man ganz klar wie per Saugnapf die CPU's in die Sockel gesetzt werden.
Kühlung mit einrechnen macht auch eigentlich keinen Sinn, weil man sonst ohne Umwege garnicht den System Verbrauch kennt. Wenn dann noch 2 HPC's aus verschiedenen gegenden verglichen werden, mit extremen Temperaturunterschieden, würde eventuell der Wesentlich Effizientere Supercomputer wesentlich Stromhungriger aussehen.
Ich frage mich bei so was immer, wieso die Serverfarmen immer auf dem Campus stehen müssen? Ist das Prestige?
Bis auf ganz wenige ausnahmen ist ja ein Glasfaserkabel ausreichend als Anbindung. Und dann baut man die Farm soweit in den Norden, dass die Admins das ganze Jahr über den Schnee sehen können.
Google und Facebook machen das ja schon.
@LinuxMcBook
Das Ding vor Ort zu haben, dürfte trotz der Nachteile, immer noch billiger sein, als von hier bis nach Norwegen ein Glasfaserkabel zu verbuddeln.
Ich würde so ein Teil auch lieber in Sichtweite haben. Schon alleine die Datenmengen sind enorm. Da kommen auch Facebook und Google nicht dran. So ein Klimamodell mit 1 km Auflösung, betrachtet über 10 Jahre mit einer Auflösung von 15 Minuten, da kommen Terabytes vielleicht auch Petabytes zustande.
Wobei... mit welcher zeitlichen und räumlichen Auflösung will man hier eigentlich rechnen?
Naja das DFN routet schon direkt ins Ausland, auch nach Skandinavien. Also muss kein Glasfaserkabel verbuddelt werden, sondern nur eine VPN Verbindung eingerichtet werden.
Natürlich kommen da ungeheure Datenmengen zusammen. Das hab ich auch überlegt. Vermutlich nimmt das Storage nochmal genau so viel Platz ein, wie die Server, die wir auf den Fotos sehen können.
Aber müssen die Daten wirklich alle übertragen werden? Im Endeffekt sind die Ergebnisse, die die Forschungsgruppe dann auf ihren PCs sieht oder in der Fachzeitschrift veröffentlicht ja nur ein Bruchteil davon. Und das packt auch das bestehende Glasfasernetzwerk in zB Norwegen. Da oben ist das doch das einzige (neben Erdöl) womit die Geld verdienen können.
Und genau das vermutest du nur. Sehen tut man nur dass die Mitarbeiterin die CPU aussen anpackt. was ja auch nicht weiter schlimm ist. Und selbst die äußeren Ränder am Heatspreader sind nicht soooo schlimm, weil das Die unter dem Heatspreader nur einen kleinen teil der Fläche einnimmt und genau in der mitte sitzen sollte!
LinuxMcBook schrieb:
Ich frage mich bei so was immer, wieso die Serverfarmen immer auf dem Campus stehen müssen? Ist das Prestige?
Neben den von LundM genannten gründen spielen Politische Motivation sicherlich auch eine Rolle warum Supercomputer meistens im Inland stehen.
und Allgemein zum Standort:
Warum man so etwas bei Atom Simulationen nicht im Ausland macht ist ja noch Verständlich. Aber gerade bei Klimamodellen sehe ich da doch keinen Sinn.
Einmal könnte man sagen, okay die "RAW" Daten der Simulation sind zu groß um Zeitnahe damit zu Arbeiten. Aber gerade die könnte man ja schon bei Synchronen 1GB Leitungen über Nacht mit dem Lokalen Uni-/Forschungs Server Syncen. Man entscheidet da ja nicht spontan, "okay die brauch ich jetzt sofort". Die Ergebnisse der Simulation werden im Schlimmsten Fall vielleicht wenige TB groß sein. Ist also mit einer 1GB Leitung eine Sache von wenigen Minuten bis alle Daten da sind.
Aber vielleicht weiß da auch jemand mehr hier dazu?
Und wegen Norwegen: Ja warum die nicht generell mehr machen in der Hinsicht. Die sind ja dank keiner EU Zugehörigkeit auch noch Politisch ein relativ Neutraler Standort. Mit 8 Cent pro kW/H ist Strom dort günstig. Und da sind soooo viel unbebaute Flächen. Mit dem Geld was Norwegen hätte, könnten die einfach mal ein paar Mrd € aus dem Bürgerfond in die Hand nehmen, einen Standort aufbauen der eine gute Energie Infrastruktur hat und direkt per richtig Dickem Glasfaserkabel an die Internationalen Internet-Knoten angebunden ist.
Es hat schon einen gewissen Unterhaltungswert wenn PC Frickler mit Emoticons in der Signatur Arbeiter an einem Supercomputer kritisieren und dabei nicht mal einen korrekten Satz....ach lassen wir das. Vermutlich hast du Recht und das Ding wird kurz nach der Inbetriebnahme explodieren.
Gut bei militär zwecken ist es denk ich kein punkt über den wir reden müssten.
Aber bei rest denk ich haben wir alle gemeinsam Recht.
ein mix aus allen sachen die hier niedergeschrieben sind.
Politisch klar sonst würden rang 1-500 aus Norwegischen systemen bestehn^^, bzw südpole hätte woll pro 10 Einwohner 50 petaflop rechenleistung^^
Bei der Datenübertragung vergesst ihr alle 1 was.
Das zeug muss nicht durch ein Kabel.
Wen man größere Mengen an Rechenzentren irgent wo bauen würde, reicht eine sehr große Schüssel aus um dann via Sat verbindung die Daten extreme schnell zu versenden.
Man könnte einen eigenen Sateliet nur als knotenpunkt für das Rechenzentrums netz im all einsetzen da alles zentrall liegt.
Den der dicke minus Pkt latenzen spiel da absolut keine rolle.
daten suche und anfragen gehn via direckt kabel gute latenz.
Die daten massen könnten in echtzeit mit eben Latenzverzögerung via Satelit auf dem Datenserver der Forschungs einrichtung gespiegelt werden.
Natürlich müssten man dann auch einen Upload via Satelit auf einem 2 kanal bereit stellen um größere Daten mengen uploaden zu können.
Ergänzung ()
DonConto schrieb:
Sind Wollratten eine neue Spezies?
Es hat schon einen gewissen Unterhaltungswert wenn PC Frickler mit Emoticons in der Signatur Arbeiter an einem Supercomputer kritisieren und dabei nicht mal einen korrekten Satz....ach lassen wir das. Vermutlich hast du Recht und das Ding wird kurz nach der Inbetriebnahme explodieren.
wüsste nicht wo jemand was von explodierne geschrieben hat.
das teil ist auch nichts andres wie ein kleiner Server nur viele davon zusammen geschalten.
Stell dir vor sogar zimlich viel paralelen zu ganz normalen pc´s
hammer oder?
der eigentliche kracher steckt wo anderst 2000 cpu´s und 5000 gpu´s schaffst sogar du zusammen zu stöpseln
nur sie mit einander ordentlich und funktionel kommunizieren zu lassen das ist ja woll das was die firmen aus macht.
Was ich bzw wir nur sagen wollten das was im video gezeigt wird ist nicht umbedingt die kunst hinter dem ganzen.
Oder willst du mir erzählen du bist nicht fähig 5 mahl an einer spritze zu drücken und dabei in den Pausen jede ecke und die mitte 1 ma zu bedecken?
bzw kannst keine 2 spann/fixier hebel umlegen oder 4 schrauben festzihen?
viele fanden nur das doch Recht grob vorgehende verhalten kurios (faszinierend)
Da grade in Foren doch teilweiße eine mehr als 100% perfeckte arbeit gebredigt wird.
Ich fands halt nur Komisch das sie da ohne Handschuhe rum hantieren darf.
Kenne das Normal etwas anderst und das sogar bei sehr kleinen Systemen.
Wen man größere Mengen an Rechenzentren irgent wo bauen würde, reicht eine sehr große Schüssel aus um dann via Sat verbindung die Daten extreme schnell zu versenden.
Leider sind die Norweger nicht ganz so auskunftsfreudig, aber ich hatte doch schon geschrieben, dass deren Land ziemlich gut von Glasfasern durchzogen ist.
Schon 2000 hatten die da Gigabit Leitungen.
Der ganze Spaß wird direkt ins deutsche Forschungsnetzwerk geroutet. Also wegen der Anbindung spricht nichts gegen NOR, aber wie ich bereits vermutet habe:
Prestige, das Rechenzentrum muss auf dem eigenen Campus stehen.
wenn alles schön geerdet ist, heißt spezielle Schuhe, spezieller Boden, Arbeitsplatte etc. wäre das auch ohne Handschuhe gar kein Problem.
Den Kostenfaktor Zeit darf man nicht vernachlässigen. So wie da montiert wird wird quasi in jedem Rechenzentrum montiert - und in meinen Augen sieht es weder "fahrlässig" noch "unsauber" aus, ganz gleich ob nachher mehr WLP als nötig verbraucht wurde.
Ich empfehle dir zudem mal die Rechtschreibprüfung des Browsers einzusetzen
Deutschland, das Land der Rechthaber und Besserwisser. Was ich sage gilt - Das, was die Mitarbeiter einens Unternehmens, die einen zig Millionen PC zusammenbauen, machen, ist schlecht. Die wurden von Intel geschult, damit alles lüppt. Ihr solltet euch sofort an Intel wenden. Echt peinlich.
Atombomben-Entwicklung, Wetterszenarien, Vulkanausbrüche, Klimawandel, Raumfahrt, Simulation neuer Wirkstoffe, etc... all das ist hoch komplexe Forschung. Und Forschung ist Macht.
Und schon wieder Intel und Nvidia drin. Tja, wenn man keine Ahnung von der Materie hat, dann kauft man halt einfach beim Marktführer, und hofft dass "teuer" automatisch "gut" bedeutet.
Die Leute die den Planen haben sich einiges an Ahnung. Ist hier in Stuttgart am HLRS auch nicht anders. Es ist ziemlich naiv von sich aus auf andere zu schließen. Intel und nVida machen alles richtig im HPC Markt.
iGameKudan schrieb:
Intel bietet die viel höhere Leistung bei einem viel geringerem Stromverbrauch...... Gerade bei letzterem wunderts mich bei der Größe nicht, wieso die zu Intel gegriffen haben. Und dass die zu Tesla K20X gegriffen haben ist auch kein Wunder, die rechnen doch glaube noch einen Ticken schneller als die AMD-Grakas?
Alles IvyBridge-Altlasten. :-) Sobald Haswell bei den großen Clustern Einzug hält, wird die Leistung der TOP500-List dramatisch ansteigen, denn im Linpack sind diese um Welten besser.
Ich frage mich nur wozu die Schweiz so ein Monster braucht, die sollen ihre Gelder mal lieber für den großen Teilchenbeschleuniger (CERN) verwenden. Noch besser wäre es die Gelder in die Forschung für Quantencomputer zu stecken.
@TrollzZz0r
Dem CERN wird auch so schon genug Geld gegeben. Warum also da noch mehr reinpumpen?
Und warum sollte man die Forschung in Quantencomputern intensivieren? Ich meine, die können ja nur bestimme Aufgaben (sehr!) effizient berechnen. Bei allen anderen sind aber die "altertümlichen" elektronischen Computer wesentlich besser.