News EuroHPC: Deutschland will erstes Exascale-System bis 2024

Endlich ein Exascale-Faxserver für unsere Behörden😉
 
  • Gefällt mir
Reaktionen: 9t3ndo und cbtestarossa
Runak schrieb:
vielleicht auch inoffiziell für die vielen Geheimdienste und das neu geschaffene NetzDG?
Die bräuchten nicht so viel Rechenleistung, die brauchen eher Netzwerkdurchsatz. Und ich meinte die Frage tatsächlich Ernst. "Forschungszwecke" ist so nichtssagend und für ein "schauen wir dann" sind die Apparate meiner Meinung nach zu teuer.
 
Axxid schrieb:
Deutschland, das Land mit dem wohl schlechtesten Internet und den hoechsten Strompreisen Europas, ist geradezu praedistiniert fuer sowas...

Ja, denn mit dem DE-CIX haben wir auch einen eher unbedeutenden Netzwerkknotenpunkt hier im Lande ...

Merke : Leitung zu Hause != WAN-Infrastruktur

Bei den Wissenschaftsnetzen haben wir sogar ein vergleichsweise extrem schnelles am Start mit dem X-WIN ...
 
  • Gefällt mir
Reaktionen: Skysnake
Slashchat schrieb:
wuerde gerne ein tag ein exascale mieten fuer eth :D
Macht trotzdem nur Sinn, wenn die Miete und der Strompreis kleiner als der Ertrag sind.
Da das Ding kaum zu 100% aus ASICS besteht, eher nicht. Aber ich mag wie du denkst :D
 
Egal wie man es macht, es ist falsch. Würde das DIng woanders gebaut heißt es wieder:"Deutschland dritte welt wir machen wieder nix blablabla...." Jetzt sind es aufeinmal die Strompreise oder die, in diesem zusammengang völlig belanglose, durchschnittliche Downloadrate eines privaten Internet Anschlusses?
Wattwanderer schrieb:
Früher waren Supercomputer technische Durchbrüche die den Weg für die nächsten 20 Jahre aufzeigten. Jetzt ist es einfach eine Ansammlung von langweiligen Computern die man unter dem Schreibtisch finden könnte. Je mehr davon, desto Super.
Beschäftige dich mal mit der Technik dahinter. Das hat mit dem PC unter deinem Tisch wenig zu tun. Den Weg für irgendeine Zukunft in 20 Jahre haben die noch nie aufgezeigt. Supercomputer waren schon immer Cluster und das hat für deinen lokalen PC keine Relevanz.

In der Top 500 sind wir mit Platz 8 ziemlich gut vertreten, keinen Grund sich da irgendwo reinzukaufen....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Snowi, Excel und Asap
Bei einigen Leuten hier im Forum scheint das Glas auch immer halb leer zusein.

Wen interessiert in dem Bereich der Strompreis und warum bitte sollte ein Forschungszentrum o. ä. bitte mit Kartoffelinternet Probleme haben?
 
  • Gefällt mir
Reaktionen: chartmix, Faster Styles, Snowi und 2 andere
florian. schrieb:
Als ob der Strompreis da relevant wäre.
Ja ist er. Das sind auf die normal 5 Jahre Laufzeit mal gern 10-20% der Gesamtkosten. Das ist nicht nichts. Vor allem sind das Werte wo man schon schaut möglichst viel zu sparen. Also z.b. wakü. Ansonsten wären das auch mal 40% und jeder Euro der für den Strom auf den Tisch gelegt wird, wird das System kleiner....

Zudem Anschaffung der Kiste zahlt hier der Bund/Land. Betrieb inkl Strom aber der Träger des Systems. Also das HLRS LRZ oder Jülich. Die wollen daher sicherlich keinen Schluckspecht...
Wattwanderer schrieb:
Früher waren Supercomputer technische Durchbrüche die den Weg für die nächsten 20 Jahre aufzeigten. Jetzt ist es einfach eine Ansammlung von langweiligen Computern die man unter dem Schreibtisch finden könnte. Je mehr davon, desto Super.
Naja, sooo einfach ist es jetzt nicht. Man muss schon einiges an knowhow haben. Also nicht nur was die Hardware anbelangt sondern insbesondere auch bezüglich der Software.

Nen HPL auf nem System mit Tausenden Inoten performant laufen zu lassen ist nicht trivial. Da ist man Stunden/Tage mit der Vorbereitung beschäftigt.
M-X schrieb:
Beschäftige dich mal mit der Technik dahinter. Das hat mit dem PC unter deinem Tisch wenig zu tun. Den Weg für irgendeine Zukunft in 20 Jahre haben die noch nie aufgezeigt. Supercomputer waren schon immer Cluster und das hat für deinen lokalen PC keine Relevanz.
Nein, in den 90ern waren das noch SMPP Maschinen mit 1-16 CPUs. Cluster kamen dann erst später, aber sehr erfolgreich. Die werden wohl auch nicht mehr verschwinden.

Aber ja 20 Jahre ist übertrieben. Aber so für 5 Jahre haben Sie schon Wege gezeigt.
Asap schrieb:
Wen interessiert in dem Bereich der Strompreis
So ziemlich jeden? Siehe oben.


Btw zur Diskussion.

Mal was aus dem Nähkästchen. Man bemerkte bitte, das man sich bewerben MUSS. Es ist nicht klar das Deutschland auch ein System bekommen wird... ja ist unwahrscheinlich wegen dem politischen Druck Deutschlands als größter Nettozahler der EU, aber nicht ausgeschlossen.

Bei den Pre Exascale Systemen hat auch keiner mit Lumi im Norden gerechnet. Da wäre einer im Süden ziemlich auf die Nase gefallen. Politisch ist es daher ein System mehr geworden als geplant....

An sich macht ein System in Schweden, Finnland oder Norwegen ja auch Sinn. Freie Kühlung das ganze Jahr und viel regenerativer Strom. Wo das Ding steht ist ja fast egal.

Ich betone FAST. Wenn man das Büro neben den Admins hat und die mal anbauen kann den eigenen Job in der Prio hoch zu schieben etc dann ist das schon SEHR angenehm. Aber wer hat schon im Normalfall den Luxus? Richtig maximal 1% der Nutzer wenn überhaupt...
 
Zuletzt bearbeitet:
Skysnake schrieb:
Nein, in den 90ern waren das noch SMPP Maschinen mit 1-16 CPUs. Cluster kamen dann erst später, aber sehr erfolgreich. Die werden wohl auch nicht mehr verschwinden.
Da magst du wohl recht haben, wobei es in den 90igern dann schon mit den Clustern los ging. 30 Jahre sind In der IT aber auch ewig.

Was soll den ein Supercomputer "zeigen"? bis mein Handy im Petaflop Bereich ankommt wird es wohl noch länger dauern. Auch die Software und Berechnungen auf einem Supercomputer haben nix mit dem Daily business eines PC users zu tun.

Das ist genauso als wenn ich sage die Entwicklung von Raketen ist wegweisend für die private Fliegerei.
 
@c2ash
Glaub die spielen auf 1 Kern damit Crysis, kann mich aber auch täuschen
Die anderen Kerne dienen vllt. zum entschlüsseln von Chats wie WhatsUp etc.

Aber vllt. machen sie auch was sinnvolles damit, wie zB Impfstoffe entwickeln oder sonst irgendwas mit Wetter wie:
Was passiert wenn der Golfstrom zu strömen aufhört usw.
Keine Ahnung für was das Teil sonst noch taugen könnte.

Sind natürlich alles Mutmaßungen und müssen mit der
"echten, einzigen, wahrhaftigen (tm) Realität" auch gar nichts zu tun haben.

Was sie wahrscheinlich noch gar nicht wissen ist dass sie in einem 2diminsionalen Universum leben welches ihnen nur ein 3diminsionales Umfeld vortäuscht, also alles hier quasi nur hologrammiert existiert.
Das natürlich in Vollendung und würde endlich die 4 Grundkräfte, Relativitätstheorie und Quantentheorie vereinen.
Stockholm, ick komme!

Hm, eventuell könnte man diesen Rechner auch dazu verwenden diese Behauptung/Theorie nun zu beweisen oder entgültig zu wiederlegen.

Sonstige Ideen und Anregungen könnte man ja dann auch per DEmail ans Wahrheitsministerium senden.
Vielleicht liest sie ja dort sogar irgendjemand.
 
Zuletzt bearbeitet:
M-X schrieb:
Da magst du wohl recht haben, wobei es in den 90igern dann schon mit den Clustern los ging. 30 Jahre sind In der IT aber auch ewig.
Ja es ist ne halbe Ewigkeit, aber wir wollen bei der Wahrheit bleiben. Insbesondere auch wegen Systemen wie Cerebras, Quantencomputer und superconductive computing die das auch wieder zurück drehen können.
M-X schrieb:
Was soll den ein Supercomputer "zeigen"? bis mein Handy im Petaflop Bereich ankommt wird es wohl noch länger dauern. Auch die Software und Berechnungen auf einem Supercomputer haben nix mit dem Daily business eines PC users zu tun.
Nein, aber das time sharing wurde kam damit, oder die multi User Umgebungen, oder viele andere Dinge die zum Betrieb dazu gehören. Die großen SMP Maschinen wie von SGI etc waren wichtig um Linux bei multicore Support etc zu pushen.

Also in der Vergangenheut gab es schon viel Technik, aber vor allem Software die dann ins Business aber auch den privaten Sektor runter gedröppelt sind.

Gut, in Zukunft wird das schwer, weil die Systeme extremer werden und die Entwicklung sich hauptsächlich noch darum dreht wie man viel davon zuverlässig zusammen steckt ohne das es einem verreckt...

Da entkoppeln die sich leider mit ihren Problemen von allen anderen...
 
SoDaTierchen schrieb:
Aber die weltweit (!) höchsten Strompreise sind für einen Höchstleistungsrechner natürlich wirklich denkbar schlecht, wenn man bedenkt, dass neben der Energie zum Betrieb auch die Kühlung befeuert werden will.
Nicht wirklich relevant. Die Endkundenpreise von ca. 30 Cent zahlt keiner der Betreiber. Dazu kommt, dass die Uni für den Supercomputer und dessen Betrieb sogar sich von der EEG Umlage befreien lassen kann und der letzte Punkt: Die Strompreise werden in den Stundensatz des Rechners mit einbezogen, wenn man Rechenzeit mietet und da kostet Weltweit die Stunde so gut, dass man selbst mit dem deutschen Strompreis noch gut dasteht am Ende.

Ansonsten: Zahlt eh der Staat durch die Steuern vieles.
 
SoDaTierchen schrieb:
Hurra, mehr Supercomputer. Würde mich ja schwer interessieren, wofür die dann verwendet werden. Die Rechenleistung wird ja wohl kaum für Wettervorhersagen verbraten, lohnt bei dem Wetter derzeit eh nicht.

Also um hier vielleicht mal etwas Licht ins Dunkel zu bringen (auch wenn man das mit Hilfe von Google ziemlich schnell selbst rausfinden kann). Supercomputer werden zur Berechnung/Simulation in der Physik (z.B. Molekulardynamik) Chemie (effizientere Katalysatoren), für Materialdesign (neue Legierungen, Batterieren) oder von Strömung (Automobilbau, Kraftwerkspumpen etc.) eingesetzt. Aber auch Astrophysik oder Geophysik (Erdbeben) oder biochemische Prozesse bis hin zu „Gehirnsimulationen“ (humanbrainproject.eu). Dabei ist die Skalierung der wissenschaftlichen codes auf hundert tausenden cores und die effiziente Kommunikation (Infiniband etc.) zwischen den CPUs eine der größten Herausforderungen .
 
SoDaTierchen schrieb:
Würde mich ja schwer interessieren, wofür die dann verwendet werden. Die Rechenleistung wird ja wohl kaum für Wettervorhersagen verbraten, lohnt bei dem Wetter derzeit eh nicht.

Ich arbeite z.B. mit einem Atmosphärenmodell. Das kann man auf 80 Kernen parallel ausführen. Dafür braucht man keinen Supercomputer, sondern eine dual socket Epyc-Maschine für ein paar Tausend Euro. Allerdings berechne ich nicht nur eine Instanz des Modells sondern 100 wobei jede unterschiedliche Parameter hat (https://xkcd.com/1885/). Damit kommt man schon auf 8000 Kerne (HT oder SMT bringen bei dieser Art Anwendung nichts). Das macht z.B. auch der ECMWF (Wettervorhersage). Andere Wissenschaftlerinnen und Wissenschaftler werten auf ähnliche Weise z.B. Ozeanmodelle aus.
 
Zuletzt bearbeitet: (typos)
  • Gefällt mir
Reaktionen: SoDaTierchen
Grumpy schrieb:
Das stimmt doch überhaupt nicht. Quelle mit seriösen Belegen bitte.
Das wir weltweit mit die höchsten Energiekosten haben ist doch unbestritten wozu Belege, schau nach dann siehst du es.
Ergänzung ()

Grumpy schrieb:
Also ich sehe im 2. Link die Geschwindigkeit des Internets in Deutschland noch vor "Polen, Irland, Tscheschien, Portugal, UK, Liechtenstein, Österreich .... usw." die liegen jetzt plötzlich nicht mehr in Europa??? Oder nur wenn es in die eigene Aussage passt?
Das Paket muss stimmen und das sieht in anderen Ländern besser aus, da kann BRD eher mit Geld Punkten Bürokratie etc. sind aber wieder gewichtige Minuspunkte.
 
Zuletzt bearbeitet:
M-X schrieb:
Beschäftige dich mal mit der Technik dahinter. Das hat mit dem PC unter deinem Tisch wenig zu tun. Den Weg für irgendeine Zukunft in 20 Jahre haben die noch nie aufgezeigt. Supercomputer waren schon immer Cluster und das hat für deinen lokalen PC keine Relevanz.

In der Top 500 sind wir mit Platz 8 ziemlich gut vertreten, keinen Grund sich da irgendwo reinzukaufen....

Jetzt bin ich doch neugierig geworden. Sind es nicht Xeons und Epycs mit auf GPU basierende Komponenten?
D.h. außer wenige Exoten mit ARM oder andere Nicht X86-64 Architektur?

Ansonsten bin ich wohl zu alt. Als PCs mit 1 MHz werkelten knackten Supercomputer bereits die GHz Marke.
Als man gar nicht wusste, dass man PCs kühlen muss hatten sie bereits Flüssigkeitskühlung und gingen später wieder auf Luftkühlung als man glaubte nur mit Flüssigkeit würde man die Wärme loswerden können.

In Supercomputer war 90+ % der weltweit produzierten GaAs Schlatkreise verbaut...

Statt ein doch für heutige Verhältnis kompaktes "Gerät" sind Supercomputer aktuell eine Halle voller 19" Schränke?
 
ja es sind Hallen voller 19“ Schränke mit Server CPUs von Intel, AMD x86 sowie IBM ppc (sowas von 18-64cores) dual oder quad sockets und memory mit error correction mit professionellen GPUs und Infiniband interconmection etc. Gekühlt wird teilweise komplett mit Wasser, häufiger ist das der Schrank wassergekühlt wird und somit kühle Luft eingeblasen wird und die CPUs / GPUs nur Luftkühlung haben.
 
Aurora wurde schon im Oktober 2020 auf das Jahr 2022 verschoben, da Intel die notwendigen GPUs 2021 nicht liefern kann.

https://insidehpc.com/2020/10/doe-u...-frontier-to-be-first-aurora-to-be-monitored/
https://www.hpcwire.com/2021/04/01/exascale-aurora-system-will-visualize-spreading-cancer/

Also wird Frontier das erste EXAScale System werden:
https://www.hpcwire.com/2021/07/14/frontier-to-meet-20mw-exascale-power-target-set-by-darpa-in-2008/

Frontier wird auf einem Milan-Derivat und der Instinct 200 basieren. Vor allem wird Frontier Infinity Fabric 3 verwenden, das einen einheitlichen Speicherbereich von CPU und GPUs ermöglicht.

El Capitan wird auf Genova und ebenfalls Instinct basieren
https://www.hpcwire.com/2020/03/04/...n-will-use-amd-cpus-gpus-to-reach-2-exaflops/
 
ETI1120 schrieb:
Frontier wird auf einem Milan-Derivat und der Instinct 200 basieren. Vor allem wird Frontier Infinity Fabric 3 verwenden, das einen einheitlichen Speicherbereich von CPU und GPUs ermöglicht.
Den unified memory gibt es schon mit PCIe. Der Unterschied ist die Cache Kohärenz
 
Zurück
Oben