News HLRN-IV-System: Berliner Supercomputer Lise setzt auf Cascade Lake AP

Steini1990 schrieb:
Cascade Lake-AP war aber intels Antwort auf Rome und kam erst nach dem AMD CPUs auf den Markt. Das Argument ist also ungültig.

Zum einen ist Cascade Lake-AP nur eine Variante (Package) und zum anderen sollte man die Termine (Markteinführung) von AMDs und Intels Enterprise CPUs besser nicht gleichsetzen. Die Vorlaufzeiten (Verfügbarkeit von Samples) bei Intel sind erheblich länger. Siehe:
https://www.golem.de/news/cascade-l...tels-xeon-cpus-mit-56-kernen-1904-140382.html
 
Zuletzt bearbeitet:
Roche schrieb:
Ne mal im Ernst, da wäre es doch mal guter Journalismus, wenn man sich mit den Verantwortlichen mal unterhalten würde um zu erfahren, warum Entscheidungen zu solcher Hardware so getroffen werden, wie sie es werden.
ohne genaues zu denn Projekt zu wissen nehm ich doch stark an das die Vergabe nach VOB Teil A ausgeschrieben wurde.
Beutet der Billigste bekommt den Zuschlag. Bzw der Wirtschaftliche aber bei Beamten ist das das Selbe ;)

Es sei denn Man hat im Lastenheft strickt Intel Reingenommen, das könne aber Öffentliche Auftraggeber an sich nicht ohne Grund, aka wenn doch könnte sich AMD theoretisch einklagen.
 
  • Gefällt mir
Reaktionen: s0UL1 und Hopsekäse
  • Gefällt mir
Reaktionen: s0UL1, P220, Onkel Föhn und eine weitere Person
Früher war alles Besser - Opi Modus an...

Früher waren Supercomputer reine Science Fiction Maschinen.

Als man nicht mal auf die Idee kam Computer müssten überhaupt gekühlt werden, waren die Supercomputer schon mit Wasser gekühlt.
Man träumte von CPUs die 5 MHz Marke knacken da gingen die Supercomputer in Richtung GHz.
So viel RAM konnte man sich nicht mal an einem Fleck vorstellen.
GaAs war wie Vibranium.

Jetzt?

Wer hat das meiste Geld, um die meisten Serverracks vollzukaufen? In Teilbereichen sind die Komponenten nicht mal das Neueste vom Neuesten sondern schon leicht angestaubt und die eine oder andere Generation hinter der Technik die ein Enthusiast unter den Schreibtisch stellen kann.

Ich will, dass Supercomputer wieder so aufregend wird wie früher. Her mit Spintronik, exotisch mit Laser auf knapp über 0 Kelvin gekühlt und jeder Knoten mindestens 1 Mio mal schneller als jeder Rechner den man selbst nutzt. Oder Biocomputer mit Neuronen, unappetitlicherweise gewonnen aus Rattenhirnen die aber ungeahnte Geschwindigkeit entwickeln.
 
  • Gefällt mir
Reaktionen: jotecklen, fandre und RalphS
Piktogramm schrieb:
In der Regel läuft nicht ein Projekt exklusiv auf allen Knoten, sondern eine Vielzahl von Projekten werden auf verschiedene Knoten verteilt.

Es würde aber gar keinen Sinn machen, solche Monstren zu bauen, wenn man nicht den Bedarf hätte, das auch mal exklusiv nutzen zu können. Zumal auch eine "Vielzahl von Projekten" ja dennoch bedeutet, dass die einzelnen Projekte trotzdem einige Tausend Threads nutzen können.


Wenn eine Aufgabe schon soweit parallelisiert ist, dass sie 10^3 Threads nutzen kann, dann wird sie vermutlich auch 10^n Threads nutzen können. Der Klassiker sind ja die Wetter-/Klimamodelle, wo man wohl primär die Parallelisierung über die Aufteilung des Raumes erreicht und da auf der aktuellen Hardware im Sub-Kilometer-Bereich ist.

Das ist schon geil...
Ergänzung ()

mcsteph schrieb:
Ich kenne das Problem, bei mir auf Arbeit kennen die Entscheider nur Intel, meist sind die über 60 Jahre alt.

Verbrauch, Sicherheit, Geld, Leistung interessiert nicht. Wir haben schon immer Intel gehabt

Das ist keine Frage des Alters... Ich kenne das genauso von studierten Frischlingen.

Das ist vor allem eine Frage der Kultur. Und wie's die Kleingeldprinzessin mal gedichtet hat: Wenn man den Kopf in den Sand steckt, sieht man rundrum nur noch Wand.
 
  • Gefällt mir
Reaktionen: Anon-525334
So eine Planung eines Supercomputers, plus Ausschreibung, plus Finanzierung einholen usw macht man nicht in 2-3 Monaten. Das dauert gerne Mal 2-3 Jahre. Da ist dann maximal die technische Weiterentwicklung des Technik Partners mit drin. Denke AMD war zu dem Zeitpunkt einfach keine Option
 
  • Gefällt mir
Reaktionen: TheGreatMM und craxity
Eigentlich beschämend das ein deutsches Institut, benannt nach dem Computerpionier Konrad Zuse, nicht auf innovative und moderne Technik setzt.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Wattwanderer schrieb:
Ich will, dass Supercomputer wieder so aufregend wird wie früher. Her mit Spintronik, exotisch mit Laser auf knapp über 0 Kelvin gekühlt und jeder Knoten mindestens 1 Mio mal schneller als jeder Rechner den man selbst nutzt. Oder Biocomputer mit Neuronen, unappetitlicherweise gewonnen aus Rattenhirnen die aber ungeahnte Geschwindigkeit entwickeln.

Das Beeindruckende bei modernen Supercomputern ist eben eher die Inter-Node-Communication und das Kühlkonzept ^^
 
Beide Systeme wurden durch den französische IT-Dienstleister Atos [...} geplant
Die haben doch schon das besondere elektronische Anwaltpostfach (beA) ziemlich gründlich auf Grund gesetzt.
Ich wünsche trotzdem viel Erfolg. War schließlich teuer genug.
Ergänzung ()

cru5h3r schrieb:
kann so ein Linux überhaupt mit den ganzen Kernen umgehen?
War die Frage jetzt ernst gemeint?
 
  • Gefällt mir
Reaktionen: fandre, cirrussc, McTheRipper und eine weitere Person
Ich würde gerne mal sehen was darauf berechnet wird, für was braucht man so viele Super Computer und wer nutzt sie ?
 
Boandlgramer schrieb:
Es würde aber gar keinen Sinn machen, solche Monstren zu bauen, wenn man nicht den Bedarf hätte, das auch mal exklusiv nutzen zu können. Zumal auch eine "Vielzahl von Projekten" ja dennoch bedeutet, dass die einzelnen Projekte trotzdem einige Tausend Threads nutzen können.
Sinnvoll ist das dennoch. An dem Großrechner hängt ja noch Netzwerk, Storage, Kühlung. Ebenso wie für den Betrieb und Support[1] Experten benötigt werden. Diesen Overhead zu zentralisieren und über zig parallel laufender Jobs sinnvoll auszulasten ist recht ökonomisch.

Was auch nicht vergessen werden darf, Software zu entwickeln die eine solche Maschine gut auslasten ist schwierig und die meisten Forschungsgruppen bestehen nicht aus Informatikern. Die Frage die sich stellt ist da oft schon, ob die Forschungsgruppe KnowHow und Zeit hat um ihre Software derart zu optimieren. Allein die unterschiedlichen Latenzen innerhalb und zwischen Knoten ist ein Problem, dessen Lösung gern mehr Aufwand bedeutet, als den Job einfach 10x so lang nur auf einem Knoten laufen zu lassen.
 
Summerbreeze schrieb:
War die Frage jetzt ernst gemeint?
an sich schon. Klar muss das Linux damit klar kommen, sonst würden die es nicht installieren, aber mich würde schon mal interessieren ob das nur ein Standard CentOS ist, oder was da noch alles angepasst werden muss. Den Taskmanager will ich mal sehen :D
 
cru5h3r schrieb:
an sich schon. Klar muss das Linux damit klar kommen, sonst würden die es nicht installieren, aber mich würde schon mal interessieren ob das nur ein Standard CentOS ist, oder was da noch alles angepasst werden muss. Den Taskmanager will ich mal sehen :D
Für jeden verbauten Server a 2 Sockeln gibt es eine eigne Instanz des Betriebssystem. Das ist also reichlich unspektakulär. Derzeitiges Maximum für x86 CPUs liegt im Kernel wohl bei 4096 Kernen (egal ob hardware oder "virtuell")

CentOS wird da konfiguriert sein, aber großartig Anpassung durch extra programmierte Module würde ich bezweifeln (viel initialer Aufwand und auch über die Lebenszeit)
 
  • Gefällt mir
Reaktionen: jotecklen, cirrussc und cru5h3r
@sNiPe Manche hier stellen sich die Beschaffung wie den Kauf eines Spiele-PCs in einem Online-Shop vor, wo man sich im letzten Moment für eine andere Konfiguration entscheiden kann :rolleyes:
 
  • Gefällt mir
Reaktionen: Kalsarikännit, fandre, DynamaxX und 12 andere
Boandlgramer schrieb:
Selbst wenn ein anderer Anbieter vielleicht eine überlegene Leistung bietet, entscheidet man sich dennoch für eine Plattform, für die man das Know How hat. Ich erinnere an die Geschichte mit der MKL..

Und das treibt man so dann wie lange? Mal angenommen Intel würde jetzt so ins Hintertreffen geraten wie AMD in den 5-6 Jahren vor 2017.
Wie lange würden Unternehmen, Unis usw. trotzdem noch auf Intel setzen, nur weil sie dafür das "Know How" haben?
Das ist doch völliger Quatsch, da immer wieder nur auf einen bestimmten Hersteller zu setzen und die Augen vor der Entwicklung der Hardware zu verschließen.

Zumal wir hier ja nicht nur über mehr Leistung bei gleichem oder gar niedrigerem Anschaffungspreis sprechen, sondern auch von deutlich geringeren Betriebskosten. Der deutlich höhere Stromverbrauch einer jeden solchen Intel Xeon CPU fällt über die Jahre finanziell deutlich ins Gewicht.
Unter Umständen könnte das also auch teurer werden als das Umstellen auf ein AMD Ökosystem.

Und wie das im Artikel bereits erwähnte andere Großrechner Projekt ja zeigt, ist es nicht unmöglich, ein bestehendes Intel System mit einem Modul aus AMD CPUs zu erweitern. Man muss einfach nur wollen.
 
Piktogramm schrieb:
Für jeden verbauten Server a 2 Sockeln gibt es eine eigne Instanz des Betriebssystem.
Ok, das klingt logisch. Gibt es dann auf einem Hauptsystem ein Os welches alle Instanzen zusammenfügt?
 
@Roche Denk mal drüber nach, wann man das Teil geplant hat.
 
  • Gefällt mir
Reaktionen: fandre, sNiPe und CPU2000
Koennte ja schon fast den BER Airport als unser Schamobjekt #1 abloesen. :D
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Zurück
Oben