News Fujitsu Monaka: Neues vom 144-Kern-Superchip aus Japan

LEDs schrieb:
Viel beeindruckender finde ich ist aber das der fugaku auf der Praxis relevanteren Top500 HPCG immer noch auf Platz 1. ist.
Wobei das wohl nur daran liegt, dass El Capitan dafür kein Benchmarkergebnis eingereicht hat. Aber trotzdem beeindruckend, dass Fugaku da die im Linpack weit schnelleren Frontier und Aurora hinter sich lassen kann.

In gewissem Sinne ist das ja auch der echte gedankliche Nachfolger der legendären ursprünglichen Cray-Supercomputer. Durch die enorm breiten Vektoreinheiten ist das ja praktisch ein richtiger Vektorprozessor, kann genau deshalb auf zusätzliche Beschleuniger verzichten und sich das ganze Theater mit heterogener Architektur etc sparen, das die ansonsten üblichen CPU/GPU-Kombinationen auffahren müssen. Wie man sieht, zahlt sich das gerade in Sachen Effizienz und Ausnutzung der Recheneinheiten massiv aus.

AMD arbeitet (oder eher experimentiert, im aktuellen Stadium) übrigens daran, das Problem von der anderen Seite her anzugehen. Wozu überhaupt Code auf der CPU ausführen, warum nicht direkt auf der GPU? Doom läuft schonmal ohne CPU:
https://llvm.org/devmtg/2024-10/slides/techtalk/Huber-A-CPlusPlus-Toolchain-for-Your-GPU.pdf
 
TenDance schrieb:
Und da ist es eben wichtiger dass nicht nur in Jülich ein Rechner für irgendwelche Vergleichslisten steht, sondern eben auch in Stuttgart, München etc wirklich gute Rechenwerke für die Forscher im Zugriff sind
Ah und die sind deiner Meinung nach ausreichend? Schon mal auf den Kisten gearbeitet? Die sind immer voll. Also ganz gleich wie groß Sie sind. Größer ist also durchaus besser.
TenDance schrieb:
Dennoch wichtig zu beachten dass es Investitionen in die Zukunft sein müssen - und da ist der Aufbau eines Quantenzentrums viel bedeutsamer...
Du meinst das Zentrum das quasi einfach von IBM in Ehingen/Stuttgart betrieben wird?

Da wird mit nem Quantenrechner geforscht, aber nicht an denen. Nur so btw. Also bläst man den Amis wieder Geld in den Arsch nach deiner Sichtweise.
TenDance schrieb:
Wenn man bedenkt wie wenig Entwicklung und Wertschöpfung in dem Bereich mittlerweile in Deutschland und Europa verblieben sind, ist die Ausstattung in Deutschland derzeit ziemlich gut.
Naja, sie könnte schlechter sein, aber da ist durchaus viel Luft nach oben.
Ergänzung ()

stefan92x schrieb:
Wobei das wohl nur daran liegt, dass El Capitan dafür kein Benchmarkergebnis eingereicht hat. Aber trotzdem beeindruckend, dass Fugaku da die im Linpack weit schnelleren Frontier und Aurora hinter sich lassen kann.
Na das würde ich erst sehen wollen. Wobei HPCG im Endeffekt ein fancy Stream Benchmark ist wenn man ein paar Tricks beachtet. Daher steht er ja durchaus auch in der Kritik und Fugaku ist halt ein Speicherbandbreitenmonster.
stefan92x schrieb:
In gewissem Sinne ist das ja auch der echte gedankliche Nachfolger der legendären ursprünglichen Cray-Supercomputer. Durch die enorm breiten Vektoreinheiten ist das ja praktisch ein richtiger Vektorprozessor, kann genau deshalb auf zusätzliche Beschleuniger verzichten und sich das ganze Theater mit heterogener Architektur etc sparen, das die ansonsten üblichen CPU/GPU-Kombinationen auffahren müssen. Wie man sieht, zahlt sich das gerade in Sachen Effizienz und Ausnutzung der Recheneinheiten massiv aus.
Ähm, Nein... die FPU in A64FX ist nur 512 Bit lang. Die SVE lässt zwar variable Vektorlängen zu, dad vereinfacht in meinen Augen aber am Ende nur die Programmierung und die Optimierung durch den Compiler.

Ein "echter" Nachfolger ist wenn dann von NEC die Aurora Kisten. Das sind noch richtige Vektorkisten. 32 x64Bit Breite FPUs also 2048Bit FPUs sind schon ne andere Hausnummer. Mal ganz davon abgesehen das man Instruktionen mit 16384 Bit Länge hat. Wir dann halt multicycle abgearbeitet wie bei AMD und AVX512.

Aber das sind Derails.

@Volker viel spannender ist eigentlich der Wegfall von HBM und noch mehr vom Tofu Netzwerk. Gerade der Interconnect war ja mit der tiefen Integration schon einer der selling points.

Das sieht mit jetzt deutlich mehr nach off the shelf Hardware aus als zuvor. Auch wenn man sich die Features anschaut kommt man auf die Idee das HPC hier gar kein Fokus mehr war sondern Cloud Provider.

Ich bin relativ enttäuscht bis jetzt.

Ansonsten. Ich konnte den Software Stack von Fugaku leider nicht selbst testen, aber vom Vorgänger war es absolut schrecklich im Vergleich zu x86.

Die Hardware allein macht halt am Ende vom Tag noch kein schnelles System...
 
Zuletzt bearbeitet:
Skysnake schrieb:
Na das würde ich erst sehen wollen. Wobei HPCG im Endeffekt ein fancy Stream Benchmark ist wenn man ein paar Tricks beachtet. Daher steht er ja durchaus auch in der Kritik und Fugaku ist halt ein Speicherbandbreitenmonster.
Genau das ist doch MI300A als Chip aber auch, die reine CPU-Version gibt es jetzt ja eben auch gerade als High Bandwidth-Instanzen in der Azure Cloud. Und schon Frontier ist nicht weit hinter Fugoka.
Skysnake schrieb:
die FPU in A64FX ist nur 512 Bit lang. [...]
NEC die Aurora Kisten. Das sind noch richtige Vektorkisten. 32 x64Bit Breite FPUs also 2048Bit FPUs sind schon ne andere Hausnummer.
Sollte ich die beiden verwechselt haben? Ich hatte tatsächlich 2048 Bit im Kopf für A64FX. Dann nehm ich natürlich alles zurück und behaupte das Gegenteil :p
Skysnake schrieb:
@Volker viel spannender ist eigentlich der Wegfall von HBM und noch mehr vom Tofu Netzwerk. Gerade der Interconnect war ja mit der tiefen Integration schon einer der selling points.
Das ist in der Tat spannend, da sieht die ganze Auslegung deutlich anders aus.
 
eastcoast_pete schrieb:
Die Verwendung von Kacheln, gestapelter L3 Cache und alles auf Base Dies hört sich zwar sehr nach AMD an, allerdings ist die Fertigungstechnik dahinter eben TSMC.
Solche Technologien entwickelt TSMC in enger zusammenarbeit mit Kunden. Bei CoWoS war es Xilinx, bei InFO Apple und bei SoIC war es AMD.

Die Ähnlichkeiten beim Design mit AMD sind eventuell gar nicht so zufällig:
https://www.fujitsu.com/global/about/resources/news/press-releases/2024/1101-01.html
 
ETI1120 schrieb:
Die Ähnlichkeiten beim Design mit AMD sind eventuell gar nicht so zufällig:
https://www.fujitsu.com/global/about/resources/news/press-releases/2024/1101-01.html
Ähm ne, das hat damit überhaupt nichts zu tun.

Der wichtige Teil ist der hier:
Our strategic partnership with Fujitsu not only underscores our commitment to innovation but also highlights our dedication to Japan, where we recognize the importance of local partnerships and expertise.

Das sollte man nicht unterschätzen. Ein nicht japanisches Unternehmen wird nicht das Flaggschiffsystem in Japan bauen. Den Gesichtsverlust würden die sich nicht geben. Zudem gibt es da noch so richtig Seilschaften. Also Vetternwirtschaft weil man ja auf der gleichen Uni war....

Wie auch immer. Ich bin gerade ziemlich baff. Das ist ne harte Bankrotterklärung von Fujitsu erklärt dann aber auch die Änderung am Design. Man muss sich aber klar machen, das in den Beschleunigern ein signifikanter Anteil der Systemkosten steckt. Mehr als in Netzwerk und CPU. Sprich wahrscheinlich geht beim nächsten großen System ein Großteil des Geldes an AMD. Nicht schlecht Herr Specht.

Ist dann nur noch die Frage, ab Sie nochmals ne reine HPC CPU auflegen oder nicht. Müsste man mal die alten Foliensätze von Fugaku mit den Ausblicken für die Zukunft analysieren.

Für NEC aber auch ne fette Klatsche. Die hätten ja ihre Vektorrechner auch anbieten können. Aber man nimmt lieber den Ausländer. Dad sitzt sicherlich tief im japanischen Herz.

Damit hat sich dann ziemlich sicher auch Tofu erledigt. Bei so nem Aufriss bezüglich Integration ist man sicherlich froh wenn man nicht auch noch das IB Netzwerk gegen etwas anderes tauschen muss. Vor allem nicht Fat Tree oder DragpnFly vs 6D Torus. Oder war es 12D???

AMD wird da aber nicht viel bekommen außer Arbeit am Softwarestack und vielleicht noch ein bisschen etwas zum MC Kernel und dem HW Design dahinter um low jitter Systeme zu bekommen.

Krass das es darüber garkeine News gab. Das ist nämlich echt eine!
 
Skysnake schrieb:
Ähm ne, das hat damit überhaupt nichts zu tun.
Esd ist schon klar, dass sich die Pressemeldung von Fujitsu nicht auf den Monaka bezieht.

Aber die Pressemeldung besagt dass Fujitsu und AMD zusammenarbeiten. Und bei diesem Kontext würde es mich nicht wundern, wenn Fujitsu bei Monaka Unterstützung durch AMD Custom bekommen hat. Ohne dies an die große Glocke zu hängen. Das habe ich mit "eventuell gar nicht so zufällig" gemeint.
 
Skysnake schrieb:
Ah und die sind deiner Meinung nach ausreichend? Schon mal auf den Kisten gearbeitet? Die sind immer voll. Also ganz gleich wie groß Sie sind. Größer ist also durchaus besser.
Die sind deswegen immer voll weil die immer voll gehalten werden. Also auch recht vage Projekte und Testballons werden zugelassen wenn gerade keine Fokusprojekte anstehen. Ist auch das was wir am MPI erleben...
Skysnake schrieb:
Du meinst das Zentrum das quasi einfach von IBM in Ehingen/Stuttgart betrieben wird?
Natürlich wird das von IBM betrieben. Ist übrigens Ehningen, Ehingen ist woanders. Und nein, meine ich nicht.
Quantum Computing hat exakt zwei Komponenten: Hardware und Software. Natürlich ist die Hardware wichtig, im Augenblick ist aber die Software fast wichtiger - weil erst sie die Auslegung der hardware definiert.
Und da passiert in Deutschland und Europa sehr sehr viel.

Nicht nur derlei:
https://blogs.helmholtz.de/research...s-fuer-europas-quantencomputer-infrastruktur/

oder hier:
https://www.fraunhofer.de/de/forsch...ung/quantentechnologien/quantencomputing.html

sondern auch Firmen wie IQM. Dessen Co-Founder ist mit Jan Götz übrigens ein Deutscher. Irgendwie schade dass er aus München nach Finnland ist, aber um im Konzert der Großen mitzuhalten muss Europa aus dieser Kleinstaaterei entwachsen. Finnland ist Europa. Und nur Europa hat eine Chance nicht abgehängt zu werden.
 
ETI1120 schrieb:
Und bei diesem Kontext würde es mich nicht wundern, wenn Fujitsu bei Monaka Unterstützung durch AMD Custom bekommen hat. Ohne dies an die große Glocke zu hängen. Das habe ich mit "eventuell gar nicht so zufällig" gemeint.
Davon ist nicht auszugehen. AMD hat das bis heute noch nie gemacht. Das was du dir da vorstellst ist jetzt eher etwas was von TSMC oder Firmen wie Synopsys/Cadence oder Designfirmen kommt.

Der aller aller früheste Punkt wo ich bei so etwas mitgehen würde wäre wenn wir ein chiplet Design wie die MI 300A sehen würden. Also AMD GPU und Fujitsu CPU auf einem Package. Dafür gibt es aber keinerlei Indizien.

TenDance schrieb:
Die sind deswegen immer voll weil die immer voll gehalten werden
Stichwort 10-30% mehr vergebene Rechenzeit als überhaupt vorhanden ist.

Das heißt ja aber nicht, dass da nicht auch ein Bedarf ist. Ich kenne es so das in den Antragsrunden das Vielfache eingereicht wird und die mit höchstem zu erwartenden wissenschaftlichen Wert etwas bekommen und der Rest halt leer ausgeht und schauen muss wo er rechnet. Und es bekannt auch nicht jeder das was er will.
TenDance schrieb:
Also auch recht vage Projekte und Testballons werden zugelassen wenn gerade keine Fokusprojekte anstehen.
Naja, aus vagen Projekten kann auch etwas werden. Die bekommen aber nicht 10% der Maschine sondern vielleicht 0,01%

und Testballons brauchst du genauso. Bei großen Systemen ist ja allein die Ausführung von Anwendungen schon eine echte Aufgabe. Wird leider zu oft nicht gewürdigt.
TenDance schrieb:
Ist auch das was wir am MPI erleben...
Naja, welches MPI ist es denn? Die sollten maximal Tier 2 haben. Da geht es natürlich etwas freier zu, aber auch da schreibst du Anträge.
TenDance schrieb:
Natürlich ist die Hardware wichtig, im Augenblick ist aber die Software fast wichtiger
Ja durchaus. Das Problem ist, Software kannst du wenn du es willst relativ einfach erstellen. Hardware eher nicht. Zudem ist gerade in der Software viel open Source. Die Europäer machen z.b. viel in Metasprachen. Damit das aber einen Wert hat muss es eigentlich kostenlos sein. Du machst damit aber kein Buisness und darum ging es ja.

Zudem ändert sich aber auch ständig etwas bei den :"Programmiersprachen" für Quantenxomputer. Da hat eigentlich jeder Hersteller sein Framework soweit mir bekannt.

Das ist halt Schrott aber state of the Art.

da eine Vereinheitlichung zu schaffen hat einen riesigen wissenschaftlichen und ökonomischen Wert aber es bringt keinen Cent ein.

TenDance schrieb:
weil erst sie die Auslegung der hardware definiert.
Naja. Die Hardware designs sind so wie Sie sind und die Software passt sich daran an. Also gerade bei Quantencomputern. Also klar irgendwelche Fehlerkorrekturmechanismen inspirieren das HW Design aber der Einfluss von den Software Entwicklern würde ich als marginal bezeichnen.

Dafür ist das Zeug einfach noch zu experimentell. Da kannst ja froh sein das es überhaupt so funktioniert wie es soll.
 
Zurück
Oben