News ExaFLOPS-Supercomputer: Chinas OceanLight schlägt mit 390-Kern-CPUs die Top 500

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.346
Die hohe Rechenleistung für OceanLight sollen Prozessoren vom Typ SW39010 mit je 390 CPU-Kernen und hybrider Architektur mit kleinen und großen Kernen liefern, die mit 512-Bit-Befehlen (analog zu AVX-512) umgehen können sollen.
Ich dachte, die little.BIG-Architektur bringt außerhalb des mobilen Segments nichts und würde keinen Sinn ergeben :evillol:

Problem an den Top 500 ist ja auch, dass es sowohl nur die bekannten Supercomputer beinhaltet, als auch nur diejenigen, auf welchen die entsprechenden Benchmarks liefen. Würde mich nicht überraschen, wenn es in irgendwelchen Militäreinrichtungen Computer gäbe, welche nochmal mehr Rechenleistung an den Tag brächten.
 
  • Gefällt mir
Reaktionen: flo.murr, Simzone4, Dowinder und 8 andere
In 20 Jahren hat mein Smartphone mehr Leistung :D
 
  • Gefällt mir
Reaktionen: Amboss, CyrionX und Delirus
Problem an den Ergebnissen aus China: Die westliche Welt erkennt sie nicht wirklich an, dafür müsste es ihre Benchmarks durchlaufen. Die offizielle Top500-Liste sieht deshalb noch anders aus.
Ach, einfach Leistung/Einwohner des Landes. Ergibt zwar keinen Sinn, aber man muss sich dann im Westen für einige Zeit keine Gedanken mehr machen.

Bei News für solche Supercomputer und der Top500 frage ich mich oft, ob der Gedanke vom Bau wirklich der Nutzen war, oder doch eher "den Größten zu haben".
 
  • Gefällt mir
Reaktionen: Dowinder und Col. Jessep
@ghecko 14 nm wäre innerhalb Chinas möglich, vermute aber das hier TSMC geliefert hat.

Sind ja ARM Designs, da gibt es ja einige China Firmen die bei TSMC fertigen lassen.
 
  • Gefällt mir
Reaktionen: [wege]mini
Was das für Kerne sind, dass 390 auf einen Die passen?

Was für Workloads skalieren überhaupt noch sinnvoll auf 40 Millionen Threads?
 
Laut Schätzung des Experten kommen in 96 Serverschränken jeweils 1.024 der 390-Kern-CPUs zum Einsatz, [...]
Also irgendwas passt da nicht... Ein Standard-Serverschrank mit 48 bzw. 60 HE bräuchte, um 1024 CPUs unterzubringen, ca. 21-22 bzw. 17-18 CPUs pro Höheneinheit und das auch nur, wenn man alle HE ausschließlich mit Servern bestücken würde.
Wenn es jetzt 1024 CPUs auf 96 Serverschränken wären, dann gäbe es pro Serverschrank nur 10-11 CPUs, was ebenfalls bei 48-60 HE keinen Sinn ergeben würde...
Also entweder sind diese Serverschränke mehrere Stockwerke hoch, es wären alles Single-Socket-Server mit jeweils 4-6 HE oder die Schätzung von "Experten" ist Mist :freak:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Conqi, C4rp3di3m und Santa Clause
das wird ziemlich sicher der nutzen sein, da sie ja nicht direkt an die top500 ergebnisse geliefert haben und es garantiert noch weitere Computer gibt, die überhaupt nicht aufgelistet sind.
 
tomgit schrieb:
Würde mich nicht überraschen, wenn es in irgendwelchen Militäreinrichtungen Computer gäbe, welche nochmal mehr Rechenleistung an den Tag brächten.
davon kannst du ausgehen
Rickmer schrieb:
Was für Workloads skalieren überhaupt noch sinnvoll auf 40 Millionen Threads?
Die werden für Atomwaffen-, Wetter-, Physik (Gravitationsforschung z.B.) und andere Simulationen genutzt, das lässt sich gut skalieren. Du darfst da nicht an einen Klassischen PC Aufbau denken, eher sowas wie SETI@Home usw.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: qappVI, andi_sco und tomgit
Mich erschreckt hier viel eher, Big-Little Design? Wo hat China das her?
Was für CPU`s sind das genau? Sind keine klassischen x86er oder?
 
Novasun schrieb:
Mich erschreckt hier viel eher, Big-Little Design? Wo hat China das her?
Was für CPU`s sind das genau? Sind keine klassischen x86er oder?
Das werden ARM, MIPS und FPGAs sein. Alles was keiner Westlichen Kontrolle unterliegt um die Abhängigkeiten zu lösen.

Es ist Falsch China als technologisches Entwicklungsland zu sehen, die sind oft schon weiter als wir wenn nicht schon überall, zeigen es halt nur noch nicht.
 
  • Gefällt mir
Reaktionen: tritratrullala, qappVI, fth_trk und eine weitere Person
CCIBS schrieb:
Bei News für solche Supercomputer und der Top500 frage ich mich oft, ob der Gedanke vom Bau wirklich der Nutzen war, oder doch eher "den Größten zu haben".
Beides.
Natürlich profitieren Wissenschaft und Wirtschaft von den Computern, auf der anderen Seite soll es eben auch ein Lockmittel als Wissenschaftsstandort darstellen - nach dem Motto "schaut mal, was wir uns leisten können!"
 
Rickmer schrieb:
Was für Workloads skalieren überhaupt noch sinnvoll auf 40 Millionen Threads?
Keiner, denn Rechenjobs werden nie auf einen ganzen Cluster verteilt. Es laufen stets mehrere parallel, denn die Skalierung lässt sich nicht unendlich weit treiben und der Speedup wird immer kleiner, bis er schließlich negativ wird (sprich es dauert länger als mit weniger Kernen). Wann es sich noch lohnt, mehr Kerne auf einen Job zu klatschen, ist sehr stark von der Hardware (insb. Speicherdurchsatz zwischen Nodes/Blades und CPU-Cache), den Algorithmen selbst und den Dekompositionsmethoden.
 
  • Gefällt mir
Reaktionen: sikarr
MichaG schrieb:
Problem an den Ergebnissen aus China: Die westliche Welt erkennt sie nicht wirklich an, dafür müsste es ihre Benchmarks durchlaufen. Die offizielle Top500-Liste sieht deshalb noch anders aus.
Das ist kein wirkliches Problem. China macht einfach und ignoriert solche nutzlosen Listen.
 
  • Gefällt mir
Reaktionen: Saint81, Deathless, tritratrullala und 10 andere
sikarr schrieb:
Das werden ARM, MIPS und FPGAs sein. Alles was keiner Westlichen Kontrolle unterliegt um die Abhängigkeiten zu lösen
Warum sollte ARM keiner westlichen Kontrolle unterliegen?
Die Huawei eigenen Chips geraten doch auch immer mehr ins Hintertreffen, trotz möglicher Fertigung in China.

Zu offiziellen Benchmarks: nutzt China denn nicht den Linpack oder ist nur keine Kontrollinstanz dazwischen?
Ergänzung ()

olfbc schrieb:
So ein Supi Computer hat gleich viele Kerne wie vor 20 Jahren eine einzelne CPU Transistoren.
Bis zu den ersten Pentium iii und den K6-2 stimmt es sogar
 
andi_sco schrieb:
Die Huawei eigenen Chips geraten doch auch immer mehr ins Hintertreffen, trotz möglicher Fertigung in China.

Das sind doch Consumer Chips für Smartphone‘s und dadurch das kein playstore drauf laufen darf, werden sie auch kaum gekauft.
 
FrozenPie schrieb:
Wenn es jetzt 1024 CPUs auf 96 Serverschränken wären, dann gäbe es pro Serverschrank nur 10-11 CPUs, was ebenfalls bei 48-60 HE keinen Sinn ergeben würde...
Also entweder sind diese Serverschränke mehrere Stockwerke hoch, es wären alles Single-Socket-Server mit jeweils 4-6 HE oder die Schätzung von "Experten" ist Mist :freak:
Natürlich macht das Sinn, es wird neben Platz für Prozessoren auch noch Platz für Speicher, Loadblancer, Netzwerk, Stromversorgung und vor allem Kühlung gebraucht. So eine Maschine besteht nicht einfach aus Standard-Pizzaboxen.
 
  • Gefällt mir
Reaktionen: qappVI und sikarr
sikarr schrieb:
Die werden für Atomwaffen-, Wetter-, Physik (Gravitation z.B.) und andere Simulationen genutzt, das lässt sich gut skalieren. Du darfst da nicht an einen Klassischen PC Aufbau denken, eher sowas wie SETI@Home usw.
Zumindest für Klimamodellierungen ist die Auslastung der vielen Rechenknoten schnell ein Problem, da zu wenig gerechnet und zu viel kopiert wird (und das auch über Netzwerk wenn mehrere Knoten beteiligt sind). Wenn das Programm dann auch noch schlecht optimiert ist (parallele Programmierung) dann langweilien sich schnell mal 90% der genutzten Rechnerknoten. Das ist schon bei den "normalen" Supercomputern (z.b. DKRZ Hamburg) so und wird bei denen in China nicht anders sein. So lange man Programme nicht vernünftig optimiert bringen dir EFLOPS auch nichts. Nur dass du noch mehr schlechte Programme nebeneinander laufen lassen kannst (immerhin).
In DE wird z.b. lieber Geld für fettere Hardware zur Verfügung gestellt als für fähige Informatiker, die bei der Optimierung der Programme helfen. Ist in China bestimmt ähnlich.
 
  • Gefällt mir
Reaktionen: Recharging und sikarr
Zurück
Oben