News Supercomputer: Alle Top500 schaffen mindestens 1 Billiarde FLOPS

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.957
Die 53. Ausgabe der Top500, die Weltrangliste der schnellsten Supercomputer, markiert einen Meilenstein: Erstmals erreichen alle 500 Systeme eine Rechenleistung von über 1 PetaFLOPS. Diese reichen von Platz 500 mit 1,022 PetaFLOPS bis zum Spitzenreiter mit 148,6 PetaFLOPS. Deutschland ist erneut in den Top10 vertreten.

Zur News: Supercomputer: Alle Top500 schaffen mindestens 1 Billiarde FLOPS
 
  • Gefällt mir
Reaktionen: fox40phil, SVΞN und [wege]mini
Erstaunlich wie viel schneller Top 1 im Vergleich zur 10 ist. Mich würde mal interessieren was die so berechnen und was sie so tolles entdeckt haben =)
 
  • Gefällt mir
Reaktionen: flo.murr, Kandalfus und fox40phil
Könnte man eigentlich daran Crysis 3 in 4k flüssig spielen? Mal abgesehen davon, dass Supercomputer nicht dazu konzeptiert sind...
 
  • Gefällt mir
Reaktionen: acty
Stelle ich mir das zu einfach vor, oder könnte man die Systeme einfach größer skalieren?
Also wenn ich unbedingt in die Top10 will, gehe ich zu Intel/Nvidia/AMD und lasse mir einen Einkaufskorb erstellen?
 
  • Gefällt mir
Reaktionen: Wesir und Transistor 22
@Axxid Naja, da kommt ja noch einiges an Infrastruktur dazu. Deshalb geht man ja z.B. zu Cray und lässt sich dort den Warenkorb erstellen :D
 
  • Gefällt mir
Reaktionen: psYcho-edgE
Axxid schrieb:
Stelle ich mir das zu einfach vor, oder könnte man die Systeme einfach größer skalieren?
Also wenn ich unbedingt in die Top10 will, gehe ich zu Intel/Nvidia/AMD und lasse mir einen Einkaufskorb erstellen?
Klar gehen die noch größer, es ist aber schwieriger, die dann auch vernünftig auszulasten. Sinnvoll ist es auch in die Green500 zu schauen.
Und du gehst natürlich nicht zu den CPU/GPU-Herstellern, sondern zu Cray, HP, Bull oder IBM. Wobei Cray ja jetzt zu HP gehört.
 
Würden wir den Klimawandel stoppen, wenn wir sie ausschalten?
 
  • Gefällt mir
Reaktionen: crxxx270, M1812M, hans.glück und 6 andere
M-X schrieb:
Theoretisch ja. Sofern du Platz, Geld und Strom hast kannst du dir immer den größten bauen lassen.
"Hallo, ich hätte gerne mal den Größten - thaaaannnkkksss..."

792401
 
  • Gefällt mir
Reaktionen: Mar1u5 und fox40phil
Skalieren können die sicher alle, aber das ist nicht mal eben so gemacht das man neue racks dazustellt.
Das erfordert eine gewaltige infrastruktur und Planung.
Zb. Sind bei vielen System alle. Kabel exakt gleich lang, egal wie dicht sie am Kern stehen damit jede CPU zur gleichen Zeit die Daten erhält, wenn sie von dem Netzwerk im back end ganz zu schweigen
Und der scheduler muss damit umgehen können, Speicher muss verwaltet werden etc.
Da steckt viel Arbeit hinter.
Bin jedenfalls mega auf die exa scale computer gespannt.

Ob es crysis in 4 K berechnen könnte, sicher, aber vlt nicht in echtzeit, die sind zwar schnell aber haben relativ hohe Latenzen.
Es ist ja ehr so das jede CPU nen block bekommt zum berechnen und das ergebiss davon zurück liefert
 
  • Gefällt mir
Reaktionen: Transistor 22
Ich frage mich bei solchen Artikeln ja immer welche Leistung Google oder Amazon in ihren Clustern zur Verfügung haben, die bieten ja ihren Kunden schon z.B. beim "Cloud TPU v3 POD" 100+ PFLOPS an
 
  • Gefällt mir
Reaktionen: Mar1u5 und Wesir
NoD.sunrise schrieb:
Ich frage mich bei solchen Artikeln ja immer welche Leistung Google oder Amazon in ihren Clustern zur Verfügung haben, die bieten ja ihren Kunden schon z.B. beim "Cloud TPU v3 POD" 100+ PFLOPS an
Soweit ich weiß, ist das bei allen großen Anbietern ein Betriebsgeheimnis. Aber interessant wäre es allemal. :)
 
  • Gefällt mir
Reaktionen: fox40phil
auch hier wieder ein blick in die eigentlich unfassbare zukunft....

die amis bauen 2-5 exascale computer bis 2025....das sind 1000 (und dann potenzen von 10) von den tollen berechnungen, bei denen der aktuell schnellste 150 (dito) schafft...

leider wird das mooresche gesetz nur bei den mega computern angewendet, da aber auch bis zu kotzgrenze strapaziert. :smokin:

@yummycandy

man kann ja schätzen....

https://de.wikipedia.org/wiki/Größenordnung_(Leistung)


jetzt sind 8 jahre ins land gegangen...sagen wir verdoppelung alle 2 jahre......total krank was die gebaut haben... :bussi:


mfg
 
  • Gefällt mir
Reaktionen: fox40phil
Vielleicht könnt ihr mir die folgende Frage beantworten:
AMD bietet ja Epyc an für max 2 Sockel, während Intel auch 4 oder gar 8 (?) Sockel CPUs anbietet. Ist dies ein Grund, warum man zu Intel geht, da man "leichter" die Aufgaben verteilen kann?
Mir ist Selbstverständlich bewusst, dass die Server-Farmen dem Motto "never change a running system" treu bleiben und deswegen Intel CPUs verbauen (auch wenn ich mir sehr gut vorstellen kann, dass die Nutzer des Servers auch so denken, oder gerade der entscheidende Faktor bei der Planung sind). Solch ein Server soll ja auch nicht ausfallen, die Programme sind auf "Intel" optimiert usw.
Wenn AMD nun einen Supercomputer plant, bedeutet das dann auch, dass die kommende Generation Epyc Multisockel (>2) unterstützen wird?
 
yummycandy schrieb:
Und du gehst natürlich nicht zu den CPU/GPU-Herstellern, sondern zu Cray, HP, Bull oder IBM. Wobei Cray ja jetzt zu HP gehört.

Oh doch wenn man zb Google ist geht man direkt zu den CPU/GPU Herstellern 😂
 
Die wird bei modernen Systemen teilweise sogar weiter verwendet. :)
 
  • Gefällt mir
Reaktionen: Geckoo, new Account() und [wege]mini
Wusste nicht, dass die Schweiz so viel Power hat. Gibt es auch AMD Systeme oder kommt das erst ins rollen?
 
Zuletzt bearbeitet:
Zurück
Oben