Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsSupercomputer: Alle Top500 schaffen mindestens 1 Billiarde FLOPS
Die 53. Ausgabe der Top500, die Weltrangliste der schnellsten Supercomputer, markiert einen Meilenstein: Erstmals erreichen alle 500 Systeme eine Rechenleistung von über 1 PetaFLOPS. Diese reichen von Platz 500 mit 1,022 PetaFLOPS bis zum Spitzenreiter mit 148,6 PetaFLOPS. Deutschland ist erneut in den Top10 vertreten.
Erstaunlich wie viel schneller Top 1 im Vergleich zur 10 ist. Mich würde mal interessieren was die so berechnen und was sie so tolles entdeckt haben =)
Stelle ich mir das zu einfach vor, oder könnte man die Systeme einfach größer skalieren?
Also wenn ich unbedingt in die Top10 will, gehe ich zu Intel/Nvidia/AMD und lasse mir einen Einkaufskorb erstellen?
Stelle ich mir das zu einfach vor, oder könnte man die Systeme einfach größer skalieren?
Also wenn ich unbedingt in die Top10 will, gehe ich zu Intel/Nvidia/AMD und lasse mir einen Einkaufskorb erstellen?
Klar gehen die noch größer, es ist aber schwieriger, die dann auch vernünftig auszulasten. Sinnvoll ist es auch in die Green500 zu schauen.
Und du gehst natürlich nicht zu den CPU/GPU-Herstellern, sondern zu Cray, HP, Bull oder IBM. Wobei Cray ja jetzt zu HP gehört.
Skalieren können die sicher alle, aber das ist nicht mal eben so gemacht das man neue racks dazustellt.
Das erfordert eine gewaltige infrastruktur und Planung.
Zb. Sind bei vielen System alle. Kabel exakt gleich lang, egal wie dicht sie am Kern stehen damit jede CPU zur gleichen Zeit die Daten erhält, wenn sie von dem Netzwerk im back end ganz zu schweigen
Und der scheduler muss damit umgehen können, Speicher muss verwaltet werden etc.
Da steckt viel Arbeit hinter.
Bin jedenfalls mega auf die exa scale computer gespannt.
Ob es crysis in 4 K berechnen könnte, sicher, aber vlt nicht in echtzeit, die sind zwar schnell aber haben relativ hohe Latenzen.
Es ist ja ehr so das jede CPU nen block bekommt zum berechnen und das ergebiss davon zurück liefert
Ich frage mich bei solchen Artikeln ja immer welche Leistung Google oder Amazon in ihren Clustern zur Verfügung haben, die bieten ja ihren Kunden schon z.B. beim "Cloud TPU v3 POD" 100+ PFLOPS an
Ich frage mich bei solchen Artikeln ja immer welche Leistung Google oder Amazon in ihren Clustern zur Verfügung haben, die bieten ja ihren Kunden schon z.B. beim "Cloud TPU v3 POD" 100+ PFLOPS an
auch hier wieder ein blick in die eigentlich unfassbare zukunft....
die amis bauen 2-5 exascale computer bis 2025....das sind 1000 (und dann potenzen von 10) von den tollen berechnungen, bei denen der aktuell schnellste 150 (dito) schafft...
leider wird das mooresche gesetz nur bei den mega computern angewendet, da aber auch bis zu kotzgrenze strapaziert.
Vielleicht könnt ihr mir die folgende Frage beantworten:
AMD bietet ja Epyc an für max 2 Sockel, während Intel auch 4 oder gar 8 (?) Sockel CPUs anbietet. Ist dies ein Grund, warum man zu Intel geht, da man "leichter" die Aufgaben verteilen kann?
Mir ist Selbstverständlich bewusst, dass die Server-Farmen dem Motto "never change a running system" treu bleiben und deswegen Intel CPUs verbauen (auch wenn ich mir sehr gut vorstellen kann, dass die Nutzer des Servers auch so denken, oder gerade der entscheidende Faktor bei der Planung sind). Solch ein Server soll ja auch nicht ausfallen, die Programme sind auf "Intel" optimiert usw.
Wenn AMD nun einen Supercomputer plant, bedeutet das dann auch, dass die kommende Generation Epyc Multisockel (>2) unterstützen wird?