News Top500: USA stellen Platz 1 und 3 der schnellsten Supercomputer

Mega-Bryte schrieb:
Was ich mich frage: wofür werden die Supercomputer eigentlich je nach Land eingesetzt? Forschung und Entwicklung? Wirtschaft? Wissenschaft? Finanzmarkt? Medizin? oder einfach nur Militärstrategie?

Die werden für alles mögliche Verwendet. Wissenschaft, Industrie, Materialforschung, Simulationen etc. Der Summit steht in einem Labor der US Energiebehörde. Klingt unspannend, bedeutet in dem Fall aber eine militärische Nutzung. auf deren Rechnern werden unter anderem Simulationen zu Kernwaffentests berechnet. Ansonsten alles mögliche aus dem Bereich Nukleartechnik.


anexX schrieb:
But can it play Crysis ?

Heißt es nicht "But can it run Crysis"?


CS74ES schrieb:
Peinlich, Deutschland als eins der wirtschaftsstärksten Länder auf Platz 23. Aber Internet ist ja auch noch "Neuland".

Würde mich stark wundern, die Rechner mit dem Internet verbunden sind. Das Internet hat damit herzlich wenig zu tun. Viel mehr vertreibt die EU viele Wissenschaftler, da sie hier viel zu stark eingeschränkt sind. Wissenschaftliche Hochburg in Europa ist schon lange die Schweiz, die zufällig auch einen relativ starken Rechner haben ^^ Ansonsten wandern Wissenschaftler eher Richtung USA oder Asien ab, wo sie frei arbeiten können. Ansonsten ist der wirtschaftliche nutzen eher gering bzw. lassen sich die Berechnungen die da wichtig sind auch auf kleineren Anlagen durchführen.

Hannibal Smith schrieb:
Warum hat AMD da eigentlich keinen Fuß mit drinnen ?

GPU: Vega20 für Deep Learning ist ja das Pendant für Volta oder ? Ist der vorgänger soo schwach ?

CPU: würde es sich nicht rein für PR Zwecke und die "Leistungskrone" lohnen das nen maximalen Ryzen Ausbau zu bringen ? Dürfte doch nicht soo schwer sein mit IF oder ?

2x 32C/64T Epyc pro Node und dann grad paar Vega FEs dazu (oder eben den Vorgänger von Vega20)

Wie werden diese Nodes eigentlich angebunden bzw. miteinander verbunden ?

Das hat mehrere Gründe. Zum einen ist AMD bei den CPUs erst seit Epyc überhaupt wieder relevant. Die Vorlaufzeit für die Entwicklung solcher Rechner dürfte sehr hoch sein, weswegen man da noch nichts bisher gesehen hat. Zum anderen ist die Leistungsdichte gegenüber Intel geringer. Epyc bietet maximal 2 Sockel, Intel bietet 4 Sockel. Das ist bei einigen Rechnern auch ein wichtiger Faktor. Zum anderen ist die Intel Architektur ja nun weitreichend erprobt in dem Bereich, dass man sicher auf alte Erfahrungswerte zurückgreifen kann. Es hat schlicht was mit der Software optimierung zu tun.

Zu Vega... Da ist der grund ganz einfach. CUDA. Cuda hat sich als Standard in dem Bereich durchgesetzt. Die reine Rohleistung ist dann halt nicht alles. Zudem dürften die Tensorcores in den Volta GPUs für einige Bereiche sehr spannend sein.

Verbunden sind die Notes, laut Wikipedia, mit 2*100 GB/s InfiniBand Links
 
  • Gefällt mir
Reaktionen: fox40phil
Hannibal Smith schrieb:
Warum hat AMD da eigentlich keinen Fuß mit drinnen ?

Ich denke Planung, Konstruktion und Bau verschlingen einiges an Zeit. Durchaus möglich, dass man gerade herumrechnet ob sich der Einsatz von AMD CPUs lohnt.
 
AMD ist seit Epyc erst wieder ein ernstzunehmender Wettbewerber für ARM, Intel IBM und Konsorten. Es dauert sicherlich noch ein paar Jahre, bis sie öfter in der Liste auftreten und wahrscheinlich werden erst kleinere Rechenzentren damit ausgestattet. Technische Reife ist bei solchen Unterfangen sehr wichtig. Die Projekte benötigen darüber hinaus immer ein paar Jahre vorlauf. Als die jetzigen Vertreter geplant wurden, wusste abgesehen von AMD noch niemand was von Epyc. €dit: Zu spät.
 
CS74ES schrieb:
Naja, Supercomputer sind ja nicht nur ein "Prestige", sondern auch nützlich, ich denke viel Forscher oder was immer, würden sich über mehr Rechenleistung freuen. Ist ja nicht so, dass wir uns das nicht leisten könnten.
Ich denke, da müsstest du in Jülich mal persönlich anfragen, ob denn für einen Supercomputer im dreistelligen petaflop Bereich überhaupt derzeit ein Bedarf wäre.
Die Frage ist also auch, ob man es sich überhaupt leisten möchte.
In den USA sitzen dazu auch ein paar andere Industriezweige und Institutionen, die an so einer leistung eher interessiert sind. Northrop grumman, NSA, etc...
 
Shoryuken94 schrieb:
Heißt es nicht "But can it run Crysis"?

Recht du hast - und bevor du jetzt fragst "Heisst es nicht 'Du hast Recht' ?" - ja, auch das heisst es ;)
 
floh667 schrieb:
Ich denke, da müsstest du in Jülich mal persönlich anfragen, ob denn für einen Supercomputer im dreistelligen petaflop Bereich überhaupt derzeit ein Bedarf wäre.
Die Frage ist also auch, ob man es sich überhaupt leisten möchte.
In den USA sitzen dazu auch ein paar andere Industriezweige und Institutionen, die an so einer leistung eher interessiert sind. Northrop grumman, NSA, etc...

Also wenn Shoryuken recht, hat liegst du falsch, aber es ist ja erstmal ganz wichtig das Gegenteil zu behaupten... :rolleyes:

Ich geh lesen ;p
 
Sehr verrückt. Wie lange arbeitet so ein System eigentlich, bevor es veraltet ist?

Weyoun schrieb:
Crysis kam im November 2007 auf den Markt...
Davon abgesehen zwingt Crysis in 4k noch heute jede Grafikkarte < 1080TI in die Knie. :freak:
 
Mort626 schrieb:
Davon abgesehen zwingt Crysis in 4k noch heute jede Grafikkarte < 1080TI in die Knie. :freak:
Was aber an der sehr schlecht optimierten CryEngine 2 liegt. Grafisch mag sie echt damals mit allen Spielen den Boden aufgewischt haben, aber technisch ist sie nicht mal die Spannung wert, die man braucht sie zu speichern. ;)
 
CS74ES schrieb:
Also wenn Shoryuken recht, hat liegst du falsch, aber es ist ja erstmal ganz wichtig das Gegenteil zu behaupten... :rolleyes:

Ich geh lesen ;p

Wo liege ich denn falsch? Ok, Northrop wird seine eigenen kleinen Supercomputer haben. Aber da der Summit in der Energiebehörde steht, kannst du davon ausgehen, dass dort militärische Simulationen für Massenvernichtungswaffen laufen. Und da wären wir dann auch wieder bei Northrop.

Es ist halt einfach unnötig, dass jedes wirtschaftlich starke Land sofort so einen Supercomputer dieser Dimensionen braucht. In Deutschland ist nunmal nicht diese Art der Forschung zuhause, die solch eine Rechenleistung benötigt. Deswegen ist Jülich oder das KIT in Karlsruhe trotzdem nicht von der Welt abgehängt.
 
@MichaG wie kann man sich als PC-Nutzer so einen Benchmark vorstellen? Programm öffnen und dann auf Benchmark klicken? Würde mich mal interessieren wie das bei einem Supercomputer abläuft.
 
Du kannst ja mal testen: http://www.netlib.org/benchmark/hpl/ :D

Mehr tippen als klicken, da es über eine Kommandzeile läuft. Finde gerade nur ein altes Video:

 
Ich würde die "wissenschaftliche" Leistungsfähigkeit eines Landes weniger an der Rechenleistung der Top-500 ausmachen. Die Summe aller Server zusammen, bspw. bezogen auf die Einwohnerzahl wäre da schon aussagekräftiger. Kleinvieh macht in der Regel mehr Mist. :D
 
floh667 schrieb:
In Deutschland ist nunmal nicht diese Art der Forschung zuhause, die solch eine Rechenleistung benötigt.
Richtig, aber sie KÖNNTE dort heimisch sein. Man werfe, wie bereits hier erwähnt, nur einen Blick in Richtung Schweiz. Ein etabliertes und respektiertes Forschungswesen zieht naturgemäß finanziell gut dastehende Industrien nach sich, ob jetzt aus dem Ausland oder durch lokale (Neu-)Entstehung. Das wiederum führt prinzipiell zu mehr nationalem Wohlstand, besserer Zukunftssicherheit und dadurch höherem mittleren Lebensstandard. Eine der bewährtesten und nachhaltigsten Methoden, ein Land oder auch nur eine Region stabil und finanzstark zu führen ist mit einem hohen Bildungsgrad und etablierter Forschung. Alles andere knüpft daran an. Dass eure Bunzrepublik das momentan nicht ausreichend würdigt ist sehr schade, es wird an anderen Stellen sehr viel Geld verschleudert. Nur, weil es momentan der Mehrheit der Leute ausreichend gut geht, muss das nicht bedeuten dass es ewig so weitergeht.
 
Die Aussage dass OpenCL von Apple entwickelt wurde ist so nicht richtig. Entwickelt wurde es von AMD, Intel, IBM, Nvidia und Apple und wurde von der Khronos Group veröffentlicht/zertifiziert/verwaltet.
 
floh667 schrieb:
Es ist halt einfach unnötig, dass jedes wirtschaftlich starke Land sofort so einen Supercomputer dieser Dimensionen braucht. In Deutschland ist nunmal nicht diese Art der Forschung zuhause, die solch eine Rechenleistung benötigt. Deswegen ist Jülich oder das KIT in Karlsruhe trotzdem nicht von der Welt abgehängt.
Es gibt auch andere "friedliche" Bereiche der Wissenschaft, in dem man nicht genügend Rechenkraft haben kann:
* Molekularbiologie (Medizin) => chemische Reaktionen sind sehr aufwendig zu simulieren
* Teilchenphysik (CERN ist das beste Beispiel, Deutschland hat u.a. einen Mini-Teilchenbeschleuniger in Darmstadt)
* Energietechnik (Simulation von physikalischen Prozessen in einem Fusionsreaktor (ITER ist sehr teuer und ohne Simulation geht da nix)

Die Liste könnte man fortsetzen, man braucht nicht ausschließlich militärische Szenarien für diese Art von Supercomputern.
 
  • Gefällt mir
Reaktionen: CS74ES
Richtig. Alleine im Ingenieurbereich wird immer mehr simuliert und es ist nicht mehr wegzudenken. Die ganze Automobil- und Aeronautikindustrie ist davon abhängig, in sehr vielen anderen Sparten sieht es ähnlich aus. Am HLRS in Stuttgart kommen regelmäßig Vertreter der genannten Domänen vorbei und fragen Rechenzeit an. Am Ende profitiert davon jeder: Rechenzentrumbetreiber, Hersteller, Kunde, Staat.
 
Jo... was nutzen der USA jetzt die schnellsten Supercomputer, wenn die degenerierte Bevölkerung Trump wählt?
 
@ Redaktion

Erwähnenswert wäre auch der SuperMuc-NG der gerade an der Uni München mit 27 PFlops in der Endstufe vorgesehen ist. Dann sind wir wieder weit vorne :)
 
  • Gefällt mir
Reaktionen: MichaG
Bin sicher das AMD hier mit Epyc, vor allem mit Epyc 2 wieder groß mitmischen kann.
Während Intel seit Jahren auf der Stelle steht und sich auf seinem Vorsprung ausgeruht hat, hat AMD im stillen Kämmerchen Innovationen entwickelt wie zuletzt um die Jahrtausendwende (erster 1GHz CPU, erster nativer Dualcore, erstes brauchbares 64Bit).
 
Zurück
Oben