News Top500 Supercomputer: Wenn hinter Auroras halber Kraft ein Adler über Nvidia landet

Grovy schrieb:
was macht man mit so einem super computer?
wetter berechnen?
nö, man lässt Crysis laufen .. allerdings auf 120 fps begrenzt, damit sie es packen :p
 
Volker schrieb:
Und das Blackwell 2024 kommt bezweifeln wir mal stark
Abwarten, VCZ (wo man in der Regel ziemlich gut informiert ist) rechnet auch mit einem Marktstart in 2024 bis 2025 (als Quelle wird nVidia angegeben, siehe Tabelle unten) und es gab auch schon anderweitig Gerüchte, die Blackwell gegen Ende 2024 verordnet haben.

Untitled.jpg

Es sind ja nicht die möglichen GeForce Gaming-GPU Nachfolger als Blackwell Ableger damit gemeint, die erst später in 2025 kommen dürften, sondern die A.I. Beschleuniger, die klar priorisiert werden dürften von nVidia, da diese deutlich mehr Gewinn abwerfen werden.

Also so unangefochten wie nVidia momentan im A.I. Bereich dasteht (es gibt schon Leute, die nVvidia in einer relativ marktbeherrschenden Stellung sehen), dürfte wohl auch eine Verdoppelung der Leistung (wobei der WccfTech Artikel von mehr als einer Verdoppelung der Leistung ausgeht, was natürlich eher schwammiger ist und sich wohl auch das nVidia Diagramm beziehen dürfte) reichen, um die Gaudi (Intel) und Instinct MI (AMD) Konkurrenzprodukte auf Distanz zu halten, zumal letztere vergleichsweise wenig Mindshare/Marktanteile im A.I. Bereich haben und nVidia hinterher laufen.
 
Gibt es bekannte Illustrationen, Simulationen bzw. anschauliche Ergebnisse, die genannten Supercomputern entspringen?
 
Chismon schrieb:


Ich weiß um was es geht. Und die Folien sind alle von Nvidia. Und trotzdem heißt es nichts.
Hopper wurde im März 2022 vorgestellt: https://www.computerbase.de/2022-03/nvidia-hopper-h100-ki-supercomputer/#
War effektiv aber eigentliche erst ein Jahr später da. Klar hat man 3 Systeme 2022 ausgeliefert, um das sagen zu können. Nun zeigen sie jetzt aber eben selber gern die Roadmaps, die Hopper erst 2023 zuordnen, weil es halt einfach so ist.

8-1080.a4d7525a.png

2024 kommt erst ab Ende Q2 der Refresh H200. Da kommt niemals binnen paar Wochen B100 hinterher. Ankündigen aufm Papier wird man es sicher, aber das wird dauern, weit bis in 2025 hinein.

7-1080.e5dc0bf1.png

Und Gaming: Ha, da hat man ja gar kein Druck. AMD ist raus an der Spitze, jetzt macht man Super, also nochmal knapp 2 Jahre Luft. Da passiert vor Ende 2025 doch nix mehr.
 
=dantE= schrieb:
Die USA wissen auch ohne diese Liste ganz gut Bescheid.
Die werden sich bestimmt nicht anhand dieser hier veröffentlichten Liste orientieren müssen.

Ich habe hierzu zwar keine Quelle, aber ich bin ja auch nicht in deren Nachrichtendienste eingebunden.

Topic:
Mich wundert ein Intelsystem auf der 1 in den Green500.
Die muss man ja derbe optimiert haben damit die die darunter rangierenden EPIC Systeme aussticht.
Jemand genauere Infos?
Daß die USA da ziemlich gut informiert sind, kann man mit Sicherheit annehmen; so ganz verheimlichen lässt sich so eine Anlage ja nicht. Wenn China aber Exascale Systeme offiziell und öffentlich macht und vielleicht noch den ersten Platz auf der Liste reklamiert, würde das auch viel politischen Druck von Seiten der "China Hawks" (v.a. auf der Republikanischen Seite) auf die Biden Regierung bringen, hier noch rigorosere Handelsbeschränkungen zu verhängen. Die derzeitige US Regierung versucht ja gerade, die Beziehungen zur PRC etwas zu entspannen, und das passt zB den Leuten um Trump überhaupt nicht. Ich glaube daß wir Technik- Interessierte oft unterschätzen, wie politisch Großprojekte wie Supercomputer auch sind. Die Entscheidung, wo da wieviel Geld von wem in derartige Anlagen gesteckt wird, beruht auch auf Prestige und öffentliche Wahrnehmung. Daß hohe und höchste Rechenleistung für viele wissenschaftliche Fragen sehr wichtig oder unabdingbar ist, steht natürlich auch außer Frage.
Ergänzung ()

@Volker und alle im Forum: Etwas OT und uU auch sehr naiv würde ich gerne wissen, wie sich zB Folding@Home und ähnliche Schwarm Computing Ansätze bei der Rechenleistung einordnen lassen? Und wie gut oder schlecht binden Ansätze wie HTCondor auch GPU Compute ein?
 
Zuletzt bearbeitet:
eastcoast_pete schrieb:
wie sich zB Folding@Home und ähnliche Schwarm Computing Ansätze bei der Rechenleistung einordnen lassen?
Wiki Zitat:

Folding@Home erreichte am 13. April 2020 während der COVID-19-Pandemie eine kombinierte Rechenleistung, die schneller als die 500 schnellsten Supercomputer der Welt zusammengenommen war, und übertraf damit den zu diesem Zeitpunkt schnellsten Supercomputer um das 15-Fache.[3]
 
  • Gefällt mir
Reaktionen: eastcoast_pete, Zhan und MichaG
@MichaG könnt ihr mal bitte solche schwachsinnigen Click-Bait-Titel unterlassen? Ich will anhand des Titels erkennen können, ob der Artikel für mich relevant ist und nicht raten müssen, was damit gemeint sein könnte.
 
  • Gefällt mir
Reaktionen: cbmik
=dantE= schrieb:
Wiki Zitat:

Folding@Home erreichte am 13. April 2020 während der COVID-19-Pandemie eine kombinierte Rechenleistung, die schneller als die 500 schnellsten Supercomputer der Welt zusammengenommen war, und übertraf damit den zu diesem Zeitpunkt schnellsten Supercomputer um das 15-Fache.[3]
Die Meldung hatte ich auch im Kopf; ich frage mich dann auch, wieviel andere "Supercomputing" Aufgaben auf Crowd Basis angehbar sind; kann ja auch durchaus in kontrollierten Umgebungen, zB den PCs/Macs eines großen Unternehmens oder einer größeren Behörde oder Einrichtung erfolgen, und war, glaube ich, vor einigen Jahren schon mal probiert worden. Natürlich gibt es sehr gute Gründe, auch hierzulande Supercomputer einzurichten, aber der alte Slogan von SUN (RIP) gilt auch: "The Network is the Computer".
 
  • Gefällt mir
Reaktionen: =dantE=
Denniss schrieb:
Frontier #1 overall und immer noch #8 bei Green 500.
Was man so hört dürfte Aurora bei den Green 500 nicht sonderlich gut abschneiden.
von PCGH
CPUsGPUsLeistung (Rmax)Leistungsaufnahme
AMD Frontier
HPE Cray EX
Epyc 7A53Instinct MI250X1,194 Exaflops22.703 kW
Intel Aurora
HPE Cray EX
Xeon Max 9470Data Center GPU Max 15500,585 Exaflops24.687 kW
Der AMD Frontier benötigt demnach knapp 19.000 kW, um eine Spitzenleistung von einem Exaflop zu erreichen, während der Intel Aurora, der aktuell erst in der halben Ausbaustufe in Betrieb genommen wurde, für dieselbe Rechenleistung mehr als 42.000 kW und damit doppelt so viel Energie aufnehmen muss wie Frontier

Sagt alles aus
 
eastcoast_pete schrieb:
ich frage mich dann auch, wieviel andere "Supercomputing" Aufgaben auf Crowd Basis angehbar sind;
An der Stelle sind noch Projekte für die Auswertung von extraterrestrischen Radiosignalen anzumerken. Da gab es vom SETI Projekt ein entsprechendes Netzwerk zur Analyse der anfallenden Datensätzen.

Ich sehe es grundsätzlich als vielversprechender an, wenn man dezentral und unter Mitwirkung der „Bevölkerung“ derartige Projekte umsetzt. So ist die Sensibilisierung für derartige Themen einfacher.
Allerdings ist der Aspekt der Skalierung und verlässlicher, zur Verfügung stehender Rechenleistung immer vom „Marketing“ abhängig, und funktioniert teilweise nur dadurch, dass man die Gemeinschaft mit öffentlichkeitswirksamen Maßnahmen wieder an Bord holt.
Viele sind eben nur kurzfristig dabei und der „Hype“ parkt nur kurzzeitig.

Schade!
 
=dantE= schrieb:
Ich sehe es grundsätzlich als vielversprechender an, wenn man dezentral und unter Mitwirkung der „Bevölkerung“ derartige Projekte umsetzt. So ist die Sensibilisierung für derartige Themen einfacher.
Nein, da sich nur ein gewisses Subset an Problemen für solche Distributed Computingansätze eignen. Im Wesentlichen gibt es drei Anforderungen die erfüllt sein müssen

1. Das Problem muss in kleine Häppchen partitionierbar sein, damit ein einzelner Rechner das überhaupt bearbeiten kann.
2. Es muss Compute intensiv sein, also wenig bis kein IO. Insbesondere müssen input und output Dateien klein sein. Mit 200TB+ output files hantiert es sich doch eher schwierig
3. Die Berechnung muss hinreichend kurz sein auf einem Rechner. Wenn 1. Und 2. Erfüllbar sind, man aber 12 Monate für ein Ergebnis rechnen muss, dann ist das Käse.

=dantE= schrieb:
Allerdings ist der Aspekt der Skalierung und verlässlicher, zur Verfügung stehender Rechenleistung immer vom „Marketing“ abhängig, und funktioniert teilweise nur dadurch, dass man die Gemeinschaft mit öffentlichkeitswirksamen Maßnahmen wieder an Bord holt.
Viele sind eben nur kurzfristig dabei und der „Hype“ parkt nur kurzzeitig.
Sorry, das ist bullshit.

HPC ist sehr effizient. Deswegen ist es in der Branche ja auch als Half Price Computing verschrien. Wir nehmen das Doppelte für den halben Preis.....

Die Systeme werden auch für ihre Anwendungsbereiche hin designed. Daher gibt es auch heute noch massig CPU only Systeme. Zudem ist wie gesagt das Netzwerk sehr wichtig für die meisten Systeme , weil man eben feingranulare Probleme rechnen will und nicht embaresing parallel arbeiten will. Vom Storage fangen wir mal lieber erst gar nicht an. Für Netzwerk und Storage kann man gut und gerne 20-40% der Kosten ansetzten. Glaubst du ernsthaft man wirft so viel Geld auf etwas das im Benchmark Null bringt wenn man echte Stunt Maschinen bauen will?
 
Skysnake schrieb:
Sorry, das ist bullshit.
Damit habe ich mich auf Herangehenweisen wie Folding@Home bezogen.
Dafür braucht man adäquate Mittel zur Bekanntmachung, ansonsten hast du zwar ein tolles Konzept, aber keiner macht mit.
Ergänzung ()

Skysnake schrieb:
Nein, da sich nur ein gewisses Subset an Problemen für solche Distributed Computingansätze eignen.
Was heißt da „Nein“ … es ist zwar nur unter bestimmten Vorraussetzungen ideal umsetzbar, und ja, zentral hat man weniger Aufwand, aber deshalb ist mein Ansatz/dieser Ansatz nicht falsch.

Alles nur eine Frage der Konzeption.
Was glaubst du warum man mit Folding@Home diesen Weg beschreitet, und nicht ausschließlich auf dedizierte, in Hallen stehende Cluster zurückgreift?

Die Antwort ist übrigens auf viele andere Anwendungsfälle anwendbar 😉
 
Zuletzt bearbeitet:
=dantE= schrieb:
Damit habe ich mich auf Herangehenweisen wie Folding@Home bezogen.
Dafür braucht man adäquate Mittel zur Bekanntmachung, ansonsten hast du zwar ein tolles Konzept, aber keiner macht mit.
Naja, man bittet um Spenden. Ist doch klar das man da klappern muss und nicht zwingend etwas bekommt.

=dantE= schrieb:
Was heißt da „Nein“ …
Nein heißt nein. Es ist einfach im größtenTeil der Fälle einfach nicht sinnvoll.

=dantE= schrieb:
es ist zwar nur unter bestimmten Vorraussetzungen ideal umsetzbar,
Die Voraussetzungen habe ich bereits genannt.

=dantE= schrieb:
ja, zentral hat man weniger Aufwand, aber deshalb ist mein Ansatz/dieser Ansatz nicht falsch.
Ds geht es nen Dreck um den Aufqand. Es eignen sich einfach nur wenige Probleme für so 3einen Ansatz. Punkt...

=dantE= schrieb:
Alles nur eine Frage der Konzeption.
Nein ist es nicht...

=dantE= schrieb:
Was glaubst du warum man mit Folding@Home diesen Weg beschreitet, und nicht ausschließlich auf dedizierte, in Hallen stehende Cluster zurückgreift?
Weils nichts kostet und ihr Problem sich überhaupt für so einen Ansatz eignet.
 
Spike Py schrieb:
@MichaG könnt ihr mal bitte solche schwachsinnigen Click-Bait-Titel unterlassen? Ich will anhand des Titels erkennen können, ob der Artikel für mich relevant ist und nicht raten müssen, was damit gemeint sein könnte.
Und du bist der Mittelpunkt des Universums oder was möchtest du uns jetzt damit sagen ? Stempel es unter "Pech gehabt" ab.
 
  • Gefällt mir
Reaktionen: knoxxi
Zurück
Oben