icemanspirit
Ensign
- Registriert
- Aug. 2019
- Beiträge
- 155
Duke711 schrieb:Ja, aber richtige Klimamodelle bauen auf die typischen Methoden wie die Finite Volumen oder Finite Differenzen Methoden auf, die zur FEM verwandt sind und es werden die klassischen numerischen Verfahren wie Runge Kutta verwendet (..) dies läuft hauptsächlich über die CPU
Wuerde ich stark widersprechen.
Der Vergleich mit ANSYS finde ich stark an den Haaren herbeigezogen. Auf Supercomputern rechnet kaum jemand mit ANSYS, und schon gar nicht auf der Skala von mehreren tausend GPUs.
Um das Ganze Mal von dem Niveau von nicht peer-reviewten, und aus meiner Sicht komplett veralteten, Blogposts/Vorlesungsinhalten abzuholen. Aktuelle Klimamodelle laufen insbesonders auf GPUs, wobei das Tooling hierfuer sich fairerweise auch erst in den letzten Jahren etabliert hat.
Die Kernreferenzen hierfuer sind:
- Fast, Cheap, and Turbulent—Global Ocean Modeling With GPU Acceleration in Python von Haefner et Al.
- Oceanigans.jl: Fast and Friendly Geophysical Fluid Dynamics on GPUs von Ramadhan et al.
Duke711 schrieb:Dann ist meist auch das Problem das man eine GPU bezüglich Overhead nur mit maximal 8 Kernen effektiv kommunizieren kann usw. Auch ist das Problem der begrenze VRam. Für große Netze sind auch die 48 GB Vram pro GPU zu wenig.
@Airis hat dies schon richig dargelegt. Keine Forschungsgruppe entwickelt mehr homogene CPU-Codes, wenn sie anstrebt auf Tier-0, oder Tier-1 Systemene zu rechnen.
Die Ausnahmen fuer CFD, oder effektiv alle memory-bound HPC-Anwendungen, sind Fugaku mit seinen Fujitsu A-64 FX und die Milan-X Prozessoren, welche beide HBM Speicher auf der CPU haben und somit zu "kleinen GPUs" werden.
P.S.: Die neuen GPUs haben zudem weitaus mehr Speicher mit 80GB (NVIDIA) und 128GB (AMD).