News Titan: Ehemals schnellster Supercomputer geht vom Netz

Kolu schrieb:
Ich nehme mal an, dass die Mi 60 Grafikkarte oder der Nachfolger verbaut wird. Bei der CPU weiß man auch noch nicht ob Zen 2 oder neuer oder?

Ich mache gleich ein kleines Update mit Daten und Spezifikationen zum Nachfolger.
 
  • Gefällt mir
Reaktionen: Akula
Duke711 schrieb:
Nur ist es aber so, vieles was aus der Sicht der Volkswirtschaft oder dem Kapitalismus sinnvoll erscheint, hat noch lange keinen Anspruch Sinnvoll für die menschliche Lebensqualität zu sein.
In den meisten Fällen wird nicht erkannt, inwiefern eine Anwendung mal die Lebensqualität beeinflusst. Denn vieles kann sowohl militärisch, als auch zivil eingesetzt werden. Und selbst indirekt ist eine leistungsfähigere Volkswirtschaft eine Voraussetzung für eine höhere Lebensqualität. Ausser du hast eine Bevölkerung, die auf alles verzichtet und das gut findet.
ghecko schrieb:
Ich will hier nicht bestreiten dass vom Staat finanzierte Supercomputer der Atommächte nicht auch sinnvolles berechnen, solange sie aber für groben Unfug errichtet werden, und wenn dieser auch nur einen Teil davon ausmacht, finde ich es moralisch verwerflich das kleinzureden.
Auch wenn man es auf die militärischen Forschungsbereiche beschränkt, ist es immer noch moralischer und besser für die menschliche Lebensqualität, wenn Nuklearwaffentests im Computer und nicht in Real durchgeführt werden. Es ist nunmal kein Weltfrieden ausgebrochen und das wird auch nicht passieren, solange es Menschen gibt.
 
  • Gefällt mir
Reaktionen: Tock, Akula, zhompster und 2 andere
Recharging schrieb:
Erstaunlich, wie schnell auch solche Monster zum alten Eisen gehören ...
Hat mich auch überrascht. Ich vermute mal, dass die Energieeffizienz dabei der ausschlaggebende Punkt ist. Und sobald man genug Effizienz durch einen Wechsel gewinnt, um die Investitionskosten zu rechtfertigen, wird man das wohl tun. Mit 'nem neuen System kann man mehr Rechenleistung günstiger anbieten.
Ich mein, wenn man sich den Wechsel von Jaguar auf Titan anhört, ist das ja auch krass - 10 x schneller und 5 x effizienter schon nach ein paar Jahren.

Aber ähnlich wie @der_infant frage ich mich ja, was man dann mit den ganzen alten CPUs und GPUs macht. So viel wegzuwerfen wäre jedenfalls schade. Verwursten wird man sie immer irgendwo können, aber wird das auch gemacht?
 
  • Gefällt mir
Reaktionen: Recharging
ghecko schrieb:
Ich will hier nicht bestreiten, dass vom Staat finanzierte Supercomputer der Atommächte nicht auch sinnvolles berechnen. Solange sie aber für groben Unfug errichtet werden, und wenn dieser auch nur einen Teil davon ausmacht, finde ich es moralisch verwerflich das kleinzureden.

Da ich im Gegensatz zu den meisten hier selbst CFD Simulationen durchführe, kann ich schon mal sagen das nukleare Explosionen immens an Rechenkapazität benötigen und das keines Falls nur einen kleinen Teil aus macht. Denn auf ein Supercomputer läuft in der Regel nicht nur ein Projekt, oft werden Kapazitäten aufgeteilt. Mal davon abgesehen das es eine Fülle von Simulationen mit militärischen Zweck sind, das sind ja nicht nur Explosionen, sondern z.B: auch Kryptografie.
 
Ach, ja.... Alles ist schwarz/weiß und sobald Militär drauf steht, ist es böse und nicht für den Nutzen der Welt. Eine durchaus verbreitete eingeschränkte Sichtweise von Pazifisten. Dass diverse militärische Entwicklungen und Errungenschaften auch zivil bestens genutzt werden können, wird ganz gerne übersehen. Dual-Use ist da das Stichwort.
Bestes Beispiel einer militärischen Entwicklung, die inzwischen kaum aus dem zivilen Leben wegzudenken ist, ist GPS oder allgemein satellitengestützte Navigation/Positionsbestimmung. Jedes Smartphone und auch viele Autos habens es integriert, um uns den Weg zum Ziel zu leiten. Es erleichtert bei Vermessung diverser Projekte, nicht nur beim Bau und es ermöglicht auch eine Entlastung in der Agrarwirtschaft.
Aber es ist ja böse und unnütz, weil militärisch entwickelt...

Unterm Strich kann man auch bei den Berechnungen zu nuklearen Explosionen einen Teil dazu beitragen, dass es für die Welt nützlich ist. Wenn ich mich richtig entsinne, wurde die letzte Atombombe von "westlichen" Nationen 1998 gezündet. Gerade als Abschreckung ist die Atomwaffe eben militärisch wichtig. Kein Land mit Atomwaffenbesitz wird so einfach und unüberlegt überfallen, daher wird auch keiner im Besitz von Atomwaffen mehr darauf verzichten wollen.
Wie heißt es so schön: Die beste Waffe ist, die gar nicht erst abgefeuert wird.

BTT:
Tja, damit erhöht sich nicht die Zahl der Top500 Supercomputer mit AMD, aber immerhin wird es ein fettes Teil.
Sehr gute Sache für AMD, gibt da schon etwas Prestige für. Kann auch mal so festgefahrene Leute zum Umdenken bewegen, bei der nächsten Anschaffung von Servern auch AMD in Betracht zu ziehen, wenn sie von solchen Projekten Wind bekommen.
 
  • Gefällt mir
Reaktionen: Vrtra81 und cbmik
Jetzt weiß ich auch, wer die Opteron CPUs hat, die letztens bei der Inventur der Halde fehlten. Die können jetzt wieder dahin zurück. :evillol:
 
RYZ3N schrieb:
Nein, Aurora, der ebenfalls im ExaFLOP-Bereich liegt, wird auf Intel setzen. Der Titan Nachfolger, Frontier setzt auf AMD. Steht schon die ganze Zeit so im Artikel und der dazugehörige Artikel von Jan ist auch von Beginn an verlinkt.
Der Nachfolger wird sich nicht mehr so „günstig“ realisieren lassen. Der Supercomputer Frontier, der mit einer Leistung von 1,5 ExaFLOPS einer der drei weltweit ersten Exaflop-Supercomputer sein und sich voraussichtlich ab 2021 ein Rennen mit dem Supercomputer Aurora liefern wird, hat einen Projektumfang, der mehr als 600 Millionen US-Dollar umfassen (wird). Er wird auf die neuen Xe-GPUs von Intel setzen.

Das kann man auch anders verstehen und wurde nicht ohne Grund geändert also doch, beim einfachen lesen versteht man das so das der Nachfolger auf Xe setzt deshalb meine berechtigte Frage ...
Wurde inzwischen stillschweigend geändert aber wenn da kein update dran steht lese ich natürlich nicht nochmal die News ...
 
  • Gefällt mir
Reaktionen: SVΞN und adretter_Erpel
Duke711 schrieb:
@Atkatla

Ja aus kapitalistische Sichtweise wäre meine Argumentation sicherlich zu kurz gedacht. Nur ist es aber so, vieles was aus der Sicht der Volkswirtschaft oder dem Kapitalismus sinnvoll erscheint, hat noch lange keinen Anspruch Sinnvoll für die menschliche Lebensqualität zu sein.
Stichwort Bullshit Jobs. Und gerade Supercomputer werden wie Atomraketen als prestiges Aushängesschild missbraucht. Da spielt oft Geld oder die benötigten Ressourcen keine Rolle.
Von daher ist Schwanzvergleich oft absolut passend. Hauptsache auf den Platz 1 der Charts. Und da hat nicht nur die Politik ihr Hände im Spiel, sondern oft auch das Militär. Denn wer weiter schießen kann, ist im Vorteil und nur darum geht es.

Ich stelle hier keines falls allgemein Großrechner in Frage.
Der Unsinn wird nicht wahrer nur weil Du ihn beleglos ständig wiederholst
Forschungszentrum Jülich, lange Inhaber schnellester Supercomputer in Europa hat nix mit militärischer Forschung zu tun gehabt. Hab da selber gearbeitet. Schwerpunkte waren/sind Klimatologie, Wetter, Material, Medikamente und insbesondere Simulation neuronaler Netzwerke. Stets mit Warteliste auf Nutzungszeit.

Aber wenn ich den Stil Deines letzten Post schon sehe, wird mir klar woher der Wind weht. Sowas kann ja nur gut sein, wenn es für LPG und das Proletariat genutzt wird. Argumente sind zwecklos.
 
Zuletzt bearbeitet: (Rechtschreibung)
  • Gefällt mir
Reaktionen: Akula, JohnVescoya, Benji21 und 4 andere
Duke711 schrieb:
Da ich im Gegensatz zu den meisten hier selbst CFD Simulationen durchführe, kann ich schon mal sagen das nukleare Explosionen immens an Rechenkapazität benötigen und das keines Falls nur einen kleinen Teil aus macht.
Es ist ein Fehler, automatisch anzunehmen, dass die anderen Forschungsbereiche weniger an Rechenleistung benötigen, denn "viel" und "wenig" sind relativ. Strömungssimulationen haben selbst wir (also mein Brötchengeber) bei uns im Haus (Cluster aus vielen Dell C4140 mit je 4 Teslakarten pro Höheneinheit, sehr schöne Geräte :-) ) Und unser Forschungsanteil entspricht "nur" einer kleinen bis mittleren Forschungseinrichtung. Viele andere unserer Forschungsbereiche müssen dagegen mit anderen Einrichtungen oder Großrechnern kooperieren, weil sie mehr Rechenleistung benötigen. Ich wäre vorsichtig mit der Annahme, welche Bereiche wieviel Leistung benötigen.
 
  • Gefällt mir
Reaktionen: yummycandy, Akula, zhompster und 3 andere
Duke711 schrieb:
Da ich im Gegensatz zu den meisten hier selbst CFD Simulationen durchführe, kann ich schon mal sagen das nukleare Explosionen immens an Rechenkapazität benötigen und das keines Falls nur einen kleinen Teil aus macht. Denn auf ein Supercomputer läuft in der Regel nicht nur ein Projekt, oft werden Kapazitäten aufgeteilt. Mal davon abgesehen das es eine Fülle von Simulationen mit militärischen Zweck sind, das sind ja nicht nur Explosionen, sondern z.B: auch Kryptografie.

Als jemand der sehr viel mit HPC und auch CFD arbeitet möchte ich Mal einwerfen, dass nur das Stichwort CFD Simulationen keine Kompetenz transferiert. Wenn Du auf ein paar tausend Kernen Ansys Fluent laufen lässt heißt das in keinster Weise, dass man in der Lage ist eine heterogene Maschine wie Titan und Frontier auszulasten. Je nach Modellierungsansatz und Zielsetzung der Simulationsstudie unterscheiden sich die Skalierungsmöglichkeiten auch sehr stark.

Andersrum wird langsam ein Schuh drauß. Größtenteils haben nur DoE/DoD Gruppen wirklich das Know-How, die Manpower und die Kontinuität um ihre Simulationen so perfekt zu optimieren, dass sie auf solchen Systemen wirklich skalieren. Die einzig anderen Orte an denen das auch zutrifft ist bei den Hyperscalern Google, Facebook, Amazon etc., die ihren gesamten Softwarestack unter Kontrolle haben.
 
  • Gefällt mir
Reaktionen: Akula und SVΞN
akimann schrieb:
Also wirklich Aus, Schluß und vorbei ? Hat man für so einen Rechner nicht noch weniger wichtige Verwendungen oder kann den vermieten oder sowas ?
Roadrunner, der erste Petaflop-Rechner, wurde aus Gründen der Geheimhaltung (Simulation von Atomwaffentests) verschrottet. Da Titan dem US-Energieministerium gehört, dürfte ihm das gleiche Schicksal drohen.
 
  • Gefällt mir
Reaktionen: akimann
Peaky schrieb:
Roadrunner, der erste Petaflop-Rechner, wurde aus Gründen der Geheimhaltung (Simulation von Atomwaffentests) verschrottet. Da Titan dem US-Energieministerium gehört, dürfte ihm das gleiche Schicksal drohen.

Nein, es wurde bereits bestätig, dass der Titan in Häppchen recycelt wird. Update folgt gleich.
 
  • Gefällt mir
Reaktionen: akimann und Akula
icemanspirit schrieb:
Als jemand der sehr viel mit HPC und auch CFD arbeitet möchte ich Mal einwerfen, dass nur das Stichwort CFD Simulationen keine Kompetenz transferiert.

Du scheinst nicht vom Fach zu sein. Auf einen Großrechner ist weder Ansys, noch Fluent oder sonst noch so ein Firlefanz zu finden.
Die Solver für die Navier Stokes Gleichungen bleiben aber noch die gleichen, mal davon abgesehen das unter dem nuklearen Aspekt noch ein Monte Carlo Solver hinzu kommt. Ja der Rechenaufwand ist immens, deutlich größer als bei einer Wettervorhersage.


@Atkatla

Das mathematische Modell dahinter ist immer gleich, von daher kann man sehr gut die benötigte Rechenleistung abschätzen. Und Du willst Doch nicht ernsthaft eine simple Strömungssimulation mit der einer nuklearen Explosion vergleichen?

@Forum-Fraggle

Lesen bildet:

"Ich stelle hier keines falls allgemein Großrechner in Frage."
 
Zuletzt bearbeitet:
Skynet wurde abgeschaltet und der "Judgement Day" verhindert bzw. aufgeschoben...Ihr habt das Ende vom neuen Terminator gespoilert...
 
  • Gefällt mir
Reaktionen: Xedos99
Knuddelbearli schrieb:
Welche CPu soll der neue bekommen? auch Intel?
Wieso "auch Intel"? Und Intel LOL! Nur AMD baut die besten CPUs.
 
Duke711 schrieb:
Du scheinst nicht vom Fach zu sein. Auf einen Großrechner ist weder Ansys, noch Fluent oder sonst noch so ein Firlefanz zu finden.
Die Solver für die Navier Stokes Gleichungen bleiben aber noch die gleichen, mal davon abgesehen das unter dem nuklearen Aspekt noch ein Monte Carlo Solver hinzu kommt. Ja der Rechenaufwand ist immens, deutlich größer als bei einer Wettervorhersage.

Du würdest lachen/weinen, wenn Du wüsstest wie viele Fluent Simulationen auf Einrichtungen des Gauss Rechenzentrumsverbundes liefen. Aber das scheint über deinem Level zu sein.

Um das ganze Mal auf ein für Dich verständliches Niveau zu bringen. Wie viele Rechenstunden verbrauchst Du pro Jahr? Was sind Deine größten Simulation und mit welcher Laufzeit?
 
  • Gefällt mir
Reaktionen: Akula und iNFECTED_pHILZ
@icemanspirit

Nein das liegt deutlich unter mein Level und Du bekräftigst mit diesen Post nur deine Unwissenheit. Ist ja schön das am Gauss Fluent genutzt wird.
Nukleare Explosionen kann man damit auf keinen Fall simulieren, auch scheinst Du den Rechenaufwand nicht zu kennen, wie auch wenn man einen Navier Stokes Solver vorschlägt.

Möchtest Du dich jetzt noch weiter blamieren Amdahl?
 
Zurück
Oben