News Titan: Ehemals schnellster Supercomputer geht vom Netz

abcddcba schrieb:
ich verstehe nicht wie du auf die Idee kommst, dass solche Supercomputer hier als Machbarkeitsstudie und für die Rangliste sein sollten ... ich sage mal so, alle möglichen Simulationen aus der Natur werden nicht mit nem Laptop gemacht ...
Natürlich weiß ich das man für Wettersimulationen große Rechenkapazität braucht. Die aber auch sehr teuer ist! Ich habe auch schon in Rechenzentren neue Server aufgestellt und verkabelt. Für die Autoindustrie (Opel Rüsselsheim) z.B. oder der Commerzbank in Frankfurt. Aber diese Supercomputer werden nicht für solche trivialen Dinge wie Wetter oder CAD/CAM benutzt. Aber egal ob Millitär oder andere Dienste diese nutzen, schade ist es doch um das Altmetall. Trotzdem würden mich die laufenden Kosten interessieren. Aber das dürfte ein gut behütetes Geheimnis bleiben. Wegen der Sinnhaftigkeit :cool_alt:
 
der_infant schrieb:
Wäre interessant was mit der Hardware passiert. Ab zum Recycling?
Ich vermute, dass Anbieter wie Curvature sich darauf stürzen werden.
https://www.curvature.com/de/
Wenn du für deine älteren Server keinen Support vom Hersteller , sondern von einem günstigeren Drittanbieter haben möchtest, dann benötigt der Drittanbieter auch entsprechend Ersatzteile.
 
  • Gefällt mir
Reaktionen: konkretor
abcddcba schrieb:
ich verstehe nicht wie du auf die Idee kommst, dass solche Supercomputer hier als Machbarkeitsstudie und für die Rangliste sein sollten
Supercomputer sind in der Zeit digitaler Machtpositionierung durchaus ein Werkzeug um die "Stärke" einer Nation auszudrücken. Es ist definitiv ein Machtkampf der hier in Flops/S gemessen wird.
 
  • Gefällt mir
Reaktionen: adius und konkretor
abcddcba schrieb:
ich verstehe nicht wie du auf die Idee kommst, dass solche Supercomputer hier als Machbarkeitsstudie und für die Rangliste sein sollten ... ich sage mal so, alle möglichen Simulationen aus der Natur werden nicht mit nem Laptop gemacht ...

Vorausgesetzt es wird was sinnvolles damit angestellt was selten der Fall ist. Dazu zählen auch Simulationen von nuklearen Explosionen. Sowas braucht kein Mensch. Hauptsache im Kapitalismus genug Geld und Ressourcen verschwendet, wärend andere noch nicht mal was genug zum essen haben.
Bezüglich Effizienz, mal die Herstellungskosten und Ressourcen gegen rechnen, auch die benötigten Maschinen dafür. Dann sieht es nach nur sieben Jahren Verwendung für Titan mit den Nachfolger Frontier, der vermulich auch nicht länger laufen wird, nicht mehr zu rosig aus.
Von daher absoluter Nonens Schwanzvergleich. Und der Witz ist, solche Institutionen zahlen kaum was für eine Tesla bzw. AMD Grafikkarte und co und bekommen das hinterher geworfen.
 
Sinnfrei schrieb:

Vielen Dank, werde ich gleich in den Artikel mit aufnehmen.

Duke711 schrieb:
Von daher absoluter Nonens Schwanzvergleich.

Das ist gelinde ausgedrückt völliger Unsinn. Du solltest dich vielleicht ein wenig besser informieren bevor du solch gefährliches Halbwissen verbreitest.

Solche Supercomputer haben zahlreiche andere Aufgaben als nuklearen Explosionen zu simulieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tock, PS828, Akula und 3 andere
ComputerBase schrieb:
Am 1. August 2019 ist der ehemals schnellste Supercomputer der Welt endgültig vom Netz gegangen und wurde in eine Zeremonie gebührend gefeiert und verabschiedet.
Die sind wohl mit einem Bulldozer durch gefahren.
 
  • Gefällt mir
Reaktionen: Geckoo
Knuddelbearli schrieb:
Welche CPu soll der neue bekommen? auch Intel?


AMD ist günstiger, saugt weniger Leistung und bietet wohl das bessere Gesamtpaket. Denke mal wird auf die Roten hinauslaufen.
 
SethDiabolos schrieb:
AMD ist günstiger, saugt weniger Leistung und bietet wohl das bessere Gesamtpaket. Denke mal wird auf die Roten hinauslaufen.

Es ist bereits offiziell, der Nachfolger setzt mit Epyc und Radeon Instinct vollständig auf AMD. Siehe Post 15.
 
  • Gefällt mir
Reaktionen: Akula und sethdiabolos
Das Lab lässt 2 Exascale bauen. Einen von Intel (Aurora) einen von AMD (Frontier). Allerdings wird der AMD wohl schneller und eher fertig.
 
  • Gefällt mir
Reaktionen: konkretor
RYZ3N schrieb:
Es ist bereits offiziell, der Nachfolger setzt mit Epyc und Radeon Instinct vollständig auf AMD. Siehe Post 15.
Häh in der News stand vorher definitiv die neuen Intel GPUs das haste editiert ...
 
Duke711 schrieb:
Vorausgesetzt es wird was sinnvolles damit angestellt was selten der Fall ist. Dazu zählen auch Simulationen von nuklearen Explosionen. Sowas braucht kein Mensch.
Ich weiß nicht, was realitätsferner ist: zu glauben, dass die Großmächte auf Nuklearwaffen verzichten oder ernsthaft zu fordern, dass die Tests statt in Simulationen wieder in Atmosphäre oder auf oder unter der Oberfläche durchgeführt werden.

Mal abgesehen davon, dass Nuklearwaffentests nur einen kleinen Teil der Aufgaben dieser Systeme darstellen.
 
  • Gefällt mir
Reaktionen: Tock, JohnVescoya, Flo42 und 5 andere
RYZ3N schrieb:
Das ist gelinde ausgedrückt völliger Unsinn. Du solltest dich vielleicht ein wenig besser informieren bevor du solch gefährliches Halbwissen verbreitest.

Solche Supercomputer haben zahlreiche andere Aufgaben als nuklearen Explosionen zu simulieren.

Dein Halbwissen wohl eher, dann nenne doch mal konkrete Beispiele was auf den Frontier so alles simuliert werden soll.
 
  • Gefällt mir
Reaktionen: adretter_Erpel
Opteron 6274? Wow … Wußte ich echt nicht!
Also dafür daß Bulldozer von allen immer so als rückständig und stromhungrig geschmäht wurde, ist es schon überraschend, daß AMD trotzdem damit den #1 Supercomputer gestellt hat. Oder war das Ansehen und Ruf von Bulldozer bloß in der Presse und per Mundpropaganda deutlich schlechter als er wirklich war?

… weiß TechFA
 
  • Gefällt mir
Reaktionen: ovanix und CMDCake
2012 gab's eben nix besseres von AMD.
 
@TechFA

Ich meine mich zu erinnern. dass Bulldozer für bestimmte Berechnungsarten schneller und effizienter als die Core-Architektur war. Speziell Integer Berechnungen. Das hat sich nur für Spiele und für die meisten Anwendungen nicht in der Geschwindigkeit nieder geschlagen, da die Rechenlast nur sehr selten genau dem Optimum entsprach.
 
  • Gefällt mir
Reaktionen: beercarrier, TechFA und konkretor
Duke711 schrieb:
Dein Halbwissen wohl eher, dann nenne doch mal konkrete Beispiele was auf den Frontier so alles simuliert werden soll.
Du wirfst ihm Halbwissen vor, obwohl du etwas nicht kennst? Dabei gibt es genug öffentliche Informationen:
https://en.wikipedia.org/wiki/Oak_Ridge_National_Laboratory#Areas_of_research
Oak Ridge ist ein Multi-program Lab, d.h. es sind dort sehr viele verschiedene Disziplinen unterwegs. Außerdem sind die Call-for-proposals für das Center for Accelerated Application Readiness von Oak Ridge längst offen.
https://www.olcf.ornl.gov/frontier-center-for-accelerated-application-readiness/
Wenn du also etwas vielversprechendes in den entsprechenden Forschungsbereichen zu berechnen hast, kannst du es einreichen und wenn das DoE daran interessiert ist und/oder es generell den US-amerikanischen Interessen entspricht, dann sind auch die Chancen entsprechend, dass es bewilligt und auf Frontier berechnet wird. Natürlich wollen DoE und Oak Ridge dann an den Ergebnissen beteiligt werden. Das ist dann der wissenschaftliche Gewinn, den ein Staat mit so einem Programm einfährt. Und Erkenntnisse aus vielen der Anwendungen (Energiefoschrung, Materialforschung, Biologie, Biophysik) lassen sich sogar sehr gut in monetären Gewinn umsetzen.
 
  • Gefällt mir
Reaktionen: Tock, Geckoo, fox40phil und 4 andere
Knuddelbearli schrieb:
Häh in der News stand vorher definitiv die neuen Intel GPUs das haste editiert ...

Nein, Aurora, der ebenfalls im ExaFLOP-Bereich liegt, wird auf Intel setzen. Der Titan Nachfolger, Frontier setzt auf AMD. Steht schon die ganze Zeit so im Artikel und der dazugehörige Artikel von Jan ist auch von Beginn an verlinkt.
 
  • Gefällt mir
Reaktionen: Akula und Mcr-King
Kloppst du genug 1 Mhz CPUs zusammen kommt auch irgendwann die Rechenleistung zusammen die Nötig ist um damit den 1. Platz zu machen ... alles eine Platz / Strombedarfs Frage ... zumal ein Großteil der Rechenleistung im TiTAN von den NVIDIA Karten kam ;)
 
Zurück
Oben