Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsTitan: Ehemals schnellster Supercomputer geht vom Netz
ich verstehe nicht wie du auf die Idee kommst, dass solche Supercomputer hier als Machbarkeitsstudie und für die Rangliste sein sollten ... ich sage mal so, alle möglichen Simulationen aus der Natur werden nicht mit nem Laptop gemacht ...
Natürlich weiß ich das man für Wettersimulationen große Rechenkapazität braucht. Die aber auch sehr teuer ist! Ich habe auch schon in Rechenzentren neue Server aufgestellt und verkabelt. Für die Autoindustrie (Opel Rüsselsheim) z.B. oder der Commerzbank in Frankfurt. Aber diese Supercomputer werden nicht für solche trivialen Dinge wie Wetter oder CAD/CAM benutzt. Aber egal ob Millitär oder andere Dienste diese nutzen, schade ist es doch um das Altmetall. Trotzdem würden mich die laufenden Kosten interessieren. Aber das dürfte ein gut behütetes Geheimnis bleiben. Wegen der Sinnhaftigkeit
Ich vermute, dass Anbieter wie Curvature sich darauf stürzen werden. https://www.curvature.com/de/
Wenn du für deine älteren Server keinen Support vom Hersteller , sondern von einem günstigeren Drittanbieter haben möchtest, dann benötigt der Drittanbieter auch entsprechend Ersatzteile.
Supercomputer sind in der Zeit digitaler Machtpositionierung durchaus ein Werkzeug um die "Stärke" einer Nation auszudrücken. Es ist definitiv ein Machtkampf der hier in Flops/S gemessen wird.
ich verstehe nicht wie du auf die Idee kommst, dass solche Supercomputer hier als Machbarkeitsstudie und für die Rangliste sein sollten ... ich sage mal so, alle möglichen Simulationen aus der Natur werden nicht mit nem Laptop gemacht ...
Vorausgesetzt es wird was sinnvolles damit angestellt was selten der Fall ist. Dazu zählen auch Simulationen von nuklearen Explosionen. Sowas braucht kein Mensch. Hauptsache im Kapitalismus genug Geld und Ressourcen verschwendet, wärend andere noch nicht mal was genug zum essen haben.
Bezüglich Effizienz, mal die Herstellungskosten und Ressourcen gegen rechnen, auch die benötigten Maschinen dafür. Dann sieht es nach nur sieben Jahren Verwendung für Titan mit den Nachfolger Frontier, der vermulich auch nicht länger laufen wird, nicht mehr zu rosig aus.
Von daher absoluter Nonens Schwanzvergleich. Und der Witz ist, solche Institutionen zahlen kaum was für eine Tesla bzw. AMD Grafikkarte und co und bekommen das hinterher geworfen.
Das ist gelinde ausgedrückt völliger Unsinn. Du solltest dich vielleicht ein wenig besser informieren bevor du solch gefährliches Halbwissen verbreitest.
Solche Supercomputer haben zahlreiche andere Aufgaben als nuklearen Explosionen zu simulieren.
Am 1. August 2019 ist der ehemals schnellste Supercomputer der Welt endgültig vom Netz gegangen und wurde in eine Zeremonie gebührend gefeiert und verabschiedet.
Vorausgesetzt es wird was sinnvolles damit angestellt was selten der Fall ist. Dazu zählen auch Simulationen von nuklearen Explosionen. Sowas braucht kein Mensch.
Ich weiß nicht, was realitätsferner ist: zu glauben, dass die Großmächte auf Nuklearwaffen verzichten oder ernsthaft zu fordern, dass die Tests statt in Simulationen wieder in Atmosphäre oder auf oder unter der Oberfläche durchgeführt werden.
Mal abgesehen davon, dass Nuklearwaffentests nur einen kleinen Teil der Aufgaben dieser Systeme darstellen.
Das ist gelinde ausgedrückt völliger Unsinn. Du solltest dich vielleicht ein wenig besser informieren bevor du solch gefährliches Halbwissen verbreitest.
Solche Supercomputer haben zahlreiche andere Aufgaben als nuklearen Explosionen zu simulieren.
Opteron 6274? Wow … Wußte ich echt nicht!
Also dafür daß Bulldozer von allen immer so als rückständig und stromhungrig geschmäht wurde, ist es schon überraschend, daß AMD trotzdem damit den #1 Supercomputer gestellt hat. Oder war das Ansehen und Ruf von Bulldozer bloß in der Presse und per Mundpropaganda deutlich schlechter als er wirklich war?
Ich meine mich zu erinnern. dass Bulldozer für bestimmte Berechnungsarten schneller und effizienter als die Core-Architektur war. Speziell Integer Berechnungen. Das hat sich nur für Spiele und für die meisten Anwendungen nicht in der Geschwindigkeit nieder geschlagen, da die Rechenlast nur sehr selten genau dem Optimum entsprach.
Du wirfst ihm Halbwissen vor, obwohl du etwas nicht kennst? Dabei gibt es genug öffentliche Informationen: https://en.wikipedia.org/wiki/Oak_Ridge_National_Laboratory#Areas_of_research
Oak Ridge ist ein Multi-program Lab, d.h. es sind dort sehr viele verschiedene Disziplinen unterwegs. Außerdem sind die Call-for-proposals für das Center for Accelerated Application Readiness von Oak Ridge längst offen. https://www.olcf.ornl.gov/frontier-center-for-accelerated-application-readiness/
Wenn du also etwas vielversprechendes in den entsprechenden Forschungsbereichen zu berechnen hast, kannst du es einreichen und wenn das DoE daran interessiert ist und/oder es generell den US-amerikanischen Interessen entspricht, dann sind auch die Chancen entsprechend, dass es bewilligt und auf Frontier berechnet wird. Natürlich wollen DoE und Oak Ridge dann an den Ergebnissen beteiligt werden. Das ist dann der wissenschaftliche Gewinn, den ein Staat mit so einem Programm einfährt. Und Erkenntnisse aus vielen der Anwendungen (Energiefoschrung, Materialforschung, Biologie, Biophysik) lassen sich sogar sehr gut in monetären Gewinn umsetzen.
Nein, Aurora, der ebenfalls im ExaFLOP-Bereich liegt, wird auf Intel setzen. Der Titan Nachfolger, Frontier setzt auf AMD. Steht schon die ganze Zeit so im Artikel und der dazugehörige Artikel von Jan ist auch von Beginn an verlinkt.
Kloppst du genug 1 Mhz CPUs zusammen kommt auch irgendwann die Rechenleistung zusammen die Nötig ist um damit den 1. Platz zu machen ... alles eine Platz / Strombedarfs Frage ... zumal ein Großteil der Rechenleistung im TiTAN von den NVIDIA Karten kam