Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsHazel Hen: Stuttgarter Supercomputer ist schnellster in Deutschland
Zum sechsten Mal in Folge steht der chinesische Supercomputer Tianhe-2 an der Spitze der weltweit schnellsten Großrechner. In der November-Ausgabe der zweimal jährlich aktualisierten Top500-Liste finden sich mit Piz Daint (Schweiz) und Hazel Hen (Deutschland) auch zwei europäische System in den Top 10 wieder.
beeindruckend und beängstigend zugleich die rechenleistung der USA. 2018 ein system das mehr bietet als die USA bis jetzt insgesamt haben ... total krank
and i am just sitting here playing Minesweeper on my x6...
Ich denke wenn ich nicht auf nen Euro oder zwei achten müsste, und ein Schwerverdiener al'a Bill Gates wäre hätte ich nen Supercomputer aus Spaß an der Freude gebaut.
Gibt es eigentlich irgendwelche Tasks bei denen Supercomputer wie der Tianhe mit seiner gesamten Rechenleistung arbeiten können? Ich meine unsere Uni Clouds teilen idr ja ihre Rechenleistung für einzelne Fachbereiche auf bzw. stellen Summe X zur verfügung.
Am Interessantesten ist der letzte Satz...die bauen gerade ernsthaft einen Supercomputer in den USA, der mehr Leistung hat, als alle anderen derer Supercomputer zusammen? Nicht schlecht.
Und wenn ich diese Liste sehe, frage ich mich immer wieder wie viel Rechenleistung bereits für kommerzielle Anwendungen installiert wurde. Ich denke Google, Facebook und Co. bringen es in der Summe auch auf beachtliche Kapazitäten die nur nicht erfasst werden, weil sie nicht in einem Cluster sind. Generell dürfte das Internet weit mehr Server und Prozessoren auslasten als Supercomputer haben. Supercomputer unterscheiden sich nur darin, die Rechenleistung komplett für ein Ziel aufbringen zu können.
Naja dazu werden ja wohl keine 33 Petaflops genutzt. Ich weiss ja das Katastrophen Szenarien auf solchen Computern berechnet werden, aber welche Bombensimulation braucht bei 33 Petaflops mehrere Wochen oder Monate? VOn daher frage ich mich, was in der Restlichen Zeit gemacht wird, oder ob es aufgaben gibt die Quasi 24/7 rennen und der Menschheit irgendwann mal etwas bringen. Ich meine das nicht ironisch, sondern bin neugierig. Ich sehe jeden tag auf der Arbeit was mt ein paar Tera Flops berechnet werden kann und kann mir nur schwer vorstellen wie man 33 pflops auslastet. Soviele Bomben und Ziele muss man erstmal entwickeln/findet xD
Man muss schon sagen, dass Russland tendenziell ganz schön weit zurück ist. Außer es ist dort unverhältnismäßig viel "inoffiziell" an Rechenleistung installiert. Dafür, dass man den eigenen Anspruch hegt, Supermacht zu sein und auch ganz real zu den größeren Nationen gehört, ist man bei der Rechenleistung ganz gewaltig hinterher.
Kein Wunder, dass die russischen Universitäten und Forschungseinrichtungen kaum noch was reißen. Gerade mit Hinblick auf die Ankündigungen, neue Generationen an modernen Kernreaktoren und ganze Kernkraftwerke für Eigenbedarf und Export entwickeln zu wollen, muss man sich da fragen, ob dafür genug Simulationskapazitäten da sind.
Steht Russland da etwa schon länger als die Ukraine Krise alt ist, auf Embargolisten für Höchstleistungshardware?
Naja je genauer man es haben will desto mehr Leistung braucht es eben.
Dass China diese 34 PFlops komplett für irgendwelche Simmulationen einsetzt ist ja auch recht unwahrscheinlich. Vermutlich versuchen die damit Daten zu entschlüsseln. Etwas anderes wird die USA mit Aurora denke ich auch nicht vorhaben.
@Aramis: Man könnte Proteine falten für die Krebsforschung. Oder aufgefangene Signale von den Sattelitenschüsseln nach Lebenszeichen von Außerirdischen durchforsten. Lösungen für mathematische Probleme berechnen. usw.
Diese News ab ich heut morgen schon in der Zeitung gelesen (für die, die's nicht mehr kennen: das ist ein Printmedium - voll old school also). Soviel zur Aktualität des Internets.
Naja zu den Strompreisen stimmt das Sicherlich, allerdings ist das in meinen Augen kein hinderniss, sondern ein Ansporn diese Mittels erneuerbarer energien zu senken. Selbstversorgene Rechenzentren wären echt ne feine Sache. Wenn man bedenkt, das jede Regierung ständig beim Spionieren auffliegt und dann An den pranger gestellt wird (au weie die Informationsbeschaffung einer Regierung macht ihren Job) fragt mans ich welche passwörter geknackt werden.
Und naja, Proteine falte ich genug beim Sport, das ist wesentlich Einfacher
Diese News ab ich heut morgen schon in der Zeitung gelesen (für die, die's nicht mehr kennen: das ist ein Printmedium - voll old school also). Soviel zur Aktualität des Internets.
Vor kurzem etwas interessantes dazu im Spektrum gelesen:
Der Exaflop-Rechner wird bis zu 100 Millionen Kerne haben: Dieses Problem ist ungelöst, wir brauchen dafür neue Programmiermodelle. Der Supercomputer in China wird schon jetzt kaum genutzt. Er bringt für praktische Anwendungen nur etwa drei Prozent seiner Leistung."
Island ist die Topadresse für Serverfarmen und Großrechner.
Energie ist billig und ökologisch .Kühlung ist 8 Monate im Jahr auch kein Problem.
Aber wenn es um Staatliche Interessen geht hat man den Rechner lieber im eigenen Land.
Und die paar MW die heutige Super-Computer verbrauchen liefern schon ein paar Windkraftwerke .
Sicherlich nicht, dafür sind wohl weit größere Cluster installiert und werden nicht in der Top500 geführt. Wie die ganzen Systeme der Banken, Finanzdienstleister und anderen Großunternehmen.
@Aramis: Man könnte Proteine falten für die Krebsforschung. Oder aufgefangene Signale von den Sattelitenschüsseln nach Lebenszeichen von Außerirdischen durchforsten. Lösungen für mathematische Probleme berechnen. usw.