News Hazel Hen: Stuttgarter Supercomputer ist schnellster in Deutschland

Gibt es eigentlich auch einen halbwegs potenten Super Computer der mit AMD CPUs läuft? Oder warum haben die alle Intel CPUs drin?
Edit: Ah ok, Titan hat 18,688 AMD Opteron mit jeweils 16 Kernen also 299.008 Kerne und 17,6 PetaFlops. Mal gespannt wann die ersten ExaFLOPS oder ZettaFLOPS Super Computer erscheinen :)
 
dzeri schrieb:
Wie lange dauerts noch bis ich meinen Stapler nicht selber fahren muss?
das wird nie passieren. der mensch ist als billiges und flexibles arbeitsgerät unersetzbar.
komplett vollautomatische systeme gibt es nicht. die wartung ist zu aufwendig, die fehlerquote zu hoch.
die programmierung ist auch so extrem aufwendig, dass sich immer wieder fehler einschleichen(dazu kommt noch die intelligenz des programmierers selbst bzw die der ganzen crew. oftmals sind die abläufe in der maschine nicht 100% perfekt bzw effizient).
dazu stoppt die maschine sofort wenn fehler auftreten (das kann schon ein verdreckter ini sein)
häufig treten auch sporadisch fehler auf und keiner weiß warum.
ein mensch hingegen erreicht oft ähnliche geschwindigkeiten und ist fehlertoleranter - und damit billiger. denn eine stillstehende maschine bringt kein geld - und das passiert leider oft.
 
Das ist doch sehr bescheiden. Der Supercompi aus China nutzt nur 3% seiner Rechenkapazität, der Rest dreht däumchen. Viel Aufwand für fast nichts.
 
cruse schrieb:
das wird nie passieren. der mensch ist als billiges und flexibles arbeitsgerät unersetzbar.
Vielleicht jetzt noch, von "nie" würde ich da aber nicht reden.
Sowie es den Durchbruch bei der künstlichen Intelligenz gibt wird sich auch der Arbeitsmarkt radikal ändern.
 
Corros1on schrieb:
Mit Supercomputer werden Wettermodelle, Astrologie ( Urknall, schwarze Löcher und Planetenmodelle) [...] berechnet
Von wegen Urknall & schwarze Löcher... du meinst Horoskope! :evillol:
 
k0ntr schrieb:
Läuft da Crysis auf 4k mit 144fps flüssig? :D

Junge, hast was an der Birne?
Da muss Crysis auf mindestens 8k laufen! :evillol:
 
@ JackTheRippchen: Danke :D

=============

Wenn man jetzt eine Flüssigkeit oder Gaswolke berechnen will kann man den Aufwand beliebig hochschrauben um die Exaktheit zu erhöhen. Dann nimmst du halt größere Zeitskalen, Größere Raumskalen und höhere Auflösungen bis dein Budget für 2 Wochen rechenzeit oder so vollständig aufgebraucht ist.
 
Naja so lange eine Software nur einen Kern nutzen kann ist die Performance geringer als auf nem standardmäßigen Desktop-PC mit hochgetaktetem Core i.
 
Mit was für einem Betriebssystem bertreibt man sowas eigentlich?

Klar, irgendeine Linux-Abwandlung. Aber gibts die von der Stange? Einfach aufspielen? Kann diese Hardware überhaupt mit einem normalen Desktop-/Server-OS betreiben? Welche Anpassungen braucht man da eigentlich, dass das OS 100 Mio. Kerne gleichzeitig verarbeiten kann? o.O
 
@Mort626

Wiki:

Da Linux sehr flexibel angepasst und optimiert werden kann, hat es sich auch bei Supercomputern stark verbreitet. In der TOP500-Liste der schnellsten Computersysteme (Stand Juni 2012) werden insgesamt 462 ausschließlich unter Linux betriebene Systeme und 11 teilweise (CNK/SLES 9) unter Linux betriebene Systeme aufgelistet. Damit laufen 92,4 % der Systeme vollständig und 94,6 % zumindest teilweise unter Linux. Fast alle anderen Systeme werden unter Unix oder Unix-artigen Systemen betrieben. Der im Desktop-Bereich größte Konkurrent Microsoft Windows spielt im Bereich der Höchstleistungsrechner mit 2 Systemen (Platz 94 und 156) kaum eine Rolle (0,4 %). Im Juni 2011 waren es noch 4 Systeme (darunter Platz 40), die unter Windows betrieben wurden.
 
Erstaunlich, was für hochkomplexe Gespräche hier entstehen, wenn es um einen Supercomputer geht. Da behauptet man schlichtweg, dass Supercomputer u.a. für das Simulieren vieler Vorgänge in der Astrologie genutzt werden und dass es autonome Stapler noch nicht gibt (man beachte das Datum von diesen Videos) und auch niemals geben wird. Einfach köstlich.

Mal im Ernst, haben wir heute den 1. April? Oder haben sprechende Heuhaufen gelernt, wie man Computer bedient und ins Internet kommt?

Nachtrag:
Ach ich vergaß, wir sind hier ja in einem Zocker-Forum der ComputerSpielerBase :), da isch Appel wie Birne, gelle? Nur die FPS und Frametimes müsse stimme, hajo. Der Rescht isch egal.
 
Zuletzt bearbeitet:
Alienate.Me schrieb:
beeindruckend und beängstigend zugleich die rechenleistung der USA. 2018 ein system das mehr bietet als die USA bis jetzt insgesamt haben ... total krank :freak:

Viel interessanter st doch, dass das eines der am meisten verschuldeten Ländern der Welt tut.
 
die eigentliche Herausforderung ist es doch, Programme zu schreiben, die die undendlich komplexen Aufgabenstellungen überhaupt aufnehmen und an die Hardware als Task bereitstellen können und das Ergebnis dann wiederum aufnehmem und darstellen. Soll heissen: die Software muss komplexer und tiefschichtiger sein als die Aufgabe, die sie erfassen soll. Wenn ich einen Supercomputer eine Funktion mit sagen wir 45 Variablen auflösen lassen möchte, dann muss das Programm ja in der Lage sein, diese mathematisch abnorm komplexed Tiefe erfassen zu können; entsprechend werden da die bestne Mathematiker der Welt wohl die Programme mit schreiben und Vorgaben machen. Was dann die Schnöde Hardware rechnet, ist in keiner Weise beeindruckend; da geht es nur um Faktor Zeit und Energie....mich würde wie gesagt interessieren, wie man die Aufgaben in die Superrechner bekommt....DAS ist die Faszination.
 
Ash-Zayr schrieb:
mich würde wie gesagt interessieren, wie man die Aufgaben in die Superrechner bekommt....DAS ist die Faszination.
So faszinierend ist das garnicht. Im Prinzip ist es wie beim Desktop: Eine Aufgabe wird in mehrere Threads unterteilt und diese laufen dann eben auf den entsprechenden Kernen. Der Unterschied ist eigentlich nur, dass man bei HPC die Zuordnung nicht einfach dem Betriebssystem überlässt und jeden x-ten Kern evtl. als Koordinator verwendet.

Die wenigsten Dinge lassen sich aber auf millionen von Kernen aufteilen. Trotzdem kann man diese nutzen, indem man die Berechnungen gleichzeitig mit unterschiedlichen Eingabewerten durchführt.
 
tonictrinker schrieb:
Viel interessanter st doch, dass das eines der am meisten verschuldeten Ländern der Welt tut.
Und zugleich die technologisch fürende Nation. Von Kaufkraft ganz zu schweigen. Ohne wirtschaftlich sinnvolle(!!) Investitionen kannst du dich vergessen. Kaputt sparen in Wirtschaft und Forschung hat noch niemanden etwas außer Ruhm und Ehre verschafft. Wir in DE hinken der Welt immer weiter hinterher, selbst Japan hat mehr Rechenleistung. Zumindest wurde bei uns in den letzten Jahren mehr Kapazität aufgebaut. Ein Hoffnungsschimmer für die Zukunft.
 
k0ntr schrieb:
Läuft da Crysis auf 4k mit 144fps flüssig? :D

Wohl sehr unwahrscheinlich, aber lass mal Cinebench laufen :evillol:


Gruß,
Der Doc.
 
Casecooler91 schrieb:
Interessant wäre es auch mal zu wissen wie viel Leistung ein Netzwerk aus allen Home PCs bieten könnte oder ein Programm ins Leben zu rufen,dass die Leistung von so Superservern kombiniert mit Home PCs,Smartphones,Tablets,... so als eine Art Menschheitssupercomputer.

Das gibt es seit den 80ern unter dem Begriff "Skynet".
 
AramisCortess schrieb:
Naja dazu werden ja wohl keine 33 Petaflops genutzt. Ich weiss ja das Katastrophen Szenarien auf solchen Computern berechnet werden, aber welche Bombensimulation braucht bei 33 Petaflops mehrere Wochen oder Monate? VOn daher frage ich mich, was in der Restlichen Zeit gemacht wird, oder ob es aufgaben gibt die Quasi 24/7 rennen und der Menschheit irgendwann mal etwas bringen. Ich meine das nicht ironisch, sondern bin neugierig. Ich sehe jeden tag auf der Arbeit was mt ein paar Tera Flops berechnet werden kann und kann mir nur schwer vorstellen wie man 33 pflops auslastet. Soviele Bomben und Ziele muss man erstmal entwickeln/findet xD

Da du bei all diesen Berechnungen immer Näherungen machst, da sie analytisch oft nicht lösbar sind, oder viel zu aufwändig, kannst du die Ordnung der Näherung beliebig erhöhen und bekommst das Ding immer ausgelastet.

Wenn man es drauf anlegt, kann man das mit der Simulation der Erwärmung eines Geldstücks im Sonnenlicht auslasten - berechne ich jedes Quark und Elektron einzeln und mache keine Mittelungen, ist der Rechner ein paar tausend Jahre beschäftigt. In dem Fall allerdings nicht sooo sinnvoll, weil die mikroskopischen Abweichungen von der genäherten Rechnung völlig vernachlässigbar sind.

Aber spätestens mit Wettersimulationen kannst du das auslasten, einfach die Zellen in der Atmosphäre etwas kleiner machen und ab gehts. Das Problem ist nur, das auch effizient zu programmieren. Daran scheitert es bisher oft.

EDIT: Als Beispiel: Simulationen von Katrina, 2005 und 2015.
http://gmao.gsfc.nasa.gov/research/science_snapshots/images/Katrina_10yrs-650.png
Bis man die ganze Welt mit einer Präzision von wenigen Kilometern berechnen kann braucht man noch viel Leistung. Aber es bringt halt auch wirklich was.
 
Zuletzt bearbeitet:
cruse schrieb:
das wird nie passieren. der mensch ist als billiges und flexibles arbeitsgerät unersetzbar.
Stand in einer Robotik Firma vor ein paar Wochen vor einem autonomen Gabelstapler und einem autonomen Roboter, der Kleinteile nachfüllt. Beides wird in der Produktion schon heute eingesetzt. Und ich kann dir versprechen, das war erst der Anfang.
 
Zuletzt bearbeitet:
Zurück
Oben