Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsHazel Hen: Stuttgarter Supercomputer ist schnellster in Deutschland
Ich denke bei Servern ist es so,wie zuhause.Zuviel Leistung gibt es nicht.Es wird immer gewisse Anforderungen geben wo man die Leistung braucht.Wenn nicht heute dann vielleicht morgen.
Man kann ja auch Sachen berechnen wie die Umlaufbahnen von Sonnensystemen in relation zur Bewegung der Galaxien und wie unser Universum in 500000 Jahren aussieht.Da werden dann zb Parameter wie Kollisionen von Planeten und Galaxie und deren Ergebnis auch mitberechnet und dagegen ist eine Atombombe ja nur ein Knallfrosch...nur mal so als Beispiel.
Auf jeden Fall sollte man die Server aber ökologisch betreiben und auch deren Abwärme sinnvoll nutzen zb zum heizen.Aber da gibt es ja genug Firmen die in diese Richtung arbeiten.
Interessant wäre es auch mal zu wissen wie viel Leistung ein Netzwerk aus allen Home PCs bieten könnte oder ein Programm ins Leben zu rufen,dass die Leistung von so Superservern kombiniert mit Home PCs,Smartphones,Tablets,... so als eine Art Menschheitssupercomputer.
In einem anderen Beitrag hier auf CB schreibt ihr folgendes: Das derzeit schnellste System ist mit einer Spitzenleistung von fast 55 Petaflops der Tianhe-2 an der National University of Defense Technology (NUDT) in China.
Genauer gesagt also hier: https://www.computerbase.de/2015-04...ter-supercomputer-mit-180-petaflops-leistung/
Also was stimmt denn nun?
Beides natürlich. Steht doch in beiden Artikeln, dass der Aurora erst für 2018 geplant ist.
Edit: Sorry, Missverständnis. Die unterschiedlichen Angaben für den Tianhe-2 ... könnten aus unterschiedlichen Benchmarks stammen oder mindestens eine Angabe ist schlicht falsch. Ungenaue Angaben sind hier auf CB doch normal ...
beeindruckend und beängstigend zugleich die rechenleistung der USA. 2018 ein system das mehr bietet als die USA bis jetzt insgesamt haben ... total krank
Mit Supercomputer werden Wettermodelle, Astrologie ( Urknall, schwarze Löcher und Planetenmodelle) und Teile des menschlichen Gehirn (das Gehirn ist ja verdammt komplex selbst die gesamte Rechenleistung von allen Computer würde momentan nicht ausreichen, man weiß ja nicht mal wie es Arbeitet) simuliert.
Das erstaunliche ist doch die Computer werden immer kleiner. Letztens in ein 40 TB Serveranlage besichtigt 8 Server und 52 virtuelle Server hat alles schön in drei Schränke gepasst wobei die Magnetbandsicherung und die ganzen switches den meisten Platz verbraucht haben.
Das muss ich leider widerlegen. Ich war bei der Entwicklung von 5 Systemen als Data Center-Architekt für mehrere Großkonzerne dabei. Mieten tuen eben nicht alle, es ist nämlich günstiger es selbst zu betreiben, wenn ich gute Auslastung fahren kann. Das war in diesen Fällen gegeben und wurde so verwirklicht. Supercomputer im Mittelfeld der Top500 ist nicht teuer oder aufwendig. Ein paar Racks, guter Interconnect und passende Software. Kein Hexenwerk und gibt es bei IBM, Cray und co. von der Stange. Das haben viele Großunternehmen die Infiniband im Storage einsetzten bereits verfügbar. Sie brauchen nur noch die passende Software wie OpenMP und schon haben wir einen Supercomputer.
Öffentliches Beispiel gefällig:
JP Morgan is now able to run risk analysis and price its global credit portfolio in near real-time after implementing application-led, High Performance Computing (HPC) capabilities developed by Maxeler Technologies.
The investment bank worked with HPC solutions provider Maxeler Technologies to develop an application-led, HPC system based on Field-Programmable Gate Array (FPGA) technology that would allow it to run complex banking algorithms on its credit book faster.
JP Morgan uses mainly C++ for its pure analytical models and Python programming for the facilitation. For the new Maxeler system, it flattened the C++ code down to a Java code. The company also supports Excel and all different versions of Linux.
Da fehlte das "v3", danke für den Hinweis! Es sind also Xeon E5-2680 v3 mit 12 Kernen (Haswell-EP)
Zu den verschiedenen Angaben bei den FLOPS: Wie schon angesprochen wurde, gibt es in der Top500-Liste zwei verschiedene Werte: einmal Rmax und einmal Rpeak. Im Normalfall wird der Rmax-Wert zum Vergleich herangezogen. Daran sollten wir uns auch besser halten.
Früher war ich auch so ein Spinner, mit der Intension, den schnellsten PC im Dorf haben zu wollen, hab ich sogar vom Pentium 200MMX upgradet auf den Pentium 233MMX.
@dzeri
Das dürfte noch eine Weile dauern aber lange dürfte es auch nicht gehen, weil der Verkehr sehr komplex ist, plötzliche Änderungen der Verkehrsituation ergeben sich recht häufig und muss neu eingeschätzt und gehandelt werden und noch ist die Programmierung noch nicht so weit das alles zu erfassen und zu verarbeiten, zumal wie bringt man einem Computer Erfahrung bei!
Ich frag mich generell wann endlich die Quantencomputer kommen, weil es wird schon seit geraumer Zeit berichtet das enorme Fortschritte gemacht wurden und es nur noch wenige Jahre dauert bis es auf den Markt kommen!
Stimmt, und weil du als Data Center-Architekt tätig bist weißt du dass es bereits Anlagen gibt, die Tianhe-2 in den Schatten stellen?
Das wäre mit Sicherheit bekannt.
strex schrieb:
Mieten tuen eben nicht alle, es ist nämlich günstiger es selbst zu betreiben, wenn ich gute Auslastung fahren kann.
Yoa kannst du machen, wie gut und vorallem schnell das geht ist eine andere Sache. Wir machen das bei uns auch an relativ kleinen Systemen für Rezeptor/Liganden Modelling, aber selbst für einfache Anwendungen läuft das dann mal ne Woche.... Ganz zu schweigen von der Berechnung neuronaler Netzwerke etc.....
Wie schon gesagt wurde sind das aber eh nur die offiziellen Systeme, alles "wirklich" wichtige wird geheimgehalten. Allerdings ist der Nutzen in vielen Bereichen auch limitiert mMn, weshalb mehr kleine Systeme and verschiedenen Standpunkten oft besser sind.