Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsFrontier-Verspätung: Mini-Supercomputer „Crusher“ startet als Test
Der Schritt der USA in die Exascale-Ära ist geprägt von Verspätungen. Auch der auf AMD basierende Supercomputer Frontier wird nicht fertig. Eine kleine Auskoppelung mit den Namen Crusher wird nun verwendet um vorab weitere Tests durchzuführen. Der produktive Einsatz von Frontier verschiebt sich auf das Jahr 2023.
Hängen sie bei Rechenleistung pro Watt die Office PCs auch so weit ab wie sie es bei Rechenleistung tun?
Aktuell wirken Supercomputer wie Raspi Cluster die man hochskaliert hat.
Gibt es irgendein Aspekt richtungsweisend für zukünftige Entwicklung oder ist es schlicht wie viel Geld mache ich für ein Prestigeprojekt locker, um so viel Stangenware zu kaufen und den schnellsten Rechner im Land zu haben?
Hängen sie bei Rechenleistung pro Watt die Office PCs auch so weit ab wie sie es bei Rechenleistung tun?
Aktuell wirken Supercomputer wie Raspi Cluster die man hochskaliert hat.
Gibt es irgendein Aspekt richtungsweisend für zukünftige Entwicklung oder ist es schlicht wie viel Geld mache ich für ein Prestigeprojekt locker, um so viel Stangenware zu kaufen und den schnellsten Rechner im Land zu haben?
Hängen sie bei Rechenleistung pro Watt die Office PCs auch so weit ab wie sie es bei Rechenleistung tun?
Aktuell wirken Supercomputer wie Raspi Cluster die man hochskaliert hat.
Gibt es irgendein Aspekt richtungsweisend für zukünftige Entwicklung oder ist es schlicht wie viel Geld mache ich für ein Prestigeprojekt locker, um so viel Stangenware zu kaufen und den schnellsten Rechner im Land zu haben?
Lies dir mal den, im Beitrag verlinkten, Artikel zu AMDs Instinct MI200 durch. Die Einsatzgebiete und die Hardware selbst ist extrem unterschiedlich zu normalen PCs.
Hängen sie bei Rechenleistung pro Watt die Office PCs auch so weit ab wie sie es bei Rechenleistung tun?
Aktuell wirken Supercomputer wie Raspi Cluster die man hochskaliert hat.
Gibt es irgendein Aspekt richtungsweisend für zukünftige Entwicklung oder ist es schlicht wie viel Geld mache ich für ein Prestigeprojekt locker, um so viel Stangenware zu kaufen und den schnellsten Rechner im Land zu haben?
Gibts doch Benches für. Diese Art HPC wird doch schon seit langem gemacht, ist ja an sich nichts Neues. Natürlich werden die genutzt und natürlich kannst du darauf Berechnungen anstellen die du mit keiner Workstation fertig fertig bekommst. Damit erübrigt sich deine Frage eigentlich schon.
Hängen sie bei Rechenleistung pro Watt die Office PCs auch so weit ab wie sie es bei Rechenleistung tun?
Aktuell wirken Supercomputer wie Raspi Cluster die man hochskaliert hat.
Gibt es irgendein Aspekt richtungsweisend für zukünftige Entwicklung oder ist es schlicht wie viel Geld mache ich für ein Prestigeprojekt locker, um so viel Stangenware zu kaufen und den schnellsten Rechner im Land zu haben?
Sorry für den Ton. Ging mir kurz echt auf den Keks :-)
Supercomputer setzen sich meist aus einigen Hundert bis Tausend Knoten zusammen. Diese Knoten sind im wesentlich kleine Computer, die aber nur aus dem allernötigsten bestehen.
Also 1 bis mehrere Hauptprozessoren und Beschleuniger, interne Fabric, Infiniband-Netzwerkkarte und ein "langsamer" Netzwerkanschluss. Über diesen ziehen sich die Knoten das recht schlanke Betriebssystem-Image von einem Server in den Hauptspeicher. Festplattencluster sind meist an die Supercomputer angeflanscht, local scratch eher selten. Soundkarte, USB-Controller, Grafikausgänge usw. sind spärlich bis gar nicht verbaut. Ist einfach nicht nötig.
Mittlerweile sind die Knoten häufig direkt wassergekühlt (Wasserkühlkörper auf CPU/Beschleuniger und Ram). Baut sich kompakter als Luftkühlung, ermöglicht kürzere Kabelwege und damit geringere Latenzen.
Zwischen den Knoten sitzt meist ein Infiniband-Netzwerk (100-200GBit pro Verbindung, 400 sind im kommen) mit einer angepassten Netzwerktopologie, um wiederum möglichst kurze Signalwege zu schaffen.
Es ist also eine Mischung aus "günstigen" Standardbauteilen und High-End Prozessoren und Netzwerktechnik.
@Energieeffizienz: Es gibt eine Green500 bei der man sieht wie es um die Effizienz steht. Die wiederum ist für x86 Architekturen "nur deshalb" gut, da die CPUs im Vergleich zu Desktop-Maschinen relativ langsam laufen (meist 2...2,5 GHz).
Beschleuniger sind effizienter; aufgrund kleiner Speicher und vor allem Speicherbandbreiten und der Art der Rechenwerke aber nicht für jede simulative Fragestellung geeignet. ARM-Maschinen wie Fugaku könnten Abhilfe schaffen. Hier fehlt es aber noch am Software-Stack, ohne den ein Supercomputer wieder schwieriger zu Betreiben ist.
Naja. Ist ein größeres Fass. Aber die Infos sind ganz gut über öffentliche Quellen verfügbar und spiegeln die Arbeit in den Rechenzentren (hier in Deutschland vor allem das GCS mit den Standorten in Jülich, München und Stuttgart) durchaus wieder.
Gibts doch Benches für. Diese Art HPC wird doch schon seit langem gemacht, ist ja an sich nichts Neues. Natürlich werden die genutzt und natürlich kannst du darauf Berechnungen anstellen die du mit keiner Workstation fertig fertig bekommst. Damit erübrigt sich deine Frage eigentlich schon.
Das heisst man versucht gar nicht die Effizienz in dem Maße zu steigern wie die Rechenleistung?
Meine Frage war eigentlich auch, warum nicht?
Ich erinnere mich noch an frühere Supercomputer. Da wurden exotische Materialien für die Halbleiter verwendet, erreichte GHz wo man mit MHz rechnete, Flüssigkeitskühlung, zylindrisches Gehäuse als Kompromiss zur Kugelform, um die Leitungswege zu minimieren, dann wieder so viel Fortschritte, um wieder mit Luft kühlen zu können. Kurzum, ein Supercomputer war voller technischer Durchbrüche und dem Stand der Technik um mindestens 20 Jahre voraus.
Jetzt sehe ich eine Halle voller 19" Schränke. Je mehr desto schneller.
Da hätte man doch evtl. denken können, dass durch Skaleneffekte wenigstens eine schöne Steigerung der Effizienz möglich werden könnte? So wie z.B. ein Heizkraftwerk deutlich bessere Wirkungsgrad erzielt als ein Automotor?
Offenbar sind hier einige so tief in der Materie drin, um von solchen naiven Fragen genervt zu sein. Würde mich freuen von ihrer Prespektive zu hören.
Interessant, dass es hier nicht die Chips zu sein scheinen, sondern die Infrastruktur. Hat da jetzt AMD ein Problem mit den Schnittstellen oder hat Cray plötzlich vergessen, wie man Netzwerke zusammenschaltet? Der einzelne Cluster funktioniert ja...
Bin gespannt. Da wird sich aktuell nicht mit Ruhm bekleckert, angesichts der Verzögerungen. Man muss sich aber auch klar machen, dass Interconnects auf diesem Level sehr aufwändig und kompliziert sind.
Mal gucken, vielleicht geht sogar Tesla Dojo früher in Betrieb. Zumindest in einer frühen Ausbaustufe. Im Vollausbau soll das ja euch eine Exa-Scale Maschine für das Training neuronaler Netze werden.
@Wattwanderer Damals TM war aber auch eine Zeit, als man Leiterbahnen und Transistoren noch mit einer ruhigen Hand selbst ins Silizium kratzen konnte.
Da waren "Supercomputer" Endkundencomputern deshalb so weit voraus, weil die Endkundenhardware einfach so weit hinten war, auch einfach weil es keinen ernsthaften Bedarf gab.
Nun steht an jeder Straßenecke ein Rechenzentrum für irgendeine Clouddienstleistung und der gesamte Bereich abseits von Supercomputern hat sich enorm professionalisiert, denn natürlich wollen auch "normale" Firmen mittlerweile viel Leistung und eine hohe Effizienz, so dass die Entwicklung mittlerweile nicht von den Supercomputern vorangetrieben wird sondern vom Massenmarkt.
AMD, Intel, Nvidia und ein paar andere (inklusive Apple) sind an der Spitze dessen was technisch machbar ist, da kann ein "Supercomputerhersteller" nicht noch einen draufsetzen, denn selbst wenn es möglich wäre mehr Leistung zu erzielen, wären die Kosten ein Vielfaches dessen, was man über "normale" Hardware bekommt, die so in sehr ähnlicher Form auch an Endkunden geht.
Und natürlich erreicht man Skaleneffekte, denn anstatt auf jede CPU, auf jede GPU, einen eigenen Luftquirl zu setzen wird das System zentralisierter gekühlt und die Abwärme kann teilweise genutzt werden um die Gebäudeheizung zu unterstützen.
@Wattwanderer Natürlich ist Effizienzsteigerung für ein neues RZ oder Supercomputer immer ein Eckpfeiler.
In der Praxis passiert das aber einerseits ganz "von alleine" sprich Intel, Nvidia, AMD usw. bringen mehr Rechenkerne in ihren Chips unter, takten höher oder die Fertigung (Nanometer) wurde besser.
Andererseits haben die Planer eher ein Augenmerk auf die Dichte bzw. Platzverbrauch der Rechenleistung.
Und auch eng daran gekoppelt die Abwärme und welche Art der Klimatisierung (Wasser, Kaltluft, Warmluft usw) letztendlich genutzt wird.
Stromverbrauch und Klimatisierung sind dann nämlich für Jahre des Betriebs der entscheidende Kostenfaktor.
Klar versucht man die Effizienz zu steigern wo möglich, das ist aber alles gar nicht so einfach.
Wenn ich dir 10 Mio in die Hand drücke, dann wird das System wahrscheinlich 30-70% langsamer sein, als wenn ich einem HPC Hersteller das Geld in die Hand drücke. Selbst wenn ihr den gleichen Einkaufspreis habt und die gleiche Hardware verwenden könnt. Bei den großen HPC Maschinen ist viel Software dabei und eben auch Erfahrung wie man solche Systeme überhaupt betreibt.
Um es mal etwas plakativer zu machen. Die meisten IT Butzen um die Ecke wären gar nicht in der Lage ein funktionsfähiges System dem Kunden hin zu stellen...
Weil es halt nicht wirklich besser geht. Gibt hier und da noch ein paar Schrauben, die sind aber auch mit erheblichen Kosten/Risiken verbunden
Wattwanderer schrieb:
Ich erinnere mich noch an frühere Supercomputer. Da wurden exotische Materialien für die Halbleiter verwendet, erreichte GHz wo man mit MHz rechnete, Flüssigkeitskühlung, zylindrisches Gehäuse als Kompromiss zur Kugelform, um die Leitungswege zu minimieren, dann wieder so viel Fortschritte, um wieder mit Luft kühlen zu können. Kurzum, ein Supercomputer war voller technischer Durchbrüche und dem Stand der Technik um mindestens 20 Jahre voraus.
Wasserkühlung hat sich etabliert in dem Bereich. Immersionskühlung schauen sich viele an, ist aber teuer, hässlich in der Wartung und halt riskant, weil kein Hersteller seine Hardware dafür qualifiziert.
Wattwanderer schrieb:
Jetzt sehe ich eine Halle voller 19" Schränke. Je mehr desto schneller.
Im Groben ja, wobei da viel Software und know how drin steckt. Wenn also z.b. Indien oder eine Afrikanische Nation Geld in die Hand nimmt und durch lokale Firmen machen lässt, dann wird das deutlich ineffizienter sein als von nem Großen zu kaufen.
Man bekommt da einen etwas falschen Eindruck, weil da halt überall Profis arbeiten und man Jahrzehnte an Erfahrung hat und am Ende kochen halt alle nur mit Wasser.
Zudem interessiert es halt draußen niemand ob du jetzt nen großen Cluster nach einem Stromausfall in 1, 2, 4 oder 48h wieder in Betrieb hast. Mit sowas sortiert man aber kräftig aus...
Wattwanderer schrieb:
Da hätte man doch evtl. denken können, dass durch Skaleneffekte wenigstens eine schöne Steigerung der Effizienz möglich werden könnte? So wie z.B. ein Heizkraftwerk deutlich bessere Wirkungsgrad erzielt als ein Automotor?
Hat man doch auch, aber das Netzwerk verballert z.b. einiges an Saft. Pro Knoten sind das mal schnell 20W+ das geht natürlich auf die Effizienz. Genau wie der Storage. Durch nen großen storage jagst du Dutzende kW. Aber irgendwo musst du ja die Daten speichern.
Oder geh hin und schau dir die Login nodes an, oder die Redundanz. Das geht alles auf die Effizienz des einzelnen Knoten ist aber für einen effizienten Betrieb unablässig.
Effizienz ist halt immer relativ und da die Kisten immer größer werden im Sinne von Knoten, also unabhängigen OS Instanzen, wird es halt auch immer ineffizienter.
Ergänzung ()
So und jetzt noch was zu Terminologie.
Das kommt halt davon das meist daran auch Zahlungen geknüpft werden. Also z.B.
Zur Bestellung
Zur Lieferung der HW beim Hersteller
Zur Anlieferung der HW beim Kunden
Zur Inbetriebnahme
Nach der Abnahme
Wichtig und entscheidend ist aber an sich nur ein/zwei Zeitpunkte.
A. Inbetriebnahme
B. Die Abnahme/Acceptance
Ab fängt man halt an irgendwas mit dem System zu machen. 90%+ hat da aber noch der Hersteller die Hand drauf. Da werden dann normal auch die Top500 rund etc gemacht. Das sind dann meist auch Teilpunkte der Abnahme. Da fängt der Kunde dann auch an das System mit den Power Usern zu nutzen.
Die Abnahme ist aber nichts was man "mal eben" macht. Das ist ein Prozess der über Wochen oder Monate geht. Und je nachdem ob etwas nicht erreicht wird, gibt es halt auch keine Abnahme...
Erst mit erfolgter Abnahme, also mit Unterschrift geht das System dann an den Kunden über. Davor ist das Ding noch immer Eigentum des Verkäufers.
Von daher ist das alles überhaupt nicht verwirrend, sondern nur recht normalisiert und abhängig von den Verträgen die man als Außenstehender halt nicht kennt
Die Zeiten sind so verrückt, wenn man ein Crowdfunding startet und beschreibt, dass man mit dem Geld seinen Keller mit Teichfolie auskleiden will um ihn mit altem Frittenfett zu fluten und darin ein Crusher versenkt und das ganze auf den angesagtesten Social Media Plattformen live Streamt und dokumentiert um am Ende darauf einem Crysis Benchmark laufen zu lassen,... könnte ich mir sogar durchaus realistisch vorstellen, dass genug Geld für das Projekt zusammen kommen würde (Cryptospenden werden akzeptiert) 🤡.