Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAtos BullSequana XH3000: Neuer Supercomputer für Chips mit „1000 W+“
Der Atos BullSequana XH3000 ist eine neue Generation Supercomputer, die Chips von AMD, Intel, dem zukünftigen europäischen Prozessor EPI und Nvidia mit über 1.000 Watt aufnehmen kann. Mit den Aussagen bestätigt der Hersteller letzte Vermutungen, dass es in Zukunft deutlich höher hinaus geht, als die bisherigen „350 Watt“.
schon krass, dass diese immer kleiner werdenden strukturen diese leistung überhaupt aushalten.
ich habe so das gefühl (selektive wahrnehmung?) vor 15 jahren wurde mit einem kleineren fertigungsprozess immer weniger elektrische leistung umgesetzt, heute scheint es umgekehrt zu sein.
Heißt das das Ende Fahnenstange im Nm Verbesserungen ist erreicht. Und jetzt geht's über mehr Fläche = mehr Power.
Oder wird einfach so unglaublich viel Rechenleistung benötigt?
Heißt das das Ende Fahnenstange im Nm Verbesserungen ist erreicht. Und jetzt geht's über mehr Fläche = mehr Power.
Oder wird einfach so unglaublich viel Rechenleistung benötigt?
Ja auf alle Fragen. Der Fortschritt im Fertigungsprozess wird weniger, dafür ermöglicht modernes Packaging Chips zusammenzufassen, die früher undenkbar waren. Dadurch habe wir jetzt schon CPUs mit deutlich über 1000mm2 Fläche und dieser Trend wird sich fortsetzen.
Es ist auch absolut sinnvoll, auf diese Art große Chipkomplexe zu bauen, denn auf diese Art wird weniger Energie für die Datenübertragung gebraucht. Mehr Rechenleistung in möglichst wenigen Nodes macht das ganze also effizienter, solange die einzelnen Chips nicht zu weit über ihrem Sweetspot betrieben werden.
ich habe so das gefühl (selektive wahrnehmung?) vor 15 jahren wurde mit einem kleineren fertigungsprozess immer weniger elektrische leistung umgesetzt, heute scheint es umgekehrt zu sein.
Das Problem ist das die Leistungsdichte mit kleineren Fertigungsprozessen immer größer wird ohne das man es verhindern kann. Als ein vereifachtes Beispiel man halbiert die länge eines Transistors und verdoppelt dabei gleichzeitig die Effizienz. Jetzt hat man aber das problem, dass 4 mal so viele Transistoren auf die selbe Fläche passen. Man hat also die Effizienz verdoppelt aber die Leistungsdichte pro mm^2 ist auch doppelt so hoch. Wenn man jetzt den Chip genau so groß macht wie vorher schluckt der auch doppelt so viel Strom
warum nicht. man gewinnt Verbesserungen durch Fertigung und Struktur, warum nicht noch den Vorteil durch mehr Energie pro Chip erhöhen. Die Leistung pro Watt steigt ja trotzdem an, man holt nur noch mehr aus den bestehenden Dingen raus
300-400 Watt konnte man schon vor fast 15 Jahren mit der ersten Core Generation in einem 6 Kern Xeon verballern.
Da nehme ich heute doch gerne, einen 1000 Watt "setzen sie den Namen ein" Prozessor mit "setzten sie die Kernanzahl ein", der so unglaublich viel schneller ist, als der 300 Watt Bomber von 2009, dass mir die Worte fehlen um zu erklären, wie krass schnell die Dinger sind/werden.
Für den DIY Bauer @ home, ist das natürlich nicht gedacht.
mfg
p.s.
stefan92x schrieb:
Mehr Rechenleistung in möglichst wenigen Nodes macht das ganze also effizienter
Ein sehr guter Punkt. Das Ganze "drumrum" verbraucht auch Strom und so ein wirklich gutes Netzwerk zur Berechnung mit Hunderten oder gar Tausenden Prozessoren, ist nicht "sparsam". Da reden wir dann erst Sekundär über die einzelne CPU.
Hauptsache, die Wärme wird sinnvoll verwendet. Zur Not, beheizt man die Turnhalle von einer Schule. Alles ist besser, als sie via Klimaanlage zu verschwenden.
Dachte auch das das ein großes Problem wird.
Real wird meiner Vermutung nach aber durch MCM oder Chiplets die Wärme viel besser verteilt.
Der Transport der Daten benötigt auch immer mehr Energie und wird auf Fläche verteilt.
Mehrere kleine Chiplets sind zudem mit höherem Yield herstellbar als ein einzelner Mega-Die.
Mann muss auch nicht bis zur Kotzgrenze takten wenn man einfach mehr Chiplets nutzen kann.
Hier kommt dann dem bereits öfters erwähnte Packaging in den nächsten Jahren noch mehr Bedeutung zu.
Letztenendes wird ja auch das Kühlungskonzept und Integration weiterentwickelt. Wer weiß? Irgendwann kühlt man vielleicht auch auf der anderen Seite der Platine mit einem weiteren Tower Kühler?
Nein, zumindest nicht sinnvoll. Wie schon geschrieben, umso weniger Leistung einzelne Nodes erbringen, umso aufwändiger wird das Netzwerk. Leistung pro Node maximieren spart daher viel Platz, Material und reduziert auch den Stromverbrauch.
warum nicht. man gewinnt Verbesserungen durch Fertigung und Struktur, warum nicht noch den Vorteil durch mehr Energie pro Chip erhöhen. Die Leistung pro Watt steigt ja trotzdem an, man holt nur noch mehr aus den bestehenden Dingen raus
Na doch, da gibt es praktische Grenzen. Die Leistungsdichte ist schon lange über der einer Herdplatte. Man muss also zwingend mehr Chipfläche haben, weil einem das ansonsten einfach verbrennt.
Was man auch Bedenken muss ist, dass die ganze Energie ja erst mal in den Chip rein muss. Bei den im.er kleineren Spannungen werden die Ströme aber immer größer. Da kommt man auch an den Punkt wo einem einfach das Zeug wegbrutzelt weil die Ströme zu hoch sind.
Da gibt es noch "lustige" Dinge wegen Schwankungen in der Leistungsaufnahme. Man wird sehen müssen wie stabil die Hersteller das am Ende wirklich gebaut bekommen.
die inzelnen transistoren benötigen ja auch immer weniger strom, da past das schon auch in der hohen dichte. da gibts noch einiges an spielraum, die hersteller haben nur endlich wieder angefangen die leistungssprünge pro generation zu maximieren mit allen mitteln um attraktiv zu bleiben
die inzelnen transistoren benötigen ja auch immer weniger strom, da past das schon auch in der hohen dichte. da gibts noch einiges an spielraum, die hersteller haben nur endlich wieder angefangen die leistungssprünge pro generation zu maximieren mit allen mitteln um attraktiv zu bleiben
Ja, der einzelne Transistor braucht zwar weniger aber man hat auch mehr. Es ist schon lange so, also mindestens 28nm so, dass der Transistor locker seine Zuleitungen braten kann. Spätestens seit Finfet ist es extrem geworden und man kann egal wie viel Metall man hin knallt den einzelnen Transistor eigentlich nicht mehr voll ausfahren.
Deswegen steigt auch der Anteil des dark Silicon immer weiter.
Was man aktuell immer mehr sieht ist dass die ganzen Sicherheitsmargen immer weiter Abschmelzen und das in einem Maße das man immer mehr Bananenware bekommt. Reift beim Kunden....
Man fasst sich aber teils echt an den Kopf, ob die Hersteller gewisse Dinge wirklich ernst meinen...
@Volker ist der Titel nicht leicht missverstaendlich uebersetzt? Von Nextplatform zitiert:
As Eppe pointed out several times, the Grace/Hopper complex from Nvidia, which mixes a homegrown Nvidia “Grace” Arm server CPU with a future “Hopper” GPU, is expected to draw 1,000 watts. That includes on-package interconnects between the devices and what we presume is HBM3 memory.
I.e. sprechen wir hier von dem Gesamtverbrauch von CPU & GPU als Gesamtkomplex. Und somit mitnichten eine 1000 Watt Leistungsaufnahme von der GPU selbst.
Selbst der Open Compute Project Open Accelerator Module Formfaktor unterstuetzt nur maximal 700 Watt pro Beschleuniger..