News Green500 Supercomputer: Europa zeigt den USA, wie Effizienz beim Großrechner geht

  • Gefällt mir
Reaktionen: Evanescence
=dantE= schrieb:
Man kann sich auch einfach mal über gute Nachrichten freuen, gell.

Ist halt einfacher als die harte Wahrheit auszublenden.
Aber dann nicht fragen oder wundern warum in D. doch keine Chipfabriken usw. mehr gebaut werden.


strom.JPG
 
=dantE= schrieb:
Dass das System aus Jülich das effizienteste weltweit ist/die höchste Leistung pro Watt erzielt?

Wie viele hier schon geschrieben haben:
Es juckt die USA und alle Firmen mit Standorten dort nicht, sie rechnen immer noch viel wirtschaftlicher als Jülich. Daher "zeigt" die EU den USA gar nix wie die Überschrift so toll suggeriert.
 
Naja Jülich zeigt halt was gut wäre wenn Rechenleistung nicht wichtig wäre.

Ein Grafikkarte im 8700G ist vielleicht auch effizienter als ein 4090 aber dafür liefert sie halt vielleicht dann nur 10 Frames / Sek bei 4k und einem AAA Titel und eine 4090 liefert mit weniger Effizenz dann 120 fps @ 4k.

Aus Gamersicht ist die 8700G Effizienz halt sicher zu 99% egal.
 
Was am jedoch Fakt nichts ändert.
Man muss das nicht mit eigenem, Themenfernen Kontext befüttern und hoffen das sich dadurch der Fakt ändert, denn das passiert schlicht und ergreifend nicht.

Ja, eine 4090 ist leistungsfähiger als eine iGPU des 8700G. Würde ich nie anders sehen.
Aber es ging hier nicht darum.

Es ging um die Effizienz (Leistung/Watt).

Schaut in den anderen Thread … da geht es um den längsten Balken hinsichtlich der puren Leistung.
 
  • Gefällt mir
Reaktionen: LamaMitHut, regnirak und Nagilum99
tree-snake schrieb:
Wie viele hier schon geschrieben haben:
Es juckt die USA und alle Firmen mit Standorten dort nicht, sie rechnen immer noch viel wirtschaftlicher als Jülich. Daher "zeigt" die EU den USA gar nix wie die Überschrift so toll suggeriert.
Nur blöd, dass OakRidge, Argon und Livermore sowie die US Regierung ne ganz andere Meinung haben. Die interessiert die Effizienz nämlich durchaus. Die ersten Exascale Systeme waren mal auf 100MW+ Projeziert und das wollte in den USA dann auch niemand bezahlen. Selbst wenn man nicht mehr für die Anschaffung bezahlt hätte....
 
  • Gefällt mir
Reaktionen: LamaMitHut, Nagilum99 und =dantE=
DJMadMax schrieb:
@cb-leser hat hier klargestellt, dass meine Gleichung nicht aufgeht, da die Werte bei Consumer-Grafikkarten in aller Regel in FP16/32 angegeben werden, in Supercomputern hingegen mit einer Genauigkeit von 64 Bit. Von daher ist mein Beitrag nicht wirklich ernstzunehmen.
Dazu kommt noch Theorie/Realität:
Deine Werte basieren auf den gedruckten Angaben, nicht auf den tatsächlich mit Programmen erzielten Werten.
Bei den "Supercomputern" basieren die angaben jedoch genau darauf - und die weichen nunmal, speziell bei solchen Clustern mit schnellen Interconnects ("Netzwerk") deutlich von den theoretischen Angaben ab, weshalb oft noch Monate bis Jahre an den Systemen optimiert wird, was durchaus mittelfristig zu 10 - 20 % Verbesserung führen kann.
Die Speichersysteme sind auch nicht wirklich mit einem m.2-Streifen vergleichbar.
Ergänzung ()

tree-snake schrieb:
Sind ja tolle "EU" und "deutsche" Systeme. [...] Europa zeigt hier nur ihre Abhängigkeit.
So wie der Rest der Welt.
Und wie die USA ihre Abhängigkeit von Taiwan und die wiederum von den Niederlanden, welche von Deutschland abhängig sind.
Was soll der Sermon? Kaffee vergessen?
Ergänzung ()

tree-snake schrieb:
Ist halt einfacher als die harte Wahrheit auszublenden.
Bleibt themenfremdes Geschwafel. Mach doch einen eigenen Thread und verdrück dort Tränchen über die Strompreise. Hilft bestimmt allen weiter - SO geht Fortschritt.
Ergänzung ()

Autokiller677 schrieb:
Kernkraft passt einfach schlecht in einen modernen Energiemix.
Bauzeiten und -kosten... Frankreich und England zeigen ja gerade wie toll das alles läuft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaMitHut, Autokiller677 und el_mongo
Nagilum99 schrieb:
Und wie die USA ihre Abhängigkeit von Taiwan und die wiederum von den Niederlanden, welche von Deutschland abhängig sind.
Was soll der Sermon? Kaffee vergessen?

Taiwan ist genauso von dem Schutz der USA abhänging, hat die USA schon früh verstanden und sich positioniert. ->USA hat die Hosen an.
USA schreibt auch ohne Probleme ASML Exportverbote nach China vor. -> USA hat auch da wohl die Hosen an.
Was es soll? "Europa zeigt den USA"... haha.


Nagilum99 schrieb:
Bleibt themenfremdes Geschwafel. Mach doch einen eigenen Thread und verdrück dort Tränchen über die Strompreise
Energieverbrauch und Energiepreise hängen immer zusammen. Erst recht wenn man es der USA so richtig zeigen will in dem Gebiet. Strompreisbremse schon vergessen wie schnell das plötzlich hier damals kam als es gefühlt eng wurde.
Themenfremd sagen nur die, welche glauben Strom kommt einfach aus der Steckdose und ist immer da.
Unsere Firma hat ihr Data und Rechencenter auch schon längst aus D ausgelagert.
 
=dantE= schrieb:
Was am jedoch Fakt nichts ändert.
Man muss das nicht mit eigenem, Themenfernen Kontext befüttern und hoffen das sich dadurch der Fakt ändert, denn das passiert schlicht und ergreifend nicht.

Ja, eine 4090 ist leistungsfähiger als eine iGPU des 8700G. Würde ich nie anders sehen.
Aber es ging hier nicht darum.

Es ging um die Effizienz (Leistung/Watt).

Schaut in den anderen Thread … da geht es um den längsten Balken hinsichtlich der puren Leistung.


Das lässt sich halt nicht trennen.

Bessere Effizenz bringt nur dann etwas, wenn man damit nicht in der "unbrauchbaren Leistungsliga" landet.

Für so eher einfache Aufgaben sind die effizienteren Rechenzentren in Europa sicher halbwegs Ok aber für mehr halt nicht, da reicht halt die Leistung nicht.

IT ist auch etwas das ich wohl wie kaum irgendwas anderes global verschieben lässt - da istz halt die global Konkurrenz einfach da. Ich glaube kaum dass es viele (IT)Unternehmen am Ende wirklich interessiert ob es in Europa effizienter ist, wenn man für 30% des Preises irgendwo anders auf der Welt die 5-fache Rechenleistung bekommt?

Kosten und Zeit sind halt die wichtigen Faktoren in fast allen Entwicklungen.
 
Zuletzt bearbeitet:
Äh ja bei der Effizenz Platz 1 bei der Leistung Platz 224.

Alles ab spätestens Platz 100 ist halt unbrauchbar lahm für Highend im Vergleich zur Spitzenliga.

JEDI ist halt genauso nützlich wie das 224. Sucheregebnis auf google - also das auf Seite 12 oder so xD das wird auch maximal von 0,00001% der User noch als nützlich empfunden, 99% schauen sich das sicher erst gar nicht an.

Der Jupiter der ist eher ok - immerhin leistungsmässig gerade noch so in den Top 20.
 
  • Gefällt mir
Reaktionen: Kuristina
Aber das kann man halt nicht trennen

Was bringt es denn das effizenteste System zu haben wenn es dafür ein unbrauchbar lahmes Spielzeug ist?

Ein System das nichts - oder extrem wenig - leisten muss zu bauen das sparsam ist ist halt sicher vergleichsweise einfach und keine technisch so grosse Leistung.

Weil meistens doch die Abwärme etc überlinear mit der Leistung steigt.
 
Zuletzt bearbeitet:
Ja aber sind doch jetzt fast alle Nvidia GPUs GH200/H100 die Server die taugen eigentlich nur wirklich für den Bereich AI Training.

Und bei AI Training kann man halt nicht das Problem aufteilen das MUSS ja systembedingt zwingend in einem System laufen.

Für viel anderes sind die da praktisch überall eingesetzten Nvidia GPUs jetzt meist nicht so optimal - so GFX Effekte für die Videoproduktion oder Cryptcoins etc evtl noch aber das wird wohl kaum der Einsatzbereich sein :D

Was soll man denn sonst mit so H100/GH200 Servern machen?
 
vandenus schrieb:
Und bei AI Training kann man halt nicht das Problem aufteilen das MUSS ja systembedingt zwingend in einem System laufen.
Das stimmt nicht. Man kann das Training auch über mehrere Systeme verteilen.
vandenus schrieb:
Was soll man denn sonst mit so H100/GH200 Servern machen?
CAD bzw CAE kann man damit zum Bleistift machen.
 
Wie soll denn das technisch gehen mit dem auf mehrere Systeme verteilen?

AI basiert ja darauf das JEDE Information mit der trainiert wird IMMER alle im AI Netz vorhandenen Knoten anpasst und bei jedem die Gewichtung verändert.

Wenn man das nicht macht ist man eh im Anfängerhobbybereich, Die Stärke von AI kommt daher, dass ALLE Knoten immer neu abhängig der in allen Knoten bereits vorhanden Informationen nachgewichtet werden.

Deshalb hat ja NVidia die Technik mit der virtuellen GPU entwickelt die egal wie viele tausend Einzel GPUJ module installiert sind zu einem einzigen grossen Bereich zusammenfasst der extrem schnell Daten tauschen kann - genau das macht NVidia so konkurrenzlos überlegen.
 
Zuletzt bearbeitet:
Kein Netz das das ermöglicht was man will ein möglichst universelles AI MoE ist ein Ressourcenmangelansatz. Niemand wird MoE Nutzen wenn er nicht muss.

AI beruht darauf dass auch Knoten 373789388348743 von Information 3262627 beeinflusst wird genauso wie Knoten 12

Das war MoE macht sind halt TeilAI Netze, das ist die alte Hoffnung man muss nur genug Idioten zusammenpferchen dann ersetzen die einen Einstein. :D Das tun sie aber halt aber in der Realität eher selten.

Man kann eben nicht vorhersagen welche Gewichtung welchen Knotens auf Basis welcher Information das Netz gut macht - man weiss nur aus Beobachtung dass grosse AI Netze in der Praxis fast immer besser sind als kleine (ausser evtl overfitting und Co)
 
Zuletzt bearbeitet:
Zurück
Oben