Armadill0 schrieb:
Ich arbeite zwar selbst in der Branche und wir sind auch auf diese Produkte angewiesen, aber ich habe bei diesen exorbitant wachsenden Verbräuchen einfach ein schlechtes Gefühl.
Ich ebenso, aber dann solltest du doch selbst gut genug wissen, dass die effizienz der Hardware mit jeder Generation steigt und der Verbrauch von Rechenzentren in Perf/Watt immer weiter zunimmt. Wie soll die Politik denn deiner meinung nach durch regeln noch mehr effizienz erzwingen? Der verbrauch von rechenzentren steigt einzig und allein dadurch, dass noch schneller als die HW effizienter wird mehr (zusätzliche) HW verbaut wird, weil wir in jedem Aspekt unseres täglichen Lebens immer mehr berechnen und vernetzen.
Austronaut schrieb:
ob mehr leistung auch immer gleich mehr stromverbrauch sein muss? irgendwann ist man mit wakü auch am ende.
latiose88 schrieb:
Wie macht man die natur noch mehr kaputt, in dem man noch stromdurstige Hardware bringt. Haben die alle nicht von dem Debakel von Intel dazu gelernt.
siehe oben. die Hardware wird immer effizienter = verbraucht weniger. Wir schieben halt nur einfach immer mehr neue HW in die Rechenzentren, weil wir immer mehr und mehr Rechenleistung benötigen.
latiose88 schrieb:
nvidia wird das selbe vorgeworfen wie bei intel auch. man muss heutzutage selbst nachhelfen wenn man sparsame Hardware haben will. wenn man eine rtx 4090 auf 140 Watt drosseln würde, dann bliebe da auch nicht mehr viel übrig von der rohleistung.
du meintest sicherlich das gegenteil, oder? denn selbst bei 150W wird eine 4090 noch ca 80-90% ihrer ursprünglichen leistung haben. Das ausquetschen auf letzter rille ist ein Konsumenten-/Konkurrenzproblem.
Konsumenten achten im gegensatz zu unternehmen seltenst auf Verbrauch/Effizienz und so geht es nur darum einen längeren (Balken) als die Konkurrenz zu haben.
ayngush schrieb:
Damals(tm) in den 80ern und Anfang der 90er wurden die "Mainframes" / "Hosts" (Großrechner im Host-Terminal-Betrieb) samt und sonders vollständig oder manchmal auch nur einige Schaltkreise mit Wasser gekühlt.
Keine Sorge Opi
Auch heute
© noch werden die echten IBM Mainframes ausschließlich wassergekühlt. Quelle: ich hab selbst ein paar z16 unter meinen fingern.
ABIT4ever schrieb:
Mich wundert, dass hier fast ausschließlich Direct-Liquid-Lösungen für die heißen Komponenten zum Einsatz kommen. Der eigentlich geile Shit sind doch Immersionskühlungen, also gleich die kompletten Server in Öl versenken.
Dann aber weniger mit Öl und eher mit spaßiger Suppe wie 3M Novec. Aber DAS ist dann wirklich nochmal eine deutliche Nummer mehraufwand als "nur" Wasserkühlung. Denn die kann man oftmals relativ einfach an die bestehende Klimaanlage anschließen.
joel schrieb:
Ist das nicht ein unfassbarer Aufwand der da betrieben werden muss?
Auch der finanzielle Aufwand wird nicht ohne sein.
Passt da überhaupt die bestehende Infrastruktur?
Sieht mir mehr nach einer ABM Maßnahme aus, wartungstechnisch ist das nochmal eine Herausforderung für die IT.
In rechenzentren zählt eigentlich nur eines: TCO (total cost of ownership), also was dich die hardware im laufe ihres lebens kostet.
Da ist alles dabei: Einkaufspreis, Leistung/Watt, Platzverbrauch (Fläche/HE im Rack),...
Und für viele unternehmen lohnt es sich - wir sind auch gerade dabei unsere RZs nach und nach auf wasserkühlung umzustellen. Denn was viele nicht bedenken, nicht nur der stromverbrauch und die kühlung kosten geld, sondern auch die RZ Fläche. Teils ist die sogar teurer als die anderen beiden sachen, sodass man alles dafür tut die compute density, also rechenleistung pro fläche/volumen zu erhöhen und da ist WaKü trumpf, weil man viel kompakter als mit luftkühlung bauen kann.
Hat man früher bei uns (die kühlung) mit 5kw pro rack geplant, was mal ein volles rack gewesen ist, kann man jetzt teils nur noch eine handvoll server in den gleichen schrank bauen und der rest MUSS leer bleiben - eine enorme platzverschwendung.
Deswegen wird jetzt teils direkt wassergekühlt wie im artikel skizziert und teils wird bei älterem kram der intake und/oder exhaust der racks wassergekühlt, sodass man jetzt problemlos 50kw pro Rack verbauen kann.
KarlsruheArgus schrieb:
Doch gute CPU Lüfter brauchen auch nur 2W und kriegen je nach Kühler >150W gekühlt. Also mind. 1 zu 75, da sind 1 zu 15 wie hier beschrieben ein schlechter Witz und eher ein Indiz dafür das die Kühlflächen nicht ausreichend dimensioniert sind.
Schon mal einen serverlüfter in der hand gehabt? Handelsübliche lüfter brauchen da 50-100W und du hast meist 5-8 davon pro server. D.h. im normalbetrieb (nicht vollast) ist ein faktor von 10-20:1 von Rechenleistung zu Lüfterstromverbrauch ziemlich normal, sodass mir 1kW Lüfter für 15kW compute nicht sehr abwegig erscheinen.