News Zweiphasen-Tauchkühlung: Microsoft kühlt Server mit bei 50 °C kochender Flüssigkeit

Blutschlumpf schrieb:
Warum kondensiert das Zeug am Deckel? Das dürfte energetisch gesehen eher ineffektiv sein weil man dann ja den Deckel auf unter 50 Grad halten muss damit das funktioniert.
Zumindest in Regionen, die im Sommer mal auf >= 30 Grad gehen könnte das mit 2 Wärmeübergängen (Deckel zu Kühlmittel zu Chiller) ohne Kompressor schon extrem schwierig werden.

Ich schätze mal, für diesen Zweck dürfte ein Anschluss an eine normale Kaltwasserleitung schon völlig ausreichend sein. Hat bei uns hier in Deutschland so 15-20 Grad. Im Ausland, wo es heißer wird und die Leitungen weiter oben verlaufen, kann man das Wasser ja noch vorab durch eine extern aufgestellte Kühlmaschine laufen lassen. Sollte wesentlich energieeffizienter sein, als wenn (wie aktuell) ein kompletter Serverraum heruntergekühlt werden muss.
 
  • Gefällt mir
Reaktionen: xexex
Redest du von Leitungswasser/Trinkwasser? Wenn ja wird das vermutlich ne verdammt teure Kühlung. ;)

Grundsätzlich ist das aber nicht abwegig.
Wir haben in einem RZ ein Kühlsystem welches Grundwasser abpumpt und das erwärmte Wasser in den Rhein leitet.
Allerdings kann/darf man sowas natürlich nicht in unbegrenztem Maße machen.
 
Recharging schrieb:
@Cool Master
Man könnte bei deinem pauschalen Absatz beinahe glauben, du bist Vertreter für solche Kühllösungen. 😛
Ja, es gibt viele Vorteile aber auch gravierende Nachteile. Solche Projekte sind ja nicht umsonst Konzeptstudien im kleinen Rahmen, wie etwa auch der versenkte Container im Meer.

Sobald man abseits des Schönwetter-Alltags mal Service etc. braucht, steigen die Kosten für solche Systeme im Vergleich etwa zur Luftkühlung sprunghaft an. Und sei es nur ein Leck und der vermehrte Mitarbeitereinsatz. Rein - raus ist dann halt gar nicht mehr so einfach.

Also Studie aber dennoch interessant und mal schauen, welcher Rahmen sich für die Verwendung dann besonders eignet.
In der hier gezeigten Form ist das wohl wirklich eher eine Studie als etwas, das man im großen Rahmen im Einsatz haben will. Schon hat da aber ne gute Lösung vor 2 Jahren gezeigt. Die haben Systeme hermetisch abgeriegelt in Einschübe mit Kühl, Strom usw Anschlüssen gepackt. Da hat man quasi keine Probleme mehr mit der Handhabung.

Es gab auch ne Firma, die quasi "Tapelibraries" bauen wollte, in denen ein Roboter arbeitet und die Systeme dann durch eine Schleuse leitet. Habe von denen aber nichts mehr gehört
schallundrauch schrieb:
Heißt das Teil, das den Dampf kondensiert, wirklich Kondensator? Könnte für Missverständnisse sorgen :D

Was ich mich noch frage: Gibt es dann nicht auch eine Dampfschicht direkt auf den zu kühlenden Teilen ähnlich wie es bei flüssigem Stickstoff ist?
Ja tut es
Recharging schrieb:
Roman hatte ja einige Ideen in der Hinsicht, vom CPU-Kühler bis hin eben zur kompletten abgetauchten Variante
Er hat das widergekäut was andere schon Jahre zuvor gemacht haben...
mkossmann schrieb:
Ich vermute, so eine Schicht will man möglichst vermeiden. Weil das die Kühlung eher stört.
Ja im Prinzip schon. Eine echte Schicht wäre das Filmsieden, wo sich ein geschlossener Gasfilm über die zu kühlende Oberfläche legt. Was man will ist das Blasensieden, wobei man keine großen sondern möglichst kleine Blasen haben will.. Was man hier sieht ist schon mit ziemlich heftiger Blasenbildung verbunden, aber schon nicht mehr so optimal.

Bekannt ist das Problem auch von Kernreaktoren oder Verdampfern. Gibt dazu schon seit Jahrzehnten Forschung. Allerdings ist das relativ empirisch. Man muss also für jede Flüssigkeit das neu erforschen. Hängt halt z.b. auch von der Oberflächenstrucktur ab. Stichwort hinterschnittene Strukturen.
0-8-15 User schrieb:
Hochgiftig wohl eher nicht, aber das Treibhauspotential wird ordentlich sein.
Wenn's Novec ist, dann nicht.
valin1984 schrieb:
Wenn die Geräte damit lange laufen, muss die Reinheit des Kühlmittels sichergestellt sein. Kleinste Verunreinigungen des Mediums, die nicht mitverdampfen setzen sich sonst wie Kalk auf der Hardware ab.
Da bist du auf einen guten Punkt gekommen, der relevant wird, wenn man so Systeme mal eine längere Zeit betreibt. Also 1 Jahr+. Das Problem ist aber gar nicht, das sich die Verunreinigungen überall ablagern, sondern das sie dazu tendieren sich an gewissen Stellen ab zu lagern, was dann sehr drastische Folgen hat.
Pitt_G. schrieb:
ob die Kühlwirkung wirklich so gut ist wenn sich da Luftblasen an Hotspots bilden?
Es sind keine Luftblasen, sondern Gasblasen, aber ja das ist eigentlich nicht gewollt. Es gibt dafür aber auch Lösungen, die man bei manchen Systemen auch sieht. Ist die Frage ob sich MS dessen bewusst ist.
Cool Master schrieb:
Ja, benötigt aber auch deutlich mehr Platz und der ist eher wichtiger als Wartungsfreundlichkeit. weniger Platz bedeutet mehr Racks und damit mehr Server, wobei dank AMD kann da heute viel konsolidiert werden.
Also in nem normalen Rechenzentrum mit Doppelboden brauchst du mit der Lösung mehr Platz als mit luftgekühlten Racks. Da bist du ja schon durch Gewicht der Racks oft limitiert, wenn du keine reine Luftkühlung machst und dann sie Racks eh nur halb voll machen kannst...

Cruentatus schrieb:
Es werden alle Bauteile gekühlt, und wenn es heißer wird dann kocht es stärker - womit die Kühlleistung nach oben geht.
Ja, das System ist selbstregulierend.
Cruentatus schrieb:
Ein dichtes Edelstahlbecken für die Server ist kein Hexenwerk - das gibt es z.B. in Form von Waschbecken für ein paar Euro. Sowas ist in der Herstellung völlig unproblematisch. Und alle Anschlüsse gehen ohnehin oben raus.
Wenn's Novec ist, dann ist das Zeug kriechfähig... mit nem Edelstahlbecken ist es da nicht getan. Ums genau zu nehmen ist das Außen Rum sogar ziemlich anspruchsvoll wenn man es wirklich richtig machen will.
Hayda Ministral schrieb:
Und trotzdem ist man von Flüssigkeitskühlung weg und zu Luftkühlung hin gegangen. Warum wohl?
Afaik weil die Alternativen allesamt teurer sind. Kann man machen, macht man aber nicht freiwillig. Und damit ist Wasser bzw. Flüssigkeitskühlung eben nicht "einfach 100 mal besser".
Also Wasserkühlung wird eigentlich in jedem größeren Rechenzentrum inzwischen gemacht. Reine Luftkühlung hat eigentlich keiner mehr. Die Racks sind sonst entweder halb leer oder du machst so Späße wie 5-8 kalte Zuluft... Effiziente Kühlung ist was anderes.

Und ja, mit indirekter Wasserkühlung geht man auf teils 35-40Grad Zuluft hoch, das ist dann aber die Kotzgrenze für die vorletzte Gen. Die Aktuelle wird das schon nicht mehr verpacken.

Und es geht halt auch nur mit Wasserkühlern im Rack, weil die Volumenströme für reine Luft zu groß wären.
kaxi-85 schrieb:
Die Flüssigkeit (zur Kühlung wird kein verflüssigtes Gas genutzt) wird nicht komprimiert und das System arbeitet scheinbar relativ drucklos - sonst könnte man nicht im laufenden Betrieb Komponenten wechseln, siehe Bilder. Der Siedepunkt liegt, wie im Artikel geschrieben, bei 50 Grad, der Kondensationspunkt ergo darunter. Es wird nichts unter Druck "heruntergekühlt" - das Kühlmittel kondensiert am Gehäusedeckel (auf dem vermutlich ein entsprechend großer Wärmetauscher sitzt) und tropft zurück in den Behälter.

Klassischer Fall von "Artikel nicht gelesen"?
Der sitzt hier hinten und ist Teils in der Flüssigkeit, was eigentlich ziemlich suboptimal ist. Aber eventuell wir der mit hoch gezogen wenn man den Deckel schließt. Wobei ich eher nicht davon ausgehe.
rzweinig schrieb:
Davon abgesehen gibt es in dem tank eine Luftschicht wen man das also abschaltet und öffnet entweicht das Gas sofern leichter als Luft in jedem Fall...
Wenn's Novec ist, dann ist es schwerer als Luft
Damien White schrieb:
Da gibt es doch allen ernstes Mitglieder hier die über "Gasblasen" und deren eventuelle negativen Effekte auf die Kühlung diskutieren, was eigentlich nur zeigt, dass die in Chemie voll verpennt haben und nicht mal mit dem Begriff Enthalpie etwas anfangen können. Die "Gasblasen" sind es, was kühlt ...
Das hat mit Chemie eigentlich nichts zu tun, sondern mit Physik, und ja, Blasen im Sinne von großen Blasen haben einen negativen Effekt. Ganz schlimm wird es halt, wenn die Blasen so groß werden, das man zum Filmsieden kommt. Dann ist Schicht im Schacht..
Schaby schrieb:
. Die Hardware muss wärmer als 50°C werden, damit da überhaupt was passiert.
Jup.
Schaby schrieb:
Die Energie die da aufgenommen wird, wird auch wieder abgegeben, d.h. es ist quasi nur das Verschieben der Energie. Es Bedarf also weiterhin konventionelle Kühlmethoden, nur an anderer Stelle.
Ja, man will die Wärmestromdichte erhöhen, damit man mit kleineren Delta T (zu kühlende Objekt vs Kühlmittel) arbeiten kann, alsl das Kühlmittel wärmer sein kann, was die Nutzbarkeit der Abwärme erleichtert.
Schaby schrieb:
Das Kühlsystem muss komplett umgestellt werden und dazu noch ziemlichen Druck aushalten, das bedeutet erhöten Materialeinsatz und somit auch
Na eigentlich nicht. Das Ding muss vielleicht 1.5 Bar aushalten. Mehr nicht, sonst verschiebt sich der Arbeitspunkt und du bekommst noch ganz andere Probleme auf die ich hier mal nicht eingehe. Du brauchst aber definitiv einen Drucksensor sonst baust du dir ne nette Bombe...
DJMadMax schrieb:
Ich kann mir einfach kaum vorstellen, dass ein simpler, sich durch Strom drehenter Ventilator auf einem aus Kupferlamellen bestehenden Kühlelement ineffizienter sein soll, als eine gesamte Serverlandschaft, die in einer Spezialflüssigkeit auf Tauchgang geschickt wird, wobei das siedende Material zusätzlich wieder durch eine weitere Kühlung zum Kondensieren und Rückfließen gebracht werden muss.
Doch er ist ineffizienter, wenn du dir die gesamte Kühlkette anschaust.
Cruentatus schrieb:
Bei 3M auf der Website gibt es auch weitere Infos zum Aufbau der Server/Kühler:

Anhang anzeigen 1064721

Link zum PDF:
https://multimedia.3m.com/mws/media/1798675O/3m-two-phase-immersion-cooling-technical-paper.pdf

Viele Grüße
Da hast du was schönes gefunden. Da sind einige wichtige Punkte drin, die man aber nur erkennt, wenn man weiß wo die Probleme liegen.
D708 schrieb:
aber generell haben Gase ein niedrigeres Volumen als im Aggregatzustand Flüssig.
Ähm genau umgekehrt ;)
Skysurfa schrieb:
Ich finde das Prinzip, der siedenden Flüssigkeit sehr interessant. Ich denke aber, dass man das Ganze vorher aber mal mit seinem Statiker durchsprechen sollte. Da wird schon einiges an Gewicht zusammenkommen. Bei Serverräumen, die nicht im Keller stehen, kann das durchaus ein Problem werden.
Mit dem Statiker musst du eigentlich immer heutzutage bei Rechnerräumen mit klassischem doppelten Boden reden. Ich habe noch kein Upgrade derartiger Rechenzentren in den letzten Jahres gesehen wo man nicht auf die Punkt als auch Flächenlasten achten musste.

Bestückte Racks rein schieben geht eigentlich nie bei high density Racks. Also wo mal wirklich mit 2U4N oder noch Dichter voll bestückt ist. Und selbst beim Betrieb muss oft genug vorher verstärkt werden, oder zumindest Stahlplatzen unter die Racks um die Punktlast zu reduzieren. Und halt die Reihen weit genug auseinander...

Ich halte Doppelböden für völlig ungeeignet für die Zukunft. Das Zeug gehört direkt auf fette Fundament gestellt und gut ist. Dann kann man auch mal auf 50+U gehen.
 
Ich war bisher in ca. 20 RZ (Level3, Equinix + Aufkäufe, Interxion, eigene) und hab noch keines mit Wasserkühlung gesehen.
Von daher behaupte ich mal, dass nicht in jedem größeren RZ mit Wasserkühlung gearbeitet wird.
Allerdings war das immer Mischbetrieb (Colo und/oder Housing und/oder Hosting) und kein "ich bin MS/Amazon/FB und bau jetzt mal 10k identische Server für mein Produkt x auf".

Braucht man denn überhaupt noch den Unterboden in der klassischen Form (also 60x60cm Platten lose verlegt auf Stahlstelzen) wenn man keine Luftkühung macht?
Strom könnte man sicher auch mit auf die Trassen packen, Netzwerk haben die meisten eh oben, die Wasser-/Kühlmittelleitungen könnte man oben rauf packen oder ggf. auch Kanäle direkt in den Betonboden bauen (also ne kleine Rinne im Gang).
 
Blutschlumpf schrieb:
kein "ich bin MS/Amazon/FB und bau jetzt mal 10k identische Server für mein Produkt x auf".
Siehst du! Das ist der springende Punkt dabei. In einem solchen Rechenzentrum muss nun mal auf höchste Kompatibilität geachtet werden und die laufenden Kosten werden auf die Kunden umgesetzt.

Wenn du eigene Rechenzentren aufbaut und so viel Geld im Jahr sparen kannst, gestaltet man das RZ auch entsprechend und gerade bei Anbietern wie Microsoft, Amazon oder Google geht es da nicht um ein paar, sondern um hunderte Rechenzentren, da kann man dann auch die Hardware an das RZ anpassen und nicht umgekehrt.
 
Blutschlumpf schrieb:
Ich war bisher in ca. 20 RZ (Level3, Equinix + Aufkäufe, Interxion, eigene) und hab noch keines mit Wasserkühlung gesehen.
Von daher behaupte ich mal, dass nicht in jedem größeren RZ mit Wasserkühlung gearbeitet wird.
Allerdings war das immer Mischbetrieb (Colo und/oder Housing und/oder Hosting) und kein "ich bin MS/Amazon/FB und bau jetzt mal 10k identische Server für mein Produkt x auf".
Solche Rechenzentren bieten sich dafür ja auch nicht wirklich an, vor allem ist die Hardware da ja meist eh am ideln... aber auch da bietet sich indirekte Wasserkühlung durch Back Doors Heatexchanger an. Damit kann man halt raumneutral kühlen, oder die Last zumindest weit unten halten. Geschlossene Racks sind aber natürlich besser. Wir haben das inzwischen bei einigen Kunden im Einsatz.
Blutschlumpf schrieb:
Braucht man denn überhaupt noch den Unterboden in der klassischen Form (also 60x60cm Platten lose verlegt auf Stahlstelzen) wenn man keine Luftkühung macht?
Naja, die meisten Rechenzentren sind ja schon ein paar Tage alt und selbst heute werden so ja noch welche gebaut. So lange die Packdichte nicht zu hoch ist, ist das ja auch ok.
Blutschlumpf schrieb:
Strom könnte man sicher auch mit auf die Trassen packen, Netzwerk haben die meisten eh oben, die Wasser-/Kühlmittelleitungen könnte man oben rauf packen oder ggf. auch Kanäle direkt in den Betonboden bauen (also ne kleine Rinne im Gang).
Naja, Wasser über Stromführenden Teilen ist nicht sehr cool. Das will man schon vermeiden.

Zudem hat man von Oben echt schnell ein Problem mit der Raumhöhe. Die Packdichte ist dann ja höher. Man braucht also mehr Platz für alle Art von Kabeln und gerade die Stromschienen nehmen dann schon viel Platz weg.
xexex schrieb:
Siehst du! Das ist der springende Punkt dabei. In einem solchen Rechenzentrum muss nun mal auf höchste Kompatibilität geachtet werden und die laufenden Kosten werden auf die Kunden umgesetzt.
Wobei witzigerweise gerade AWS etc noch auch klassische Luftkühlung setzen und die Racks lieber nicht so voll machen. Nimmt aber inzwischen wohl schon sehr extreme Züge an, dass die Racks halb leer sind. Die haben aber halt auch das Problem, das ihre bestehenden Rechenzentren halt so ausgelegt sind und man das nicht einfach ändert. Und bisher hatte man auch lieber das neue Rechenzentrum wie die alten gebaut. Das ändert sich aber wohl inzwischen.
 
Naja, Wasser über Stromführenden Teilen ist nicht sehr cool. Das will man schon vermeiden.
Nach der Logik solltest du gar keine Wasserkühlung nutzen. ;)
Ist da (bei dem was ihr baut) überhaupt Wasser drin oder irgendein (evtl. sogar nicht leitendes) Kühlmittel?
 
Nein, da ist schon Wasser drin, aber es macht halt nen großen Unterschied, ob du Schnellverschlüsse an nem Arm dicken Schlauch hast, der beim Kuppeln auch ein paar Teopfen verlieren darf, oder an Finger dicken Schläuchen, die nicht tropfen können.

Und auch bei nem Leck ist es halt nen Unterschied, ob dir das Wasser auf die Stromschiene tropft bei nem Leck oder aufs Rack oder nur in den Unterboden.

Wenn's auf die Stromschiene tropft kannst schon knallen, wenn ja 1MW drüber rauschen. Da kannst dich auch den Mittel/Hochspannungstrafo kosten. Beim Leck im Rack fliegt halt die Sicherung im Abganhmgskasten Weg.
 
Skysnake schrieb:
Also Wasserkühlung wird eigentlich in jedem größeren Rechenzentrum inzwischen gemacht. Reine Luftkühlung hat eigentlich keiner mehr.
Ok, meine direkten Erfahrungen liegen da schon etwas zurück. Vor zwei, drei Jahren waren die drei afaik größten deutschen RZ (Hamburg, Frankfurt, Biere) nicht auf Wasserkühlung der Server ausgelegt/umgerüstet.

Wieviele große RZ mit Wasserkühlung kennst Du von Innen?
 
70 von 15, das ist mal ne Quote. So zählt man auch "Wahl"ergebnisse in Afrika. :D

Was für Server nimmt man da?
Bauen Dell, HP und co bei ausreichender Bestellung direkt mit Wakü, sind das alles Spezialanfertigungen oder werden dann 0815 Server umgebaut?
Was macht ihr mit Equipment welches es nicht mit direkter Wakü gibt? Ich denke da jetzt z.B. an Switches.
Fällt das direkt aus der Auswahl, läuft das unter "egal, die paar Watt jucken keinen" oder haben die Racks dann zusätzlich noch ne Belüftung für das Lukü-Equipment?
 
Blutschlumpf schrieb:
70 von 15, das ist mal ne Quote. So zählt man auch "Wahl"ergebnisse in Afrika. :D
Das sollte ein % statt + sein..
Blutschlumpf schrieb:
Was für Server nimmt man da?
2U4N oder direkt Eigenentwicklungen. Siehe Lenovo, Cray/HPE
Blutschlumpf schrieb:
Bauen Dell, HP und co bei ausreichender Bestellung direkt mit Wakü, sind das alles Spezialanfertigungen oder werden dann 0815 Server umgebaut?
Ich denke dir ist klar, das man über sowas nicht redet oder? ;)
Blutschlumpf schrieb:
Was macht ihr mit Equipment welches es nicht mit direkter Wakü gibt? Ich denke da jetzt z.B. an Switches.
Fällt das direkt aus der Auswahl, läuft das unter "egal, die paar Watt jucken keinen" oder haben die Racks dann zusätzlich noch ne Belüftung für das Lukü-Equipment?
Wie gesagt, mit backdoor Kühler, vor allem aber sidecooler und geschlossenem Rack kann man schon sehr weit kommen. Da kann man dann ja auch Standardhardware verwenden, so lange man mit den Temperaturen nicht zu hoch geht.

Mit direkter Wasserkühlung hat man halt den Vorteil, das ein Großteil der Wärme (von den CPUs/GPUs what ever) im Wasser landet. Für den Rest reicht dann entweder die Raumlüftung oder maximal nen Sidecooler, wenn man nicht wie Cray/HPE direkt alles custom macht und damit auch mit direkter WaKü.

Und ja, das ist aus einem gewissen Bereich raus, der keine Webhoster umfasst. Aber das hatte ich ja auch direkt so gesagt. Auch die ganz kleinen machen das nicht. Wenn du aber so nen 0.5, eher 1MW+ Rechenzentrum hast, in dem du wenige große Maschinen hast. Zumindest direkte Wasserkühlung kannst du sonst schon vergessen. Das erfordert ja schon gewisse Umbauten. Bei Backdoor oder Sidecooler hat man das Problem nicht wirklich. Da muss man sich halt nur klar sein, das so bei knapp 30-40kW pro Rack Schluss ist. Aber das ist ja schon viel mehr als die 20kW mit reiner Luftkühlung und Einhausung.
 
Zuletzt bearbeitet:
Ja und ob direkt oder indirekt hat mehr damit zu tun, wie die Temperaturen vom Wasser, was durch die Infrastruktur von RZ abhängt, als auch der Statik vom RZ zu tun. Wenn die Wassertemps niedrig genug sind und die Racks eh nicht voll gemacht werden dürfen, weil ansonsten zu schwer, dann kann man die Kostengünstigere Lösung wählen.

Backdoor exchanger habe wir glaub nirgends im Einsatz. Sidecooler in 7 direkt in mindestens 4.

Es kommt ja darauf an, ob du mit klassischer RZ Luftkühlung das hinbekommen könntest oder nicht. Und ich kann dort sagen, in unseren Fällen wären 100% nicht mal mit Backdoor cooler gegangen.

Ne XC40 Cray tut auch nicht ohne Wasser, ist aber auch ne indirekte Wasserkühlung.
 
Skysnake schrieb:
Da bist du auf einen guten Punkt gekommen, der relevant wird, wenn man so Systeme mal eine längere Zeit betreibt. Also 1 Jahr+. Das Problem ist aber gar nicht, das sich die Verunreinigungen überall ablagern, sondern das sie dazu tendieren sich an gewissen Stellen ab zu lagern, was dann sehr drastische Folgen hat.
Richtig. Ablagerungen wird es da geben, wo auch die Verdampfung stattfindet. Dieses Scaling könnte die physikalischen Eigenschaften der Betroffenen Bauteile beeinträchtigen (leitend / isolierend, je nach Belag) und vor allem wirkt es wie eine isolierende Schicht, die die Kühlfunktion verringert.

[/Abschweifen]
Als damals das Reaktorunglück in Fukushima stattfand hatte man Riesenprobleme damit die Reaktoren mit Meerwasser zu Kühlen, weil das Salz aus dem Wasser eine steinharte Isolier-Schicht draufgebacken hätte... Ich weißt gar nicht mehr, wie das am Ende gelöst wurde...
[/Abschweifen Ende]
 
valin1984 schrieb:
Richtig. Ablagerungen wird es da geben, wo auch die Verdampfung stattfindet. Dieses Scaling könnte die physikalischen Eigenschaften der Betroffenen Bauteile beeinträchtigen (leitend / isolierend, je nach Belag) und vor allem wirkt es wie eine isolierende Schicht, die die Kühlfunktion verringert.
Die Probleme sind nicht da wo es verdampft, sondern an anderer Stelle, aber ich will mal nicht den Leuten den Spaß nach 1-2 Jahren Betrieb vereiteln.
valin1984 schrieb:
Als damals das Reaktorunglück in Fukushima stattfand hatte man Riesenprobleme damit die Reaktoren mit Meerwasser zu Kühlen, weil das Salz aus dem Wasser eine steinharte Isolier-Schicht draufgebacken hätte... Ich weißt gar nicht mehr, wie das am Ende gelöst wurde...
Wenn ich mich recht erinnere hat man es am Anfang ignoriert, weil das kleinere Problem und später hat man Entsalzungsanlagen genommen. Zumindest ist das meine Erinnerung
 
Skysnake schrieb:
Ich denke dir ist klar, das man über sowas nicht redet oder?
Ich sehe ehrlich gesagt keinen Grund das nicht zu tun weil ich da keine Antwort erwarte die auch nur Ansatzweise geheime Informationen enthalten würde.
Es sei denn du lädst den Vertrag dazu hoch aus dem hervorgeht was ihr zuletzt zu welchem Preis gekauft habt. ;)
Bei HP finde ich wassergekühltes Equipment auf der Homepage, allerdings macht die nicht gerade nen aktuellen Eindruck (G9 mit Haswell).
Bei Dell finde ich den Poweredge C6420.
Das ganze macht jetzt auf mich eher nicht den Eindruck, dass sich da kurzfristig was in der breite durchsetzen wird, das scheint eher den Status wie ein Wasserstoffauto zu haben. Jeder hat mal eins gebaut, jeder 2. hat eins im Programm, aber im Grunde ist es ein totales Nischenprodukt und auf der Straße sieht man die Dinger nicht.
 
  • Gefällt mir
Reaktionen: Hayda Ministral
Die Zulieferer wird dir niemand nennen, wobei an sich klar ist, das es zumindest in unserem Teil der Branche nur wenige Zulieferer gibt und es sogar einen gibt, der viele beliefert. Aber das muss der Kunde ja nicht wissen, sonst könnte er ja auf komische Ideen kommen.

Wie gesagt, wakü ist jetzt in unserem Bereich eigentlich Standard geworden.

CRAY/HPE
Lenovo
Bull-Atos
IBM
Sugon
Megware
NEC
RSC Group
Mellanox

Die machen alle direkte Wasserkühlung. Man bekommt bei allen aber auch noch klassische Luftkühlung, weil es halt noch mehr als genug alte Rechenzentren gibt. Dann sinkt aber halt die Dichte der Racks und sowas wie ne große Cray gibt es halt einfach nicht ohne Wasser.

Bei Netzwerken sieht man eigentlich keine Wasserkühlung, weil die Energiedichte da nicht so hoch ist. Das fällt also unter den Teil, den man halt trotzdem noch an Luftkühlung braucht. Gibt aber von Mellanox auch director switchen mit Wasserkühlung. Und beibden high density Lösungen von Cray/HPE oder Bull-Atos hast du die Switche in die Lösung integriert und dann werden die auch direkt mit Wasser gekühlt. Die kannst du aber natürlich nicht einfach so kaufen.

Und das wird in den nächsten Generationen sicherlich noch schlimmer werden weil die TDP aktuell scheinbar auch nur den Weg nach oben zu kennen scheint.

Und btw wenn du bei HP suchst, dann kannst du auch nichts finden. Die machen nur Drucker...

Du musst bei HPE schauen unter XC oder EX oder Apollo 2000/8000er Serie. Dann findest du die Lösungen mit Wasserkühlung.

Sind in der Regel aber alles Lösungen die zum tragen kommen wenn du 500+ Server Systeme hast. Also monolitische Systeme und nicht überhaupt. Bei kleiner lohnt sich in der Regel nicht der Aufwand für direkte Wasserkühlung. Wenn es nur um einzelne Racks geht, nimmt man halt Sidecooler oder eventuell Backdoor cooler. Da kann man dann auch einfach Mischbetrieb der Hardware machen.
 
Zuletzt bearbeitet:
Zurück
Oben