Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Die Hitzeentwicklung moderner Grafikkarten steigt immer weiter und es ist kein Ende in Sicht. Mit den Next-Generation-GPUs wird die Leistungsaufnahme und somit der zu kühlende Chip sicherlich auch nicht geringer werden, weswegen die Grafikkartenhersteller immer bessere Kühllösungen entwickeln müssen.
Ich schätze mal, dass diese "Diamantenähnliche Oberfläche" eine schicht aus Graphit ist und das ist natürlich echt sensationell!
Korrosion innerhalb eines PCs wird wohl kaum an einem Kupferkühlkörper beginnen, sondern zunächst z.B am viel unedleren Lötzinn oder Eisen des Gehäuses. Deswegen dürfte das korrosionsschutz Argument wohl eher schwachsinn sein.
Wiso packen die nicht ein paar Künstliche Diamanten (wie z.B auf Werkzeugen) auf die Oberfläche das würde sicherlich mehr bringen als eine Graphit-Schicht.
Ein Freund von mir arbeitet bei Hilti. Die beschichten die Werkzeuge zwar aus ganz anderen Gründen mit einer Diamant Schicht, allerdings ist die Sache trotzdem schweineteuer.
Klingt interessant, um Nanocarbon-Kühler ists nach der ersten Euphorie ja ziemlich ruhig geworden... ich frag mich nur, wie teuer die damit beschichteten Kühler werden.
korrodierende Grafikkartenkühler sind uns allerdings noch nicht untergekommen
Gutes Beispiel. Vergleiche einfach mal den Preis eines Trennschleifers von Hilti mit einem von Bosch.
Also ich würde für 5°C weniger keine 50 Euro mehr zahlen. Wobei 50 Euro nur ein eher geringer Schätzwert bei einer Beschichtung mit kleinen künstlichen Diamanten ist.
Nein keineswegs. Hast Du schon einmal das Innere eines PC´gesehen der am Äquator steht, feucht warme Luft dazu evtl noch am Meer, da kannst Du Dir alle 6 Monate neue Hardware Kaufen. Das ist kein Scherz.Selbst TV Geräte "verrotten" da regelrecht. Alles elektronische geht da viel schneller kaputt als hier bei uns.
Also den Kontakt mit dem Kühler zu verbessern, dazu hat es erst vor kurzem von IBM auch einen Ansatz gegeben (Wärmeleitpaste nicht als glatte Schicht sondern in Rillenmustern auf zutragen) den ich im Vergleich dazu sinnvoller finde, wenn man die Kosten und den Aufwand bedenkt.
Aber was nützt das Ganze wenn der Kühler selbst die Wärme nicht besser an die Umgebung abgibt. Ich sehe eher hier das Problem als bei der Verbindung zwischen Chip und Kühler.
Was das angeht hatte ich mal große Hoffnung das eine Technik die Saphire entwickelt hat (Flüssigmetallkühler) das ganze Problem ein für allemal lösen könnte, aber das ist scheinbar auch im Sand verlaufen.
Ich hatte vor einiger Zeit in meinem System eine 9500 GT (passiv) verbaut und muss sagen das die Karte in keiner Situation in den Temperaturbereich von 83 bzw 88°C gekommen ist.
Darüber hinaus arbeitet Fujitsu derzeit an Kühlkörpern, die aus Nanoröhren bestehen. Fujitsu möchte die neuen Kühlkörper erst einmal für ihre GSM-Basisstationen einsetzen. In Zukunft könnten die Nanoröhren aber auch als CPU-Kühler eingesetzt werden.
Das die Wärmeleitfähigkeit von CNT sogar gegenüber Diamant noch um das 2-2,6fache besser ist (je nach Quelle in Wiki), wäre das die optimalste Lösung. Denn CNT lassen sich weitaus billiger herstellen als Diamanten. Es stellt sich halt nur noch die Frage, wie teuer dann ein richtiger CPU-Kühler werden würde.