News Hat die GeForce 8800 GT ein Temperaturproblem?

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.729
son müll :D wer braucht den ne graka wo man 5 gehäuse lüfter einbaun muss... aber evt werden dann ja evt erste Grakas mit Wasserkühlung als Standart kommen
 
ist halt ein singelslotkühler, der die wärme nicht "rauspustet". ich hab gelesen, dass der chip thermisch gesund ist und es eher am kühlkörper/lüfter liegt.

vll ist das gar nicht so schlecht, wenn dann auch modelle mit selbsentwickelten dual-slot kühlern auf den markt kommen ;)
 
Werden die G92 nicht in weniger nm gefertig? dann müsste ja auch die Abwärme geringer sein! Ich mach mir da jetzt nicht alzugroße sorgen da Nvidia in letzter zeit wirklich sehr gut kühllösungen angeboten hat.
 
naja das hoert sich aber wirklich nicht gut an. Sowas sollte konzernen wie NVidia und ATI nicht passieren. Zudem glaub ich nicht das es moeglich ist eine gute singleslot kuehlung zu bauen jenseits der midrange. Selbst da ist es ja schon sehr schwer. Oder sehr teuer.

mal sehen was kommt
 
ich denke mal, dass der hipe darum im moment zu früh kommt. immerhin handelt es sich ja anscheinend um ein referenzmodel, vllt. kommt ja noch eine 2-slot-kühllösung, die das ganze problem dann händeln kann.
 
Die Bilder vom Kühler sehen in der Tat eher "niedlich" aus. Sofern realisierbar, sind Single-Slot-Lösungen ideal. Außerdem finde ich, dass der Kühler ganz gut aussieht. Elegant.

Mich wundert es, dass sie da nicht einfach den 8800 GTS-Kühler draufgeschmissen haben. Die Karten sind schließlich (zumindest dem Anschein nach) aus der selben Klasse.
 
Ich frage mich, warum sowas nicht im Vorfeld getestet werden kann? Die basteln doch solche Karten bzw. Lüfter nicht einfach ins Blaue hinein?! Sehr merkwürdig... :freak:
 
Es gab damals bei der Geforce 6800 von Leadtek eine 1-Slot Variante mit dicken Kupferkühler vorne und hinten und zusätzlich noch einen Lüfter vorne. (Siehe Link)
http://www.leadtek.com/de/3d_graphic/overview.asp?lineid=1&pronameid=187

So etwas denke ich könnte man doch auch für eine 1-Slot Lösung dieser 8800GT Karte umsetzen, oder nicht?

Ich selber habe diese Leadtek Karte in meinem Rechner damals gehabt und war mit den Temperaturen eingentlich im großen und ganzen zufrieden.
 
Hm... der Singleslotkühler ist aber einfach verdammt schick. Aber bevor dann in einem Singleslotkühler der Lüfter wer weiß wie schnell dreht und krach macht, vllt doch lieber eine Dualslot-lösung. Interesant wäre es in der Tat, wenn die Hersteller sich selbst was einfallen lassen würden:D
 
Es wird doch wohl nicht so schwer sein einen anständigen, leisen und billigen Referenzkühler zu entwickeln. bei 65nm müsste der kühler doch eig. reichen
 
Früher oder später müssen sie auf die Dualslot-Lösung umsteigen, weil sich bei der singleslot-Lösung die Casetemperatur extrem ansteigt.
 
Kann ich mir fast nicht vorstellen...65nm@600MHz bei vermutlich eher moderater Transistorzahl(also <<G80) sollten von der Verlustleistung her nicht kritisch, sogar eher konservativ sein. Könnt sonst fast eher ein Kartendesignfehler sein, zB in der Spannungsversorgung...
 
Sie wollen schauen, wie sich die Karte bei mehreren Tagen Dauerbetrieb verhält. Ich kann mir nicht so recht vorstellen, dass das in der Realität erreicht wird (zumindest nicht von dem größten Teil der Leute) bzw. hoffentlich werden die Temperaturen (im Case) bei "normalen" Betrieb nicht auch schon erreicht.
 
würde ein AL 100 nur als Kupfer Variante nich auch reichen von Zalman ? (der Kühler is auch auf der HIS 2600XT vervaut.)
 
So ein flexibler airduct (sprich, Gummistrumpf) den man von dem single-slot-lüfter-ausgang über nen 80mm Gehäuselüfter an der Türinnenseite spannen könnte, wär natürlich eine revolutionäre Erfindung... Mich wundert's, dass das noch niemand ausprobiert hat - den braucht man ja nur alternativ beilegen...
 
Ich halte die Kuehlloesung eher fuer Suboptimal.
Der kleine Luefter wird wohl ein Schreieisen sondersgleichen sein.

Da legt man lieber 20 Euro drauf und holt sich eine 8800 gts mit ueberlegenerem Kuehlkonzept.


greetz
 
ich frage mich immer wieder, wie soetwas passieren kann. das ist in meinen augen einfach nur dummes management. wer zum teufel ist denn sonst so dumm, das er die abwärme seiner chips nicht richtig berechnen könnte?! so einen fehler kann ich einfach nicht verstehen.

nungut, immerhin ist das ding noch nicht gelauncht. insofern nur ein kleines problem. und obs war ist weiß auch noch keiner. aber wenn, dann kann ich echt nur den kopf schütteln.

so long and greetz
 
Wann kapieren es endlich die newsseiten im netz, dass man auf The Inquirer berichte keinen müden cent setzen darf.
Ich finde es schon strafbar, immer und immer wieder diese falschaussagen zu zitieren.
 
Zurück
Oben