Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsHat die GeForce 8800 GT ein Temperaturproblem?
Nachdem die ersten Bilder der neuen G92-Grafikkarten seit einigen Tagen bekannt sind und diese eine Kühllösung im Single-Slot-Design zeigen, rumoren die Gerüchte, was die Temperaturen der Grafikkarte angeht. The Inquirer will nun erfahren haben, dass Nvidia einige PC-Hersteller angeschrieben hat.
son müll wer braucht den ne graka wo man 5 gehäuse lüfter einbaun muss... aber evt werden dann ja evt erste Grakas mit Wasserkühlung als Standart kommen
ist halt ein singelslotkühler, der die wärme nicht "rauspustet". ich hab gelesen, dass der chip thermisch gesund ist und es eher am kühlkörper/lüfter liegt.
vll ist das gar nicht so schlecht, wenn dann auch modelle mit selbsentwickelten dual-slot kühlern auf den markt kommen
Werden die G92 nicht in weniger nm gefertig? dann müsste ja auch die Abwärme geringer sein! Ich mach mir da jetzt nicht alzugroße sorgen da Nvidia in letzter zeit wirklich sehr gut kühllösungen angeboten hat.
naja das hoert sich aber wirklich nicht gut an. Sowas sollte konzernen wie NVidia und ATI nicht passieren. Zudem glaub ich nicht das es moeglich ist eine gute singleslot kuehlung zu bauen jenseits der midrange. Selbst da ist es ja schon sehr schwer. Oder sehr teuer.
ich denke mal, dass der hipe darum im moment zu früh kommt. immerhin handelt es sich ja anscheinend um ein referenzmodel, vllt. kommt ja noch eine 2-slot-kühllösung, die das ganze problem dann händeln kann.
Die Bilder vom Kühler sehen in der Tat eher "niedlich" aus. Sofern realisierbar, sind Single-Slot-Lösungen ideal. Außerdem finde ich, dass der Kühler ganz gut aussieht. Elegant.
Mich wundert es, dass sie da nicht einfach den 8800 GTS-Kühler draufgeschmissen haben. Die Karten sind schließlich (zumindest dem Anschein nach) aus der selben Klasse.
Ich frage mich, warum sowas nicht im Vorfeld getestet werden kann? Die basteln doch solche Karten bzw. Lüfter nicht einfach ins Blaue hinein?! Sehr merkwürdig...
Hm... der Singleslotkühler ist aber einfach verdammt schick. Aber bevor dann in einem Singleslotkühler der Lüfter wer weiß wie schnell dreht und krach macht, vllt doch lieber eine Dualslot-lösung. Interesant wäre es in der Tat, wenn die Hersteller sich selbst was einfallen lassen würden
Es wird doch wohl nicht so schwer sein einen anständigen, leisen und billigen Referenzkühler zu entwickeln. bei 65nm müsste der kühler doch eig. reichen
Kann ich mir fast nicht vorstellen...65nm@600MHz bei vermutlich eher moderater Transistorzahl(also <<G80) sollten von der Verlustleistung her nicht kritisch, sogar eher konservativ sein. Könnt sonst fast eher ein Kartendesignfehler sein, zB in der Spannungsversorgung...
Sie wollen schauen, wie sich die Karte bei mehreren Tagen Dauerbetrieb verhält. Ich kann mir nicht so recht vorstellen, dass das in der Realität erreicht wird (zumindest nicht von dem größten Teil der Leute) bzw. hoffentlich werden die Temperaturen (im Case) bei "normalen" Betrieb nicht auch schon erreicht.
So ein flexibler airduct (sprich, Gummistrumpf) den man von dem single-slot-lüfter-ausgang über nen 80mm Gehäuselüfter an der Türinnenseite spannen könnte, wär natürlich eine revolutionäre Erfindung... Mich wundert's, dass das noch niemand ausprobiert hat - den braucht man ja nur alternativ beilegen...
ich frage mich immer wieder, wie soetwas passieren kann. das ist in meinen augen einfach nur dummes management. wer zum teufel ist denn sonst so dumm, das er die abwärme seiner chips nicht richtig berechnen könnte?! so einen fehler kann ich einfach nicht verstehen.
nungut, immerhin ist das ding noch nicht gelauncht. insofern nur ein kleines problem. und obs war ist weiß auch noch keiner. aber wenn, dann kann ich echt nur den kopf schütteln.
Wann kapieren es endlich die newsseiten im netz, dass man auf The Inquirer berichte keinen müden cent setzen darf.
Ich finde es schon strafbar, immer und immer wieder diese falschaussagen zu zitieren.