Warum nicht auf 85 °C laufen lassen?

Der TE hinterfragt doch nur eine "Empfehlung" für die es ansich keine Beweise gibt. Natürlich kann man die CPU mit einem Chiller dauerhaft unter Raumtemp halten, um die Lebensdauer zu erhöhen, aber wofür das Ganze?

Man sagt, dass 10K Temperaturerhöhung die Lebensdauer von Halbleitern in etwa halbieren, was aber bei sehr vielen Dingen im Alltag ähnlich zutrifft. Von daher hattest du mit deinen ausgedachten Werten sogar gar nicht so unrecht :D
 
Bin mal nach kurzem googeln auch auf ein paar Zahlen gestoßen. Bei GPUs findet man solche tests mitlerweile sogar öfters. Also wenn man den CPU lang genug betreibt bezahlt sich die besser Kühlung irgendwann selbst :)
 
Höhere Temperatur erhöht die Elektromigration. Die EM lässt deine CPU altern.
Deine Werte sind etwas hoch gegriffen.
Ich schätze die durchschnittliche Lebenserwartung bei 32nm CPU's auf 10 Jahre bei <60° und 18-22 Monate bei 85° Dauerbetrieb.
 
Da ist imho der Beweis:

Leistungsstarker Kühler:
http://www.comtech.de/Arctic-Cooling-CPU-Kuehler-Freezer-Extreme-Rev.2_detail_20792.html?sPartner=2

und guter Lüfter:
http://www.comtech.de/Be-Quiet-Silent-Wings-USC-120mm-Gehaeuseluefter_detail_41920.html

Macht zusammen 35,00 Euro...

Es ist doch egal, ob es einen verifizierbaren Unterschied zwischen 60 oder 85 Grad gibt,

bei 35 Euro muss doch imho keine überlegen, ober er die CPU mit dem Boxed Kühler

bei 85 Grad schmoren lässt, oder ob er "vernünftig" kühlt...
 
Zuletzt bearbeitet:
@Audi: Warum nicht gleich nen Hr-02 Macho? Kühlt viel besser, hat einen guten und leisen 140mm PWM Lüfter und kostet bei euch in D ab 33,40,-
http://geizhals.de/664436
 
Ja, hast recht, war nur ein Beispiel von mir;)
 
ihr könnt gerne noch 20 mal posten, dass man für 35 euro eine relativ gute kühlung hinkriegt.
das ist nur deutlich unter dem budget, das ich für den kühler meines nächsten systems geplant habe und auch nicht relevant für die hier diskutierte frage...

höhere temperaturen lassen sich nunmal immer leiser kühlen.

danke für den link Halo20, man kann also grob 1 watt pro 1 kelvin differrenz rechnen.

erfahrungswerte zu intel-cpus, die gestorben sind, wären noch interessant.
 
Gibts wenig. Vor allem wenig, was einen Zusammenhang mit der Temperatur herstellt. Die aktuellen CPUs wie Sandys scheinen eher auf Spannung allergisch zu sein; Temperatur ist da eher egal. Nicht ohne Grund fahren die meisten Notebooks in Temperaturbereiche von 90°C rauf, wenn man die CPUs auslastet. Weils egal ist. Apple hat ja auch kein Problem damit, seine Macbooks regelmäßig drosseln zu lassen. Das funktioniert, und die Lebensdauer einer heißen CPU sollte wohl nicht gravierend geringer sein als die einer "kalten".

Im Gegenzug verleitet eine gute Kühlung dazu der CPU mehr zu zu muten, als sie leisten mag. Das äußert sich dann darin, dass die Leute hier im Forum gerne mal 1,4V an einen i5 anlegen, der noch dazu auf 5 GHz getaktet ist. Da gehen mal locker flockig so um die 150-200W durch die CPU raus, und das ist auf Dauer "nicht gut". Auch hiere ists wieder sehr schwer zu sagen woran die CPUs sterben; Fakt ist aber, dass es einige Chips gibt die gestorben sind, oder zumindest drastisch schlechtere OC Eigenschaften erzielen. Teilweise ist das ganze binnen 2-3 Tagen Benchen passiert - wenn eben übertrieben wurde. Um da eine klare Tendenz ans Tageslicht zu fördern müsste man wohl eine ziemlich groß angelegte Studie machen; den Aufwand wird sich aber niemand hier antun. Das passiert bei manchen MB-Herstellern, aber die Resultate sieht man selten. Ein kleiner Ausblick darauf, wie unterschiedlich das ausfallen kann:
http://www.xtremesystems.org/forums...e-your-degradation-reports-on-the-2500K-2600K

Die Leistungsaufnahme steigt mit der Temperatur, ganz klar. Allerdings sollte man den Effekt nicht überschätzen; die Leistungsaufnahme des Systems im Link von Halo20 ist extrem hoch. Meine Erfahrung ist dass bei meinem i5 2400 @ Stock mit Offset -0,15V die Leistungsaufnahme um etwa 15W steigt, bei einem delta von ca. 25 °C zwischen Anfang und Ende des Tests. Allerdings drehen mit der Zeit dann auch ein paar Lüfter hoch; das erhöht natürlich die Leistungsaufnahme! Ich würd im Normalbetrieb von etwa einem halben Watt pro Kelvin ausgehen.

Ich persönlich nutze einen kleinen, relativ schwachen Tower mit einem 92mm Lüfter; der dreht auf maximal 1400 U/min im Betrieb - das ist relativ leise, CPU bleibt um die 60 °C rum. Gerade an den Sandys brauchts kaum Kühlung!

Anders ist das bei den Phenom II, deren Temperatursensoren stimmen überhaupt nicht. Bei angezeigten 65°C kann es gut sein, dass die CPU schon an den 100 °C kratzt - und zwar außen am Heatspreader, im Kern ists noch heißer. Daher sollte bei denen tatsächlich drauf geachtet werden, dass die Temperaturen nicht über 60 °C gehen.

mfg
 
Ich betreibe seit 1,5 Jahren einem Phenom2 und kratze jeden Tag an den 60°C Bisher konnte ich keine Probleme damit feststellen.
 
Wenn man es schaffen würde, die CPU ziemlich konstant auf 85° zu halten, wäre das ideal, weil der Wirkungsgrad aller relevanten Kühllösungen mit steigendem Temperaturunterschied steigt, d.h. der Rechner könnte leiser betrieben werden.

Dummerweise müßte dazu die Kühlung sehr stark und schnell regeln, da die Abwärme der CPU je nach Last extrem schwankt. Ein schnell geregelter Lüfter nervt leider deutlich mehr als ein halbwegs gleichmäßig laufender Lüfter. Deshalb ist es praktischer, die Kühlung so auszulegen, daß die CPU nur im Hochlastfall nah an ihrer Maximaltemperatur arbeitet.

Wer die Kühlung so überdimsioniert, daß die CPU selbst bei Hochlast nur handwarm wird, ist ein Spielmatz. Es sei denn, die CPU ist übertaktet und arbeitet bei ihrer vom Hersteller vorgesehenen maximalen Betriebstemperatur bereits fehlerhaft.

Halo20 schrieb:
Bin mal nach kurzem googeln auch auf ein paar Zahlen gestoßen.
Dieser Test mit konstanter Spannung ist IMHO nicht wahnsinnig sinnvoll. Dank der bei steigender Temperatur steigenden Strömen könnte man die CPU bei höherer Temperatur mit etwas niedrigerer Spannung betreiben und so den im verlinkten Test ermittelten Mehrverbrauch senken. Sobald eine Mindestspannung erreicht ist (deutlich tiefer als was da anliegt), dient die noch höhere Spannung dem Chip nur dazu, Mindestströme zu erreichen, um die Schaltwerke bei vorgegebenem Takt ausreichend schnell funktionieren zu lassen. Ob man für diese Ströme durch mehr Spannung oder durch höhere Temperatur sorgt, ist egal. (Ja, es gibt noch Nebeneffekte.)
 
Zuletzt bearbeitet:
Ihr sagt das 70°C in Ordnung sind ich mach mir sorgen das mein übertakteter bei Bf3 auf 67°C kommt. Freut mich das zu lesen =D.

Aus meiner Erfahrung veralten die Prozessoren so schnell das die Lebensdauer bei hohen Temperaturen noch immer die jährliche Benutzung des Prozessors übersteigt.

MfG

Andrej1990
 
Einer meiner ersten selbstgekauften Prozessoren war ein AMD XP 2000+. Er geht heute noch und hatte im Betrieb nie unter 60°. Der AMD XP 2500+ (Barton), den ich mir danach kaufte, lief vom ersten Tag an auf 3200+. Irgendwann habe ich ihn in einen Barebone gebaut, dort erreicht er wegen der schlechten Kühlung unter hoher Last (Kernel compilen, Spiele etc.) über 70°. Auch dieser Prozessor geht noch heute, ich benutze ihn jedoch schon lange nicht mehr. Mein Q6600 ist inzwischen 4 Jahre alt, war vom ersten Tag an übertaktet (von 2,4 auf 3,2 GHz, später auf 3,5), kratzte unter Last immer an den 70° und funktioniert noch, ist aber ebenfalls ausgetauscht..

Ich kann die Gedanken des Threaderstellers nachvollziehen. Selbst mein uralter AMD K6-2 mit 350 MHz funktioniert noch, und bei meinen ersten Übertaktungsexperimenten mit dem XP 2000+ war ich jung, dumm und unvorsichtig, dennoch ist nie etwas passiert. Bei meinem jetzigen Prozessor (i7 2600k) sind die Temperaturen niedrig wie nie, ich habe die Lüfter (2x120mm Scythe SlipStream) soweit runtergeregelt wie möglich. Auf 4,5 GHz komme ich so mit Prime auf 61°. Aufgrund meiner bisherigen Erfahrungen, was die Temperatur anbelangt, werde ich sehen, was ich noch aus dem i7 herauskitzeln kann. Bis er dann wegen 10° mehr 1 Jahr früher kaputtgeht, habe ich sowieso wieder einen anderen Prozessor. Alle Angaben in die Richtung "Verkürzt die Lebensdauer um 10 Jahre!" etc. können doch nur geschätzt sein - oder gibt es vom Hersteller direkt Langzeitstudien? Lohnt sich das überhaupt, bei dem kurzen Lebenszyklus der Produkte?

Natürlich ist es ein beruhigendes Gefühl, wenn mein CPU unter Last unter 40° bleibt. Ich könnte auch konstant meine Lüfter auf voller Leistung mit 37 db betreiben um 5° weniger zu haben, aber mittlerweile.. schenke ich der Temperatur viel weniger Beachtung. Meine Prozessoren waren immer übertaktet, wurden intensiv genutzt, hatten oft hohe Temperaturen und gehen bis heute alle noch. Ich denke nicht, dass ich in 20 Jahren noch Verwendung für einen i7 haben werde.

Von Google, glaube ich, gab es mal eine Studie zu Festplatten und Temperaturen: Hier verringerte sich die Lebensdauer sogar, wenn Temperaturen unter 25° erreicht wurden, wenn ich mich nicht täusche. Hat natürlich nichts mit der CPU zu tun, ist mir bei dem Thema nur eingefallen. Dass die Hardwarehersteller ein großes Interesse daran haben, euch Gehäuse mit 10 300mm Lüftern zu verkaufen, liegt natürlich auch auf der Hand. :D
 
maxwell-cs schrieb:
hi zusammen,

bei temperaturen > 70 °C (oder sagen wir 75) wird hier meist empfohlen, die kühlung zu verbessern oder das overclocking zu verringern, da die temperatur "zu hoch sei".

ist dem wirklich so? immerhin kann man ein system oft leiser machen, wenn man höhere temperaturen in kauf nimmt. höhere taktraten gehen ja nur begrenzt, wenn man nicht auch die spannung erhöhen will.

als referenz nenne ich mal dieses video von intel selbst: http://www.intel.com/content/www/us/en/gamers/unlocked-advantage-video.html
2:25: "voltage kills our processors. [...] heat will never kill our processors. it hits a certain temperature, throttles, goes a little bit higher, shuts down."

gibt es bekannte fälle, wo cpus (ohne einer übertriebenen vcore ausgesetzt zu sein) lediglich an einer recht hohen temperatur (sagen wir mal bis 90 °C) verreckt sind?
wenn nicht: was spricht dagegen, die cpu so warm laufen zu lassen (solange man nen stück unter der throttle-temp bleibt) und die kühlung leiser zu machen?


Hi,

um die CPU direkt zu zerstören bedarf es ~135 °C an der Sperrschicht, selbiege löst sich dann auf => Tod

Dein CPU bei Throttling nahen Temps zu Betreiben reduziert "nur" die Lebensdauer, ist also deine persönliche Entscheidung wie lang du was von deiner CPU haben willst...
Bei Spannungserhöhungen kommt zu den Temps auch noch die Elektronenmigration... aber das ist nen anders Thema, diese wird auch durch höhe Temps beschleunigt.

Gruß
Darkwizzard
 
Eine Grafikkarte rechnet bei 80°C und mehr, und produziert auch Ihre Fehler, jedoch merkt man die kaum, bzw. man nimmt diese nicht wahr.

Ein Prozessor hat nur 1/2/3/4/6/8 Kerne, und wen die mal 80°C erreichen, ist die warschenlichkeit groß, dass sich diese verrechnen und das merkt man dann anhand eines BSOD´s.

Versuch mal eine CPU mit sagen wir mal Standardtakt bei 80-90°C zu betreiben, und mach mal prime 95 an, dann wird es nicht all zu lange dauern, bis dir der Blaue Bildschirm eine Mitteilung schickt, jedoch bei 50°C ist es stabil.
 
Jolly91 schrieb:
Versuch mal eine CPU mit sagen wir mal Standardtakt bei 80-90°C zu betreiben, und mach mal prime 95 an, dann wird es nicht all zu lange dauern, bis dir der Blaue Bildschirm eine Mitteilung schickt, jedoch bei 50°C ist es stabil.

Was glaubst du mit welchen Temperaturen mobile CPUs in Notebooks, selbst unter Teillast, betrieben werden? Das was du da sagst ist einfach Quatsch. Fehler der GPU können deiner Meinung keine Bluescreens verursachen, warum?

Sonst dürfte es keine Grafikkarten geben, die z.B. für medezinische Berechnungen eingesetzt werden. Dort wird kaum auf die Kühlung geachtet und manchmal sogar mehrere Karten in einem Rechner eingebaut-> heizen sich stärker auf. Gerade in diesen professionellen Bereich kommt es auf eine hohe Genauigkeit an und Fehler in der Berechnung sind der Worst Case.
 
Smartbomb schrieb:
Die Lebensdauer sinkt wenn die CPU dauwerhaft bei höheren Temperaturen betrieben wird.
Durch die höheren Temperaturen werden zudem auc die leckströme größer und der elektrische Widerstand der Chips sinkt, wodurch sie mehr Strom verbrauchen und noch wärmer werden.

.

Bitte mit fundierter Quelle und nicht auf Hörensagen-Wissen zugreifen.
 
Zuletzt bearbeitet:
Naja, er hat schon Grundsätzlich recht. Chemische und Physikalische Vorgänge laufen in der Regel mit steigender Temperatur schneller ab. Die Frage ist allerdings, ob dadurch die Alterung in einen Bereich kommt, der für den Nutzer relevant ist. Ich persönlich glaube nicht.

Und dass die Leckströme mit steigender Temperatur steigen ist ebenso bewiesen, als auch dass der elektrische Widerstand sinkt.

Quatsch ist dagegen die Aussage von Jolly, dass sich solche Rechenwerke bei höheren Temperaturen automatisch verrechnen. Das kommt vor; vor allem bei Varianten, die vom Hersteller gleichzeitig übertaktet und undervolted wurden. Eine Referenzkarte verrechnet sich so selten, dass der Benutzer dadurch keinerlei Probleme haben wird. Die Temperatur hat darauf allerdings kaum Einfluss. Die kann das Zünglein an der Waage sein, in der Regel bringts nur sehr selten was für die Stabilität wenn man die Temperatur um ein paar °C senkt.
Und auch CPUs haben keinen großartigen Einfluss der Temperatur. Es gibt ihn durchaus in spürbarer Form bei Extremkühlung (Stichwort flüssiger Stickstoff), aber eine CPU, die in der Nähe der Standardtaktrate betrieben wird, sollte auch bei hohen Temperaturen NICHT instabil.

mfg
 
Vermutlich wäre die "Alterung" aufgrund der etwas höheren Wärme so gering, dass statt 30 Jahre
vielleicht nur 27 Jahre als Spanne wirken würden.
Rein spekulativ.
 
Ich kenne diverse Workstations (Dell, Apple, HP) bei denen die Kühlung so eingestellt ist, das aktuelle Intel CPUs dauerhaft auf 80°c oder mehr gehen um ein möglichst leises Arbeiten zu ermöglichen. Zumindest inneralb der zumeist 3 Jährigen Garantiezeit wird das selbst bei 24/7 Volllastbetrieb kaum zu einer höheren Ausfallrate führen als mit besserer Kühlung.

Und hier im Forum wird sich bei Zockerrechnern, die für gewöhnlich nicht annähernd diese Lastzustände mitmachen müssen und nach ein paar Jahren sowieso ausgetauscht werden regelmäßig in die Hosen gemacht wenns mal ein paar Grad mehr sind ;)

Temperatur killt imho keine CPU.
 
Temperatur killt imho keine CPU.

Das macht die Spannung :D


Und warum nicht ein paar Euronen mehr ausgeben, müssen ja keine 40€ Kühler sein, können auch 15€ Kühler, die sind dann bei 60°C auch noch leise. ^^

30 PC x 15 = 450€ Mehrkosten
 
Zurück
Oben