Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIm Test vor 15 Jahren: Intels Core 2 Duo E8600 im E0-Stepping
Klassisch. Linux Mint (Ubuntu-Cinnamon). E8400 + 6GB RAM reicht dicke aus um aktuelle Linux Distors laufen zu lassen. Nur KDE ist etwas resourcenhungriger.
Ergänzung ()
[wege]mini schrieb:
Selbst die damalige Turbo-Taste, veränderte den Verbrauch und nicht nur den Takt. Das aber dauerhaft, so lange die Turbo-Taste gedrückt blieb.
Das ist Quatsch. Die Turbotaste war ein Schalter und kein Taster.
Und ja, natürlich sinkt der Verbrauch bei niedrigerem Takt, aber damals war der Effekt völlig vernachlässigbar, da die Systeme sowieso viel sparsamer waren als heute. Ein Intel A80386DX-16 hatte eine TDP von 1,85 bis max 2,3W. Selbst ein Pentium 233 MMX (vermutlich der letzte CPU mit Turbo-Taste) hatte nur eine TDP von 17W.
Damals war noch OC das Killerfeature und so gut wie jeder hat getaktet, weil die MHz noch die Hauptrolle spielten bei der Gaming Performance.
Bei Intel ging echt noch viel und die Dinger liefen nicht wie heute schon Out of the Box nah am Limit. Die Jugend kennt das vielleicht schon gar nicht mehr.
Wie der Test auch zeigt, die Vierkerner waren in Spielen meist noch nicht die schnellste Lösung, weil die Multi CPU Nutzung am Anfang war. Hochgetaktete Zweikernen waren richtig oft gut zum Gaming, aber das änderte sich schon in den Folgejahren deutlich.
Auch schon wieder lange her, irgendwie zeigen die Rückblicke immer wieder das man schnell älter wird.
Die Core 2 CPUs laufen richtig gut, die E8000 sind taktfreudig und haben recht viel Cache. Ein E8500 läuft in meinem "Keller PC" auf 4.4GHz <1.3v auf einem "Office" board. Ich habe mir noch einen E8600 zugelegt, vielleicht gehen da 4,8GHz <1,4v. Ansonsten Q6600 @3,8GHz, Q9550 rund 4GHz und QX9650 @4,25GHz bei humaner Vcore.
Warum? Jetzt mal ehrlich: bei der heutigen Leistung und auch Preisen für CPU's, lohnt es sich meines Erachtens nach nicht wirklich, noch am CPU- Takt zu schaffen zu machen.
Meist limitiert doch heut eh die Grafikkarte und aus meinem Ryzen 5 3600 kann ich einfach keine sauschnelle Rakete mehr machen.
Hinzu kommen unbedarfte Übertaktungsversuche, die dann in Blue- Screens enden.
Dann doch lieber alles so lassen, wie es ist, sich freuen das es alles stabil läuft und die paar Punkte mehr im
Benchmark einfach ignorieren.
Da ich nur deine Worte zitierte, hätte ich "Turbo-Taste" schreiben sollen. Mir war aber klar, du merkst es selber.
Wie du überhaupt von "Turbo" der heutigen Generation auf "Turbo-Drückknopf mit Einrastfunktion" aus den 80er und 90er Jahren des letzten Jahrtausends gekommen bist, bleibt mir weiterhin schleierhaft.
Und relativ gesehen, war der Verbrauch tatsächlich deutlich höher. Das er absolut gesehen eher zu vernachlässigen war, steht auf einem anderen Blatt Papier.
Die "Steinzeitrechner", konnte ein "Goldhamster" als USV im Hamsterrad betreiben. Mal plakativ gesprochen.
Bei meinen Eltern laufen nach wie vor ein Q6700 und ein Phenom II X4 940, jeweils mit Windows 10, als Arbeitsplatzrechner im täglichen Einsatz und das bleibt auch noch so lange wie möglich so... Gibt keinen Grund zum Aufrüsten... 👍
Da ich nur deine Worte zitierte, hätte ich "Turbo-Taste" schreiben sollen. Mir war aber klar, du merkst es selber.
Wie du überhaupt von "Turbo" der heutigen Generation auf "Turbo-Drückknopf mit Einrastfunktion" aus den 80er und 90er Jahren des letzten Jahrtausends gekommen bist, bleibt mir weiterhin schleierhaft.
Verstehe deinen Beitrag nicht. Du hast doch selber den Begriff Turbotaste verwendet - in einem Computerforum ist doch klar, dass man die berühmten Tasten an den Desktops Ende des letzten Jahrhunderts meint.
Und da ist der Einwand von @UrlaubMitStalin schon richtig. Entgegen deiner Behauptung ist die Anhebung der Taktrate aktiv geworden, wenn man den Taster einmal betätigt hat. Danach konnte man in Ruhe Spielen und ein erneutes Drücken hat den Takt wieder gesenkt.
Zum Thema, dass sich "OC" heutzutage nicht mehr rentiert:
Es rentiert sich bei den großen Modellen nicht, die in den gängingen Portalen getestet werden. Damals konnte man einen P4 Extreme Edition ja auch nicht wirklich weiter takten. Was hat man früher genommen? Ja, die KLEINEN Modelle.
Heutzutage werden die großen Modelle genommen, und dann wird gesagt es bringt nix. Ja ,das hat auch vor 20 Jahren schon nix gebracht.
Möchte man die Leistungssteigerungen von früher wiederhaben, muss man halt vom hohen High End Ross runtersteigen in die Einsteiger- und Mittelklasse.
AM4: R5 2400G -> 25-35% mehr Leistung in Spielen durch OC. Die nachfolgenden APUs sind nicht schneller, weil stets der DDR4 RAM limitiert.
Wir werden sehen, dass die ersten AM5 APUs auch mindestens +20% OC Potential (ja, ich bin Verweigerer der Rechtschreibreformen der 2000er Jahre) haben werden.
Rein auf CPUs geschielt: würde es Modelle geben, mit niedrigem Takt und vielen Kernen, würde sich OC rentieren. Deshalb werfen die Hersteller solche Modelle nicht auf den Markt.
Aber dass sich OC heutzutage generell nicht rentiert, ist Blödsinn. Es rentiert sich nur in der High End Blase nicht, in der die Meisten hier leben.
Erst mit dem Pentium 2 (35-43W TDP) / Athlon A (42-50W) wurde der Lüfter und vor allem Kühlkörper größer.
Das CPUs überhaupt so heiß wurden, dass sie so große Kühler brauchten wie wir sie heute kenen, kam erst so mit Pentium 4 (bis 115W) und Athlon Thunderbird (bis 72W) / Xp (bis 72W).
Ich selbst bin froh, dass die Leistungsaufnahme von CPUs einigermaßen gleich geblieben ist, ein guter CPU kommt idR mit 77 bis 95W TDP aus. Bei den Grafikkarten ist das Ganze absurd explodiert in den letzten Jahren.
Zum Vergleich: vor 20 Jahren (Geforce 4) hat man nichtmal eine TDP angegeben, weil der PCI Bus genug liefern konnte. Dann war lange 75W das Maximum, später 150W und heute bekommt man selbst bei 200W nur noch Mid-Range Hardware. Das aktuelle nVidia Flagship 4090 gönt sich 600W, was außerhalb des ATX Standards ist und einen eignene Stecker benötigt, der bei Dauerlast schmilzt.
Ich hoffe sehr, dass man irgendwann wieder annehmbare Grafikleistung mit 75W hin bekommt. Karten immer schneller zu machen, auf Kosten der Stromaufnahme ist echt keine Kunst, hier sollte Team Grren udn Red endlich mal mehr auf Effizienz gehen statt auf Leistung mit der Brechstange wie damals beim P4.
Da ich fast immer auf Preis/Leistung aus bin, ging es bei mir damals von einem E4300 für 100€ auf einen E7400 für 100€ .....erst ca. 6 Jahre später, dann einen gebrauchten i7- 4770K für 150€ geholt
Das es für den heutigen "Turbo" eine Taste geben würde, wäre mir komplett neu und da er danach auf den Turbo "Knopf, Taste, Schalter" einging, war mir schon klar, was er mit Turbo-Taste meint.
Wie man das Ding nennt, ist mir eigentlich schnurz, solange man weiß, wo rüber man redet.
Ich nehme seinen Nick z.B. auch mit Humor und nicht wörtlich.
mfg
p.s.
Und wer glaubt, der "Turbo" wäre der Normalzustand und die Base-Clock eine Verlangsamung, hat zu viel Werbung der Automobilindustrie konsumiert.
Entgegen deiner Behauptung ist die Anhebung der Taktrate aktiv geworden, wenn man den Taster einmal betätigt hat. Danach konnte man in Ruhe Spielen und ein erneutes Drücken hat den Takt wieder gesenkt.
Tatsaechlich hat man damals die Taktrate fuer viele Spiele abgesenkt bzw. spaeter den L2-Cache ausgeschaltet. Das wurde gemacht, weil die Spiele eben fuer aeltere PCs geschrieben waren und dort offenbar keine gute Moeglichkeit vorhanden war, die Zeit zu messen; daher wurden die Spiele mit Warteschleifen geschrieben, und die liefen auf den neueren, schnelleren PCs zu kurz. Fuer normales Arbeiten, z.B. ein Spreadsheet, hat man die Maximalgeschwindigkeit aktiviert.
Das war uebrigens ein Spezialproblem der PCs (von damals). Im Gegensatz dazu hatte der C64 brauchbare Timer, und fast alle Spiele liefen auch auf einem 4 mal so schnellen Prozessor mit der ueblichen Geschwindigkeit; und das, obwohl nur wenige Leute solche Erweiterungen hatten (z.B. c't 816, wobei es da auch einen Schalter gab, um das Ding auf die uebliche Geschwindigkeit zu bremsen).
Ergänzung ()
[wege]mini schrieb:
Und wer glaubt, der "Turbo" wäre der Normalzustand und die Base-Clock eine Verlangsamung, hat zu viel Werbung der Automobilindustrie konsumiert.
Ich weiss nicht, was das mit Automobilen zu tun haben soll. Als ich meinen ersten Prozessor mit Turbo gekauft habe (einen 6700K), habe ich geglaubt, dass die Base Clock der Normalzustand ist. Tatsaechlich ist weder der 6700K noch der bei mir derzeit laufende 6600K im Normalfall bei der Base Clock. Im Idle ist der 6600K bei 800MHz, und unter Last taktet er auf die 4GHz, die ich ihm erlaubt habe (und wenn ich das Overclocking ausschalten wuerde, wuerde er auf den Turbo gehen (3900MHz bei Last auf einem Kern, 3600MHz bei Last auf allen 4 Kernen). Hier eine Anzeige des Taktes waehrend einer 6000x6000 Matrix-Multiplikation mit libopenblas:
Code:
> grep MHz /proc/cpuinfo
cpu MHz : 4000.000
cpu MHz : 4000.000
cpu MHz : 4000.000
cpu MHz : 4000.000
Klar, bei CPUs mit mehr Kernen und, dank hoeherem Takt, mehr Verbrauch pro Kern, setzt entweder das Power Limit oder das Temperaturlimit schon darunter Grenzen, aber die Base-clock hat auch und besonders heute keine besondere Bedeutung.
Warum? Jetzt mal ehrlich: bei der heutigen Leistung und auch Preisen für CPU's, lohnt es sich meines Erachtens nach nicht wirklich, noch am CPU- Takt zu schaffen zu machen.
Es ging mir doch nur um seine Aussage, nicht um die Grundsatzdiskussionen, ob das sinnvoll ist oder nicht. Es bleibt doch letztendlich jedem selbst überlassen. BTW machen auch sehr viele hier im Forum oder auch in der Allgemeinheit OC. Sei es mit den Mainboard Auto Settings, dem RAM Takt per XMP oder dem Kauf einer Nicht FE Edition NV Graka. DAS ist alles schon OC, ohne dass man selbst am Bustakt oder dem Multiplikator der CPU selbst rumschraubt. 😉
Mein 13700k regelt auch alles selbst, 5,3ghz nahezu immer im idle bei nem PL von PL1 + PL2 bei 253W im BIOS...
Im IDLE spielt das keine Rolle, da nimmt sich die CPU keine 10W beim Browsen oder so, was er wohl meint ist "Boost" der immer anliegt, obwohl viele Kerne im Sleep sind etc.
Richtig klassiches "OC" wie man es von früher kennt gibts nur noch sehr selten, die CPUs laufen eh alle so hart am Limit, dass das überflüssig ist oder dazu führt, dass viele Stromsparmechanismen dafür ausgeschaltet werden müssen....