Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Intel Raptor Lake im Test: Core i9-13900K, i7-13700K & i5-13600K jagen Ryzen 7000
Nixdorf
Vice Admiral
- Registriert
- Nov. 2009
- Beiträge
- 6.483
Ich mache die Problematik bei meinem 2700X fest am Unterschied zwischen "Energiesparmodus" und "Ausbalanciert" als Energiesparplan. Im kompletten Idle gibt es beim Verbrauch so gut wie keinen Unterschied zwischen den beiden. Aber im Schwachlastbetrieb sind es bei der PPT beim ersten 12W und beim zweiten 30W. Bei den späteren Ryzen (Chipletvarianten, speziell bei zwei CCDs) ist der Unterschied wohl teilweise noch größer. Diesen großen Unterschied gibt es wohl bei Intel nicht.
Ich begegne dem im Alltagsbetrieb mit dem IdleSaver von Process Lasso und lasse den Rechner nach wenigen Sekunden Untätigkeit in den Energiesparmodus wechseln.
Ich begegne dem im Alltagsbetrieb mit dem IdleSaver von Process Lasso und lasse den Rechner nach wenigen Sekunden Untätigkeit in den Energiesparmodus wechseln.
Zuletzt bearbeitet:
Arcturus128
Captain
- Registriert
- Apr. 2015
- Beiträge
- 3.816
@CB
Ich frage mich, warum CB nicht mal – analog zu GPU-Tests – auch bei CPUs den Stromverbrauch bei Youtube-Wiedergabe testet.
Single-Core-Volllast ist jetzt nicht das, was ich »Teillast« nennen würde.
Ich frage mich, warum CB nicht mal – analog zu GPU-Tests – auch bei CPUs den Stromverbrauch bei Youtube-Wiedergabe testet.
Single-Core-Volllast ist jetzt nicht das, was ich »Teillast« nennen würde.
Ja, gibt es nach wie vor, verhält sich genauso wie bei Alder Lake. DDR5 kann nur mit Gear 2 oder 4 betrieben werden.Faust2011 schrieb:Gibts bei Raptor Lake noch die Unterscheidung mit Gear 1/2 bei der RAM-Anbindung?
Habe mal eine ganz doofe Frage ... die CPU Temperaturen im Test (3/6 Temperaturen unter Volllast)
... sind das die MAX oder Durchschnittswerte wenn man z.B. mit HWINFO die Temps ausliest ?
Wollte das als Vergleich für meinen neuen PC nutzen und bin da unsicher.
... sind das die MAX oder Durchschnittswerte wenn man z.B. mit HWINFO die Temps ausliest ?
Wollte das als Vergleich für meinen neuen PC nutzen und bin da unsicher.
Darkseth88
Fleet Admiral
- Registriert
- Nov. 2010
- Beiträge
- 16.938
+1, weil Sorge, dass nur ein "Gefällt mir" nicht genug Aufmerksamkeit generiert für diesen Punkt.Arcturus128 schrieb:@CB
Ich frage mich, warum CB nicht mal – analog zu GPU-Tests – auch bei CPUs den Stromverbrauch bei Youtube-Wiedergabe testet.
Single-Core-Volllast ist jetzt nicht das, was ich »Teillast« nennen würde.
Robman86
Lt. Junior Grade
- Registriert
- Sep. 2012
- Beiträge
- 383
Ich habe mal PL1 von meinem 13900K auf 125 W gesetzt und musste feststellen, dass ich damit bis zu knappe 11% an fps verliere, und zwar in Cyberpunk 2077 in der Stadt mit großen Menschenmengen. In diesen Szenen hat man "normalerweise" bei 200-220 W (bei 1,4X V und 9X Grad) eben bis zu 11% mehr fps. Zu 125 W sind das aber auch immerhin 75-95 W Unterschied.
Computerbase hat im Test 162 W im Durchschnitt und 182 Watt im Maximum für Cyberpunk 2077 angegeben. Mehr als auf 1% bzw. 2% percentil-fps muss man laut Test auch nicht verzichten. Bis zu 11% ist jetzt natürlich das Fünf- bis Zehnfache. Und wer weiß ob es noch ne Stelle gibt, wo es sogar mehr als 11% sind.
Die Werte des Computerbase-Tests sind natürlich sicher richtig, sie zeigen aber nur den Durchschnitt eines gewissen Mixes. Ich will damit sagen, dass einem klar sein muss, dass man beim Rumlaufen durch die Stadt mit 125 W permanent X-11% an fps verliert (mit 88 W will ich gar nicht erst testen), je nach Settings und fps-range kann man das dann eben auch mal negativ merken oder auch nicht. Ist individuell und kommt auch drauf an, ob man eine Sync-Methode nutzt usw. usf..
Ich kann nur empfehlen bzw. ich handhabe es so, den 13900K nicht auf die von Intel vorgesehenen 125 W für PL1 zu beschränken.
Bei den allermeisten (Gaming-)Boards sind die stock-limits ja aber auch viel höher, so dass man dieses "Problem" nicht bekommt, sofern man nicht selbst Hand anlegt.
Jetzt muss man natürlich sagen, dass in vielen anderen Stadt-Gebieten oder gar außerhalb der Stadt oftmals nur 130-150 W anliegen (nicht auf die Goldwaage legen, kommt ja auch auf Vcore und Temperatur an), in dem Moment würden 125 W kein oder kaum ein Leistungsverlust bedeuten, klar. Aber eben hier und da gibt es vereinzelt eben bis zu 11% weniger fps.
Darüber hinaus benötigt ja nicht jedes Spiel 125 W oder mehr, aber Cyberpunk 2077 ist eben so eins. Wir reden übrigens von um die 115 fps (ist ja für die CPU-Last nicht ganz unrelevant). Cyberpunk 2077 wird nicht für immer das einzige Game sein, was solch eine CPU-Leistungsaufnahme erzeugt (und es gibt sicher auch jetzt schon andere Spiele, die ich nur nicht kenne/habe...).
Ich habe PL1 von meinem 13900K auf den gleichen Wert wie PL2 gesetzt, welchen Intel dafür vorsieht (253 W). Hier gibt es keinen fps-Verlust beim Gaming (egal welches Game oder Szene).
Computerbase hat im Test 162 W im Durchschnitt und 182 Watt im Maximum für Cyberpunk 2077 angegeben. Mehr als auf 1% bzw. 2% percentil-fps muss man laut Test auch nicht verzichten. Bis zu 11% ist jetzt natürlich das Fünf- bis Zehnfache. Und wer weiß ob es noch ne Stelle gibt, wo es sogar mehr als 11% sind.
Die Werte des Computerbase-Tests sind natürlich sicher richtig, sie zeigen aber nur den Durchschnitt eines gewissen Mixes. Ich will damit sagen, dass einem klar sein muss, dass man beim Rumlaufen durch die Stadt mit 125 W permanent X-11% an fps verliert (mit 88 W will ich gar nicht erst testen), je nach Settings und fps-range kann man das dann eben auch mal negativ merken oder auch nicht. Ist individuell und kommt auch drauf an, ob man eine Sync-Methode nutzt usw. usf..
Ich kann nur empfehlen bzw. ich handhabe es so, den 13900K nicht auf die von Intel vorgesehenen 125 W für PL1 zu beschränken.
Bei den allermeisten (Gaming-)Boards sind die stock-limits ja aber auch viel höher, so dass man dieses "Problem" nicht bekommt, sofern man nicht selbst Hand anlegt.
Jetzt muss man natürlich sagen, dass in vielen anderen Stadt-Gebieten oder gar außerhalb der Stadt oftmals nur 130-150 W anliegen (nicht auf die Goldwaage legen, kommt ja auch auf Vcore und Temperatur an), in dem Moment würden 125 W kein oder kaum ein Leistungsverlust bedeuten, klar. Aber eben hier und da gibt es vereinzelt eben bis zu 11% weniger fps.
Darüber hinaus benötigt ja nicht jedes Spiel 125 W oder mehr, aber Cyberpunk 2077 ist eben so eins. Wir reden übrigens von um die 115 fps (ist ja für die CPU-Last nicht ganz unrelevant). Cyberpunk 2077 wird nicht für immer das einzige Game sein, was solch eine CPU-Leistungsaufnahme erzeugt (und es gibt sicher auch jetzt schon andere Spiele, die ich nur nicht kenne/habe...).
Ich habe PL1 von meinem 13900K auf den gleichen Wert wie PL2 gesetzt, welchen Intel dafür vorsieht (253 W). Hier gibt es keinen fps-Verlust beim Gaming (egal welches Game oder Szene).
Zuletzt bearbeitet:
Robman86
Lt. Junior Grade
- Registriert
- Sep. 2012
- Beiträge
- 383
150 W PL1 hatte ich getestet, ordnet sich einigermaßen mittig (glaube etwas näher an 175W) von 125 und 175 W ein, aber noch spürbar weniger fps. 175 W finde ich da deutlich besser, da kaum ein Unterschied zu stock (hier waren es 0-2% zu 200-220 W). Muss aber jeder selbst entscheiden (vorhandenes Kühlsystem, gewünschte Lautstärke usw.).
PL2 ist ja nur für 56 (Intel) oder um die 92 Sekunden (stock-setting vieler Gaming-Mainboards) gedacht, und das reicht für Cyberpunk 2077 einfach nicht. Es sei denn du flüchtest so schnell wie möglich ins Außengebiet, je nachdem wo du gerade bist...
Das PL2 ist eher für sehr kurzfristige Aufgaben gedacht.
PL2 ist ja nur für 56 (Intel) oder um die 92 Sekunden (stock-setting vieler Gaming-Mainboards) gedacht, und das reicht für Cyberpunk 2077 einfach nicht. Es sei denn du flüchtest so schnell wie möglich ins Außengebiet, je nachdem wo du gerade bist...
Das PL2 ist eher für sehr kurzfristige Aufgaben gedacht.
ok und was passiert wenn man P2=P1 einstellt,so das minimum und maximum gleich sind bei Last.Gibt es dann heftige Leistugungs Einbrüche? ALso als ich den 13900k auf 125 Watt maximal Last eingestellt hatte,haöbierte sich die Leistung förmlich bei Arbeits Sache.Sonst braucht die unter Vollast ja 350 Watt.Also kein Wunder das es mehr als die doppelte Zeit zum Umwandeln gebraucht hatte.Ich selbst habe diese jedoch nicht weil ich was gegen Stromfresser habe.Die Idle Stromverbrauch ist jedoch durchaus gut,hängt jedoch ja auch vom Mainboard ab das ganze.
Nixdorf
Vice Admiral
- Registriert
- Nov. 2009
- Beiträge
- 6.483
Ganz so krass ist es nicht, zwischen 125W und unlimitiertem Betrieb liegen schlimmstenfalls knapp 30%, im Durchschnitt gut 20%.latiose88 schrieb:als ich den 13900k auf 125 Watt maximal Last eingestellt hatte,haöbierte sich die Leistung förmlich bei Arbeits Sache
also in meinem Falle war es aber gleich die dopelte Zeit.Das ist ein Extremer einbruch.Der dazu führt das diese CPU sogar fast auf Level einem i7 7960x ist.Und das nur weil man so stark Eingedrosselt hatte.
Und das ist echt so.Habe sogar ein Video davon gemacht.Und ich weis ja die Ergebnisse aller möglichen CPUS.Darum kann ich genau sagen ob das Ergebnis gut oder schlecht ist.
Und das ist echt so.Habe sogar ein Video davon gemacht.Und ich weis ja die Ergebnisse aller möglichen CPUS.Darum kann ich genau sagen ob das Ergebnis gut oder schlecht ist.
Einerseits gut, dass du ans Strom sparen denkst, andererseits der falsche Weg denn selbst wenn du jetztRobman86 schrieb:Ich kann nur empfehlen bzw. ich handhabe es so, den 13900K nicht auf die von Intel vorgesehenen 125 W für PL1 zu beschränken.
100 Watt weniger verbrauchst und täglich 5 Stunden im CPU Limit zockst dann sind das bei 50Cent/kwh
pro Jahr ~90€ Ersparnis. Mit dem Kauf eines 13700K hättest du auf einen Schlag 200€ gespart.
Viel sinnvoller wäre Undervolting bzw. austesten welche Spannung deine CPU für welchen Takt braucht,
einen Frame Limiter zu nutzen und moderne Techniken wie Nvidia DLSS + Frame Generation zu nutzen.
Dann zieht die CPU nur noch 50 Watt und dir wird bewusst, dass ein 13600K auch ausgereicht hätte.
naja es sei denn man braucht die Leistung will aber Strom sparen,dann macht das sinn.So nach dem Motto ich Opfere ein paar Prozent Leistung und gewinne dafür an Strom zu sparen.
Wie 50 % Leistung Opfern und dabei 200% an Strom sparen und dabei noch immer 30 % über dem 13700k und dabei genau den gleichen Stromverbrauch oder halt mehr Leistung bei ähnlichen Ergebnissen.
So habe ich auch wenn es ein AMD System ist auch gemacht.So weit die Spannung gedrosselt wie gerade noch so Ausreichend für die volle Leistung und dabei auf gewisse Watt gedeckelt.Als Beispiel ein 5950x der braucht eigentlich 142 Watt und dank festgesetzten Boost Takt nur noch 120 Watt.
So kann man es auch bei Intel machen.Man darf es nur nicht übertreiben.
Wie 50 % Leistung Opfern und dabei 200% an Strom sparen und dabei noch immer 30 % über dem 13700k und dabei genau den gleichen Stromverbrauch oder halt mehr Leistung bei ähnlichen Ergebnissen.
So habe ich auch wenn es ein AMD System ist auch gemacht.So weit die Spannung gedrosselt wie gerade noch so Ausreichend für die volle Leistung und dabei auf gewisse Watt gedeckelt.Als Beispiel ein 5950x der braucht eigentlich 142 Watt und dank festgesetzten Boost Takt nur noch 120 Watt.
So kann man es auch bei Intel machen.Man darf es nur nicht übertreiben.
Der 13900K hat 5,5Ghz All Core ? Dafür braucht er standardmäßig wie viel Spannung ? z.B. 1,300V ?
Diese (meist zu hohe) Spannung bestimmt den Stromverbrauch also entspricht PL2 von 250 Watt !
Hat man eine gute CPU die für 5,5Ghz nur 1,275V braucht (was man eben selbst austesten muss)
dann verbraucht sie "nur" noch 225 Watt. Wenn man den Takt leicht verringert dann geht vielleicht:
5,5Ghz 1,300V 250 Watt
5,5Ghz 1,275V 225 Watt
5,4Ghz 1,250V 200 Watt
5,3Ghz 1,225V 175 Watt
5,2Ghz 1,200V 150 Watt
5,1Ghz 1,175V 125 Watt
5,0Ghz 1,150V 100 Watt
Das sind nur 10% weniger Takt also 10% weniger Leistung bei 150 Watt Stromersparnis.
Diese (meist zu hohe) Spannung bestimmt den Stromverbrauch also entspricht PL2 von 250 Watt !
Hat man eine gute CPU die für 5,5Ghz nur 1,275V braucht (was man eben selbst austesten muss)
dann verbraucht sie "nur" noch 225 Watt. Wenn man den Takt leicht verringert dann geht vielleicht:
5,5Ghz 1,300V 250 Watt
5,5Ghz 1,275V 225 Watt
5,4Ghz 1,250V 200 Watt
5,3Ghz 1,225V 175 Watt
5,2Ghz 1,200V 150 Watt
5,1Ghz 1,175V 125 Watt
5,0Ghz 1,150V 100 Watt
Das sind nur 10% weniger Takt also 10% weniger Leistung bei 150 Watt Stromersparnis.
Robman86
Lt. Junior Grade
- Registriert
- Sep. 2012
- Beiträge
- 383
0ssi schrieb:Einerseits gut, dass du ans Strom sparen denkst, andererseits der falsche Weg denn selbst wenn du jetzt
100 Watt weniger verbrauchst und täglich 5 Stunden im CPU Limit zockst dann sind das bei 50Cent/kwh
pro Jahr ~90€ Ersparnis. Mit dem Kauf eines 13700K hättest du auf einen Schlag 200€ gespart.
Viel sinnvoller wäre Undervolting bzw. austesten welche Spannung deine CPU für welchen Takt braucht,
einen Frame Limiter zu nutzen und moderne Techniken wie Nvidia DLSS + Frame Generation zu nutzen.
Dann zieht die CPU nur noch 50 Watt und dir wird bewusst, dass ein 13600K auch ausgereicht hätte.
Puh, also für mich persönlich ist wirklich sehr viel falsch an deinem Post. Aber nicht persönlich nehmen, jeder hat so seine eigenen Bedürfnisse / Erwartungen / Vorstellungen.
Ich gehe jetzt nicht intensiv auf deinen Post ein, aber mal in Kürze aufistungsartig:
- mir geht es nicht ums Strom sparen (und auch nicht um 200 Euro). Ich spiele so 15 Stunden die Woche, vor allem Multiplayer. Dort will ich das best mögliche Spiele-Erlebnis. Ich habe die 125 W PL nur aus allgemeiner Interesse getestet. Für mich hat sich wieder mal bestätigt, dass man das meiste selbst testen muss, da die Erwartungen unterschiedlich ausfallen
- zu Undervolting: habe ich jetzt über 10 Jahre gemacht, mittlerweile mache ich es nicht mehr. Mein Desktop ist kühl und leise genug und so hab ich (vor allem in Online-Parties) keinerlei Risiko von Abstürzen (ob ein Undervolting-Setting nämlich wirklich richtig stabil ist, weiß man teilweise erst nach so einiger Zeit)
- ich nutze seit je her einen Frame Limiter
- DLSS nutze ich ebenfalls
- Frame Generation nutze ich nicht, da es für mich in den meisten Fällen noch merkbare Nachteile mit sich bringt, sowohl input-technisch, als auch optisch
- ich möchte die besten min-fps, damit mein gesetztes fps-limit möglichst wenig schwankt bzw. die fps-range möglichst klein ist. Und hier ist der 13900K nun mal am besten (im Vergleich zum 13600K/13700K). Andere sind in anderen Postings schon genug drauf eingegangen. Natürlich konfiguriere ich auch die GPU bzw. die ingame settings so, dass ich entsprechend Puffer bei der Load habe. Allgemein ist die CPU fast wichtiger als die GPU, da man bei einem GPU-Limit Settings oder DLSS-Stufe reduzieren kann, für ein CPU-Limit bringt das wenig
- wer sagt, dass ich den 13900K nur zum Zocken nutze?
Per PL Senkung bekommst du aber nicht das best mögliche Spiele Erlebnis weil du die CPU limitierstRobman86 schrieb:Dort will ich das best mögliche Spiele-Erlebnis. Ich habe die 125 W PL nur aus allgemeiner Interesse getestet.
und sie dann gar nicht das best mögliche Spielerlebnis in Form von FPS und Frametimes liefern kann.
Ähnliche Themen
- Antworten
- 165
- Aufrufe
- 21.371
- Antworten
- 434
- Aufrufe
- 49.031
- Antworten
- 59
- Aufrufe
- 7.206
- Antworten
- 149
- Aufrufe
- 18.470
- Antworten
- 187
- Aufrufe
- 25.597