Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News7800X3D vs. 13700K: Wie groß ist der Unterschied beim Verbrauch in Watt wirklich?
Der Core ist die rundere CPU, die in den meisten Fällen schneller und sparsamer ist. Obwohl die Fertigung schlechter ist, kann Intel durch bessere Architektur AMD wieder übertrumpfen. Nur im Marketing bleibt Goliath AMD spitze.
Gott bewahre wenn der 7800X3D ebenfalls 12W anstatt 26W im Idle verbrauchen würde!
Dann hätte PCGH bei Cyberpunk nicht knappe 120 Watt sondern 134 Watt Unterschied zwischen den beiden CPUs gemessen: 52 zu 188 Watt!
bzw. 52 zu 223 Watt! oder das 4.3 Fache beim 13900K!
Das kann ja noch heiter beim 14700k / 14900K werden.
Intel user sind momentan anscheinend dazu verdammt, nichts oder sehr wenig zu machen weil sonst brennt es in der Bude, aber so richtig, wenn einmal aus versehen doch alle Kerne anspringen.
Aber diese Problem wird AMD sicherlich in den kommenden Generationen angehen und als kleine Überbrückung dürfte man den 7800X3D mit den richtigen Einstellungen, bereits jetzt in den Bereich von ca. 20W drücken können.
Stimmt eben doch. Raptor Lake ist verglichen mit Zen 4 + X3D ein richtiger Säufer. Das muss man sich nicht schönreden, das sollte man sich eingestehen. Sobald die CPU in Games gefordert wird, fängt der 13900K so richtig das Saufen an während ein 7800X3D bei 60-70 Watt bleibt.
Naja, dein „fängt richtig an zu saufen“ resultiert eben nur in 0,0084€ die Stunde auf der Stromrechnung laut Test - und das nur in Deutschland wo der Strom mit am teuersten ist weltweit … und das alles bei CPUs bei denen die UVPs bei ~500€ lagen … wen soll das interessieren?
Klingt natürlich immer viel wenn man von „saufen“ spricht oder es prozentual ausdrückt und selbstverständlich liegt die Fertigung von Intel hier TSMC hinterher - auf dem Papier bleibt davon nur nicht viel übrig.
In einem Notebook relevant, aber nicht im Desktop, wir sprechen hier von keinem Cent Differenz …
Atma schrieb:
Welche Benchmarks? Cinebench? So viel kann da nicht übertaktet sein, wenn du bei 300 Watt bist. Das macht der 13900K easy schon Stock in Cinebench.
AMD User haben anscheinend alle eine 4090 und spielen in 720p ohne FPS/Sync Limit
Und:
Odessit schrieb:
Den Intel muss man nur undervolten und an die Leine legen, dann ist der Vorteil beim puren Gaming noch geringer.
Den Idle-Verbrauch beim AMD bekommt man dagegen nicht so leicht gezügelt.
Gott bewahre wenn der 7800X3D ebenfalls 12W anstatt 26W im Idle verbrauchen würde!
Dann hätte PCGH bei Cyberpunk nicht knappe 120 Watt sondern 134 Watt Unterschied zwischen den beiden CPUs gemessen: 52 zu 188 Watt!
bzw. 52 zu 223 Watt! oder das 4.3 Fache beim 13900K!
Keine Ahnung warum die vom Rest der Tests so stark abweichen, scheint einiges schiefgelaufen zu sein.
CB gibt beim 7800X3D 66W und beim 13700K 107W im Schnitt an - 41W Differenz oder 0,011€
Hier im Test kam man auf 30W Differenz oder 0,008€ die Stunde.
Beides kaum relevant, wenn man nicht 24/7 zockt - in nahezu jedem anderen Land sind es ja noch weniger …
Klar wir bewegen uns eben gerne an der Grenze zum effizienztechnisch machbaren.
6 Liter Hubraum Boliden sind uns ein Graus.
Wir wollen eben heute bereits schon sehen was uns mit einer 5090 oder 6090 oder der kommenden unreal engine 6 erwartet.
@MalWiederIch PCGH testet eben sehr vorderende Szenen. Dies ist auch ein Fingerzeig darauf was uns schon bald an PS5 only games bei höheren Auflösungen erwarten wird.
Naja, dein „fängt richtig an zu saufen“ resultiert eben nur in 0,0084€ die Stunde auf der Stromrechnung laut Test - und das nur in Deutschland wo der Strom mit am teuersten ist weltweit … und das alles bei CPUs bei denen die UVPs bei ~500€ lagen … wen soll das interessieren?
Vom Idlen wird niemand arm. Der Punkt ist aber, dass es für diesen Verbrauch keinen wirklichen Grund zu geben scheint außer, dass AMD sich nicht drum schert. Bei den APUs ist auch der Idle-Verbrauch plötzlich super klein, obwohl die gleichen Zen 4 Kerne drinstecken, eine sogar größere iGPU und geschätzt >=50% der PCIe-Lanes und USB-Ports. Selbst die Dragon-Range-Modelle auf Chiplet-Basis sind im Vergleich zum Desktop viel sparsamer. Wenn man will, dann geht es auch. Wie gesagt: Arm wird dadurch niemand, aber es würde ja auch kaum einer 24/7 das Licht im Bad brennen lassen, einfach weil man zu faul ist es beim Rausgehend auszuschalten.
Klar wir bewegen uns eben gerne an der Grenze zum effizienztechnisch machbaren.
6 Liter Hubraum Boliden sind uns ein Graus.
Wir wollen eben heute bereits schon sehen was uns mit einer 5090 oder 6090 oder der kommenden unreal engine 6 erwartet.
Seltsames Hobby, weder hilft man der Umwelt groß, wenn man rein aus Freude an der Effizienz die CPU wechselt, noch fallen die 0,008€ die Stunde wohl kaum groß auf auf der Stromrechnung.
Wer nicht 24/7 zockt wird hier auch auf keinen großen kWh Betrag kommen.
Da verbraucht jedes EVs mehr kWh bei einer Fahrt zu jeglicher anderer Freizeitaktivität, als man mit durchschnittlichem Gaming mit der CPU im Monat summiert hinbekommt. Kaum nennenswert, aber für viele doch eine Art Religion.
Ein Fahrzeug mit 6L Hubraum und entsprechend 30€+ Kosten die Stunde bei Auslastung mit CPUs, bei denen die Differenz bei 0,008€ die Stunde bei Auslastung liegt, zu vergleichen ist schon recht amüsant
Auch vom Gaming nicht - selbst bei 350W gesamt im Schnitt, was für ein durchschnittliches System schon recht viel sein dürfte, und 8 Stunden die Woche, was ebenfalls viel für jemanden berufstätigen ist, kommen wir auf gerade einmal etwas über 3€ im Monat. Und das in mit deutschen Stromkosten, wir sind aber nicht ansatzweise die Masse, für die wird es ja noch weniger ..
C.J. schrieb:
Der Punkt ist aber, dass es für diesen Verbrauch keinen wirklichen Grund zu geben scheint außer, dass AMD sich nicht drum schert. Bei den APUs ist auch der Idle-Verbrauch plötzlich super klein, …
Wie gesagt: Arm wird dadurch niemand, aber es würde ja auch kaum einer 24/7 das Licht im Bad brennen lassen, einfach weil man zu faul ist es beim Rausgehend auszuschalten.
In dem von dir zitierten Beitrag ging es jedoch um die Kosten der Differenz beim Gaming, nicht Idle.
Für meinen 24/7 Unraid Server setze ich auch auf eine AMD (Pro) APU, da hier der höhere Idle Verbrauch der AMD CPUs schon sehr ins Gewicht fällt und ich ungerne auf ECC (wird nicht von den non-Pro APUs unterstützt) verzichten würde, was bei Intels Desktop Plattform nicht unterstützt wird.
Aber im Desktop habe ich dieses mal zwischen 13700K und 7800X3D für Ersteren entschieden, da 50% mehr Rohleistung und 8 vs 16 Kerne mir mehr wert waren, als 0,008€ im Gaming die Stunde zu sparen (zudem war der 7800X3D zu dem Zeitpunkt 40€ teurer, gespart wurde also erst nach 5.000 Stunden Gaming) oder 3% im Gesamtrating der Spiele vorne zu sein - das ist ja nahezu schon Messtoleranz, da geben sich beide nicht viel.
Ein Fahrzeug mit 6L Hubraum und entsprechend 30€+ Kosten die Stunde bei Auslastung mit CPUs, bei denen die Differenz bei 0,008€ die Stunde bei Auslastung liegt, zu vergleichen ist schon recht amüsant
die 0,008€ mal dahingestellt, ich komme bei >100W auf ganz andere Werte. Aber sei es drum.
Es geht um das Prinzip. Um wirklich Strom zu sparen, gerade in der heutigen Zeit. Benötigt es 100 Stellschrauben und nicht nur die Eine. Das fängt bei Energiesparlampen und einer effizienten CPU wie z.B. des 7800X3D an und hört bei der Wärmepumpe und einem 1-2 Liter Hubraum, oder E-Auto auf. solche Dinge wie ein 13700K / 13900K samt überdimensonierten Netzteil und Lüftung + Gehäuse oder gar ein 6 Liter Hummer passen einfach nicht mehr in die heutige Zeit und die Summe all dieser Dinge zählt eben am Ende.
PCGH testet eben sehr vorderende Szenen. Dies ist auch ein Fingerzeig darauf was uns schon bald an PS5 only games bei höheren Auflösungen erwarten wird.
Ich könnte die Intel CPU auch einfach mit einem TDP-Limit versehen und es hätte keinerlei Auswirkungen auf die FPS, weil bei Cyberpunk selbst mit FG der limitierende Faktor die GPU ist, wenn RT genutzt wird. Da zieht der 13900K mit TDP-Limit auch "nur" 100-125W, je nach Szene und die GPU ist trotzdem die ganze Zeit bei 99%.
Oder man lässt ihn halt mehr Strom ziehen, unterm Strich wird sich der Mehrverbrauch kaum in der Stromkostenrechnung bemerkbar machen, wenn nicht jeden Tag gespielt wird.
Das macht nicht immer grundsätzlich Sinn, wenn man dafür zu einem deutlich schwächeren CPU (7800X3D, 8vs16 Kerne, 50% weniger Leistung laut Cinebench) oder deutlich tiefer in die Tasche greifen muss (7950X3D, damals knapp doppelter Preis des 13700K).
ArrakisSand schrieb:
Um wirklich Strom zu sparen, gerade in der heutigen Zeit. Benötigt es 100 Stellschrauben und nicht nur die Eine. Das fängt bei Energiesparlampen
Die aber zumindest zum Kaufzeitpunkt 10% teurer war und 50% weniger Rohleistung bietet als ein 13700K - da sind wir bei der Rohleistung eines i5-13500.
Ein 7900X3D ist technisch Müll, siehe CB Test und ein 7950X3D lag gleich mal beim doppelten Preis für gerade einmal 28% mehr Leistung.
In Spielen sind alle nahezu gleichauf (3% Differenz laut CB Gesamtrating).
Wie gesagt nicht um jeden Preis um einen solch kleinen Teil zu gesamten beizusteuern. Das ist eben kein 6L Hummer
ArrakisSand schrieb:
und hört bei der Wärmepumpe und einem 1-2 Liter Hubraum, oder E-Auto auf.
Da sind wir dann auch bei sinnvollen Anschaffungen für Umwelt und Geldbeutel (zumindest auf Dauer gesehen).
ArrakisSand schrieb:
solche Dinge wie ein 13700K / 13900K samt überdimensonierten Netzteil und Lüftung + Gehäuse oder gar ein 6 Liter Hummer passen einfach nicht mehr in die heutige Zeit
Eben, die Summe zählt und da fallen 30-40W Differenz für die wenige Stunden, die die wenigen PC Gamer, die größtenteils berufstätig sein dürften, so gut wie überhaupt nicht auf.
Die Masse an PS starken Fahrzeugen oder eine sparsamere Leuchte die in jedem Haushalt mehrfach, anstatt nur in jedem 50.000 Haushalt einmal vorhanden ist, wohl deutlich eher
Ergänzung ()
SKu schrieb:
Oder man lässt ihn halt mehr Strom ziehen, unterm Strich wird sich der Mehrverbrauch kaum in der Stromkostenrechnung bemerkbar machen, wenn nicht jeden Tag gespielt wird.
Naja, dein „fängt richtig an zu saufen“ resultiert eben nur in 0,0084€ die Stunde auf der Stromrechnung laut Test - und das nur in Deutschland wo der Strom mit am teuersten ist weltweit … und das alles bei CPUs bei denen die UVPs bei ~500€ lagen … wen soll das interessieren?
Klingt natürlich immer viel wenn man von „saufen“ spricht oder es prozentual ausdrückt und selbstverständlich liegt die Fertigung von Intel hier TSMC hinterher - auf dem Papier bleibt davon nur nicht viel übrig.
So so ,das aus der Steckdose ist der richtige Wert.Ich bin entsetzt wie stark Intel da schummelt.So viel dazu.12 Watt im Idle sind für mich nun echt nicht die Welt.Und ich habe mir da nur unnötig gedanken zu den Idle Stromverbrauch gemacht gehabt.Da ich aber den Turbo Modus beim meiner AMD CPU abgeschaltet habe,dürfte die AMD CPU wohl kaum so hohe Stromverbrauch im Idle mehr oben drauf erzeugen.
Dann noch den rest,der scheint wohl auch nicht zu reichen.Mehr kann man wohl echt nicht machen,nur noch die Spannung senken und so.Bei der GPU habe ich das vor kurzen gemacht obwohl die GPU gewiss unter last keine 75 Watt sondern höchstens 40-50 Watt verballern dürfte noch extra reduziert.Damit dürfte die GPU wohl eher 30-40 Watt unter last verballern. Mehr geht halt dann doch nicht mehr.Das dürfte eh den Einfluss auf der CPU so gut wie garnicht vorhanden sein.
Mal sehen wie es in Zukunft aussieht.Denn je schwächer die GPU ist,desto weniger Stromverbrauch Effekt und belastung wird die CPU dann am Ende so haben.
Mal sehen ab wann es wirklich Ende beim Stromsparen bei Eingeschaltet noch so geht.Aus ist immer das sparsamste aber bei Last da sieht es halt dann neben dem anderst aus.
Ich denke mal ich bin an meiner Grenze gekommen.120 Watt braucht die CPU unter Vollast.ALso kann man sagen so 70-80 Watt unter richtiger Idle wird die CPU schon fressen.
Und die GPU ja die braucht kaum was,liegt an der geringen Last an sich.Wenn man sehr alte Games,mit FPS Drossel,niedriegere Auflösung wie Full HD oder am besten direkt mit 720p standard zocken.Meine Schmerzgrenze ist ganz unten in der hinsicht.Habe auch geschaut wie gut bestimmte Games in 720p so aussehen.Lote also aus wie viel ich so vertrage.Auch zocke ich nicht ganz mit maximale Details.Die mir nicht zu sagen von der Optik lasse ich gleich ganz aus oder so niedrig wie möglich.
Da wird die GPU wohl echt unterfordert sein.Das ist gut,weil das führt zu sparsamkeit am Ende.
Aber ich weis für manche dürfte echt Full HD 100-144 hz bzw fps eine sehr hohe Anforderung für die GPU sein.Mein bester Kumpel ist der sparsamte und schwört auf Full HD 60 HZ bzw Fps.
Weniger geht auch noch.Ein 720p mit 75 HZ Bildschirm.Damit ist man bei der GPU immer auf der sicheren Seite.Sollte die GPU mal zu schwach sein,stehen ja mehr als genug Alternativen zur Auswahl.Einfach die nächst best sparsame GPU holen die man so findet.
Damit bin ich wirklich der Wattwahninn erlegen .Habe sogar den Ram ein wenig herunter getaktet.Die GPU habe ich noch extra mit Takt und spannung gesenkt.Bei CPU nur die Spannung reduziert.Würde ich die hohe Leistung bei der CPU nicht brauchen,wäre bei der CPU der nächste hebel wo ich bis kurz vor dem Abstürzen herunter regel und dann auf die Sicheren Takt und so dann genauer Einstellen.
Ich würde aus jeder Plattform ne sparsame machen.Habe das sogar aus ner Hedt Plattform geschafft ne sparsameres System zu machen.Man muss es nur auf die Spitze treiben.Fps Limiteren und spannung senken,das reicht nicht aus um aus einem Pc ne sparsame System zu machen.
Somit geht der Tester nicht weit genug beim Stromsparen.
Ergänzung ()
MalWiederIch schrieb:
Ein 7900X3D ist technisch Müll, siehe CB Test und ein 7950X3D lag gleich mal beim doppelten Preis für gerade einmal 28% mehr Leistung.
Achja das wäre sogar besser als bei mir damals.Ich hatte zuvor einen ryzen 9 3950x gehabt.Den hatte ich für 600 gekauft gehabt.Das war mir aber nicht genug und habe es auch so um den dreh für den Preis wieder verkauft um mir für 300 Euro mehr einen 5950x gekauft.Er brachte gegenüber dem 3950x nur 14 % mehr.Das war es mir Wert.Andere würden das als Geld verbrennen sehen.Der Nachfolger wird da deutlich besser dastehen.Mal sehen für wieviel der 8850x also Zen 5 16 Kerner so beim Preis angesetzt wird.Werde die Plattform neu kaufen.Also über rund 30 % mehr Leistung für rund 1500 Euro an kosten.Das bin ich sogar bereit Auszugeben.Brauche die mehrleistung der CPU.Und 1 Jahr drauf wird dann Zen 5 verkauft um Zen 6 zu kaufen.Aufpreis weitere 300 Euro.Dann dauert es wieder fast 4 Jahre und das selbe Spiel geht bei mir von vorne.Ich bin nur rein auf die CPU leistung scharf.Auf die Plattform selbst,ist mir doch egal.Brauche nur die CPU Leistung.Hoffe nur das ich nicht zu viel Geld verbrennen werde.Aber was macht man nicht alles um noch mehr Leistung zu bekommen.Darum kann ich deine Bedenken nicht verstehen.Ich scheine jedoch nicht dem Standard User zu entsprechen.Der so auf eine Hardware Fixiert ist.GPU Leistung brauche ich keine noch mehr.Hier sagniert es bei mir ganz.Ich kaufe auch keine neue GPU.Ich bleibe der GTX 1650 treu.Mir egal das diese die CPU bremsen wird,bei Anwendung ohne Games kann man auf die GPU leistung drauf herum reiten wie man will,das juckt der Hardware 0. Wenn es hart auf hart kommt mache ich beim Bildschirm sogar nen Downgrade. Von 1080p auf 720p Bildschirm Nativ.Ich begebe mich also Freiwillig im CPU Limit.Bin ja da auch Stolz drauf.
Ich mache meinen Beitrag um sogar noch extra zu der 75 Watt GPU zu drosseln weil ich die GPU Leistung nicht brauche.Bei einem Pc wechsel ich sogar die GPU.Von einer gtx 750 ti mit 50 Watt zu ner gt 1030 mit 30 Watt.Mit extra FPS Limit und so.Ich mache also bei GPU das maximum an Stromsparen.Habe ja eh noch mehr Leistung als bei der Onbaord GPU.Dafür bremse ich die CPU dann Null aus.Mehr Kann ich aus dem System nicht mehr holen. Und ich kenne keinen User der es auch so macht wie ich.Ich mache das wirklich,auch wenn jeder andere den Kopf schütteln würde.
Mein Vorherige Downgrade von einer gtx titan 6 gb auf einer gtx 1060.Gleiche Leistung weniger Stromverbrauch.Dann von gtx 1060 auf gtx 1650 herunter gewechselt.Alles zum wohle des Stromverbrauchs.Den anderen von gtx 1060 auf gtx 750 ti.Gönnen beim zocken will ich mir 0.Da braucht die CPU schon dafür etwas mehr Strom als andere.Aber am Ende brauche ich dennoch weniger als die meisten Nutzer es hier jemals brauchen würden.Nur so komme ich auf einen unter maximale Last von maximal unter 300 Watt.Darum können Netzteile bei mir auch kleiner werden.Alles zum Wohle des Optimalen Auslastung .Würde das Netzteil unter 40 % landen,dann braucht das Netzteil wieder mehr Strom.Habe halt nur Gold Netzteil.Für 3 % mehr Effizients zahlt man dann 300 Euro mehr bei Netzteilen.Das ist sehr viel Geld.
MalWiederIch schrieb:
Und da sind wird schon wieder - der 300kW Hummer und der 0,1kW 13700K bzw. 0,07kW 7800X3D bei Auslastung - wie gesagt, amüsanter Vergleich
Eben, die Summe zählt und da fallen 30-40W Differenz für die wenige Stunden, die die wenigen PC Gamer, die größtenteils berufstätig sein dürften, so gut wie überhaupt nicht auf.
Ja ich habe mir unnötig bnei Idle sorgen gemacht.Sind ja nur 12 Watt unterschied zwischen AMD und Intel.Manche Tage läuft mein Pc 24 Stunden,nur Last gebe ich nur ein Bruchteil davon wirklich drauf.Denke mal das es im Jahr nicht so viele Euros sein werden.Da mache ich mir um 10 Euro im Jahr mehrvebrauch sorgen.Das habe ich alles meiner Mutter zu verdanken.Strom ist teuer,mein Pc braucht viel Strom obwohl ich so jeden tag maximal rund 2 Stunden die CPU Vollast gebe.Der rest befindet sich im dauer Idle.Laste also den Pc nur einseitig richtig aus.Aber meine Mutter sagt immer mein Pc sei an der hohen Stromrechnung alleine Schuld.Das stimme ja nicht.Ist ja nicht so das es 800 Euro nur der Pc im Jahr brauchen würde.Ich komme so auf 250-280 Euro im Jahr bei Hochrechnung hoch.Es sind jedoch 800 Euro mehr Stromkosten gewesen.Mein Pc braucht nicht mehr als die anderen Jahre zuvor sondern weniger.
Kann also nur noch ne noch teures Netzteil nehmen,ne noch kleinere GPU um das mehr an CPU Leistung beim Stomverbrauch auszugleichen.Das mache ich weiterhin. Damit komme ich also an mein Limit.Ne bessere GPU schafft keine 40 Watt bei Vollast an Stromverbrauch.Wäre geil wie viel Leistung mit ner rtx 4090 mit nur 40 Watt Vollast am Ende rauskommen würden.Wohl auch nicht mehr Leistung.
MalWiederIch schrieb:
Ergänzung ()
Und selbst wenn:
365 Tage x 4 Stunden x 0,066kW x 0,28€/kWh = 26,98€
365 Tage x 4 Stunden x 0,066kW x 0,28€/kWh = 43,74€
Wir sprechen also selbst bei jemanden der Teilzeit als Streamer arbeitet gerade einmal von einer Differenz von 16,76€ pro Jahr oder 1,40€ pro Monat!
Die meisten Berufstätigen unter uns uns dürften nicht einmal 1/4 davon zum Spielen kommen.
Dementsprechend 0,35€ Differenz im Monat …
Krass sind die Stremer Sparsam.Mein Pc kommt trotz der sparsamen Hardware außer der CPU auf
365x24 Stunden davon (22 idle und 2 Stunden Vollast)x 0,066kwx0,32Euro/KWh=185 Euro
Also 15 Euro Pro Monat.Dabei mache ich nix besonderes auf dem PC.Mehr kann ich da wohl beim laufenden Pc nicht mehr Sparen.Nur ne noch schnellere CPU um noch viel schneller im Idle zu landen um da wenigstens etwas an Strom noch weiter zu sparen.
Ich bin gespannt wie weit ich das sparen noch treiben kann.Und im moment habe ich nicht mehr jeden Tag den Pc durchgehend am Laufen.Da wird es dann noch weiter der Strom sparen können.Aber zumindest 10 Stunden pro Tag läuft der dann dennoch noch immer.Mal sehen ob ich da noch weiter mit den Stunden runter gehen kann oder nicht.
Ich glaube hier wird bei der Diskussion nicht wirklich definiert was Idle ist, ich würde mir jedenfalls nie eine CPU holen aufgrund des Verbrauchs im "Leerlauf", da das vielleicht 2% bei mir ausmacht, ich schalte den PC aus wenn ich nicht davor sitze.^^
Und sollte ich mal vergessen den PC auszuschalten dann geht der im Leerlauf nach 30 Minuten in den Ruhezustand.^^
Also der Energieverbrauch für Idle ist für mich uninteressant, entweder ich schaue Streams oder Videos oder es laufen Spiele an meinem PC, während ich das hier schreibe läuft z. B. gleichzeitig auch ein Stream.^^
Bin ich komplett dabei , und selbst bei spielen ist es ehr der seltene Fall das das Maximum an Last anfällt was 250 Watt nimmt ehr Richtung 100-150 , die wenigsten werden cinebench 24/7 laufen lassen von daher verstehe ich die künstlich beschränkung im BIOS nicht
Edit
Beide cpus seines AMD oder Intel werden wohl bei normaler Nutzung das selbe verbrauchen der eine idlet mehr und der andere unter Last etwas mehr , am Ende wird es sich da nichts nehmen
Hm das Argument PV Anlage was ich immer wieder lese ist ja gut und schön aber bitte schreibt immer dazu das es erst in 10 Jahren + abgeschrieben ist und und dann sich auf die Stromrechnung auswirkt , außer man hat die umsonst bekommen dann habe ich nichts gesagt
Nun es laufen extrem langsame Downloads, da läuft dann der PC halt dann. Ich schlafe allerdings dann bis das fertig ist. Darum ist der PC im idle. Könnte zwar ein Download PC und einer für leichtes zocken sowie richtige arbeits PC draus machen. Aber warum sollte ich das machen. Dann liegt halt da mehr Geräte herum. Ich habe es bisher nicht geschafft das ich da das dann von selbst es runter lädt und ich dann immer wieder nen neuen downlaod laufen lasse. Wäre das alles nicht so umständlich dann würde ich das schon längst so gemacht. Dann auch noch Sachen vom Handy runter kopiert. Das dauert teilweise 2 - 3 Stunden. Mein Handy ist zwar nur 1 Jahr alt und auch halbwegs aktuell aber es hat ne Macke. Darum braucht es sehr lange bis es auf dem USB 3 Schnittstelle mehrere Bilder kopiert. Bei 3000 Bilder braucht es schon 2-3 Stunden am Stück. Es geht nicht anderst. Und Platz ist bei mir für einen 2 PC sehr begrenzt. Und Geld für nen extra PC habe ich auch nicht so viel. Also es geht nicht anderst. Darum läuft der PC halt im idle.
Das ist das große Geheimnis. Downlaod sind halt auch langsam. Alles braucht lange. Da kann es schon mal sein das er dann 10 Stunden am Stück läuft. Der Bildschirm und Lautsprecher sind aus. Wenn ich dann davor sitze dann schneide ich Videos, surfe im Internet und höre manchmal Musik im Hintergrund. Also der PC wird immer beschäftigt.
In den letzen Tagen wird der PC mit nem gba emulator belastet was rund 5 % CPU last erzeugt und vielleicht 15 % gpu Auslastung. Also bei mir ist das nicht so leicht. Ja das Handy ist ein klump wird aber dann mal ersetzt und der Rest geht auch wieder vorbei weil ist ja nicht ewigkeiten so.
Aber gut so ist das bei mir Alltag mit dem PC. Richtig gefordert wird er nur bei einem Programm wo und wirklich die CPU voll ausfahren kann. Das werde ich auch in Zukunft so machen.
Und idle stromverbrauch ja das ist halt bei Intel auch sparsamer aber gewiss auch so um die 12 Watt. Ob das viel im Jahr an stromkosten ausmacht ist ne andere frage. Gewiss werden die Streamer auch mehr last als idle erzeugen. Somit brauche ich am wenigsten gemessen pro Stunden eigentlich oder?
@latiose88 Mit Downloads ist man nicht im Idle aber das meintest du vermutlich nicht sondern die Zeit dannach?^^
Solche "großen" Downloads sind aber relativ selten bei mir, vielleicht einmal im Monat im Durchschnitt wenn überhaupt.^^
Und wie gesagt ich habe Ruhezustand aktiviert, wenn der Download so groß ist das ich den PC über Nacht laufen lasse geht mein PC nach 30 Minuten nach dem Download automatisch in den Ruhezustand, also ist dann mehr oder weniger ausgeschaltet.^^
Es gibt wohl auch Tools für z. B. Steam die nach dem Download den PC automatisch herunterfahren, aber wie gut die sind kann ich nicht beurteilen, brauch ich ja nicht wegen "Ruhezustand".^^
Wenn ein Spiel also sehr stark von einem größeren L3 Cache profitiert, dann heißt das, dass das Spiel auf CPUs mit weniger Cache sehr häufig auf den RAM zugreifen muss. Das ist langsam und grundsätzlich eher schlecht. Idealerweise sollten RAM Zugriffe minimiert werden, damit dieser nicht zum Bottleneck wird und die ALUs immer voll ausgelastet werden können.
Eigentlich sind also die Spiele, die am wenigsten von größerem Cache profitieren, die Spiele die am besten optimiert sind und am wenigsten von RAM Zugriffen ausgebremst werden.
Vor diesem Hintergrund finde ich es interessant, inwiefern Spielehersteller sich darüber Gedanken machen. Da gibt es sicher Partnerschaften mit AMD, wo man gezielt diese Cache-Optimierung betreibt und diesen Vorteil ggü der Konkurrenz zu erreichen.
Dann gibt es die Hersteller, die von sich aus optimieren. Da wiederum stellt sich die Kosten-Nuzen-Frage, denn Prozessoren mit üppigen verbauten Caches sind noch nicht so alt. Oftmals wird ja auf die Hardware optimiert, weil am meisten zum Zocken verwendet wird. Und das sind die Konsolen.
Darüber hinaus findet man CPUs mit großem Cache eher bei Selbstbau oder Käufern, die sich der Vorteile dieser CPUs bewusst sind. Die überwiegende Mehrheit wird Intel verbaut haben oder "klassische" AMD CPUs.
Würden wir einen höheren Marktanteil mit cashlastigen CPUs haben, könnte das mehr Optimierungsbereitschaft seitens der Hersteller bedeuten aber dann würden wieder Leute ohne eine derartige CPU auf der Strecke bleiben, wie du schon ausgeführt hast.
Die Konsolen haben ZEN2 CPUs mit abgespecktem Cache.
Wenn also Entwickler auf Konsolen Performance rausholen wollen, dann müssen sie zusehen, dass der kleine Cache reicht und nicht so viele Zugriffe richtung RAM stattfinden.
Wobei ich mir natürlich auch die Frage stelle, ob eine Optimierung auf eine bestimmte Cache größe überhaupt möglich ist. Also möglich schon, nur dass Entwickler sowas überhaupt berücksichtigen bezweifle ich. Bis auf wenige Ausnahmen wird vermutlich kaum ein Entwickler den Aufwand betreiben.