News Intel Core i7-14700K: Für bis zu 21 % mehr Leistung benötigt man 13 % mehr Energie

ThirdLife schrieb:
Natürlich nicht, aber wer heutzutage selbst einen billigen 1080p "Gaming Monitor" kauft dürfte die 144/240 oder sonstwas quasi immer dabei haben.
Wenn es nur ein Nebeneffekt ist, dass ist es ebenfalls Wurscht ob es nun mit 120Hz oder 200Hz läuft. Wenn ich mir "nebenbei" neue Hardware kaufe, habe ich halt neue Hardware. Der springende Punkt an der Geschichte war, macht es heutzutage in der Masse einen Unterschied ob eine CPU 1, 2 oder 5 Jahre alle ist? Nö! Die wenigen Ausnahmen bestätigen die Regel nur.

Schaue dir einfach mal die Systemanforderungen für BG3 an, so ähnlich sieht es bei vielen aktuellen Spielen aus.
1692019415260.png


Nehmen wir mal Diablo 4...
1692019518336.png


Wäre "früher" schlichtweg undenkbar, wir reden hier von 10 Jahre alten CPUs.
 
  • Gefällt mir
Reaktionen: Tharan und ThirdLife
xexex schrieb:
Absurd ist es eher sich alle 1-2 Jahre eine neue CPU zu kaufen, meine letzte Plattform hatte 7 Jahre auf dem Buckel. Im GPU Limit sieht es meistens sowieso so aus, egal ob eine CPU 1, 2, 5 oder 7 Jahre alt ist.
Anhang anzeigen 1386211
Da muss ich dir allerdings vollkommen Recht geben. Zuvor hatte ich 5 Jahre den Ryzen 5 2600, davor rund 5 Jahre einen FX-8350 (Schande über mein Haupt) und davor auch gute 5 Jahre einen Pentium E2140.

Vielleicht ist mein Denken doch nicht so absurd wie ich vermutet habe.
Wobei ich andererseits schon gerne Fortschritt sehe.
 
  • Gefällt mir
Reaktionen: muvmend
xexex schrieb:
Absurd ist es eher sich alle 1-2 Jahre eine neue CPU zu kaufen, meine letzte Plattform hatte 7 Jahre auf dem Buckel. Im GPU Limit sieht es meistens sowieso so aus, egal ob eine CPU 1, 2, 5 oder 7 Jahre alt ist.
Wieso das ist doch normal !

Meine hat 10 Jahre gehalten :)

Core i3 3220 --> Core i3 12100F und Geforce GT 430 --> Geforce GT 1030

frankkl
 
  • Gefällt mir
Reaktionen: FrittiDeluxe
Ich würde allerdings behaupten, dass es heute schwerer ist als damals. Ich mein von Zen 2 zu Zen 4 aktuell haben wir nahezu eine Verdoppelung der Leistung. Und das innerhalb von vier Jahren.

Als ich noch meinen Sandy Bridge 2600K hatte sah das anders aus. Den konnte man von 3,4 auf 4,7 Ghz prügeln und das hielt mir von 2011 bis 2019.

Da gabs aber auch keine großartigen Steigerungen gefühlt. Ein 7700K war selbst nach sechs Jahren nicht besonders frappant viel schneller, Konsolen haben auch nicht großartig MC eingesetzt. Ich denke erste AMD hat da mit mehr Kernen für Wind gesorgt und Intel musste dann wieder richtig liefern.
 
Alesis schrieb:
Seit wann ist Idle Teillast?
Sind wann gibt es im "Race to idle" Zeitalter noch Teillast?
Im zeitlichen Mittel schon, in echt wird kurz geburstet für x Millisekunden, bis alle Puffer wieder gefüllt sind und die CPU idled wieder. Klar, Graka muss das Video dekodieren und paar Soundinfos mit ausgeben, aber das ist keine Belastung für eine GPU. Und schon gar nicht für die CPU, um die es hier ging.

Teillast ist, wenn ich einzelne oder mehrere Cores signifikant oder voll auslaste, über Zeiträume >1s.
Wenn das ganze System bei 0-5% rum hängt, ist das quasi Idle. Selbst Hintergrundjobs wie updates können höhere Last verursachen.

Da du mit der Teillast angefangen hast: Wann ist ein Rechner mit modernem OS im Bereich der Teillast und wann ist es Idle?

Kleiner hint: Die CPU-Auslastung ist niemals bei 0% ausser bei suspend to RAM/disk. Es gibt immer 0,x% Auslastung, alleine für den Kernel.
 
@scooter010
Idle ist Leerlauf. Idle ist also ein Zustand den man am besten mit dem standby Modus beendet, oder das Gerät ausschaltet. Ein Video abspielen ist kein Leerlauf und auch kein Idle, weil man das Gerät nutzt und stanby und ausschalten ganz sicher nicht gewünscht ist.
Ich kann also deine Absicht der falschen Beschreibung von Idle nicht nachvollziehen.
 
  • Gefällt mir
Reaktionen: Anon-525334
scooter010 schrieb:
Teillast ist, wenn ich einzelne oder mehrere Cores signifikant oder voll auslaste
Volllast auf einem Kern ist für mich keine Teillast.

Den Office/Video Kram bezeichne ich als Niedriglast.
Niedriglast verhindert Idle, und genau das ist AMDs Problembereich. Komischer Weise können sie es bei Notebooks.
 
Dann geht deine Definition an technischen Realitäten vorbei. Aus Sicht einer CPU (um die es ja hier letztlich im Artikel ging) ist sie immer dann im Idle, wenn nichts zu berechnen ist. Vollkommen Wurst ob der User dabei etwas tut oder nicht.
Vergleiche Server. Da ist es vollkommen irrelevant, was ein User tut, da es grundsätzlich keine (System-)User gibt (ausser vielleicht den Admin).
Ein System bzw. Bestandteile dessen ist/sind immer dann im Idle, wenn sie selbst nur partiell ausgelastet sind. 5ms 100% Auslastung, dann 995ms wieder 0%. War das system nun voll ausgelastet, in Teillast oder Idle?
Antwort: Es war in Vollast und Idle. So stellen sich für Computer Videowiedergaben, Textbearbeitung und Websurfen da. Ganz kurze Zeitspannen Vollast, dann idle. Und wenn dein Taskmanager 30% anzeigt, dann ist das ein zeitliches und CPU-zusammenfassenden Mittel. 30% der Rechenzeit der CPU sind genutzt, 70% der CPU idle.
 
Unfassbar INTEL schafft es nicht seit 2016 den nächsten Sprung in der Fertigungsprozess zu schaffen ein weiterer 10 nm Aufguss und es wird weiter an der Stromschraube Watt gedreht… was kommt als Nächstes werden Intel CPUs in zwei drei Generationen auch auf 10nm setzten sind dann 1500 Watt Netzteile Pflicht mit Wasser oder Stickstoff Kühlung?

PS.: jaja ich weiß Intel hat nicht soviel Geld aber Apple macht es gerade vor wie es geht 20 24 Kerne in 3 mm … auch AMD Schaft es mit x86 Technologie auf 4 bzw 3 nm … ist Intel Technisch in einer endgültigen Sackgasse gelandet?
 
Alesis schrieb:
Ein Video abspielen ist kein Leerlauf und auch kein Idle,
Wenn ich 24 Mitarbeiter habe, einer davon schiebt gelangweilt Pakete hin und her und 23 schlafen, ist das für mich keine Teillast sondern Idle. Das hast du bei einem potenten Rechner, wenn du nicht gerade irgendwelche umfangreichen Berechnungen durchführst oder ein Spiel spielst die meiste Zeit.

Wenn ich was in Word schreibe oder wie jetzt einen Post bei CB verfasse, was hat meine CPU zu tun? Richtig! Nichts! Wir müssen uns aber nicht über Begrifflichkeiten streiten, ein Blick in den Task Manager reicht. So sieht es meistens aus, selbst bei einem vermeintlich "ausgelasteten" PC.

1692024669329.png
 
Zuletzt bearbeitet:
till69 schrieb:
Den Office/Video Kram bezeichne ich als Niedriglast.
Irrelevant wie du es bezeichnet. Dafür gibt es definierte sleepstates in CPU, Chiplet und Chipsatz.
Wenn x ms nichts zu tun, dann weiter runter. Oder eben wieder hoch.
Egal wie man es dreht, die meiste Zeit tut eine CPU auf dem Desktop, abseits von expliziten Berechnungen, die meiste Zeit nichts.
Klar, ob eine CPU immer in die tiefsten sleepstates kommt ist eine andere Frage.
Letztlich kommt es also darauf an, wie die zeitliche Auflösung bei det Beurteilung von Idle ist.
Wenn idle nur dann ist, wenn der tiefste sleepstate eines systems erreicht wird, dann idlen viele Systeme aufgrund kaputt er Treiber etc. nie, trotzdem gehen sie automatisiert in standby.
Ich bleibe dabei. Jeder Takt in der eine CPU NOP (No Operation) ausführt und/oder nicht die maximale Frequenz gefahren wird (wenn es nicht an TDP liegt), ist die CPU anteilig idle.
 
xexex schrieb:
Wenn ich was in Word schreibe oder wie jetzt einen Post bei CB verfasse, was hat meine CPU zu tun? Richtig! Nichts!
Also bei mir reicht es die Maus zu bewegen und ich hab gleich mal 5-10W auf den CPU Cores stehen. Das ist nicht "nichts". Wer CPUs mit vielen Cores nutzt kann jetzt nebenher noch ein ISO crunchen, Musik hören und einen Film encoden...

Wofür haben denn alle Mördermaschinen wenn man sie nie nutzt und alles immer idlen lässt ?

xexex schrieb:
Wir müssen uns aber nicht über Begrifflichkeiten streiten, ein Blick in den Task Manager reicht. So sieht es meistens aus...
6% sind halt 6%. Ich nehm an es stört dich demfall nicht wenn dein Lohn um 6% gekürzt wird...als Idle-Ausgleich sozusagen ? Ich mein sind ja nur 6% und somit faktisch nix. :D :p
 
  • Gefällt mir
Reaktionen: Alesis
ThirdLife schrieb:
Merk ich grad auch wieder beim MSFS. Stellenweise ohne DLSS3+FG 30fps. Ohne FG quasi unerträglich, mit gerade so machbar wenn man verwöhnt ist.

Dafür brauchs eigentlich eine 128MB V-Cache CPU die bei 7 Ghz läuft bei einem 50% IPC Uplift, damit das endlich mal vorangeht. 🤣

Schau mal auf die Nutzung der Kerne/Threads also mehr Cache und Takt sind der falsche Lösungsansatz. :freaky:
 
ThirdLife schrieb:
Das ist mein Arbeitsnotebook, auf dem ich den ganzen Tag gearbeitet habe und der jetzt kein besonderer Renner ist (4c/8t). Was glaubst du wie dieser Wert auf einer potenten Kiste aussieht?

Zudem schaust du auf den falschen Wert, die übrigen 4% zeigen die aktuelle "Auslastung" meiner CPU während ich nichts tue, entscheidend ist die CPU-Zeit. Die CPU befand sich mit Abstand den größten Teil des Tages im Idle und daran ändert nichts, dass ich währenddessen mit mehreren Programmen gearbeitet habe.

Eine Teillast gibt es wenn ein Spiel 8T von vorhandenen 24T nutzt und sie voll auslastet und nicht wenn ein Browserfenster hin und wieder von einem Kern der CPU bedient wird. Typischer Beispiel für Teillasten sind Spiele, während Anwendungen wie Cinebench eine CPU voll auslasten können.

Ein Beispiel wie schwer mein Rechner "arbeiten" musste während ich den Beitrag schrieb.
1692027802750.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
Sieht so aus als wird mein nächster Build energieeffizient gebaut, d.h. midrange CPU und möglichst sparsame GPU.

Meine 3080 ist bei Baldurs Gate und aktuell 30 Grad draussen kaum auszuhalten. Frames limitiert auf 85 bei 4k, 150mV undervolting und Power Target 60% —> 88 Grad max. Das ist doch einfach irre…
 
xexex schrieb:
Wenn ich 24 Mitarbeiter habe
Es ist mir nicht bekannt, dass man jetzt auch schon die Arbeitsleistung von Menschen mit Leerlauf, oder Teillast bezeichnet. Schon krass wie man sich Vergleiche ausdenkt, die völlig an den Haaren herbeigezogene sind. Nur weil ihr einfach nicht begreifen wollt, dass ihr mit Idle eine falsche Beschreibung nutzt, um damit zu argumentieren, warum Intel so toll und AMD so schlecht ist.
Und wenn ich mir die Leerlaufmessungen auf CB anschaue, zieht ein 7950X 10W mehr im Leerlauf als ein 13900K.
Auffällig ist aber schon, dass ein 7700 65W 6W mehr will, als ein 7700X. Während eben dieser 7700X mit 8W mehr im Leerlauf als ein 13600K kein Drama ist. Oder ein 7800X3D 6W mehr als ein 13700K.
Alles Bereiche die ich jetzt nicht als gerechtfertigt ansehe, mit einer falschen Bezeichnung den Leerlauf zu kritisieren.

Aber natürlich schneiden bei diesen Messungen der 7700 und 7600 nicht gut ab. Der 7900X3D und der 7900 zeigen aber auch in dieser Disziplin, dass man solche CPUs nur Leuten empfehlen sollte, die man nicht leiden mag. :daumen:

Aber mit meinem 4350G mache ich mir keine Sorgen. Ich muss auch keinen falschen Begriff mit dieser CPU einsetzen, um irgendwie eine emotionale Überlastung zu erzeugen, sondern freue mich über meinen Deskmini. Mein Fernseher, meine Musik, mein Internet PC.
Zum Zocken möchte ich mir jetzt ein ITX System erstellen mit einem 7500F.
Und da ich kein Auto habe, mein letzter Flug 2015 nach Paris war, mein Jahresverbrauch 900kWh ist, bin ich doch der bessere Mensch :heilig:
 
Alesis schrieb:
Alles Bereiche die ich jetzt nicht als gerechtfertigt ansehe, mit einer falschen Bezeichnung den Leerlauf zu kritisieren.
Entscheidend ist an dieser Stelle wie lange im Verlauf einer Aktivität, sich eine CPU im Leerlauf befindet und dort ist sie während ich mir bei Youtube ein Video anschaue zu 99%. Definiere es für dich wie du es möchtest, meine CPU ist, wenn ich nicht gerade spiele, die ganze Zeit im Leerlauf und selbst beim Gaming bestenfalls im Teillastbetrieb.

Auf der anderen Seite tritt Volllast praktisch nie auf, weshalb ich mir darüber gar keine Gedanken zu machen brauche. Kann aber auch jeder für sich selbst überprüfen, einfach abends bevor man den PC herunterfährt die Leerlaufzeit kontrollieren.
 
Zuletzt bearbeitet:
@xexex Grundsatzfrage: Gibt es wirklich eine CPU im kompletten Idle? Denn auch der Lehrlaufprozess bedingt ja ein OS im Hintergrund, das alleine schon rund um die Uhr nur mit dem Schwanz wedelt bildlich gesprochen, wann du einen Input gibst. Also hat zumindest immer ein Kern rund um die Uhr was zu tun, da der PC ja bereit stehen soll.
Eine CPU kann doch eigentlich nur 1 oder 0, die Fage bei 1 ist dann in welchem Zustand sie nach oben gepusht wird, um die Aufgabe zu erfüllen, also ein abgestuftes 1. Und das ist für mich eher Teillast, während wir unter Idle ja eigentlich nur die geringst mögliche Teillast meinen, die das Betriebssystem ohne zusätzliche Aufgabe auslöst...

Persönlich denke ich übrigens, dass bei AMD vieles auch am Mainboard-Chipsatz liegt, weswegen der Deskmini allgemein oft beim Verbrauch gut wegkommt und es ja schon beim X570-Chipsatz da hohe Werte gab, aber da braucht man einiges an Hardware, das mal nachmessen zu können, die ich nicht rumliegen habe.
 
HasleRuegsau schrieb:
Meine 3080 ist bei Baldurs Gate und aktuell 30 Grad draussen kaum auszuhalten. Frames limitiert auf 85 bei 4k, 150mV undervolting und Power Target 60% —> 88 Grad max. Das ist doch einfach irre…
Bei mir mit 240FPS Framelimit@3440x1440 -> 38-40C. Weiss nicht was du hast :daumen:
 
Tharan schrieb:
Gibt es wirklich eine CPU im kompletten Idle?
Idle ist kein fest definierter Begriff, für mich ist es die Zeit in der eine CPU nichts zu tun hat. Letztendlich ging es aber um den Zusammenhang, wie viel verbraucht eine CPU zu welchen Zeitpunkt. Auch das kann jeder für sich überprüfen, bei mir läuft jetzt gerade ein Youtube Video im Fenster.
1692029154970.png


Schließe ich das Video, ändert sich an der Anzeige kaum was, also befindet sich die CPU auch bei Youtube schauen im "Idle". Über "Teillast" brauchen wir da nicht zu diskutieren, da würde die CPU nicht bei 9W hängen.
 
Zurück
Oben