Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestAMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill
Kann jemand einem Laien erklären, warum der Idle-Verbrauch eines 8-Kerner (7700, 88 W) bei 70 W liegt und der eines 16-Kerner (7950X3D, 162 W) bei 64 W?
Kann jemand einem Laien erklären, warum der Idle-Verbrauch eines 8-Kerner (7700, 88 W) bei 70 W liegt und der eines 16-Kerner (7950X3D, 162 W) bei 64 W?
AMD und Intel verfolgen zwei verschiedene Stromspartechnologien. Bei Intel takten die Kerne einfach runter um möglichst wenig Strom zu verbrauchen, aber sie bleiben an. Takten für Teillast auch nur so hoch wie es braucht. Es gibt also immer einen Grundverbrauch. Bei neueren Intels kann das wegen besserer Fertigung und Optimierungen und E-cores besser funktionieren als bei einem 7. Gen i7.
Bei AMD schlafen die Kerne komplett, wird ein Kern benötigt wacht dieser auf und bearbeitet die Aufgabe mit vollem Takt um so schnell es geht wieder komplett "schlafen gehen" zu können. Daher spielt die Kernanzahl beim Idle eigentlich keine Rolle. Es kommen aber noch andere Faktoren dazu wie x3d Cache und der zusätzliche io die.
Das macht die Idleverbrauchsmessung in Windows bei AMD teils auch schwieriger, da allein die Sensorsoftware die Kerne aus dem schlaf holt.
Das ist nichts anderes als Marktwirtschaft. Wenn man nicht möchte dass die Preise hoch bleiben, kann man ja vielleicht etwas abwarten und nicht gleich zu Beginn alles kaufen, was releast wurde.
Oder ein echter Hersteller versucht wenigstens die Nachfrage wirklich zu bedienen.. AMD könnte ja mehr produzieren und verkaufen...
Ergänzung ()
Javeran schrieb:
AMD und Intel verfolgen zwei verschiedene Stromspartechnologien. Bei Intel takten die Kerne einfach runter um möglichst wenig Strom zu verbrauchen, aber sie bleiben an. Takten für Teillast auch nur so hoch wie es braucht. Es gibt also immer einen Grundverbrauch. Bei neueren Intels kann das wegen besserer Fertigung und Optimierungen und E-cores besser funktionieren als bei einem 7. Gen i7.
Bei AMD schlafen die Kerne komplett, wird ein Kern benötigt wacht dieser auf und bearbeitet die Aufgabe mit vollem Takt um so schnell es geht wieder komplett "schlafen gehen" zu können. Daher spielt die Kernanzahl beim Idle eigentlich keine Rolle. Es kommen aber noch andere Faktoren dazu wie x3d Cache und der zusätzliche io die.
Das macht die Idleverbrauchsmessung in Windows bei AMD teils auch schwieriger, da allein die Sensorsoftware die Kerne aus dem schlaf holt.
Das ist aber jetzt sehr vereinfacht. Bei AMD - den AM5 Boards kommt in meinen Augen erschwerend noch hinzu das man ja zum Teil zwei Chips auf der Platine hat. Und selbst wenn diese nur 10 Watt sich genehmigen würden sind dass dann in Summe schon 20 Watt...
Zweiter Punkt - als Frage - sind die Intelbretter die PCIe5 bieten auch so sparsam im Idle? Wenn hier nämlich PCIe4 Bretter mit 5er verglichen werden - dann können auch da 10 Watt und mehr Unterschied her kommen...
Ergänzung ()
DerRico schrieb:
Ist das nicht bei aller Spitzentechnik so? Muss doch deswegen nicht gleich verboten werden?
Du zeigst leider das es zumindest reguliert werden muss.
OLED Geräte waren mal sparsam. Die ganzen Entwicklungen im Moment gehen aber wieder da hin das sie so viel verbrauchen wie PLASMA und CO damals. Ja mit 8k und deutlich größeren Diagonalen als damals.
Das ist aber in der Größenordnung der EU nicht entscheidend.
Hier will man eigentlich das ein oder andere Großkraftwerk einsparen. Und das wir das sollten - sollte inzwischen doch bei jedem angekommen sein.
Der Mensch ist halt nicht vernünftig. Und im Straßenverkehr akzeptierst du doch auch die Regulierungen die der Staat gemacht hat.
Und noch mal - welche Entwicklung ist das denn - 8k 16k 32k etc.. Auch die Zoll... Für den Otto Normalverbraucher sind das Fake-Entwicklungen. Bei 8k z.B. ist Schluss. Denn alles alte Filmmaterial kann man maximal mit 8k scannen. Erhöhst du das siehst du dann die "Pixel" der chemischen Substanzen die genutzt wurden beim Farb-Film...
Wenn du keine Mega ZollWand fährst [die eigentlich im Privaten wirklich keiner braucht] werden dir 8k und drüber eben keinen Vorteil bringen... Diese Auflösungen braucht man für >100 Zoll eventuell. Und da dann in einer Art Kino oder what ever Usecase - gerne ja. Aber jeder im Wohnzimmer - wohl eher nicht.
@Novasun sicherlich vereinfacht und auf die CPU bezogen. Das Mainboard ist relativ und je nach Anwendungsfall anders und kommt natürlich als Variable noch dazu. Eigentlich ist die AMD CPU ein SOC und bräuchte theoretisch keinen Zusätzlichen "Chipsatzchip" der ist nur für zusätzliches zuständig. Aber da liefern uns die Mainboardhersteller leider keine so einfachen Mainboards mit vollem Funktionsumfang(BIOS) und reinen SOC Anschlüssen. Das würde auch erheblich Kosten sparen und wäre schön günstig aber das will man wohl nicht.
Das ist seit Ryzen je her so ein Henne Ei Problem. Was wird abgebildet? Der Verbrauch beim Polling oder der Idle? Wie will man das per Software lösen wenn Code dazu ausgeführt werden muss? Wie stellt man sicher dass tatsächlich im Hintergrund gerade nichts läuft, bei all den Diensten und Windowssoftware? Gerade die Messungen Zuhause bei den Nutzern sind so, eher nicht valide. Denke man muss an der Steckdose messen oder mit Messgeräten am Board ohne Software. Dazu kommt noch dass viele Mainboards die Sensoren nicht richtig auslesen, es gibt da so viele Messfehlervariablen. Im Grunde genommen ist es sogar schwer unter den ganzen Testseiten valide Informationen zu bekommen bei den verschiedenen Boards und Messmethoden.
Entschuldige bitte, aber welcher Arbeitgeber erlaubt die Bearbeitung sensibler Firmendaten auf einem Privat-PC? Davon abgesehen, dass auf dem Privat-PC abseits von MS Office in der Regel sämtliche weitere benötigte Software fehlt.
Entschuldige bitte, aber welcher Arbeitgeber erlaubt die Bearbeitung sensibler Firmendaten auf einem Privat-PC? Davon abgesehen, dass auf dem Privat-PC abseits von MS Office in der Regel sämtliche weitere benötigte Software fehlt.
Präsentationen und Konzepte oder Ausbildungspläne oder Vertriebsstories oder Projektsteckbriefe oder Redaktionstasks und Analysen etc. kann ich wunderbar lokal auf der privaten High End Maschine erstellen und bearbeiten.
Sensible Daten liegen normalerweise auf entsprechend isoloierten Systemen und erfordern einen Account und Einloggen in der App oder dem VErfahren. Geregelt wird das über Policies und Zusatzauthentifizierung.
Das läuft dann nur über das Firmennotebook und den Computer Account sowie das Systemkonto.
Stromverbrauch sollte man unter Linux testen. WriteBack schön auf 10 sek und dann ECHTEN idle testen. Und zwar auch mit Equipment direkt vor dem Netzteil. Alles andere ist verlassen auf Zahlen auf die man absolut keinen Einfluss hat. Mit einem neuen Chipsatztreiber kann der Verbrauch um 90% sinken, nur tut er das dann wirklich ? Tja, blindes vertrauen in die Hersteller...
Ich bin im Bereich Entwicklung tätig und da unterliegen schon Inhalte von Präsentationen und Projektsteckbriefen der NDA, weshalb ich das nicht auf meinem Privat-PC machen würde.
Und noch mal - welche Entwicklung ist das denn - 8k 16k 32k etc.. Auch die Zoll... Für den Otto Normalverbraucher sind das Fake-Entwicklungen. Bei 8k z.B. ist Schluss. Denn alles alte Filmmaterial kann man maximal mit 8k scannen. Erhöhst du das siehst du dann die "Pixel" der chemischen Substanzen die genutzt wurden beim Farb-Film...
8K braucht auch kein Mensch, erst recht nicht in den nächsten Jahren. Wir sind so weit davon entfernt überhaupt 4K im Streaming/TV etc. Bereich auszunutzen, dass 8K Auflösungen völliger Wahnsinn sind. Erst recht wenns um Spiele geht. Keine der nächsten GPU Generationen wird auch nur annähernd diese Auflösung in max. mit akzeptablen Framerates >90FPS bedienen können. Konsolen erst recht nicht. Zumal der Unterschied zwischen 4K und FHD in einem Sitzabstand von 2-3m auf einem 65" schon kaum wahrnehmbar ist.
Wenn es auch nur irgendeinen Bereich gibt, wo man ohne Bauchschmerzen den Energieverbrauch einschränken kann, dann doch wohl bei übergroßen Diagonalen und 8K.
Ich bin im Bereich Entwicklung tätig und da unterliegen schon Inhalte von Präsentationen und Projektsteckbriefen der NDA, weshalb ich das nicht auf meinem Privat-PC machen würde.
Ja, das kommt schon darauf an. Ich habe z.B. gerne den Rahmen, die Illustration und Struktur (die je nach content auch mal 1-2 Arbeitstage fressen kann) einer ppt zu Hause vorbereitet und mir dann selbst gemailt an den Firmenrechner.
Das inhaltliche finalisieren mit Zahlen und (dann ggf. sensiblen!) Daten und Fakten und vor allem Namen, ja ganz klar, das schließe ich auf dem Firmensystem ab.
Das hat leider nur einen i5-8250U CPU und 8GB Ram... und mit meiner Höllenmaschine macht gewisse Office Arbeit und Internetrecherche WESENTLICH mehr Spaß
... dass 8K Auflösungen völliger Wahnsinn sind. Erst recht wenns um Spiele geht. Keine der nächsten GPU Generationen wird auch nur annähernd diese Auflösung in max. mit akzeptablen Framerates >90FPS bedienen können.
Ich würde wetten, dass deine Firma weder ISO27001 noch IT-Grundschutz Zertifiziert ist.. (Und auch sonst wird es um die Sicherheit eher mau bestellt sein, wenn das alles erlaubt ist)
Ich würde wetten, dass deine Firma weder ISO27001 noch IT-Grundschutz Zertifiziert ist.. (Und auch sonst wird es um die Sicherheit eher mau bestellt sein, wenn das alles erlaubt ist)
Leute die sich jetzt im GPU Limit befinden, werden durch einen 4k Test auch nicht schlauer.
Wenn man schon weiß, die GPU limitiert, kauft man ne dickere Karte nachdem man sich entsprechende GPU Benches angesehen hat.
Immer dieses null Verständnis für die Natur eines CPU Benches.