Meine APU und ich. Ryzen 8700G.

sz_cb

Lieutenant
Registriert
Jan. 2020
Beiträge
703
Hallo liebes Forum,

Ende Februar 2024 habe ich mein AM4-System (5900X, 64 GB RAM, GTX 1660Super) ersetzt. Und das nicht, weil mir das System zu langsam gewesen wäre...

Einer der Gründe für den Umstieg war, dass ich mir ein Jahr zuvor einen Laptop mit Ryzen 7 Pro 6850U zugelegt hatte und gesehen habe, wie effizient die monolithischen APUs von AMD sind. Während mein Desktop im Leerlauf direkt nach dem Start und ohne Hintergrundprozesse bestenfalls 50 Watt verbraucht hat, kam mein Laptop mit 2,2 Watt (inkl. 14"-Bildschirm) aus. Sobald auch nur ein Browser-Fenster offen war, stieg der Verbrauch meines Desktop-PCs auf über 70 Watt an. Das empfand ich von Beginn an als völlig absurd. Der Laptop öffnete mir sozusagen die Augen.

Der zweite Grund war, dass mein Laptop und sämtliche andere IT im Haushalt mit Linux lief - lediglich mein Desktop-PC baute noch auf Windows. Ich hatte den OS-Wechsel stets aufgeschoben, weil ich an dem PC meine Brötchen verdiene und täglich gut und gerne 12-16 Stunden daran verbringe.

Dann wurde der 8700G veröffentlicht und ich dachte mir: Das könnte die Gelegenheit sein! Wenn ich "upgrade", muss ich wegen AM5 ein komplett neues System aufbauen: neues Board, neuer RAM. Also sprach nichts dagegen, parallel zum bestehenden Desktop das neue System zu installieren. Gedacht, getan!

Board, CPU und RAM habe ich neu gekauft, den Rest konnte ich vorübergehend mit Komponenten aus der Wühlkiste bestücken. Da die CPU gerade erst auf den Markt kam, wollte ich sicherstellen, dass der Linux-Kernel die CPU kennt, deshalb habe ich mich für Nobara entschieden, was mir als brauchbarer Kompromiss aus "Point release" und "Rolling release" erschien. Die Installation und der Datentransfer verliefen überraschend problemlos. Binnen einer Woche konnte ich im Gehäuse die alten durch die neuen Komponenten ersetzen und hatte direkt zum Start ein funktionierendes Produktivsystem, inkl. aller virtuellen Maschinen, Entwicklungsumgebungen, neuen Serverzugängen usw..

"Warum dauerte das eine ganze Woche?"
Nunja, abgesehen davon, dass ich "nebenher" arbeitete, wäre ich nicht ich, wenn ich nicht versuchen würde, die Systemeffizienz zu optimieren ;)

"Aber der 8700G ist doch sehr effizient!"
Kurz gesagt: Jain.
Im Auslieferungszustand mag der 8700G effizient erscheinen, doch im Grunde ist der 8700G ein Chip aus dem mobilen Bereich, der für den Desktop mit der Brechstange hochgepusht wurde. Es bot sich also geradezu an, ihn in Sachen Effizienz zu optimieren.

"Aber vom 5900X zum 8700G zu wechseln ist in Sachen Performance doch ein Downgrade!"
Das stimmt, auf dem Papier. Zum Zocken kam ich mit den Jahren immer weniger. Zudem haben die aufgerufenen Preise selbst für Mittelklasse-GPUs und die gefühlt immer langweiligeren neuen Spiele auch nicht gerade dafür gesorgt, den Spieltrieb wieder zu entfachen. Hinzu kam, dass sich meine erwerbsmäßigen Tätigkeiten immer mehr in Richtung Web-Backend und -Frontend sowie Fernwartung verlagerten und der 5900X dafür völlig übertrieben ist. Das und die laufenden (Strom-)Kosten bei 12-16 Stunden täglicher Nutzung (bei meist recht geringer Systemlast) waren mir Gründe genug. Vermisse ich im Alltag die potenzielle Mehrleistung des 5900X? Absolut nicht. Stattdessen erfreue ich mich daran, dass der 8700G jetzt auch den AV1-Codec per Hardware encoden kann. Alles andere läuft genauso wie zuvor. Nur eben mit deutlich gesenktem Stromverbrauch, geringerer Abwärme und geringerem Kühlaufwand. Da wir im Dachgeschoss wohnen, ist das ein gar nicht so unerheblicher Faktor.


Mein aktuelles System
  • CPU: Ryzen 7 8700G
  • Mainboard: Gigabyte B650 Aorus Elite AX Rev 1.2 (BIOS FB2)
  • RAM: 64 GB G.Skill Trident Z5 (2x 32 GB, DDR5-6000, 1,4 Volt)
  • GPU: nur die iGPU
  • SSDs (NVME): Samsung 980 Pro 2 TB & Teamgroup T-Force 4 TB
  • Netzteil: Seasonic Prime Fanless 450 Watt
  • Kühler & Lüfter: Noctua NH-D15s, insg. 6 Lüfter (Thermaltake TT Toughfan 12 PWM 120mm), zw. 450 und 600 RPM
  • OS: Nobara Linux 40 (derzeitiger Kernel: 6.11.7)
  • Soundkarte: Nuprime uDSD (extern via USB)
  • Tastatur/Maus: Funk (mit jeweils eigenem USB-Empfänger)
  • Monitore: 2x 27" WQHD, 60 Hz (1x HDMI, 1x DP)
  • Netzwerk: angeschlossen an 2.5 GBit-Hub

Im Leerlauf verbraucht der PC zwischen 24 und 26 Watt (an der Steckdose). Ausgehend davon, dass das Deaktivieren des XMP/EXPO-Profils 10-12 Watt sparen soll, müsste mein PC nach dem Deaktivieren nur noch ca. 14 Watt im Leerlauf verbrauchen. Das macht er aber nicht: Der Verbrauch ist auch mit dem Standard-JEDEC-Profil (4800 MT/s, 1,1 Volt) schwankend zwischen 24 und 26 Watt. Ich kann diese im Netz herumgeisternde Grenze von 6000 MT/s demnach nicht bestätigen. Weshalb das bei den meisten 8000G-Systemen anders ist als bei meinem System, kann ich leider nicht erklären...

Mein 8700G ist undervolted (-0,07 V) und zudem mittels PBO underclocked (-450 MHz), auf 45 Watt PPT gedeckelt (entspricht einer TDP von 33 Watt) und core optimized (-45). Nicht genutzte Komponenten des Mainboards sind im BIOS deaktiviert. Die iGPU-Settings sind auf "Auto", allerdings reserviere ich 8 GB des RAMs exklusiv für die iGPU, damit stets genug freier Speicher für kleinere, lokale KI-Sprachmodelle bzw. KI-Bildgeneratoren verfügbar ist). Spannungen für RAM, VDDG/VDDP & Co. sind entweder fest eingestellt oder mit einem negativen Offset versehen. RAM und CPU laufen selbstverständlich Prime-stable.


Verbrauch Gesamtsystem (Steckdose)
  • Leerlauf: zwischen 24 und 26 Watt
  • Volllast: < 90 Watt
  • Spiel (Portal 2, VSync 60 FPS): < 60 Watt


Verbrauch CPU-Package (turbostat)
  • Leerlauf: 3,3 Watt
  • Volllast: 44,9 Watt


Benchmark-Resultate

AIDA64 (Wine)

  • RAM (Read): 63457 MB/s
  • RAM (Write): 92770 MB/s
  • RAM (Copy): 73844 MB/s
  • RAM (Latency): 64,5 ns


Cinebench R23 (Wine)
  • Singlecore: 1654 (92 % der Performance des 8700G im CB-Test)
  • Multicore: 17253 (96 % der Performance des 8700G im CB-Test)


Geekbench 6.3 (nativ Linux)
  • Singlecore: 2612 (97 % der Performance des 8700G im Geekbench Browser)
  • Multicore: 14139 (102 % der Performance des 8700G im Geekbench Browser)


Ich weiß nicht, wie hoch die Performance-Verluste durch die Windows-Emulation mit Wine sind, aber die Ergebnisse halte ich für mehr als ok, v.a. in Anbetracht des nahezu halbierten Verbrauchs. Performance verliert man durchs Untertakten nur im Singlecore. Im Multicore ist der Verlust vernachlässigbar. Durch die zusätzlichen Tuning-Maßnahmen kann die Performance sogar besser sein (siehe Geekbench). Und das bei fast halbiertem Verbrauch im Multicore (45 statt 88 Watt). Ein paar Prozentpunkte lässt man durch die Optimierungen mitunter liegen, aber wenn es mir um die ultimative Performance ginge, hätte ich mir nicht den 8700G gekauft.


Mein Fazit

Man merkt, dass der 8700G eigentlich aus dem mobilen Bereich stammt und für den Desktop ab Werk weit entfernt vom Sweetspot betrieben wird. Der 8700G kann jedoch durch etwas Tuning deutlich effizienter sein, als er ausgeliefert wird. Dass dies fast um den Faktor 2 geschieht, war für mich dann aber doch überraschend. Der PC ist in keiner Lebenslage hörbar und die CPU wurde im Sommer beim Video-Encoden schlimmstenfalls 60 °C warm. Und wenn ich tatsächlich mal Zocken will, geht das mit Abstrichen auch ganz gut (neulich habe ich mal wieder Metro 2033 Redux und Portal 2 angespielt).

Der Umstieg vom 5900X (+ GTX 1660S, Windows 10) zum 8700G (iGPU, Linux) war für mich die goldrichtige Entscheidung.


Wie sieht es bei euch aus? Habt ihr ähnliche oder ganz andere Erfahrungen gemacht? Könnt ihr APUs etwas abgewinnen?


Randnotiz #1: Wie ich eingangs schrieb, wechselte ich Ende Februar zum 8700G. Etwa ein halbes Jahr später kam die Jahresabrechnung beim Strom: Wir haben knapp 170 kWh weniger verbraucht und bekommen 55 Euro zurück. Da es ansonsten im Haushalt keine Änderungen an Geräten oder Gewohnheiten gab, lässt sich der geringere Verbrauch durchaus dem PC zuschreiben. Mit dem Upgrade ging es mir natürlich nicht ums gesparte Geld bei der Stromabrechnung, aber es ist trotzdem nett, die Bestätigung vom Stromlieferanten zu bekommen.

Randnotiz #2: Das war mein erstes und letztes Mainboard von Gigabyte. 1. Die Linux-Ambitionen von Gigabyte sind praktisch nicht vorhanden, wodurch selbst das Auslesen der Lüfterumdrehungen zur Frickelei wird. Und 2. Wer um Himmels Willen erstellt bei Gigabyte das BIOS? Liegt das an AM5? Solch ein strukturelles Durcheinander habe ich bei keinem anderen Hersteller bisher erleben müssen. Selbst ein gutes halbes Jahr später finde ich konkrete Einstellungen nur, indem ich sämtliche Untermenüs durchforste. Dann sind manche Einstellungen redundant und ich muss sie an beiden für mich völlig abwegigen Stellen finden und ändern, damit sie übernommen werden. Die Hilfstexte, die - sofern überhaupt vorhanden - als Erklärung angezeigt werden, sind i.d.R. völlig unbrauchbar, weil sie den angezeigten Begriff oft mit sich selbst erklären ("XYZ" --> "Sets XYZ to Enabled or Disabled" ... aha!). Nicht falsch verstehen! Ich erwarte keine Enzyklopädie als Erklärung, aber wenigstens, wofür "XYZ" steht. Lüfterkurven sollen nach dem separaten Speichern angeblich ein BIOS-Update überstehen, was sie bei mir aber nicht taten. Das Laden früherer Einstellungen bringt einige Einstellungen zurück, aber rudimentäre Einstellungen (wie bspw. Virtualisierung) nicht - wtf?
 
  • Gefällt mir
Reaktionen: Northstar2710, loser, JohnStorm und 12 andere
Ich war vor ca. 5 Jahren in einer ähnlichen Situation, allerdings habe ich den Desktop direkt gegen einen Laptop+Dock ersetzt.

Über die Jahre hat sich dann aber wieder mehr Hardware eingeschlichen da wir 2 Home-Office Arbeitsplätze gebraucht haben und wir doch beide Spaß an Spielen haben.

Zum Motherboard Thema: Mit Gigabyte bist du normalerweise aber eh gut dran. Einzig ASRock Boards sind meines Wissens nach aktuell kompatibler mit Linux.
 
  • Gefällt mir
Reaktionen: Chocobo, Volvo480, SuperHeinz und 13 andere
sz_cb schrieb:
Deaktivieren des XMP/EXPO-Profils 10-12
Das XMP / EXPO-Profile ist ja quasi OC und sorgt schon dafür, dass der Prozessor etwas mehr verbraucht. Wie viel genau kann ich aber auch nicht sagen. Da variert jeder Prozessor wahrscheinlich etwas, je nach Chipgüte.
Aber die entscheidende Frage für mich ist: Könntest du mal die Differenz in Prozent benennen zwischen mit EXPO und ohne? Oder fällt es bei deinen Anwendungen nicht auf? Weil prinzipiell, wenn er weniger Leistung hat, aber die Anwendung gleich gut bzw. schnell läuft, ok. Läuft dadurch meine Anwendung langsamer und ich verdiene Geld damit, dann könnte sich der Geiz am Ende des JAhres in Mannstunden wahrscheinlich nicht auszahlen. Ich habe zwei Unternehmen im Kundenkreis die wegen 60 Sekunden eine neues System hinstellen, da es sich am Ende des Jahres dann je nach Mitarbeiter wieder rechnet.
 
Ich habe,selber mit einer APU angefangen, ist immer noch im System, aber damals vor allem wegen der iGPU. Bin sehr zufrieden damit, auch wenn ich heute ein bisschen mehr Leitung wünsche swert finde. Bei meinem Ryzen 5 5600G liegt der gesamtstromverbrauch mit allen Komponenten bei ca. 30-40 Watt im Lehrlauf was für mich in Ordnung ist.
 
fef_ on_berg schrieb:
Vorteil bei der APU du kannst auch den PBO voll ausfahren unter Last bei kaum Mehrverbrauch aber mehr Leistung. Hab die PAU bei meiner Frau im System, weil ich gerade den über hatte und in Kombination mit einer 7700XT kommt echt ein recht gute und mehr als akzeptable Leistung raus, trotz PCIe 3.0.
 
Tenferenzu schrieb:
allerdings habe ich den Desktop direkt gegen einen Laptop+Dock ersetzt.
Wenn mein Laptop intensiver genutzt wird (bspw. Video-Encoden), wird er recht laut - und ich mag Lüftergeräusche wirklich gar nicht. Deshalb war das für mich keine Option.


Sinatra81 schrieb:
Das mag ich nicht glauben.
Ich suche bei Gelegenheit mal 'nen Screenshot raus (bzw. mache einen neuen).

Ich habe es auch kaum glauben können und die Kiste deshalb mal mit annähernd vollem Akku, aktiviertem Display (auf niedrigster Stufe) und mit WiFi verbunden stehen lassen. Nach fast 24 Stunden schaltete der Laptop geplant in den Standby (bei 5 % Restkapazität).

Zu diesem Ergebnis kommt übrigens auch notebookcheck beim Verbrauchstest.


Nordwind2000 schrieb:
Könntest du mal die Differenz in Prozent benennen zwischen mit EXPO und ohne?
Ohne XMP/EXPO habe ich keine Benchmarks gemacht. Evtl. komme ich am Wochenende mal dazu und kann die nachreichen. Ich hatte XMP quasi nur mal deaktiviert und die dazugehörigen Spannungen auf Auto gestellt, um den Leerlaufverbrauch zu prüfen.
 
  • Gefällt mir
Reaktionen: Nitschi66 und nERdWIN
TheHille schrieb:
Hm, bei Gigabyte schallert
Mit meinem B650 von Gigabyte / Aorus hab ich so keine Probleme... Egal ob OpenSuse Tumbleweed, Fedora 41, Debian 12 oder Ubuntu 24.04.1... Der Verbauch von der CPU deckt sich zu 98% gegenüber Windows.
 
sz_cb schrieb:
Ich kann diese im Netz herumgeisternde Grenze von 6000 MT/s demnach nicht bestätigen. Weshalb das bei den meisten 8000G-Systemen anders ist als bei meinem System, kann ich leider nicht erklären...

Es kommt auf das mainboard und dem RAM an. Bei vielen Mainboards, auch bei meinem, wird mit 6000MT/s auch gleich die spannung des Ram controllers in der cpu erhöht, wodurch der mehrverbrauch entsteht. Manuell kann ich da noch gegenlenken so das er fast gleich hoch zu jedec ist.

Habe es aber die letzten 3 bios versionen nicht mehr nachkontrolliert, Ob sich an dieser grenze was verändert hat.
 
Die 8000er hatte ich auch auf dem Schirm. Mich dann aber für 9700x und Hybrid Graphics entschieden, wobei ich am Ende nicht so sparsam wie erhofft unterwegs bin. Aber deutlich besser als mit dem 5900x. Insbesondere die Volllast ist der Hammer, Handbrake ist ggü. dem 5900x nicht langsamer und das bei nur etwa 150 Watt. Aber 64 GB RAM @ 6000 MT/s ziehen auch bei mir so um die 12 Watt mehr.

Bei mir ist es genauso, Spielen hat stark abgenommen und der PC läuft viel im Desktop.

Die 14 Watt ohne XMP/EXPO halte ich für realistisch, machen meine beiden Zen3 APUs auch.
 
Wie misst du denn den Stromverbrauch?
sz_cb schrieb:
kam mein Laptop mit 2,2 Watt (inkl. 14"-Bildschirm) aus.
Wenn du das Komma um eins nach rechts verschiebst wird das glaubwürdig.
Allein ein 14" Display braucht auf niedriger Helligkeit für sich schon ~10W. Die typischen Tischnetzteile von Notebooks sind was Effizienz angeht der letzte Mist, verglichen mit modernen Schaltnetzteilen und selbst die haben ein Grundrauschen von 2-15W

sz_cb schrieb:
Da die CPU gerade erst auf den Markt kam, wollte ich sicherstellen, dass der Linux-Kernel die CPU kennt, deshalb habe ich mich für Nobara entschieden, was mir als brauchbarer Kompromiss aus "Point release" und "Rolling release" erschien.
Nobara ist ein Fedora Ableger, vorrangig von einer einzelnen Person gepflegt und noch eine sehr junge Distribution. Die Optimierungen gehen komplett in Richtung Gaming.
Wenn du doch vorrangig auf dem PC arbeitest, wäre das sicher nicht meine erste Wahl. Du weist nicht wie sich das weiter entwickelt und die Anpassungen bringen dir effektiv nichts.
Portal 2 ist von Valve mit deren Source Engine, die bereits sehr Linux stabil ist. Dieses Spiel sollte auf wirklich jedem Linux laufen. Wobei Spiele eigentlich sowieso auf jedem Linux laufen und Optimierungen lediglich vereinzelte Bugs oder Leistungsoptimierungen darstellen, bzw die Distributionen bereits typische Software fürs Spielen mitinstallieren.
Da das aber gar nicht dein Anwendungsfall ist, wäre ich wohl eher beim Original Fedora geblieben, was auch nicht langsamer updated.

Ich selbst wäre wohl komplett anders an die Thematik rangegangen. Andere haben ja schon das Beispiel gebracht, eher auf dem Notebook zu arbeiten. Ich selbst hätte wohl zwei Systeme parallel genutzt und deinen 5900X als Basis behalten, auch um Produktiv und Privat besser zu trennen. So muß ich mir keine Angst machen, dass wenn ich Hobby mäßig was falsch mache, das nachher Auswirkungen auf meine Arbeitsumgebung hat.
Ebenso wäre meine Wahl bei einem Energie optimierten System im Niedrig/Teillast Bereich eher bei blau daheim, als bei rot.

TheHille schrieb:
Hm, bei Gigabyte schallert es mir immer etwas im Ohr mit der Linux-Kompatibilität...
Ich habe jetzt bei einem Rechner von Windows auf CachyOS gewechselt und da auch ein Gigabyte Board verbaut. Bis dato keine Probleme. Allerdings weiß ich auch nicht, was ihr mit "Linux-Kompatibilität" meint.
Ich stelle Spannungen und Takt im UEFI ein, Lüfterkurve im UEFI und das OS hat mit alledem nichts am Hut.
Round about muß ich aber sagen, dass Gigabyte nicht unbedingt meine erste Wahl bei Mainboards ist. Sowohl mit Gigabyte als auch ASRock hatte ich bisher Probleme und damit überhaupt die einzigen Board Hersteller die mir Mucken gemacht hatten. Asus finde ich teilweise überteuert und momentan ist MSI mein Favorit bei Mainboards.
 
SavageSkull schrieb:
Allein ein 14" Display braucht auf niedriger Helligkeit für sich schon ~10W
Das stimmt so ja nicht.
https://www.dell.com/de-de/shop/portabler-dell-14-monitor-p1424h/apd/210-bhqq/monitore-und-monitorzubehör
Als richtlinie sind hier die 7,5W zu nehmen und da ist auch noch etwas mehr gedöns (USB-Controller) dabei. Mit das sparsamste 14" Display im Notebook verbraucht etwa 1W.

Notebookcheck Idle verbrauch eines aktuellen notebooks:
https://www.notebookcheck.com/Dell-...macht-den-Unterschied.914415.0.html#c12223902
 
Zuletzt bearbeitet:
Nitschi66 schrieb:
Als richtlinie sind hier die 7,5W zu nehmen und da ist auch noch etwas mehr gedöns (USB-Controller) dabei.
Auch wenn die ~10W zu hoch angesetzt sind, sind 2,2W für das gesamte Notebook (samt Tischnetzteil) schon extrem wenig. Ich müsste mal das SteamDeck messen, aber auch da halte ich 2,2W im Leerlauf für unrealistisch.
 
  • Gefällt mir
Reaktionen: Volvo480
SavageSkull schrieb:
Ich müsste mal das SteamDeck messen

Das LCD nach 10min im Desktop mode sind 6watt mit original netzteil
Ergänzung ()

im Valve dock mit externen Bildschirm (wqhd 144hz)+ maus und tastatur 9,5watt
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Volvo480
@sz_cb
Würdest du auch nochmal deine Graka mit einbauen und deinen Monitor über iGPU laufen lassen um mal zu testen wie smooth AMD CPUs zwischen iGPU und dedizierter GraKa switchen können unter Lastszenarien?
 
Ich sehe den Sinn der APU nicht wirklich. Ja sie ist die schnellste iGPU, trotzdem will ich auf dem Ding nie spielen.

Als Stromsparsystem kann man auch was effizienteres bauen. z.B. mein NUC 12 Pro im Akasa Passivgehäuse braucht sicherlich weniger als dein Rechner. Die Iris XE ist nicht langsam und reicht für komplett alles außer Gaming.
 
also entweder es geht um Effizienz zum Arbeiten oder um Gaming. Ich brauch keinen Mittelweg. Was soll ich mit einer APU, bei der das System unter Teillast 20-100w braucht ich aber niemals ein Spiel auf der doch zu langsamen IGPU spielen werde?

Dann geh ich lieber zu 100% auf Effizienz
 
Zurück
Oben