Meine APU und ich. Ryzen 8700G.

TheHille schrieb:
Hm, bei Gigabyte schallert es mir immer etwas im Ohr mit der Linux-Kompatibilität...
Ja, vermutlich bin ich an die Board-Wahl ein wenig naiv/uninformiert herangegangen.


Nordwind2000 schrieb:
Mit meinem B650 von Gigabyte / Aorus hab ich so keine Probleme... Egal ob OpenSuse Tumbleweed, Fedora 41, Debian 12 oder Ubuntu 24.04.1... Der Verbauch von der CPU deckt sich zu 98% gegenüber Windows.
SavageSkull schrieb:
Allerdings weiß ich auch nicht, was ihr mit "Linux-Kompatibilität" meint.
Ich stelle Spannungen und Takt im UEFI ein, Lüfterkurve im UEFI und das OS hat mit alledem nichts am Hut.
Sobald der PC fertig optimiert/eingerichtet ist, lege ich auch keinen Wert mehr auf das Auslesen von Lüftergeschwindigkeiten/Spannungen etc. im laufenden Betrieb. Doch während des Tunings hätte ich schon gern die Möglichkeit dazu, relevante Werte zumindest auslesen zu können. Aber das ist bei Gigabyte on Linux echt frickelig.


SavageSkull schrieb:
Auch wenn die ~10W zu hoch angesetzt sind, sind 2,2W für das gesamte Notebook (samt Tischnetzteil) schon extrem wenig.
SavageSkull schrieb:
Wenn du das Komma um eins nach rechts verschiebst wird das glaubwürdig.
Allein ein 14" Display braucht auf niedriger Helligkeit für sich schon ~10W.
Nein & nein. Lenovo bietet ein Low-Power-Display für die Thinkpads an.

Wie ich schon schrieb, ließ ich den Laptop mit aktiviertem Display&WLAN im Leerlauf stehen und kam auf annähernd 24h Laufzeit, bevor sich der Laptop in den Standby verabschiedete. Bei einer Akkukapazität von 57 Wh kannst Du Dir ausrechnen, dass das bei "Komma nach rechts verschieben" nicht möglich gewesen wäre.

Angehangen noch ein frischer Screenshot, den ich vorhin erstellt habe (der Laptop war zu dem Zeitpunkt etwa 15 Minuten im Leerlauf; WLAN aktiviert, Bildschirm auf niedrigster Stufe). Rechts unten im Screenshot ist ein Systemmonitor - dort sieht man den (errechneten) Systemverbrauch. Ja, ich weiß, das ist nicht akkurat, weil der Wert lediglich aufgrund von Spannungsänderungen des Akkus berechnet wird, aber er ist mir genau genug und deckt sich auch mit dem angesprochenen 24h-Laufzeittest. Der angegebene Verbrauch von 2,2 Watt (bzw. aktuell sogar nur 2,1 Watt) bezieht sich demnach auf "Systemverbrauch ohne Netzteil".

t14s_idle.png

Das originale Netzteil von Lenovo ist mir übrigens zu klobig und liegt bis heute gänzlich ungenutzt in der Verpackung. Unterwegs nutze ich ein 65W-GAN-Netzteil, am Arbeitsplatz tut es ein fest verbautes 35W-GAN-Netzteil, mit dem ich sämtliche Peripherie (Maus, Tastattur, Smartphone, ReMarkable, Kopfhörer) auch lade. Wie effizient die beiden Netzteile sind und ob das originale Netzteil des Laptops besser wär, habe ich bisher nicht gemessen.


SavageSkull schrieb:
Wenn du doch vorrangig auf dem PC arbeitest, wäre das sicher nicht meine erste Wahl. Du weist nicht wie sich das weiter entwickelt und die Anpassungen bringen dir effektiv nichts.
Ich sag mal so: Mein System habe ich so auf- und umgebaut, dass ich relativ problemlos die Distro wechseln und binnen 1-2h wieder produktiv sein könnte.

Gründe für Nobara waren damals auch OBS Studio (Aufzeichnung von Video-Konferenzen/-Meetings) und Steam (auch wenn ich nicht oft spiele, aber hin und wieder will ich's eben doch). Das mag bei vielen anderen Distros auch problemlos möglich sein, aber bei Nobare waren das One-Click-Installationen, die sofort liefen. Ich will jetzt keine Formatdiskussion beginnen und es hat auch wenig mit Nobara zu tun, aber Live-Video-Encoding mit AV1 bei ~1% zusätzlicher Systemlast ist dank Hardware-Unterstützung des 8700G schon ziemlich nett :)

Würde ich mit dem heutigen Wissen erneut zu Nobara greifen? Vermutlich nicht. Aber so lange es mir keine Probleme bereitet, bleibe ich dabei.


SavageSkull schrieb:
Andere haben ja schon das Beispiel gebracht, eher auf dem Notebook zu arbeiten. Ich selbst hätte wohl zwei Systeme parallel genutzt und deinen 5900X als Basis behalten, auch um Produktiv und Privat besser zu trennen.
Alles, was ich mache, könnte ich prinzipiell auch auf dem Laptop machen, das stimmt. Aber wie ich schon sagte, nervt es mich, wenn ich von Lüftergeräuschen umgeben bin. Mein Laptop dient mir mehr oder weniger als Backup-Lösung oder wenn ich mal von unterwegs aus arbeiten muss.

Eine strikte Trennung zwischen beruflichen und privaten IT-Tätigkeiten gibt es bei mir nicht - teilweise überschneiden sich die Projekte sogar. Für mich wäre es völlig absurd, die Geräte zu wechseln, obowhl ich gleiche Tätigkeiten mache.


Grumgum schrieb:
Würdest du auch nochmal deine Graka mit einbauen und deinen Monitor über iGPU laufen lassen um mal zu testen wie smooth AMD CPUs zwischen iGPU und dedizierter GraKa switchen können unter Lastszenarien?
Die GTX 1660Super besitze ich nicht mehr. Ich hab' noch eine 1050Ti als Backup hier rumliegen, aber den Stress mit NVidia gebe ich mir nicht, nur um mal schnell was zu testen... sorry!

Glücklicherweise haben andere Personen aus dem Forum hier bereits Erfahrungswerte :)


opoderoso schrieb:
Dann geh ich lieber zu 100% auf Effizienz
Das ist Dein gutes Recht und verbietet Dir auch niemand. Ich habe jedoch eben genau nach dem Kompromiss gesucht und ihn mit dem 8700G gefunden.


Nitschi66 schrieb:
Ein b650 ist nicht zum sparen da.
Es gibt ein recht günstiges ASRock-Board mit B650-Chipsatz, das vergleichsweise sehr sparsam sein soll. Hätte ich das Board damals schon gekannt, hätte ich mir das vermutlich anstatt des Gigabyte-Boards zugelegt.


oicfar schrieb:
Ich habe die 5700G und habe wg. KI doch noch eine GraKa eingebaut.
Ich habe GPT4All sowie Fooocus auf meinem System installiert. Ok, für die Bildgenerierung braucht es ca. 2 Minuten pro Bild (bei 30 Iterationen), aber der Chat mit 4GB-Modellen läuft flüssig.
 
sz_cb schrieb:
Ich habe GPT4All sowie Fooocus auf meinem System installiert. Ok, für die Bildgenerierung braucht es ca. 2 Minuten pro Bild (bei 30 Iterationen), aber der Chat mit 4GB-Modellen läuft flüssig.
Mit meinem Setup kann ich flüssig 16B Modelle laufen lassen. Ich mache es aber mit Ollama. In Verbindung mit Open WebUI (läuft in einer VM auf Proxmox) ist die Ausgabe schöner als in GTP4ALL.
 
  • Gefällt mir
Reaktionen: sz_cb
@oicfar Ich nutze "nur" die 8B-Modelle (die sind ungefähr 4 GB groß). Das läuft flüssig. Intensiv habe ich mich damit aber auch noch nicht auseinandergesetzt, habe bisher nur festgestellt, dass größere Modelle auf meinem System dann eher einem Buchstabierwettbewerb gleichen :freak::lol:
 
sz_cb schrieb:
s gibt ein recht günstiges ASRock-Board mit B650-Chipsatz, das vergleichsweise sehr sparsam sein soll. Hätte ich das Board damals schon gekannt, hätte ich mir das vermutlich anstatt des Gigabyte-Boards zugelegt.
Auch das ist noch vergleichsweise hungrig. Sparsam sind A620-Boars.
https://geizhals.de/?cat=mbam5&xf=317_A620
 
  • Gefällt mir
Reaktionen: sz_cb
Ich wäre vorsichtig ganze Boardklassen pauschal zu bewerten. Die Sparsamkeit hängt viel von den (Default) BIOS Optionen, zusätzlichen Chips/Controller ab.
Klar, dass der nur mit PCIe 3 und nicht 4 angebunden ist macht was aus, aber es ist nicht das einzige Kriterium.

Was stimmt, billige MBs haben oft nur billigere Chips (A statt B oder X) und sind schlechter ausgestattet, was erheblich an Leistungsaufnahme spart.

Ich habe keine Quelle gefunden, die besagt, dass ein sonst gleiches Board erheblich sparsamer mi A620 als B650 ist.
 
  • Gefällt mir
Reaktionen: sz_cb
sz_cb schrieb:
Ich suche bei Gelegenheit mal 'nen Screenshot raus (bzw. mache einen neuen).
Bin noch am Lesen, aber die 2,2W sind laut einem Software Tool?
Ergänzung ()

SavageSkull schrieb:
Allein ein 14" Display braucht auf niedriger Helligkeit für sich schon ~10W.
Nö, der Core i3 N braucht bei 14" Touch und YouTube unter 10 W an der Steckdose.
Mein Gaming Laptop, Ryzen 9 mit 16 Kernen und RTX 4070 zieht dann aber 65 W am selben Messgerät.
 
  • Gefällt mir
Reaktionen: sz_cb
Nitschi66 schrieb:
Sparsam sind A620-Boars.
A620-Boards können laut Spezifikationen kein PBO.
Ich nutze PBO (wie im Eingangspost erwähnt), nicht um die CPU zu übertakten, sondern um sie zu drosseln & dank Undervolting und Core Optimizer auf Stock-Performance zu tunen. Mit einem A620-Board wäre das so nicht möglich und ich müsste den 8700G mit 65W TDP nutzen, was erwiesenermaßen ineffizient ist.


andi_sco schrieb:
Bin noch am Lesen, aber die 2,2W sind laut einem Software Tool?
Prinzipiell ja, und ich weiß, dass das eher einer Schätzung entspricht. Doch wie ich schon mehrfach schrieb: Das deckt sich ganz gut mit dem 24h-Idle-"Dauerlauf" im Akkubetrieb. Ob nun 2,1 oder 2,2 Watt ist egal, aber 3 Watt können es bei einem 57Wh-Akku schon rein rechnerisch nicht sein (3W * 24h = 72 Wh).
 
sz_cb schrieb:
deckt sich ganz gut mit dem 24h-Idle-"Dauerlauf" im Akkubetrieb.
Aber dann war der Monitor auch aus...
 
andi_sco schrieb:
Hast du kein Messgerät?
Doch - wie sollte ich sonst den PC an der Steckdose messen?

Mir geht es beim Laptop nicht darum, die Effizienz des Netzteils zu messen.
Wenn der Laptop wieder geladen werden muss, werde ich es trotzdem mal messen. Grundsätzlich ist mir der Verbrauch mit Netzteil aber herzlich egal, weil ich meinen Laptop praktisch nie mit Netzteil betreibe, sondern lediglich im Akku-Betrieb. Dieser Verbrauch ist für mich relevant.
Aus dem Grund ist mir die Software-Lösung auch prinzipiell akkurat genug, da ich sie mit dem Idle-"Dauerlauf" als (grob) bestätigt ansehe.


conf_t schrieb:
dann war der Monitor auch aus...
Was soll das? Ich schrieb doch nun bereits mehrfach, dass der Monitor bei dem Test an war... Nochmal:
  • Display war durchgehend an - auf niedrigster Helligkeit.
  • Wifi war durchgehend an und verbunden
  • Tastaturbeleuchtung war deaktiviert (die verbraucht irrwitzigerweise selbst auf niedrigster Stufe mehr als der verbaute 14"-Monitor)
  • Leerlauf-, Last- und Teillastszenarien sind mit TLP optimiert (das läuft permanent im Hintergrund)
Ich verweise auch nochmal auf notebookcheck, wo für diesen Laptop ebenfalls 2,2 Watt im Leerlauf gemessen wurden.


Nordwind2000 schrieb:
Aber die entscheidende Frage für mich ist: Könntest du mal die Differenz in Prozent benennen zwischen mit EXPO und ohne? Oder fällt es bei deinen Anwendungen nicht auf? Weil prinzipiell, wenn er weniger Leistung hat, aber die Anwendung gleich gut bzw. schnell läuft, ok. Läuft dadurch meine Anwendung langsamer und ich verdiene Geld damit, dann könnte sich der Geiz am Ende des JAhres in Mannstunden wahrscheinlich nicht auszahlen.
Ich habe nun nochmal EXPO/XMP deaktiviert und u.a. den Speicher gebenchmarkt. Gleichzeitig habe ich alle Spannungen sowie PBO auf "Auto" gestellt. Alle anderen Einstellungen habe ich auf den Werten meines Setups belassen. In der unteren Tabelle ist das JEDEC-Setting die Baseline, mit der ich mein Setup vergleiche.

Verbrauch
  • Auf den Leerlaufverbrauch hatte es effektiv keinen Einfluss (schwankend zw. >24 und <26 Watt).
  • Unter Last (CB R23 Multicore) stieg der Systemverbrauch (an der Steckdose) von 79 Watt auf 126 Watt.


JEDEC + auto (Baseline, 100 %)mein Setting
TDP / PPTAuto (65 / 88 Watt)33 / 45 Watt51 %
RAM-SettingJEDEC: 4800 MT/sXMP: 6000 MT/s125 %
PBOAutoPPT 45 W; CO -45
SpannungenAutofix oder mit negativem Offset
Leerlauf (Verbrauch)>24 <26 Watt>24 <26 Watt100 %
Cinebench R23 MC (Verbrauch)126 Watt79 Watt62,7 %
RAM (read)61813 MB/s63457 MB/s102,7 %
RAM (write)74819 MB/s92770 MB/s124 %
RAM (copy)62580 MB/s73844 MB/s118 %
RAM (latency)78,5 ns64,5 ns82,2 %

Rein von den Benchmarkwerten her ist der RAM mit 6000 MT/s also tatsächlich ein gutes Stück flotter unterwegs als mit 4800 MT/s. Ob sich das im Alltag widerspiegelt, ist natürlich stark davon abhängig, ob die Anwendung RAM-lastig ist und auf den Geschwindigkeitsbonus und die deutlich strafferen Timings anspringt.

Was ich diesmal nicht getestet habe: in meinem Setup ausschließlich XMP zu deaktivieren. Das hatte ich letztens bereits gemacht und hatte keine Auswirkungen auf den Systemverbrauch im Leerlauf.

"Interessant" war übrigens, dass das Gigabyte-Board offenbar zu niedrige Spannungen wählt bzw. einen Kern für die gewählte Spannung zu stark boostet, wenn Spannungen und PBO auf Auto gesetzt wurden (also in der eigentlichen Baseline): Im Singlecore-Test von Cinebench stürzte der komplette PC reproduzierbar ab und startete direkt neu - es war mir nicht möglich, einen einzigen SC-Durchlauf zu beenden. Die Multicore-Tests liefen hingegen problemlos durch.

Ich finde es ziemlich schräg, dass das Board mit den automatisch gewählten Standardwerten instabil läuft. Ob es tatsächlich ausschließlich am Board liegt oder mein 8700G mit dem Optimismus des Boards nicht klarkommt, weiß ich nicht. Hinzu kommt, dass ich auch nicht nachvollziehen kann, dass die Deaktivierung von XMP/EXPO faktisch keine Auswirkungen auf den Systemverbrauch im Leerlauf hat.

Mein Setting ist 14h-Prime-stable und zeigt keinerlei Auffälligkeiten. Leerlauf, Teillast, Volllast - alles ausnahmslos stabil. Da es in meinem System im Leerlauf verbrauchstechnisch offensichtlich keinen Unterschied macht, ob ich das XMP/EXPO-Profil geladen habe oder nicht, nehme ich die potenziell höhere Performance gerne mit. Video-Encoding und KI-Dinge laufen über die CPU bzw. die iGPU und dadurch spielt hier die Geschwindigkeit des RAMs sicherlich eine Rolle. Für eine halbwegs valide Messreihe fehlt mir aber die Zeit.

Wenn Deinen Kunden die Performance wichtig ist, ist es ähnlich wie bei einigen Nutzern, die die APU zum Spielen nutzen wollen: Alles geht prinzipiell.... aber mit gewissen Abstrichen. Der 8700G ist "nur" ein Kompromiss. Wenn der Haupteinsatzzweck KI, Rendern oder Zocken ist, dann wäre der 8700G vermutlich nicht meine erste Wahl - eine dGPU wäre hier sicherlich ratsam. Wenn das jedoch nur hin und wieder mal gemacht werden soll und man damit leben kann, dass die Performance in keinem Bereich auch nur in die Nähe von High-End kommt, dann ist der 8700G ein ziemlich guter Allrounder, dessen Effizienz sich mit etwas Feintuning noch gewaltig steigern lässt.

Zum 20. Geburtstag von Half Life 2 habe ich es mal schnell installiert (inkl. dem großen Update): max Settings, WQHD, VSYNC, durchgehend 60 fps ... und 51 Watt an der Steckdose. Passt. Mir.
 
  • Gefällt mir
Reaktionen: Dr@gonXP und Northstar2710
Sinatra81 schrieb:
mag ich nicht glauben.
SavageSkull schrieb:
Wenn du das Komma um eins nach rechts verschiebst wird das glaubwürdig.
Allein ein 14" Display braucht auf niedriger Helligkeit für sich schon ~10W.
[..]
Ich müsste mal das SteamDeck messen, aber auch da halte ich 2,2W im Leerlauf für unrealistisch.
andi_sco schrieb:
Bin noch am Lesen, aber die 2,2W sind laut einem Software Tool? [..] Hast du kein Messgerät?
conf_t schrieb:
Aber dann war der Monitor auch aus...
So, für alle Zweifler habe ich jetzt mal den Laptop ans Netzteil gehangen und selbiges ins Messgerät gesteckt.

Nach dem Ladeschluss (95 %) habe ich das Gerät noch ca. 10 Minuten in Ruhe gelassen. Display und Wifi waren ununterbrochen aktiv. Das Netzteil war ununterbrochen verbunden.

Das Messgerät zeigte größtenteils Werte schwankend zwischen 3,0 - 3,6 Watt, ungefähr alle 10 Sekunden gab es einen kurzen Peak auf 5,x Watt.

pxl20241123_014951_PxL_11_copy.jpeg
 
  • Gefällt mir
Reaktionen: jorge100, Northstar2710, Nitschi66 und eine weitere Person
sz_cb schrieb:
Da liege ich mit einem alten Snapdragon und Windows im Tablet bei 5-6 W, wenn Disney+ läuft
 
andi_sco schrieb:
Snapdragon und Windows im Tablet
was hat denn jetzt ein Tablet mit Arm Cpu mit diesem thema zutun. Hier geht es um X86 und Ryzen.
 
andi_sco schrieb:
mit einem alten Snapdragon und Windows im Tablet bei 5-6 W, wenn Disney+ läuft
Starte ich einen Video-Stream (Freetube, 1080P), schnellt der Verbrauch meines 8700G-Systems von 24 auf annähernd 40 Watt (Steckdose). Der Verbrauch des CPU-Packages steigt von ca. 2,4 auf etwa 9,2 Watt, also um fast 7 Watt. Auch wenn es sich in den letzten Jahren verbessert hat, ist das leider immer noch vergleichsweise schlecht.
 
Vergleichsweise schlecht zu was?

Du musst auch schauen, welcher Codec YT gerade nutzt und wie sehr Werbung noch ggf. Leistung zockt.

Zusätzliche braucht die VPU halt Zusrbeit von der CPU.
 
Zurück
Oben