Test Ryzen 7 8700G & 5 8600G (OC) im Test: AMDs Zen-4-RDNA-3-APU vs. 5700G, Radeon, GeForce & Xe

Taxxor schrieb:
Wobei ich zumindest am SteamDeck for CPU und GPU
ja, aber es ist auch ein soc mit eigens entwickelter plattform dafür. wobei keiner mal eben die richtigkeit dieser Daten Nachmessen kann.
Ergänzung ()

3faltigkeit schrieb:
. Allerdings ist es auch egal, was ich dort einstelle, es bleibt immer bei 4GB.
du must im treiber natürlich game performance wieder deaktivieren

wie gesagt es reserviert dir nur den speicher, so das dieser bereich nicht vom Windowssystem als normaler Arbeitsspeicher verwendet wird.
 
Zuletzt bearbeitet:
ghecko schrieb:
Hier läuft nach wie vor was gewaltig in den Energieeinstellungen schief.
Also das Power Budget scheint ganz schön zu limitieren. Im Final Fantasy Benchmark hält der die 2900 MHz auf der GPU oft nicht und geht teils kurz auf 2530 MHz runter. Meistens aber im Bereich 2700-2800 MHz. Im Timespy passiert das deutlich seltener, da die CPU weniger zutun hat. EDC Power Limit hängt laut HWInfo bei 98 Prozent rum. CPU UV um der GPU etwas mehr Luft zu geben gibts beim A620 ja leider nicht.
 
3faltigkeit schrieb:
Also das Power Budget scheint ganz schön zu limitieren.
Was nicht zwangsweise bedeutet, das er damit richtig umgeht. Die Energieeinstellung in meinem Laptop sind für Linux auch völlig kaputt und ich verbrauche quasi das doppelte von dem was ich für dieselbe Performance eigentlich bräuchte. In meinem Fall ist es aber ein 6850U.
 
  • Gefällt mir
Reaktionen: stevefrogs und 3faltigkeit
Vielen Dank an die Redaktion für den Zwischentest bei den APUs.
 
3faltigkeit schrieb:
EDC Power Limit hängt laut HWInfo bei 98 Prozent rum
selbst wenn du das erhöhst, hat es keinen effekt.

kannst du bei 620er die morherboard limits für pbo laden?

oder hast du dort ein pbo menü bei den AMD einstellungen?
 
PegasusHunter schrieb:
Daher mal mit dem Energiesparplan verschiedene Sachen testen und den Idletakt der Grafikkarte etwas erhöhen.

Vertrau mir, ich bin nicht auf der Nussschale her geschwommen. Ich habe Nvidia erklärt, wo sie hin wollen.

Meine GPU macht schon seit Jahren folgendes:

gpu.jpg

Aktuell bin ich dabei, den hässlichen Spannungswandler zu finden, der mir auf den Sack geht. Den aus löten und einen neuen einlöten, ist ein Kinderspiel.

Ob es aber nicht doch ein Software Problem ist, weil mir Windows auf den Sack geht, ich soll doch bitte endlich mal auf Win11 updaten oder die "Pro" Software von XMG einfach nur Mist ist, habe ich noch nicht verifiziert.

Der Stapel von Notebooks, aus den letzten 20 Jahren, hier neben mir zeigt mir aber, ich werde den Fehler finden. :heilig:

Bei meinem letzten XMG habe ich z.b. die "Killer-Nic" als Fehler gefunden. Die hat hartnäckig ein Upgrade im Windows verhindert. Dadurch bin ich günstig zu meinem vorletzten Book gekommen. Der Vorbesitzer, hatte weniger "Biss" als ich.

In wenigen Wochen, habe ich genug Zeit und dann, baue ich komplett alles auseinander. Dann kann ich sagen, wer in der "Lieferkette" der Versager war.

mfg
 
  • Gefällt mir
Reaktionen: Tr0nism und PegasusHunter
Boimler schrieb:
Wer sich eine APU holt, um 235fps im Framelimit zu haben, hat aber ein anderes Problem als die Effizienz. Es zeigt sich ja bei allen Vergleichen mit dem gleichen Chip in anderen Endgeräten, das hier anscheinend noch große Probleme auf Softwareseite bestehen.
Die Frage ist doch wie misst man Effizienz? Effizienz ist eigentlich immer eine Gegenüberstellung von der Leistungsaufnahme zur erbrachten Leistung. Ich kann doch nicht anhand der Leistungsaufnahme beurteilen, ob etwas effizient ist.
Losgelöst von Namen: Wenn System A aus 50 Watt Leistungsaufnahme 100 Punkte zieht und System B aus 25 Watt nur 30 Punkte, dann ist System A immer noch effizienter als System B, auch wenn System B absolut weniger verbraucht.

Und das meine ich halt mit meinem Valorant-Vergleich. Selbst wenn bei mir am Ende beim Gesamtsystem aus der Steckdose 150 Watt gegen 130 Watt der APU stehen.

Aber nur weil ich für die CPU/APU kein Anwendungszweck hätte, heißt das nicht, das es keines gibt. MIR wäre die Leistung einer APU einfach zu wenig und wenn ich eh nur Surfe, Streame und bisschen Office mache, reicht eh jede x-beliebige iGPU.
 
  • Gefällt mir
Reaktionen: Rockstar85 und frames p. joule
Loopman schrieb:
Kannst du auch den Satz in der Klammer weiter lesen oder reißt du gerne Sachen ausm Kontext?

Hier nochmal extra für dich:
blackiwid schrieb:
(so gut es unter Linux in dem Moment geht) zumindest bei AMD...

Mein Punkt ist das gleicher Input gleicher output erzeugt, sprich ich mache A B C und kriege immer D, nicht wie bei Windows wo nach einer Installation mal 10% langsamer oder schneller ist... rein zufällig.

Und ein Kernel ist immer installiert nicht mal halb installiert oder nicht richtig installiert oder was auch immer wie diese Windows Kernel Treiber offenbar.
 
  • Gefällt mir
Reaktionen: iron_monkey
Northstar2710 schrieb:
selbst wenn du das erhöhst, hat es keinen effekt.

kannst du bei 620er die morherboard limits für pbo laden?

oder hast du dort ein pbo menü bei den AMD einstellungen?
Ja so ist es, das Erhöhen der Limits im AMD Menü hat kein Effekt und PBO Settings gibt's beim A620 nicht.
 
kachiri schrieb:
Die Frage ist doch wie misst man Effizienz?
die zweite frage die bei einer Effizienz gegenüberstellung wichtig ist womit wird verglichen.

denn sin macht es nur in der gleichen Preis oder Leistungsklasse.

wir wissen z.b. alle wie effizient eine rtx4090 oder 4070 ist. Diese hardware ist aber ersten Ausserhalb dieser Preisklasse ein Apu und spielen auch in einer anderen Leistungsklasse. Wo kleine karten das maximum an energie verschwenden müssen um die letzten mhz rauszukitzeln, so brauchen grössere geräte für gleiche leistung viel weniger strom, sie sind zwar grösser aber um leistung zu generieren brauchen sie durch die grösse nur wenig strom.
 
kachiri schrieb:
Die Frage ist doch wie misst man Effizienz? Effizienz ist eigentlich immer eine Gegenüberstellung von der Leistungsaufnahme zur erbrachten Leistung. Ich kann doch nicht anhand der Leistungsaufnahme beurteilen, ob etwas effizient ist.
Wie immer der Vergleich auch ausgeht, und so gerne ich Effizienz mag (man beachte meinen Nickname), ist sie nunmal niemals das einzige Kriterium für irgendwas. Ein Fahrrad ist immer effizienter als ein Auto, aber möchte man damit in den Italien-Urlaub fahren?
 
  • Gefällt mir
Reaktionen: Rensch und DoraUschiSusi
ich versuche gerade Igpu Oc inkl tdp limit‘s.

das funktioniert mit pbo aber nur mit einen maximalen boost takt von 200mhz.

wenn ich der Igpu manuell einen takt einstelle, hat die Apu keine limits. mit 3300ghz liege ich an der steckdose bei 240watt 😂😂😂😂
 
  • Gefällt mir
Reaktionen: 3faltigkeit
Northstar2710 schrieb:
must im treiber natürlich game performance wieder deaktivieren
Stimmt schon, so wichtig ist die Einstellung nicht. Vermutlich Versuche ich Gründe zu finden, warum das Gigabyte Board Murks ist, um mir ein teures ROG 650E schön zu reden 🙃

Jedenfalls kann ich im Treiber nur Produktiv (512 MB) oder Gaming Optimiert (4GB) setzten. Auto, Default, By BIOS gibt's nicht und was der Treiber sagt ist Gesetz, egal was ich im BIOS bei UMA specified einstelle.
 
kachiri schrieb:
Losgelöst von Namen: Wenn System A aus 50 Watt Leistungsaufnahme 100 Punkte zieht und System B aus 25 Watt nur 30 Punkte, dann ist System A immer noch effizienter als System B, auch wenn System B absolut weniger verbraucht.
einer APU einfach zu wenig und wenn ich eh nur Surfe, Streame und bisschen Office mache, reicht eh jede x-beliebige iGPU.
Absolut so ist es. Und gerade bei Zen3 habe ich fest gestellt, wenn ich ihn ein bisschen drossel, wird der Stromverbrauch super gering aber kaum langsamer. Also effizienter.
Naja nicht jede iGPU kann AV-1 decodieren. Das können meines Wissens nach nur RDNA2, RDNA3 und ARC iGPUs. Das führt zu besserer Qualität und weniger Datenverbrauch. Wenn du deinem PC trotzdem AV-1 auf zwingst, wird der viel, viel mehr Strom verbrauchen. Im Test steht doch ca 25W bei 1440p. Mit iGPU sind es nur noch 10W.

Zum Thema: Ich habe mich schon über die Benchmark-Ergebnisse gewundert. Andere zocken da Cyberbug mit 1080p FSR Balanced auf Mittel mit 50-60fps.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
Erst einmal ein fettes "Danke" an die Beteiligten, die keine Mühe gescheut haben, diesem Mysterium auf den Grund zu gehen. So etwas zehrt nämlich gewaltig an den Nerven ...

ich bin gespannt, was denn letzten Endes die Ursache ist.
 
  • Gefällt mir
Reaktionen: stevefrogs und danyundsahne
Frage an die Redaktion

Warum wird nicht mit Linux und nativen Spielen (CS2*, HL2*, Tomb Raider, Xonotic) gegen getestet. Damit könnt Ihr Softwareproblem ein/ausschliessen. Wenn sich unter Linux schlüssig verhält, liegt es an Windows oder seinen Treibern. Wenn es dort ähnlich ist, liegt es womöglich an der Firmware.

Die Treiberfrickelei entfällt auch, im Jahr 2024 sollte man ein Betriebssystem wegen Hardwaretausch nicht neu installieren müssen. Wenn ich das lese komme ich mir vor wie bei Win2K. Wer Sehnsucht nach Bastelei hat, kann ja einen RC vom Kernel nehmen oder den Git-Branch von Mesa ;)

Fedora sollte als Referenz für Arch, Debian und Suse durchaus taugen. Weil relativ aktuell und unverbastelt, anders als Ubuntu. Und Installation hat man wohl in zehn Minuten durch, nochmal zehn für alle Updates und einen Kaffee.

* CS2 ist Vulkan, HL2 ist OpenGL, Titel die nur durch WINE laufen würde ich ausschließen zu viele Seiteneffekte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mittelspecht, Tr0nism und danyundsahne
@Maldiel man könnte wenigstens mal den test lesen bevor man fragen stellt, oder zumindest überfliegen. Dann sieht man vielleicht such ein spiel im test welches einen interessiert!!!!!!
 
  • Gefällt mir
Reaktionen: Smartbomb, Taxxor und Alesis
Zurück
Oben