Test Ryzen 7 8700G & 5 8600G (OC) im Test: AMDs Zen-4-RDNA-3-APU vs. 5700G, Radeon, GeForce & Xe

Sorry, auch der 23er. Hab das 10min Ding laufen lassen.
 
  • Gefällt mir
Reaktionen: Boimler und Bohnenhans
Also mein 8700g wird doch ziemlich warm. Mit Pure Rock 2 und MX4 Wärmeleitpaste habe ich bis zu 91° C bei Prime 95. Vielleicht ist die MX4 aber auch schon zu lange angebrochen. Wie auch immer. Ich werde wohl einen Delid Service mit Flüssigmetall in Anspruch nehmen.
 
Ich hab jetzt auch mal Cinbench R23 rennen lassen und bin bei 17535 gelandet, auch wenn ich das öfters hintereinander ausführe, das schwankt recht wenig - denke das doch so vom Gefühl her ok

Ist halt "nur" ein 8 Kerne und auch nur rudimentär "optimiert" weil ja passiv will ich halt nicht ganz an die Grenzen gehen - das ist dann doch immr auch Focus im Hinterkopf auf sparsam = weniger Abwärme

1708078958348.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Boimler
@duke1976 das ist noch Ok. Prime ist nunmal kein programm welches man täglich benutzt. Nimm ein Programm welches du auch nutzt.

welches board hast du?

kannst du auch mal cinebench23 laufen lassen wieviele punkte du bekommst?

bei meiner cpu ist ohne Probleme möglich ein voltage offset von -0.12 einzustellen. Dadurch braucht er in standard einstellung nur noch 78 watt package als die standard 87watt. Was natürlich die temperatur auch senkt.

man kann natürlich auch das eingesparte nutzen für pbo , dann kommt er Allcore auf 5ghz im cinebench und schafft 18500 punkte. wenn Hwinfo aktiv ist.


@Bohnenhans du hattest Hwinfo aktiv bei dem run oder? wenn man es Ausschaltet wirst du wohl 18000punkte erreichen.
 
Jo hab das laufen lassen um zu sehen wie die temps etc sind.
 
duke1976 schrieb:
Ich werde wohl einen Delid Service mit Flüssigmetall in Anspruch nehmen.
Ist damit nicht sofort die Gewährleistung flöten?
 
ja, ist sie. Halte ich persönlich auch für unnötig nur wegen der temps. Da gibt es genug andere Möglichkeiten, wenn einem die Temps stören. Im Normalen alltag auch inkl. Gaming fällt das nicht ins gewicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Boimler
Mit Flüssigmetall 20 Grad weniger ist schon eine Ansage. Ich bin auf die GE-Modelle mit 35 Watt gespannt. Die dürften hoffentlich kühler bleiben.
 
Boimler schrieb:
Ich bin auf die GE-Modelle mit 35 Watt gespannt. Die dürften hoffentlich kühler bleiben.
Was stört denn an der höheren temp? solange die apu bei deiner verwendung keine Leistung einbüsst ist es doch egal.

aber für dich als Vorgeschmack, wenn man den 8700g auf 45tdp(60watt) einbremmst. ist er bei meinem turmkühler 16grad kühler( 63grad im cinebench 10min) verliert kaum leistung. Mit ein wenig spannungs offset kommt man sogar fast an die Stock ergebnisse des 8700g mit (65tdp) 17217 punkte . stock 17462punkte, stock+ spannungs offset +pbo 18469 punkte. alle ergebnisse mit Hwinfo aktive.

45tdp.png


edit: die lüfter umdrehung war 1200U/min
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Boimler
Boimler schrieb:
Ich bin auf die GE-Modelle mit 35 Watt gespannt. Die dürften hoffentlich kühler bleiben.
Reduziere doch einfach die PPT auf 47W, dann kann man zumindest die Mutlicore Leistung mal testen. Abweichend haben wir doch meistens nur nen geringe Basisleistung, die Boost Leistung ist fast immer identisch, nur dass wir halt keine Optionen bekommen hier was zu verändern. Freigegeben sind die halt auch nicht.

GE waren für mein Empfinden immer ein nicht ganz so passabel laufender Chip der G Serie. Warum würden sie sonst immer erst nach den Standard G Serien rauskommen? Um die Attraktivität zu erhöhen und einen Verkauf zu gewährleisten haben wir dann dort die Pro Version die ECC Memory unterstützt.
Die finale Resteverwertung finden wir bei den non G Chips z.B. 5700 oder 5500. Ich verstehe bis heute nicht, warum die gekauft werden, wenn man meist für 10-20€ die Apu mit drin haben kann. Mal abgesehen von der fehlenden APU bringen sie alle anderen Nachteile mit, pcie 3.0 only, reduzierter Cache und als Bonus werden die Taktraten noch reduziert.
 
Für mich kommt aktuell nur ein Deskmini in Frage und die Preise der 8000er passen noch nicht. Die GE-Serie interessiert mich eher im Vergleich zur 5000G-Serie, weil ich eher damit liebäugele.

Das Problem mit PCIe 3.0 verstehe ich nicht. Ich habe seit Haswell bis zum Athlon 3000G viel Erfahrung mit integrierten Lösungen gesammelt und noch nie Probleme mit der Bandbreite gehabt. Da ich parallel aber auch immer einen Gaming-Rechner hatte, war das Problem der Anbindung einer dGPU bspw nie gegeben.
 
Boimler schrieb:
Das Problem mit PCIe 3.0 verstehe ich nicht
Wenn du einen einen APU Chip ohne APU kaufest, wäre hier in dem Fall ebenso ein 3600 oder 5600 in Frage gekommen. Beide können Pcie 4.0 und wären zum dem Zeitpunkt vor AM5 auf dem gängigen Standard. Damit würden selbst Budget GPU's, wie die 6400 und 6500 XT, nicht ganz so schlecht abschneiden.
Der einzige Vorteil der bei den Non G APU's (das klingt so falsch) bestehen bleibt, wäre der Effizienz Bonus in den geringen Lasten. Ansonsten Performen sie langsamer, haben die Cache Nachteile z.B. in vielen E-Sports Titel und leiden dann eben unter der reduzierten Anbindung 4.0 zu 3.0. Gravierend wäre das hier wohl aber nur bei den m.2 nvme oder halten den X4 Karten von AMD.
Ergänzung ()

Bandbreitenproblematik mal andersrum. Nimmst du den 8700g oder gar den 8500G, halbiert sich bei pcie 3.0 die Bandbreite und damit der Datendurchsatz um die Hälfte.
Gehe ich hier von einem kleinen Video-Schnitt System oder CAD System aus, wäre zum Beispiel eine Quaddro P6000 eine durchaus valide Karte - 24GB Vram helfen hier extrem aus. Problem wird aber sein, dass du bei den neuen Chips eben auf 3.0 X8 zurückfällst, womit Karten die mehr Potential haben dieses eben einbüßen. Der 8500G hat ja nur eine X4 Anbindung, womit du wohl selbst bei den älteren Entry Karten begrenzt sein könntest.

Auf die Zukunft betrachtet wirst du mit 4.0 Karten wohl nicht all zu beschnitten sein, ältere 3.0 könnten aber Probleme machen.
Ergänzung ()

Worst Case bei 3.0 wären 5.0 GPU's mit ner x4 Anbindung. Das dürfte zwar noch eine Weile dauern, aber es ist abzusehen und bei der Entwicklung derzeit auch nicht auszuschließen.

In wie weit man dann überhaupt noch 3.0 Systeme nutzt ist ne andere Frage.
 
Zuletzt bearbeitet:
Bentosan schrieb:
Gehe ich hier von einem kleinen Video-Schnitt System oder CAD System aus, wäre zum Beispiel eine Quaddro P6000 eine durchaus valide Karte - 24GB Vram helfen hier extrem aus. Problem wird aber sein, dass du bei den neuen Chips eben auf 3.0 X8 zurückfällst, womit Karten die mehr Potential haben dieses eben einbüßen
das stimmt. Doe ist aber, wie weit fällt die leistung ab. Im Gaming ist es vernachlässigbar, wennnder VRAM nicht zu klein ist. Es währe sehr interessant wie es bei CAD oder einem video schnitt programm ist.
 
Northstar2710 schrieb:
Es währe sehr interessant wie es bei CAD oder einem video schnitt programm ist.
Ich hoffe Igor's Lab nimmt die auch nochmal unter die Lupe. Da könnten noch einige Interessante Fakten auftauchen.
Ergänzung ()

Wo wir gerade dabei sind, hat schon jemand getestet, ob die RadeonMod mit dem 8000G Lineup kompatibel ist? Mir geht es hier primär um den 10-Bit support.
 
Zuletzt bearbeitet:
Äh die MOD ist ja 7 Jahre alt ....oder?

Bei Igor steht dazu

Interessanterweise ist laut Datenblatt beim Dekodieren bei etwas über 4K (4320) Schluss, dafür geht das in 10 bit HDR.
 
Zuletzt bearbeitet:
@Bentosan Vielleicht wäre "Non-Suffix CPU" eine bessere Bezeichnung ;). Aber die haben ja eigentlich mehr Berührungspunkte mit den X-CPUs. Der 5600 ist ein guter Prozessor fürs Gaming. Klar kann man das defizitär betrachten und sagen, es sei ein teildefekter Chip. Andererseits sieht man ja am 8600/8700G, dass anscheinend Leistung liegenbleiben kann, obwohl die Hardware es hergeben würde.

Für mich geht es eher darum, ob ich zukünftig überhaupt noch einen Spiele-PC brauche. Eine APU hätte für mich mehrere Vorteile, weil ich beim Arbeiten und Surfen keine so hohe Verlustleistung wie mit meinem jetzigen System hätte und gleichzeitig 80-90% meiner Spielebibliothek abgedeckt bekomme. Und um mal einen Singleplayer AAA-Titel zu spielen, kann ich weiterhin den Tower-PC neben den Schreibtisch stellen.
 
Boimler schrieb:
Und um mal einen Singleplayer AAA-Titel zu spielen, kann ich weiterhin den Tower-PC neben den Schreibtisch stellen.
oder du steckst deine Dgpu zur APU
 
Boimler schrieb:
Für mich geht es eher darum, ob ich zukünftig überhaupt noch einen Spiele-PC brauche.
Zu 95% reicht mir inzwischen selbst der 5600g. Die 6600 ist nur für die Übergänge drin, bei denen entweder Titel noch nicht im Cloud Gaming gelistet sind oder Titel vertragsbedingt nicht gelistet werden.
Einen Mehrverbrauch außerhalb des Gaming habe hier auch nicht wirklich, da ich über die IGPU gehe und die GPU, solange ich nicht spiele, im ASPM Modus nicht wirklich etwas verbraucht. Da ich prinzipiell den Energiesparmodus verwende, greift Windows in diesem Fall für die meisten Anwendungen primär auf die APU zu, Rest wird manuell eingestellt.

Ich spare mit den Apu's so viel Strom, dass wenn wirklich mal was Leistungshungriges veröffentlicht wird, selbst Geforce Now Abo's noch immer günstiger sind. Nehme ich dann die normalerweise dafür benötigte Hardware mit in die Rechnung, den eingesparten Strom beim Betreiben dieser... . Ich für meinen Teil sehe die Mehrkosten nicht mehr ein. Sicher wird das nicht für alle funktionieren, ich bin damit mehr als zufrieden. Im Prime Abo ist dann Luna mit drin, wo ich sogar einen Teil meiner Ubisoft mit spielen kann. Assassin’s Creed Valhalla hab ich z.B. nur wegen Luna geholt. Wer nen Xbox Ultimate Abo betreibt kann ebenso streamen.

1708114647222.png

Als Bonus haben wir noch FSR und Framegeneration, wobei beides sogar über externe Software verwendbar ist, selbst wenn die Anwendung selbst es nicht unterstützt. Gerade bei alten Retro Titeln echt klasse. Syberia auf 4k hochskaliert ist ein Hochgenuss, sowas von gut gealtert.

Welche der APU's für dich nun besser ist... die Entscheidung kann dir wohl keiner abnehmen. Der 5600g verbraucht def. weniger Strom. Wenn dir Low bis Mid 1080p reicht, wäre ggf. der 8700G besser.
 
Zuletzt bearbeitet:
Bentosan schrieb:
Ich spare mit den Apu's so viel Strom, dass wenn wirklich mal was Leistungshungriges veröffentlicht wird, selbst Geforce Now Abo's noch immer günstiger sind.
Cloudgaming ist für mich aktuell noch keine Option, weil ich einfach zu wenig spiele. Aber im Multiplayer mit Freunden bin ich bspw nur in Titeln unterwegs, die entweder CPU-lastig sind oder wie Anno 1404 wesentlich genügsamer in der Grafik sind. Da schmerzt es mich dann immer, wenn ich HWMonitor oder die Messsteckdose anschaue ;). Als Fallback hätte ich ja weiterhin die dGPU.

Bentosan schrieb:
Einen Mehrverbrauch außerhalb des Gaming habe hier auch nicht wirklich, da ich über die IGPU gehe und die GPU, solange ich nicht spiele, im ASPM Modus nicht wirklich etwas verbraucht. Da ich prinzipiell den Energiesparmodus verwende, greift Windows in diesem Fall für die meisten Anwendungen primär auf die APU zu, Rest wird manuell eingestellt.
Hast du da eine ungefähre Hausnummer bzw. gibt's da einen automatischen Übergang zur 6600? Den 5600G in mein bestehendes System einbauen, wäre tatsächlich die günstigste Option für mich. Die PCIe 3.0-Anbindung sollte man mit der 6700XT eigentlich auch nicht merken.
 
Zurück
Oben