Test Ryzen 7 8700G & 5 8600G (OC) im Test: AMDs Zen-4-RDNA-3-APU vs. 5700G, Radeon, GeForce & Xe

eazen schrieb:
Der würde auch nur in absurd hohen Mengen was bringen, da es hier an Hauptbandbreite mangelt was ein 32 MB Cache niemals ausgleichen kann (und mehr als 32 ist absurd / wird niemals passieren). Selbst dann hätte der RX 6400 immer noch G6 und kein DDR5, eben mehr als doppelt so schneller RAM.
Natürlich bringen 16 MB sehr viel, hat der Navi 24 ja auch nur. Laut AMD hat der ne hitrate von 37% in 1080p.
Und der Speicher ist zwar doppelt so schnell, aber auch nur halb so breit angebunden. Der Speicher ist kaum schneller bei der 6400 mit OC RAM. Bei der APU knabbert noch die CPU ein bisschen ab. Der große Unterschied ist aber der Infinity Cache!


eazen schrieb:
Ansonsten sehe ich hier extrem viele negative Kommentare die total unnötig sind. Dieses Produkt hat seine Nische, mehr als genug Leute werden es kaufen, AMD hätte es sonst niemals gebracht.
Das Ding ist eh vorhanden (Notebook). Aber außer Formfaktor gibt's da nicht wirklich viel. Vielleicht noch Idle Verbrauch. Da sind wirklich nur kleine Nischen.
Für Gaming besser dGPU und außerhalb tut's ne Intel GPU oder AMD CPU.
Also bleibt nur noch Gaming in kleinem Formfaktor.
 
  • Gefällt mir
Reaktionen: DF86 und Fallout667
CDLABSRadonP... schrieb:
Es wären weniger als 16MiB, denn schon Navi 24 hatte 16MiB.
Macht keinen Sinn da schon 16 MB wahrscheinlich zu wenig sind um es voll auszureizen. Nein, 16-32 MB wären so ziemlich das Minimum was etwas bringen würde hier.
CDLABSRadonP... schrieb:
Da die Desktop-APUs insbesonders eine Resteverwertung darstellen ist das allein tatsächlich nicht entscheidend.
Auch das macht wenig Sinn da das Desktop-Produkt einen Sockel benutzt und somit ganz anders ist als das Laptop Produkt. Und dies beinhaltet nicht mal andere Faktoren wie Marketing die auch Geld kosten um ein Produkt zu bringen, somit nein, dieses Produkt wurde gebracht um Geld zu verdienen. Man stelle sich vor, eine AG ist auf dem Markt um Geld zu verdienen, nicht um Reste zu verwerten. Ansonsten bitte stichhaltige Aussagen von AMD (1. Quelle), wenn das angeblich anders sein soll.
 
Zuletzt bearbeitet:
Northstar2710 schrieb:
@Cavaille @kachiri @Quidproquo77

hmm auf PCGH kommt die IGPU auf jedenfall besser weg. vor allem schlägt sie die rx6400. Es sind zwar nur 4 spiele im test, von den aber auch 2 hier im test sind. Mit anderen Ergebnissen

Das sieht alles nett aus. Aber bei PCGH weiß ich eben auch nicht, wie sie genau messen. Sie geben zwar Software, Savegames, etc. detailliert an - aber gerade Windowseinstellungen wie Core Isolation oder Memory Integrity fehlen. Darum weiß ich nicht, ob das vergleichbar ist.

EDIT: mal ganz abgesehen davon, dass PCGH nur 4 Spiele getestet hat. Das ist viel zu wenig um eine allgemeingültige Aussage zu treffen.
 
Die ZEN4 Kerne dieser neuen APU könnten in 1 1/2 Jahren schon durch ZEN5 Kerne abgelöst werden.
So wie es am Sockel AM4 die 4600G oder 4700G pro APU (ZEN2) gab, bald gefolgt von 5600G APU (ZEN3).
Naja, aber so ist es halt immer.
Und erst wenn der Preis um ca. 50€ gesunken ist, gegenüber MSRP, also vielleicht in 1/2 Jahr, wäre das Produkt wirklich P/L empfehlenswert.
 
Zuletzt bearbeitet:
karamba schrieb:
Scheint auch vom Szenario abzuhängen. Cyberpunk, Baldurs Gate und CS2 profitieren ordentlich von den den 50% mehr CUs. In Cyberpunk ist die 6400 nur 20% schneller und kaum effizienter.
Paar Ausnahmen leider nur, CP ist die beste Ausnahme, da das Spiel schätze ich mal sehr gut optimiert ist, 20% sind eben die Bandbreitenvorteile die die 6400 genießt gegenüber der APU. Es gibt auch Games die von RDNA3 speziell profitieren, das kann den Abstand auch verringern.
 
bensen schrieb:
Hier wird wohl eher die TDP limitieren...
Habe ein 7840HS mit 780M. Von 30W auf 54W bringt es nur ein bisschen. Von 54W auf 66W im Turbo eigentlich nur noch heiße und laute Luft. Von 88W auf 120W+ wird wohl noch weniger rauskommen.

crustenscharbap schrieb:
Mich würde interessieren wie der 8700G gegen einen 7840HS abschneidet. Der Idle Verbrauch der neuen APus ist ja besser als befürchtet.
In Edge ein paar CB Tabs offen, Discord und OneDrive im Hintergrund. GPU Asic zeigt 6W an. Ob das inklusive oder noch drauf gerechnet werden muss... keine Ahnung. An der Steckdose kann ich es nicht zuverlässig messen, weil der Laptop dann über Akku arbeitet und/oder parallel diesen mit 100W auflädt.
1231231.png
 
Xes schrieb:
Hat es ja, aber wenn ich hier so einige Kommentare lese scheinen manche diese zu überschätzen, bzw. sich selbst (aus meiner Sicht) fälschlicherweise in dieser Nische zu sehen.
Keine Grafikkarte zu benutzen hat mehrere Vorteile nicht nur Platzersparnisse. Ein Verschleissprodukt weniger zB. (und die GPU ist das größte heutzutage).
 
Kann mir einer mal bitte erklären, warum es so wenige und vor allem nur so teure Mini-ITX Boards gibt? Das war früher doch mal anders...
 
@EdwinOdesseiron
DDR5 und PCIe5 machen kompakte Designs teuer.
Ansonsten Marktwirtschaft. Die PC-Bauer die kompakte Systeme wollen, geben tendenziell für kleine Systeme mehr Geld aus. Da sollte man keinen Umsatz/Gewinn verschenken und unnötig günstige Boards anbieten, wenn auch 50..100€ mehr Erlös erzielbar ist.
 
Xes schrieb:
Die Vorstellung: Alles auf einem Chip mag charmant sein, aber wenn Grafikleistung auch nur ansatzweise relevant ist, lohnt sich vermutlich in den allermeisten Fällen ein Griff zu einer (kleinen, ggf. gebrauchten) dGPU mehr.
Ich frage mich wofür man über 25 Milliarden Transistoren auf einem doch recht großen und teuren Chip benötigt. Gegenüber dem 6900HS hat sich die Transistoranzahl fast verdoppelt. Dafür sind Leistungszuwachs und Effizienz eher enttäuschend. Das sind immerhin so viele Transistoren wie PS5 und XBox Series X zusammen aufweisen. Ich kann mir kaum vorstellen, dass da allein 10 Milliarden Transistoren für die NPU verbraten wurden, die flächenmäßig kleiner als 2 CPU Cores zu sein scheint.
Mit einer guten 8 Core CPU und dGPUs wie z.B. AMD RX6600 oder Nvidia 3060 benötigt man in Kombination jedenfalls deutlich weniger Transistoren und hat eine deutlich bessere Grafikleisung.
 
Volker schrieb:
Die APUs wollen Bandbreite, das hat AMD sogar so gesagt. Ob du da noch an den Timings rumspielst und CL30, 32 34 oder auch 28 oder 26 nimmst und eventuell 1% gewinnst oder verlierst ist letztlich overall aber vollkommen irrelevant. Das riecht schon eher nach wir suchen noch einen Krümel weil es sonst nix gibt^^
Ich halte es für wahrscheinlich, dass die Leute ein Expo Kit mit eben 6000mhz und cl30 kaufen. Zumindest lese ich überall, dass man bei Ryzen schon immer darauf achten sollte. Ich hätte den Test mit Expo für sinnvoller als 6000 c34 gehalten.
 
Bin gerade erst drauf gestoßen, aber danke für den Test.

Ich finde die Vergleiche immer sehr interessant :)

Weiter so!
 
  • Gefällt mir
Reaktionen: Jan
Auf die Gefahr dass es schon gefragt wurde und ich es beim Durchscrollen übersehen habe:

Der Idle-Verbrauch mit und ohne dGPU unterscheidet sich ja deutlich. Wurden die 5000er APUs auch ohne dGPU getestet (ergo Gleichstand zwischen 5000 und 7000) oder hatten die noch eine dGPU drin und würden im Idle entsprechend noch weiter runterkommen?
Und eventuell zweite Frage: Wurde bei den 7000er APUs der Hybridmodus genutzt, der sämtliche Bildausgaben über die iGPU abwickelt (sonfern man die dGPU nicht explizit anfordert, z.B. für ein Spiel)? War die dGPU eine AMD oder Nvidia-Karte? Weil was ich bisher so gehört habe, sollte eine AMD-dGPU fast nichts im Idle kosten, wenn die iGPU alles rendert.
 
Fehlt nur noch der Headless Linux Server Test. Bin mal gespannt was die CPUs können wenn man sie 100% auf Stromsparen optimiert hat. Die FPS bekomme ich in DotA 2 auch mit meiner RX 570 8G, allerdings Spiele mit 3540*1440.

Traurig sind nur die PCIe Lanes.
 
G00fY schrieb:
Wenn man nach 5 Jahren nicht mal annähernd eine 75W GTX1650 (Releasepreis 150€) erreicht ist das schon traurig.
Ich weiß nicht was daran traurig ist, wegen Flaschenhals Speicher war das ja klar, ohne den wäre es keinerlei Problemeinfach mehr Watt drauf und gut, bzw das groessere Modell würde mit mehr CUs auch normal skalieren, 50% mehr Speed statt nur 20.

Ja das Produkt ist nicht sonderlich attraktiv, aber ist ja nicht so das irgend ein anderer Anbieter bessere APUs anbietet.
 
blackiwid schrieb:
Ich weiß nicht was daran traurig ist, wegen Flaschenhals Speicher war das ja klar...
Naja, als technisch interessierter PC Enthusiast finde ich's persönlich traurig, dass "die Spitze" der APUs 2024 immer noch der Leistung von über drei Generationen alten Einsteigergrafikkarten hinterherläuft. Hätte grundsätzlich Interesse eine entsprechende APU zu kaufen. Die Gründe (Speicherbandbreite) sind mir auch bewusst. Muss zudem ja nicht immer um die Konkurrenz bzw. Intel vs AMD gehen.
 
  • Gefällt mir
Reaktionen: Innocience und Apocalypse
C.J. schrieb:
Wurde bei den 7000er APUs der Hybridmodus genutzt
Würde ich bezweifeln

C.J. schrieb:
War die dGPU eine AMD oder Nvidia-Karte?
Sowas sollte eigentlich im Test erwähnt werden

C.J. schrieb:
Weil was ich bisher so gehört habe, sollte eine AMD-dGPU fast nichts im Idle kosten
NVidia war da mit den 3xxx Karten auch gut, die 4xxx leider nicht mehr.
 
kachiri schrieb:
APUs sind und werden nie ein echter dGPU-Ersatz sein.
Absolut, aber sie werden immer öfter eine solide Lösung für Mini-PCs mich Couche Retro-Gaming im Sinn. Die hier sind natürlich mal wieder AMD typisch viel zu teuer im Release, aber das kompensiert wahrscheinlich die Verfügbarkeit oder auch nur das AMD gerne andere Produkte aktuell verkaufen würde.
 
eazen schrieb:
Macht keinen Sinn da schon 16 MB wahrscheinlich zu wenig sind um es voll auszureizen. Nein, 16-32 MB wären so ziemlich das Minimum was etwas bringen würde hier.
Was soll denn ausreizen bedeuten? Irgendwie lieferst du keine Begründung. Jeder größere Cache bringt was. Mehr natürlich auch mehr. Aber es gibt keine Mindestgröße (natürlich sinnvoll größer als vorherige Cachestufe)

eazen schrieb:
Auch das macht wenig Sinn da das Desktop-Produkt einen Sockel benutzt und somit ganz anders ist als das Laptop Produkt.
Es ist der gleiche Die. Den auf ein anderes Package zu setzen ist nicht sehr viel Aufwand.
 
  • Gefällt mir
Reaktionen: Smartbomb
Vielen Dank für den Test. Sieht aber bei den Spielen teilweise ernüchternd aus. Zumindest hatte ich mehr als 30 FPS bei Pioneers of Pagonia erwartet. Aber ich vermute, dass die Regler alle auf Anschlag waren. Ich freue mich aber trotzdem, wenn die iGPUs immer besser werden. Dann können Casuals wie ich irgendwann die dGPU weg lassen und so auch Strom sparen. So ist zumindest meine Hoffnung.

Volker schrieb:
Für den Test hat ComputerBase elf Spiele aus diversen Genres herausgesucht und in der Full-HD-Auflösung it den neuesten Treibern
Das sollte wohl "mit" heißen.
 
  • Gefällt mir
Reaktionen: Jan
Zurück
Oben