Test AMD Ryzen 5000G: iGPU im Test: Zen 3 beschleunigt die APU im Spiele-Einsatz

Vielen Dank für den Test. Wie sieht es denn performancetechnisch aus, wenn man die APU grafikseitig übertaktet UND gleichzeitig schnellen Speicher verwendet? Das wären ja dann summiert ca. 14% mehr Geschwindigkeit?
 
@Wolfgang

Danke für den Test. Schön zu sehen, dass die iGPU auf etwas höherem Niveau als eine GT 1030 ist. Wenn ich bei Spielen wie Paladins und Genshin Impact bleibe, wird also in Zukunft eine iGPU locker reichen. Das finde ich spannend.

Kann es aber sein, dass in der Tabelle ein Fehler ist?

1628069515706.png


Sollten das beim 4700G nicht auch 512 ALUs sein? Zumindest im Text konnte ich keine Angabe zu finden. Bei AMD auf deren Seite steht mal gar nichts (Intel Ark ist da um Welten besser) und bei geizhals stand 512 SP dabei.
 
  • Gefällt mir
Reaktionen: Wolfgang
BrollyLSSJ schrieb:
@Wolfgang

Danke für den Test. Schön zu sehen, dass die iGPU auf etwas höherem Niveau als eine GT 1030 ist. Wenn ich bei Spielen wie Paladins und Genshin Impact bleibe, wird also in Zukunft eine iGPU locker reichen. Das finde ich spannend.

Kann es aber sein, dass in der Tabelle ein Fehler ist?

Anhang anzeigen 1109141

Sollten das beim 4700G nicht auch 512 ALUs sein? Zumindest im Text konnte ich keine Angabe zu finden. Bei AMD auf deren Seite steht mal gar nichts (Intel Ark ist da um Welten besser) und bei geizhals stand 512 SP dabei.
Ja sollte 512 ALUs sein :D
Ergänzung ()

cr4zym4th schrieb:
Vielen Dank für den Test. Wie sieht es denn performancetechnisch aus, wenn man die APU grafikseitig übertaktet UND gleichzeitig schnellen Speicher verwendet? Das wären ja dann summiert ca. 14% mehr Geschwindigkeit?
Bandbreite > Alles bei APUs
Selbst Tminings sind egal (auf GPU performance bezogen) hautpsache die MHz des RAMs gehen hoch :)
Ich habe in meinen ganzen Tests bisher immer die Erfahrung gemacht auch mit schnellem RAM bringt das GPU overclocking so gut wie nix nennenswertes ausser das er "instabiler" wird und mehr Strom verbraucht :)

Erfahrungen basieren auf Athlon, 2400g, 3400G und 4650G Pro :)


Hier war bei mir der RAM und IF schon richtig hoch trotzdem hat das GPU tuning nur minimal was gebracht :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cr4zym4th
Blade0479 schrieb:
Ich weiß ist nicht so ganz Topic, aber bei AMD wäre es schon toll wenn es in Zukunft wie bei Intel mindestens eine Wahl gäbe ob in einer Desktop CPU auch eine integrierte Grafik für 3 Displays vorhanden ist.
Seit Raven Ridge auf dem Desktop können von den AMD iGPUs 3 Monitore angesprochen werden, das Board muss die passenden Anschlüsse natürlich besitzen. 1x HDMI und zwei über DP mit Daisy-Chaining oder Splitter z.B.

Mein geköpfter 2400G im Media PC ist super für anspruchslosere Games und Emulatoren (bis inkl. CEMU z.B.). Auch hier hat es schon einen kleinen Boost gegeben den Ram von 3200@3400 zu heben. Mehr geben die aktuellen Komponenten nicht her.
Der 5700G ist nice, aber kein Aufrüstungsgrund, denn die Mehrleistung steht in keinem Verhältnis zu den Upgradekosten (also außer ich könnte die CPU mit 8 Kernen dort wirklich gut beschäftigen). Ich habe aber definitiv Vorfreude auf RNDA(2) in den APUs, das wird wohl das sinnvollere Upgrade :)

Danke für den Test :)
 
Naja ich beibe noch beim 3400G.
Preislich sind die aktuellen Apus ja nicht gerade Schnäppchen.
 
Wenn man die Leistung von Intel Xe auf die Shader herunterrechnet, haben wir hier nicht einmal GCN-Leistung und sie haben groß getönt, weil sie sich damals mit 96 EUS mit einer 8 CU-iGPU verglichen haben...
Wenn man das also auf die 4096 Shader der größten Xe-HPG hochrechnen würde, käme man nur knapp auf 3060 Ti-Spieleleistung...
Die APU ist auf jeden Fall sehr nett und bietet mindestens die Leistung der HD7850, die 50% mehr Shader bei deultich niedrigem Takt bietet oder eben einer höher taktenden RX550, die gleichgroß ist. Wenn sie nun noch den größen L3 von Ryzen 5000 hätte, würde ich mir sofort so ein Ding kaufen, so ist aber der kaum teurere 5800X fürs Gaming doch deutlich besser, wenn man denn eine funktinierende GPU hat... ^^
 
@mkl1 sry, hast recht. Hab mich von Alder-Lake-P verwirren lassen. Ist doch nur Mobil CPU.
 
Bhaalzac schrieb:
Wenn man das also auf die 4096 Shader der größten Xe-HPG hochrechnen würde, käme man nur knapp auf 3060 Ti-Spieleleistung...
Wobei 3060 Ti Leistung für die erste Intel GPU Generation schon nicht schlecht wäre. Natürlich müssen dann noch Preis und Treiber passen, aber ich denk das wird auch die angepeilte Leistungsklasse von Intel sein. In dem Bereich wird die Masse an GPUs verkauft alles darüber ist dann hauptsächlich für Enthusiasten und Profis interessant.

Interessant sind die vorgestellten AMD APUs allemal, aber leider viel zu teuer und mit der alten Vega GPU eigentlich kaum noch spannend, außer für Komplett- oder Wohnzimmerrechner.
 
  • Gefällt mir
Reaktionen: Nefcairon
pilzsammler2002 schrieb:
Hier war bei mir der RAM und IF schon richtig hoch trotzdem hat das GPU tuning nur minimal was gebracht :)
Häh, versteh ich jetzt nicht. 1900 MHz Stock und 2250 MHz OC. Macht eine Übertaktung um ~18,5%. Hab mir mal so ca. 10 beliebige Stellen aus dem Video rausgesucht und komme immer so auf etwa 20% mehr FPS. Klar hat der schnellere RAM seinen Anteil, aber die Takterhöhung der iGPU schlägt doch voll durch :confused_alt:

P.S. Seh gerade, am Ende ist ja auch ne Zusammenfassung als Tabelle :D
 
Ich hab jetzt hier schon mehrfach "HD7850" gelesen. Ich kann die zwar nur gegen eine Vega7(4700U@~45W mit verlötetem 3200er Speicher) testen, aber ich muss sagen, dass die HD7850 doch schneller als eine Vega8(5700G) sein dürfte.

Die Vega7 schafft so ziemlich exakt die Hälfte der FPS im "Unigine Heaven"-Benchmark. Und zwar sowohl im Basic-Preset (DX9) als auch im Extreme-Preset (DX11) - jeweils im Fullscreen-Modus, weil Win10 ansonsten anscheinend den Game-Modus nicht aktiviert und die Vega7 nochmal Leistung verliert. Während die 7850 auf über 90FPS im Basic-Modus kommt, schafft die Vega7 kaum 45FPS. Unter Extreme hilft der Vega7 zwar, dass DX11 besser auf die APU optimiert worden zu sein scheint, aber auch dort reicht es nur zu 32 FPS vs. 16. Und da hat die HD7850 noch den Nachteil, lediglich mit einem AMD Athlon X4 940 zu laufen. - Also noch K10-Architektur (vor den Faildozern).

Also ja, wem die HD7850 kaputt geht, der könnte ZUR NOT auch eine 5700G nehmen und dort mit Investments in maximaler RAM- und GPU-OC-Leistung an die 7850 kommen. Allerdings auch nur in minimalen Settings. Sobald der 5700G aber die Bandbreite ausgeht, hat man dennoch das Nachsehen. Lediglich der Verbrauch spricht für die 5700G bei dem Vergleich. - Und die Tatsache, dass die HD7850 fast ausnahmslos kein UEFI-Boot kann und daher nicht in aktuellen UEFi-Only Setups laufen mag.

Regards, Bigfoot29
 
McFritte schrieb:
Häh, versteh ich jetzt nicht. 1900 MHz Stock und 2250 MHz OC. Macht eine Übertaktung um ~18,5%. Hab mir mal so ca. 10 beliebige Stellen aus dem Video rausgesucht und komme immer so auf etwa 20% mehr FPS. Klar hat der schnellere RAM seinen Anteil, aber die Takterhöhung der iGPU schlägt doch voll durch :confused_alt:

P.S. Seh gerade, am Ende ist ja auch ne Zusammenfassung als Tabelle :D
In den ganzen vorherigen rumprobieren habe ich halt gemerkt dass die GPU so gut wie nix zu den 20% beiträgt, das kommt fast alles vom RAM :/
Ich muss mal schauen, irgendwo hatte ich das zuhause in ner Tabelle :)
Am Ende waren es wenns hochkommt 5% dank GPU OC, dafür aber direkt bedeutend mehr Watt am nuckeln :P
 
Wie gesagt... woher solls kommen. Der Flaschenhals ist die Bandbreite. Ich bin - wie ich schon schrieb - beeindruckt, wie sehr AMD hier seit dem 2400G optimieren konnte. Immerhin hatte der - abhängig vom BIOS - den gleichen Flaschenhals (in meinem System). Dennoch ist und bleibt das Problem "moar bandwidth!!!" bestehen... :S

Regards, Bigfoot29
 
pilzsammler2002 schrieb:
In den ganzen vorherigen rumprobieren habe ich halt gemerkt dass die GPU so gut wie nix zu den 20% beiträgt, das kommt fast alles vom RAM :/
Ich muss mal schauen, irgendwo hatte ich das zuhause in ner Tabelle :)
Am Ende waren es wenns hochkommt 5% dank GPU OC, dafür aber direkt bedeutend mehr Watt am nuckeln :p
Ok, konnte mir das Video noch nicht ganz ansehen. Kam mir halt so vor, als wäre das durch das GPU OC

P.S. Die Tabelle wäre fein, schwanke nämlich auch gerade mit der Entscheidung ob es der 5700G mit 4000-4400 Ram und GPU OC wird.
 
Bigfoot29 schrieb:
Wie gesagt... woher solls kommen. Der Flaschenhals ist die Bandbreite. Ich bin - wie ich schon schrieb - beeindruckt, wie sehr AMD hier seit dem 2400G optimieren konnte. Immerhin hatte der - abhängig vom BIOS - den gleichen Flaschenhals (in meinem System). Dennoch ist und bleibt das Problem "moar bandwidth!!!" bestehen... :S

Regards, Bigfoot29
Das Kuriose war/ist ja dass relativ viel seit dem 2400G in Vega gemacht wurde... Der 3400G ist teilweise bis zu 8% schneller trotz identischer Taktung, gleicher RAM und board :)
Da laut AMD an der CPU Technik nix geändert wurde von 14nm auf 12nm kann es am Ende nur die Vega sein...
In den Unigine Benchmarks hat die Vega auf einmal (trotz allem identisch) 8% zugelegt... :)
Ergänzung ()

McFritte schrieb:
Ok, konnte mir das Video noch nicht ganz ansehen. Kam mir halt so vor, als wäre das durch das GPU OC

P.S. Die Tabelle wäre fein, schwanke nämlich auch gerade mit der Entscheidung ob es der 5700G mit 4000-4400 Ram und GPU OC wird.
Ich hatte das ja wie gesagt beim 4650G Pro erstellt :)
Habe ja aktuell keinen Zugriff auf den 5700G :)
Unterm Strich, da er sich ja wie "vorher" verhält abseits des CPU Parts, wirst du also grob auch bei 15%-20% overall performance Plus rauskommen wenn du schnellen RAM, IF und bissel GPU oc betreibst. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bigfoot29
catch 22 schrieb:
RDNA bringt bei in der APU eines PC keinen Mehrwert, da dort lediglich DDR4 Ram verbaut ist. Erst mit DDR5 lohnt es Abschied von Vega zu nehmen und RDNA(2) Einzug halten zu lassen. (wobei es mich nicht überraschen würde, wenn der GPU Part am PC weiterhin schwächer sein wird, als an der Konsole)
Ich glaube nicht, dass fehlende Speicherbandbreite der Grund ist, warum AMD weiterhin auf GCN anstatt RDNA setzt. RDNA hat eine deutlich bessere Speicherkompression als Vega, das müsste da eigentlich richtig gut helfen können. Mein Gefühl ist eher, dass AMD auf RDNA in den APUs verzichtet, weil die RDNA-ALUs schon deutlich größer sind als die von GCN. Das ist bei GPUs nicht kritisch, da bekommt man genug von denen drauf. Bei einer APU, wo man aber um jeden mm² kämpft, könnte es sich hier einfach nicht sonderlich lohnen gegenüber den GCN-ALUs. Ist aber nur eine Theorie.
Ergänzung ()

Ferax schrieb:
@Wolfgang

Habe den Artikel wegen dem 5700G Test gefunden und gelesen.

Ich finde das "bisschen" Mehr doch recht falsch dargestellt wird. Fast 20% im GPU Limit? Mit OC (RAM und GPU) kommen noch mal ~20% dazu? Also das finde ich schon beachtlich in Bezug auf den Vorgänger. Also so klein Reden brauch man das meiner Meinung nach nicht.

Bei externen GPUs wäre man überrascht über solche Sprünge.
Sicher, dass du da nicht was verdrehst? Der Ryzen 5 3400G kam Juli 2019 raus und damit hat es genau 2 Jahre zum Nachfolger gedauert. Innerhalb von 2 Jahren sind Grafikkarten aber um 50 Prozent schneller geworden (RTX 2080 Ti --> RTX 3090). Das würde ich mal gerne bei APUs sehen^^
 
  • Gefällt mir
Reaktionen: Zwirbelkatz, LukS und Bigfoot29
@Wolfgang : Entweder das oder die immer mal wieder zu hörende Aussage, dass hochoptimiertes CGN bei 08/15-Einsatz weniger Strom zieht als ein RDNA-Setup. Möglicherweise wollte man hier auf eine kleinere Node warten um das kompensieren zu können. Außerdem gibt es im Desktop-Segment derzeit gar keine APU-Konkurrenz und bei den Notebooks erst seit Xe. Vielleicht spielt das auch mit rein. Immerhin tut Vega ja was es soll. Warum also Engineering-Leistung für ein Redesign verbraten, wenns nicht nötig zu sein scheint?

(Das fehlende AV1 weist ja ebenfalls in diese Richtung. Man hat sich nichtmal dazu herabgelassen, aktuelle UVD zu portieren...)

Regards, Bigfoot29
 
Matzegr schrieb:
Nehmt ihr nur den Takt hoch, oder passt ihr auch die Subtimings an?

Hab bei meinem 2400G und 4650G gesehen, dass schärfere Subtimings auch noch mal den gleichen Zuwachs bringen wie höherer Takt.
Nein, die Timings wurden nicht geändert. Das würde den Arbeitsaufwand einfach zu sehr erhöhen.
DevilofNuns schrieb:
Was mir bisschen fehlt in dem Test ist, wo denn die direkten Vorgänger 4650G Pro und 4750G Pro (wenn auch nur als OEM) stecken? Beim CPU-Artikel sind diese teils in den Grafiken mit dabei. Hier im iGPU Test wurden diese dann aber direkt gestrichen und nur der 4350G Pro wurde integriert.
Die schnelleren Ryzen 4000G hatten wir für den Test leider nicht mehr hier, entsprechend konnten wir keine neuen Werte damit erstellen. Da sämtliche Werte für den GPU-Vergleich neu sind, fehlen diese entsprechend :(
 
  • Gefällt mir
Reaktionen: DevilofNuns
Matzegr schrieb:
Nehmt ihr nur den Takt hoch, oder passt ihr auch die Subtimings an?

Hab bei meinem 2400G und 4650G gesehen, dass schärfere Subtimings auch noch mal den gleichen Zuwachs bringen wie höherer Takt.
Im GPU Bereich?
Oder auch auf CPU bezogen?
Ergänzung ()

Wolfgang schrieb:
Nein, die Timings wurden nicht geändert. Das würde den Arbeitsaufwand einfach zu sehr erhöhen.

Die schnelleren Ryzen 4000G hatten wir für den Test leider nicht mehr hier, entsprechend konnten wir keine neuen Werte damit erstellen. Da sämtliche Werte für den GPU-Vergleich neu sind, fehlen diese entsprechend :(
Braucht ihr noch nen 4650G leihweise für nen Nachtest/Gen Vergleich? :-)
 
  • Gefällt mir
Reaktionen: drake23, Qyxes und Bigfoot29
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bigfoot29
catch 22 schrieb:
Die aktuellen Konsolen die auf eine "modifizierte" AMD APU mit RDNA2 setzen, nutzen entsprechend GDDR6 Ram
Und die RDNA2 APU im kommenden Steam Deck setzt auch schon auf DDR5 (mit Quadchannel).
 
Zurück
Oben