Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test AMD Ryzen 5000G: iGPU im Test: Zen 3 beschleunigt die APU im Spiele-Einsatz
BrollyLSSJ
Vice Admiral Pro
- Registriert
- Juni 2007
- Beiträge
- 6.237
@Wolfgang
Danke für den Test. Schön zu sehen, dass die iGPU auf etwas höherem Niveau als eine GT 1030 ist. Wenn ich bei Spielen wie Paladins und Genshin Impact bleibe, wird also in Zukunft eine iGPU locker reichen. Das finde ich spannend.
Kann es aber sein, dass in der Tabelle ein Fehler ist?
Sollten das beim 4700G nicht auch 512 ALUs sein? Zumindest im Text konnte ich keine Angabe zu finden. Bei AMD auf deren Seite steht mal gar nichts (Intel Ark ist da um Welten besser) und bei geizhals stand 512 SP dabei.
Danke für den Test. Schön zu sehen, dass die iGPU auf etwas höherem Niveau als eine GT 1030 ist. Wenn ich bei Spielen wie Paladins und Genshin Impact bleibe, wird also in Zukunft eine iGPU locker reichen. Das finde ich spannend.
Kann es aber sein, dass in der Tabelle ein Fehler ist?
Sollten das beim 4700G nicht auch 512 ALUs sein? Zumindest im Text konnte ich keine Angabe zu finden. Bei AMD auf deren Seite steht mal gar nichts (Intel Ark ist da um Welten besser) und bei geizhals stand 512 SP dabei.
pilzsammler2002
Lt. Junior Grade
- Registriert
- Juli 2018
- Beiträge
- 333
Ja sollte 512 ALUs seinBrollyLSSJ schrieb:@Wolfgang
Danke für den Test. Schön zu sehen, dass die iGPU auf etwas höherem Niveau als eine GT 1030 ist. Wenn ich bei Spielen wie Paladins und Genshin Impact bleibe, wird also in Zukunft eine iGPU locker reichen. Das finde ich spannend.
Kann es aber sein, dass in der Tabelle ein Fehler ist?
Anhang anzeigen 1109141
Sollten das beim 4700G nicht auch 512 ALUs sein? Zumindest im Text konnte ich keine Angabe zu finden. Bei AMD auf deren Seite steht mal gar nichts (Intel Ark ist da um Welten besser) und bei geizhals stand 512 SP dabei.
Ergänzung ()
Bandbreite > Alles bei APUscr4zym4th schrieb:Vielen Dank für den Test. Wie sieht es denn performancetechnisch aus, wenn man die APU grafikseitig übertaktet UND gleichzeitig schnellen Speicher verwendet? Das wären ja dann summiert ca. 14% mehr Geschwindigkeit?
Selbst Tminings sind egal (auf GPU performance bezogen) hautpsache die MHz des RAMs gehen hoch
Ich habe in meinen ganzen Tests bisher immer die Erfahrung gemacht auch mit schnellem RAM bringt das GPU overclocking so gut wie nix nennenswertes ausser das er "instabiler" wird und mehr Strom verbraucht
Erfahrungen basieren auf Athlon, 2400g, 3400G und 4650G Pro
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Hier war bei mir der RAM und IF schon richtig hoch trotzdem hat das GPU tuning nur minimal was gebracht
Zuletzt bearbeitet:
Seit Raven Ridge auf dem Desktop können von den AMD iGPUs 3 Monitore angesprochen werden, das Board muss die passenden Anschlüsse natürlich besitzen. 1x HDMI und zwei über DP mit Daisy-Chaining oder Splitter z.B.Blade0479 schrieb:Ich weiß ist nicht so ganz Topic, aber bei AMD wäre es schon toll wenn es in Zukunft wie bei Intel mindestens eine Wahl gäbe ob in einer Desktop CPU auch eine integrierte Grafik für 3 Displays vorhanden ist.
Mein geköpfter 2400G im Media PC ist super für anspruchslosere Games und Emulatoren (bis inkl. CEMU z.B.). Auch hier hat es schon einen kleinen Boost gegeben den Ram von 3200@3400 zu heben. Mehr geben die aktuellen Komponenten nicht her.
Der 5700G ist nice, aber kein Aufrüstungsgrund, denn die Mehrleistung steht in keinem Verhältnis zu den Upgradekosten (also außer ich könnte die CPU mit 8 Kernen dort wirklich gut beschäftigen). Ich habe aber definitiv Vorfreude auf RNDA(2) in den APUs, das wird wohl das sinnvollere Upgrade
Danke für den Test
Wenn man die Leistung von Intel Xe auf die Shader herunterrechnet, haben wir hier nicht einmal GCN-Leistung und sie haben groß getönt, weil sie sich damals mit 96 EUS mit einer 8 CU-iGPU verglichen haben...
Wenn man das also auf die 4096 Shader der größten Xe-HPG hochrechnen würde, käme man nur knapp auf 3060 Ti-Spieleleistung...
Die APU ist auf jeden Fall sehr nett und bietet mindestens die Leistung der HD7850, die 50% mehr Shader bei deultich niedrigem Takt bietet oder eben einer höher taktenden RX550, die gleichgroß ist. Wenn sie nun noch den größen L3 von Ryzen 5000 hätte, würde ich mir sofort so ein Ding kaufen, so ist aber der kaum teurere 5800X fürs Gaming doch deutlich besser, wenn man denn eine funktinierende GPU hat... ^^
Wenn man das also auf die 4096 Shader der größten Xe-HPG hochrechnen würde, käme man nur knapp auf 3060 Ti-Spieleleistung...
Die APU ist auf jeden Fall sehr nett und bietet mindestens die Leistung der HD7850, die 50% mehr Shader bei deultich niedrigem Takt bietet oder eben einer höher taktenden RX550, die gleichgroß ist. Wenn sie nun noch den größen L3 von Ryzen 5000 hätte, würde ich mir sofort so ein Ding kaufen, so ist aber der kaum teurere 5800X fürs Gaming doch deutlich besser, wenn man denn eine funktinierende GPU hat... ^^
Northstar2710
Admiral
- Registriert
- Aug. 2019
- Beiträge
- 7.472
Wobei 3060 Ti Leistung für die erste Intel GPU Generation schon nicht schlecht wäre. Natürlich müssen dann noch Preis und Treiber passen, aber ich denk das wird auch die angepeilte Leistungsklasse von Intel sein. In dem Bereich wird die Masse an GPUs verkauft alles darüber ist dann hauptsächlich für Enthusiasten und Profis interessant.Bhaalzac schrieb:Wenn man das also auf die 4096 Shader der größten Xe-HPG hochrechnen würde, käme man nur knapp auf 3060 Ti-Spieleleistung...
Interessant sind die vorgestellten AMD APUs allemal, aber leider viel zu teuer und mit der alten Vega GPU eigentlich kaum noch spannend, außer für Komplett- oder Wohnzimmerrechner.
Häh, versteh ich jetzt nicht. 1900 MHz Stock und 2250 MHz OC. Macht eine Übertaktung um ~18,5%. Hab mir mal so ca. 10 beliebige Stellen aus dem Video rausgesucht und komme immer so auf etwa 20% mehr FPS. Klar hat der schnellere RAM seinen Anteil, aber die Takterhöhung der iGPU schlägt doch voll durchpilzsammler2002 schrieb:Hier war bei mir der RAM und IF schon richtig hoch trotzdem hat das GPU tuning nur minimal was gebracht
P.S. Seh gerade, am Ende ist ja auch ne Zusammenfassung als Tabelle
Ich hab jetzt hier schon mehrfach "HD7850" gelesen. Ich kann die zwar nur gegen eine Vega7(4700U@~45W mit verlötetem 3200er Speicher) testen, aber ich muss sagen, dass die HD7850 doch schneller als eine Vega8(5700G) sein dürfte.
Die Vega7 schafft so ziemlich exakt die Hälfte der FPS im "Unigine Heaven"-Benchmark. Und zwar sowohl im Basic-Preset (DX9) als auch im Extreme-Preset (DX11) - jeweils im Fullscreen-Modus, weil Win10 ansonsten anscheinend den Game-Modus nicht aktiviert und die Vega7 nochmal Leistung verliert. Während die 7850 auf über 90FPS im Basic-Modus kommt, schafft die Vega7 kaum 45FPS. Unter Extreme hilft der Vega7 zwar, dass DX11 besser auf die APU optimiert worden zu sein scheint, aber auch dort reicht es nur zu 32 FPS vs. 16. Und da hat die HD7850 noch den Nachteil, lediglich mit einem AMD Athlon X4 940 zu laufen. - Also noch K10-Architektur (vor den Faildozern).
Also ja, wem die HD7850 kaputt geht, der könnte ZUR NOT auch eine 5700G nehmen und dort mit Investments in maximaler RAM- und GPU-OC-Leistung an die 7850 kommen. Allerdings auch nur in minimalen Settings. Sobald der 5700G aber die Bandbreite ausgeht, hat man dennoch das Nachsehen. Lediglich der Verbrauch spricht für die 5700G bei dem Vergleich. - Und die Tatsache, dass die HD7850 fast ausnahmslos kein UEFI-Boot kann und daher nicht in aktuellen UEFi-Only Setups laufen mag.
Regards, Bigfoot29
Die Vega7 schafft so ziemlich exakt die Hälfte der FPS im "Unigine Heaven"-Benchmark. Und zwar sowohl im Basic-Preset (DX9) als auch im Extreme-Preset (DX11) - jeweils im Fullscreen-Modus, weil Win10 ansonsten anscheinend den Game-Modus nicht aktiviert und die Vega7 nochmal Leistung verliert. Während die 7850 auf über 90FPS im Basic-Modus kommt, schafft die Vega7 kaum 45FPS. Unter Extreme hilft der Vega7 zwar, dass DX11 besser auf die APU optimiert worden zu sein scheint, aber auch dort reicht es nur zu 32 FPS vs. 16. Und da hat die HD7850 noch den Nachteil, lediglich mit einem AMD Athlon X4 940 zu laufen. - Also noch K10-Architektur (vor den Faildozern).
Also ja, wem die HD7850 kaputt geht, der könnte ZUR NOT auch eine 5700G nehmen und dort mit Investments in maximaler RAM- und GPU-OC-Leistung an die 7850 kommen. Allerdings auch nur in minimalen Settings. Sobald der 5700G aber die Bandbreite ausgeht, hat man dennoch das Nachsehen. Lediglich der Verbrauch spricht für die 5700G bei dem Vergleich. - Und die Tatsache, dass die HD7850 fast ausnahmslos kein UEFI-Boot kann und daher nicht in aktuellen UEFi-Only Setups laufen mag.
Regards, Bigfoot29
pilzsammler2002
Lt. Junior Grade
- Registriert
- Juli 2018
- Beiträge
- 333
In den ganzen vorherigen rumprobieren habe ich halt gemerkt dass die GPU so gut wie nix zu den 20% beiträgt, das kommt fast alles vom RAM :/McFritte schrieb:Häh, versteh ich jetzt nicht. 1900 MHz Stock und 2250 MHz OC. Macht eine Übertaktung um ~18,5%. Hab mir mal so ca. 10 beliebige Stellen aus dem Video rausgesucht und komme immer so auf etwa 20% mehr FPS. Klar hat der schnellere RAM seinen Anteil, aber die Takterhöhung der iGPU schlägt doch voll durch
P.S. Seh gerade, am Ende ist ja auch ne Zusammenfassung als Tabelle
Ich muss mal schauen, irgendwo hatte ich das zuhause in ner Tabelle
Am Ende waren es wenns hochkommt 5% dank GPU OC, dafür aber direkt bedeutend mehr Watt am nuckeln
Wie gesagt... woher solls kommen. Der Flaschenhals ist die Bandbreite. Ich bin - wie ich schon schrieb - beeindruckt, wie sehr AMD hier seit dem 2400G optimieren konnte. Immerhin hatte der - abhängig vom BIOS - den gleichen Flaschenhals (in meinem System). Dennoch ist und bleibt das Problem "moar bandwidth!!!" bestehen... :S
Regards, Bigfoot29
Regards, Bigfoot29
Ok, konnte mir das Video noch nicht ganz ansehen. Kam mir halt so vor, als wäre das durch das GPU OCpilzsammler2002 schrieb:In den ganzen vorherigen rumprobieren habe ich halt gemerkt dass die GPU so gut wie nix zu den 20% beiträgt, das kommt fast alles vom RAM :/
Ich muss mal schauen, irgendwo hatte ich das zuhause in ner Tabelle
Am Ende waren es wenns hochkommt 5% dank GPU OC, dafür aber direkt bedeutend mehr Watt am nuckeln
P.S. Die Tabelle wäre fein, schwanke nämlich auch gerade mit der Entscheidung ob es der 5700G mit 4000-4400 Ram und GPU OC wird.
pilzsammler2002
Lt. Junior Grade
- Registriert
- Juli 2018
- Beiträge
- 333
Das Kuriose war/ist ja dass relativ viel seit dem 2400G in Vega gemacht wurde... Der 3400G ist teilweise bis zu 8% schneller trotz identischer Taktung, gleicher RAM und boardBigfoot29 schrieb:Wie gesagt... woher solls kommen. Der Flaschenhals ist die Bandbreite. Ich bin - wie ich schon schrieb - beeindruckt, wie sehr AMD hier seit dem 2400G optimieren konnte. Immerhin hatte der - abhängig vom BIOS - den gleichen Flaschenhals (in meinem System). Dennoch ist und bleibt das Problem "moar bandwidth!!!" bestehen... :S
Regards, Bigfoot29
Da laut AMD an der CPU Technik nix geändert wurde von 14nm auf 12nm kann es am Ende nur die Vega sein...
In den Unigine Benchmarks hat die Vega auf einmal (trotz allem identisch) 8% zugelegt...
Ergänzung ()
Ich hatte das ja wie gesagt beim 4650G Pro erstelltMcFritte schrieb:Ok, konnte mir das Video noch nicht ganz ansehen. Kam mir halt so vor, als wäre das durch das GPU OC
P.S. Die Tabelle wäre fein, schwanke nämlich auch gerade mit der Entscheidung ob es der 5700G mit 4000-4400 Ram und GPU OC wird.
Habe ja aktuell keinen Zugriff auf den 5700G
Unterm Strich, da er sich ja wie "vorher" verhält abseits des CPU Parts, wirst du also grob auch bei 15%-20% overall performance Plus rauskommen wenn du schnellen RAM, IF und bissel GPU oc betreibst.
Zuletzt bearbeitet:
- Registriert
- Nov. 2002
- Beiträge
- 8.971
Ich glaube nicht, dass fehlende Speicherbandbreite der Grund ist, warum AMD weiterhin auf GCN anstatt RDNA setzt. RDNA hat eine deutlich bessere Speicherkompression als Vega, das müsste da eigentlich richtig gut helfen können. Mein Gefühl ist eher, dass AMD auf RDNA in den APUs verzichtet, weil die RDNA-ALUs schon deutlich größer sind als die von GCN. Das ist bei GPUs nicht kritisch, da bekommt man genug von denen drauf. Bei einer APU, wo man aber um jeden mm² kämpft, könnte es sich hier einfach nicht sonderlich lohnen gegenüber den GCN-ALUs. Ist aber nur eine Theorie.catch 22 schrieb:RDNA bringt bei in der APU eines PC keinen Mehrwert, da dort lediglich DDR4 Ram verbaut ist. Erst mit DDR5 lohnt es Abschied von Vega zu nehmen und RDNA(2) Einzug halten zu lassen. (wobei es mich nicht überraschen würde, wenn der GPU Part am PC weiterhin schwächer sein wird, als an der Konsole)
Ergänzung ()
Sicher, dass du da nicht was verdrehst? Der Ryzen 5 3400G kam Juli 2019 raus und damit hat es genau 2 Jahre zum Nachfolger gedauert. Innerhalb von 2 Jahren sind Grafikkarten aber um 50 Prozent schneller geworden (RTX 2080 Ti --> RTX 3090). Das würde ich mal gerne bei APUs sehen^^Ferax schrieb:@Wolfgang
Habe den Artikel wegen dem 5700G Test gefunden und gelesen.
Ich finde das "bisschen" Mehr doch recht falsch dargestellt wird. Fast 20% im GPU Limit? Mit OC (RAM und GPU) kommen noch mal ~20% dazu? Also das finde ich schon beachtlich in Bezug auf den Vorgänger. Also so klein Reden brauch man das meiner Meinung nach nicht.
Bei externen GPUs wäre man überrascht über solche Sprünge.
@Wolfgang : Entweder das oder die immer mal wieder zu hörende Aussage, dass hochoptimiertes CGN bei 08/15-Einsatz weniger Strom zieht als ein RDNA-Setup. Möglicherweise wollte man hier auf eine kleinere Node warten um das kompensieren zu können. Außerdem gibt es im Desktop-Segment derzeit gar keine APU-Konkurrenz und bei den Notebooks erst seit Xe. Vielleicht spielt das auch mit rein. Immerhin tut Vega ja was es soll. Warum also Engineering-Leistung für ein Redesign verbraten, wenns nicht nötig zu sein scheint?
(Das fehlende AV1 weist ja ebenfalls in diese Richtung. Man hat sich nichtmal dazu herabgelassen, aktuelle UVD zu portieren...)
Regards, Bigfoot29
(Das fehlende AV1 weist ja ebenfalls in diese Richtung. Man hat sich nichtmal dazu herabgelassen, aktuelle UVD zu portieren...)
Regards, Bigfoot29
- Registriert
- Nov. 2002
- Beiträge
- 8.971
Nein, die Timings wurden nicht geändert. Das würde den Arbeitsaufwand einfach zu sehr erhöhen.Matzegr schrieb:Nehmt ihr nur den Takt hoch, oder passt ihr auch die Subtimings an?
Hab bei meinem 2400G und 4650G gesehen, dass schärfere Subtimings auch noch mal den gleichen Zuwachs bringen wie höherer Takt.
Die schnelleren Ryzen 4000G hatten wir für den Test leider nicht mehr hier, entsprechend konnten wir keine neuen Werte damit erstellen. Da sämtliche Werte für den GPU-Vergleich neu sind, fehlen diese entsprechendDevilofNuns schrieb:Was mir bisschen fehlt in dem Test ist, wo denn die direkten Vorgänger 4650G Pro und 4750G Pro (wenn auch nur als OEM) stecken? Beim CPU-Artikel sind diese teils in den Grafiken mit dabei. Hier im iGPU Test wurden diese dann aber direkt gestrichen und nur der 4350G Pro wurde integriert.
pilzsammler2002
Lt. Junior Grade
- Registriert
- Juli 2018
- Beiträge
- 333
Im GPU Bereich?Matzegr schrieb:Nehmt ihr nur den Takt hoch, oder passt ihr auch die Subtimings an?
Hab bei meinem 2400G und 4650G gesehen, dass schärfere Subtimings auch noch mal den gleichen Zuwachs bringen wie höherer Takt.
Oder auch auf CPU bezogen?
Ergänzung ()
Braucht ihr noch nen 4650G leihweise für nen Nachtest/Gen Vergleich? :-)Wolfgang schrieb:Nein, die Timings wurden nicht geändert. Das würde den Arbeitsaufwand einfach zu sehr erhöhen.
Die schnelleren Ryzen 4000G hatten wir für den Test leider nicht mehr hier, entsprechend konnten wir keine neuen Werte damit erstellen. Da sämtliche Werte für den GPU-Vergleich neu sind, fehlen diese entsprechend
Northstar2710
Admiral
- Registriert
- Aug. 2019
- Beiträge
- 7.472
Wer auch mal ein paar OC Werte dieser cpu sehen möchte mit Verbrauch und curvedoptimizer kann sich mal den Betrag anschauen, ist von Mai als die CPUs bei den OEM zubekommen waren. https://skatterbencher.com/2021/04/27/skatterbencher-24-amd-ryzen-7-5700g-overclocked-to-4850-mhz/
Tabellen mit werten kann man sich auch runterladen
Tabellen mit werten kann man sich auch runterladen
Zuletzt bearbeitet:
Und die RDNA2 APU im kommenden Steam Deck setzt auch schon auf DDR5 (mit Quadchannel).catch 22 schrieb:Die aktuellen Konsolen die auf eine "modifizierte" AMD APU mit RDNA2 setzen, nutzen entsprechend GDDR6 Ram
Ähnliche Themen
- Antworten
- 259
- Aufrufe
- 61.407
- Antworten
- 179
- Aufrufe
- 51.983