Test AMD Ryzen 5000G: iGPU im Test: Zen 3 beschleunigt die APU im Spiele-Einsatz

Crifty schrieb:
Danke für den Test @Volker,

trotzdem bin ich etwas ernüchtert von der Grafikeinheit der neuen APU. Versteht mich nicht falsch, die Leistung ist gut und aktuell gibt es in dem Bereich nicht wirklich eine Konkurrenz für AMD, aber gerade deshalb bin ich etwas ernüchtert. AMDs Sprung ist nur so hoch wie sie gerade müssen und nicht wie sie könnten. 16% mehr im Vergleich zu Vorgängergeneration ist im Grafikbereich einfach zu wenig. Denn die aktuellen Konsolen zeigen ja ganz gut was möglich ist. Gerade im Bereich bis 300€ fehlen viele Grafikkarten und AMD hätte die Möglichkeiten hier einen komplett trockenen Markt zu bedienen und macht es nicht.
Um ehrlich zu sein bin ich erstaunt das die überhaupt noch mal so eine Steigerung hinbekommen haben. Mit DDR4 ist einfach schicht im Schacht was die Leistung angeht. Bis DDR5 da ist gibt es keine bessere Lösung.
 
APUs haben mich immer interessiert. Meinen ersten Eigenbau hatte eine Carrizzo-APU.
Und ich hatte eigentlich ein Upgrade auf eine Renoir-APU geplant. Doch dann hat mich die Bastelwut früher gepackt ... Rückblickend betrachtet zum Glück.

Man darf keine Wunderdinge erwarten. Allerdings hatte die Kiste mit 0AD auf 2560x1080 keine Probleme. Es kommt eben ganz darauf an was man spielt.

Crifty schrieb:
trotzdem bin ich etwas ernüchtert von der Grafikeinheit der neuen APU.
Es ist halt ein Notebookchip und keine Spielkonsole.

Da die APU primär für den Notebookmarkt entwickelt wird, darf die Gesamtfläche nicht zu groß werden. Renoir konnte mit einer 8-Kern CPU entwickelt werden, weil die GPU von 11 auf 8 CU verkleinert wurde.
Für das Gesamtpaket APU war das die ideale Lösung.

Zwirbelkatz schrieb:
Wieso aber dann dieses massive Loch zwischen einer Vega8 und eine RX6600 - ist dieses Mal kein Ass im Ärmel - oder wird es künstlich zurück gehalten?
RX6600 ist Navi 23 (DIMGREY_CAVEFISH). Es wird wahrscheinlich auch noch einen Navi 24 (BEIGE_GOBY) geben. Navi 24 soll 16 CU haben. Der Infinity Cache hat 16 MByte.

ElDiablo schrieb:
Mit einer Weiterentwicklung der PS5 APU dürfte da einiges möglich sein. DDR5 jenseits der 6000 bremst dann auch nicht mehr so stark.
APUs für Konsolen und APUs für Notebooks werden von unterschiedlichen Teams entwickelt und für unterschiedliche Anwendungen entwickelt.

Bei den APUs für die Notebooks liegt der Schwerpunkt auf der CPU-Leistung.
Bei den APUs von Semicustom eher auf der GPU-Leistung.

ElDiablo schrieb:
Schade, dass sie das 4700S Kit nicht auch gegen Aufpreis mit aktiver iGPU angeboten haben.
Das werden wohl die Verträge mit Sony verhindern.

naicorion schrieb:
Ich fand den APU-Ansatz auch immer spannend.
Man muss sich aber klarmachen das er momentan Grenzen hat. Wenn AMD die Konsolen-APUs frei vermarkten dürfte, könnte AMD die Nische GPU-lastiger APUs bedienen.

Aber für die Notebook-APus darf die Die-Fläche nicht zu groß werden. Deshalb werden monolithischen APUs immer etwas fürs untere Segment sein.
naicorion schrieb:
Mit dem Chipletdesign (auch bei den GPUs zukünftig) und den riesigen Caches wäre ja jetzt auch super viel möglich.
Die nächsten Desktop-CPU sollen laut Gerüchten einen IGP haben. Ich halte diese Gerüchte für stichhaltig, da die fehlende IGP eine Schwachstelle der CPUs ist.

Aber bitte keine leistungsfähige Grafik erwarten.
Jesterfox schrieb:
Ich hoffe ja drauf das dann gleich RDNA2 mit Infinty Cache kommt. Das dürfte auch den APUs helfen.
Rembrandt (Yellow Carp) hat keinen Infinity Cache. Das kann man den Linuxtreibern entnehmen.

Unnu schrieb:
Tja, so sind gute Pferde halt. Immerhin springen sie so hoch und bleiben nicht in der Latte hängen.
So eine weiterentwickelte VEGA hätte ich gerne in MEINER ALTEN VEGA.
Träumchen.
Bei Notebook APUs zählt vor allem die CPU-Leistung. Die GPU Leistung ist nice to have. Wenn es viel Leistung sein soll, kommt eine dGPU dazu.

In den Zeiten vor Zen, hat sich niemand darum geschert, dass die Grafikleistung bei AMD APUs weit höher war. Die schwache CPU war ausschlaggebenden für den Mißerfolg. So wie die starke CPU entscheidend für den Erfolg von Renoir uind Cezanne ist.
SaschaHa schrieb:
Das sieht ja alles durchaus sehr brauchbar aus! Das macht meine Vorfreude auf Rembrandt umso größer! Dort werden ja 12 statt 8 CUs erwartet, zudem dürfte der Wechsel von Vega zu RDNA2 auch nochmal mindestens 40% mehr Performance pro CU bedeuten, womit wir dann etwa bei einer Leistungsverdopplung stünden. Für mich dann definitiv genug für ein schickes schlankes Notebook ohne dGPU :)
Du hast Recht, RDNA2 sollte auch ohne Infinty Cache eine ordentliche Leistungssteigerung gegen über Vega bringen. Aus diesem Grund könnte es AMD bei 8 CUs belassen.
Es kommt ganz auf die Die-Fläche an, die Rembrandt haben darf.

Wenn man beachtet, dass Beige Goby 16 CU haben soll, finde ich 12 CUs bei Rembradt sehr viel.

begin_prog schrieb:
Das Die von Cezanne ist ein monolithisches Die aus dem Notebook. Daher auch die hohe Effizienz.
Rembrandt soll auf der CES im kommenden Januar vorgestellt werden. Zunächst für Notebooks, später für Desktops. Aber die Design-Entscheidungen werden im Hinblick auf den Notebook-Markt getroffen.
Genau, und deshalb werden auf dieser Basis keine APUs mit hoher GPU-Leistung entstehen.
guzzisti schrieb:
Ursprünglich dachte ich ja an "Shut up and take my money"...aber...der 5700G ist auf Geizhals gerade eben für ~460€ - das wäre mir jetzt aber dann doch zu teuer.
Muss er auch, 2 Tage vor offiziellem Verkaufsstart. Da ist ein schöner Ungeduldsaufschlag drauf.
D0m1n4t0r schrieb:
Hmm, frage mich ob AMD mal auf die Idee kommt in die CPUs einfach mal so 2-4 GB HBM Speicher einzubauen um die Grafik damit zu beschleunigen.
Ich denke nicht das das im Desktop passieren wird.

Bei Gaming GPUs hat sich der InfinityCache bewährt. Und gerade bei langsamen Speicher bringt ein Cache sehr viel. Deshalb hatte ich nach der Vorstellung von 3D-VCache angenommen, dass Rembrandt einen InfinityCache bekommt. Aber das ist nicht der Fall. Vielleicht später.

HBM ist das Mittel der Wahl für Server-GPUs wie Nvidia A100 oder AMD Instinct MI100.

moonwalker99 schrieb:
Sind wir sicher, dass eine Plattform Zen3+ geben wird? Noch ist doch nichts bekannt.
Rembrandt (yellow_carp) ist wohl für Anfang 2022 geplant. Das "+" in Zen 3+ war meiner Meinung nach eine Fehlinterpretation. Bei den CPUs wird das "+" wohl der 3D-V-Cache. Und wie das "+" in Rembrandt gewandert ist, keine Ahnung. Und wenn es die üblichen Optimierungen/Fehlerbereinigungen gibt, werden es einige wohl als Bestätigung für das "+" sehen
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
Danke für den Test, viele Facetten abgedeckt. Was mir
noch etwas fehlt ist der aktuelle Marktbezug. Unabhängig von der Leistung oder der Fähigkeit der APU. Eben Mal kurz Geizhals überflogen: GT1030 wieder für ~80€ verfügbar, rx550 ab 130€. Irgendwie richtige GPU ist dann die 1050Ti ab ca. 180€, die im Test verwendete rx460 bzw. sogar 560 gibt's gar nicht (mehr).
Ich bin absoluter APU Fan, allerdings hat diese Gen dasselbe Problem wie die 3000er Gen schon weit vor Corona, AMD lässt sich diesen vergleichsweise geringen Mehrwert vergolden und der Anwendungsfall low-budget / entry Gaming ist hier weiterhin verkehrt.
 
DJMadMax schrieb:
Auch würde mich interessieren, mit welchen Einstellungen Resident Evil Village getestet wurde. Mal ganz im Ernst, auf ner 259 Euro APU (UVP) ein solches Spiel (genauso F1 2021) in Full HD nahezu uneingeschränkt spielen zu können, ist doch echt der Knaller.
1628056080316.png


Hilft Dir das weiter?
 
  • Gefällt mir
Reaktionen: DJMadMax
Endless Storm schrieb:
Wie viel schneller wäre die gegenüber einer HD7850 2GB?

World of Tanks in UWQHD möglich?

Ich zitiere mich mal selbst :cool_alt:
Habe mal Tests von vielen älteren Karten durchgesehen und geschaut, in welchen Tests identische Karten enthalten sind.

Die Leistung meiner HD 7860 ist wohl in etwa vergleichbar mit einer heutigen RX 560.
Die 5700G hätte wohl nur ca. 68% der Leistung der HD 7850...

Würde sich für mich leider gar nicht lohnen, übergangsweise auf egal welche APU zu setzen (solange die HD 7850 noch hält).

Die APUs sind nicht schlecht, nicht falsch verstehen (habe meine Frau eine 3400G verbaut, sie zockt wenn, dann nur alte Spiele).
Aber gegen eine 9 Jahre alte dedizierte Mittelklasse Grafikkarte haben sie noch immer kaum eine Chance. :daumen:

Leistung/ Watt prüfen wir besser nicht :heilig:
 
  • Gefällt mir
Reaktionen: drake23
Endless Storm schrieb:
Das kommt erst mit AM5, das bietet weit mehr Bandbreite.
Das ist eben der Nachteil des alten AM4-Sockels.

So nicht 100% richtig, RDNA 2 kommt jetzt z.B. in der Steam-Deck...
Dei Vega reicht voll aus und auch RDNA 2 wird jetzt nicht alle Probleme lösen da ja kein Infinity Cache (bisher jedenfalls) vorhanden sein wird...
Die iGPU/APU Vegas sind schon bedeutend weiter als die Vega vom release.
Teilweise gab es je nach Szenario zwischen 2400G und 3400G über 10% performance Sprung trotz gleicher Taktraten (reineweg auf GPU bezogen)
 
catch 22 schrieb:
hieß es damals nicht, dass die Xe Grafikeinheit in den Intel CPU schnell wie Schmitz Katze wäre und es dem Grafikpart der APU von AMD richtig schwer macht?
Der große Ausbau mit 96EUs ist tatsächlich überraschend schnell. Bin immer wieder überrascht wieviel Leistung in ein 35W-Korsett meines Ultrabooks passt. Leider habe ich derzeit keine Zeit um Mal wirkliche Benchmarks zu machen.
 
weiß jemand bzw. hat einen Test, wie sich die Grafikleistung der 5600G/5700G im Vergleich zu 4650/4750G verhält?
Hintergrund: wir haben gerade erfolgreich angefangen, den 4750G für unsere CAD-Kisten einzusetzen (das Programm, Trimble nova, ist SC limitiert und braucht eig. fast nie Grafikbeschleunigung) - und der 5600G wäre sowohl von SC-Leistung & Preis durchaus interessant...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Qyxes und Zero Cool
Ein Benchmark mit FSR, 4000er RAM und 2.4 GHz wäre interessant. Theoretisch sollten sich hoher GPU Takt und schneller Speicher doch gegenseitig etwas befruchten.
 
ElDiablo schrieb:
Der schnellere Ram machts sich zwar bemerkbar, aber wenn man sich den entsprechenden Test von Hardware Unboxed anschaut, lohnt es nicht derartig viel Geld für schnellen Ram auszugeben.
 
catch 22 schrieb:
Der schnellere Ram machts sich zwar bemerkbar
16GB 4400 CL19 gibt's gern mal für 120€. Den auf 4000-CL16 und man ist gut dabei. Natürlich teuer, aber gibt's für 50Euro Aufpreis grad eine bessere Grafikkarte?
 
@ElDiablo oder man hat sich bis heute früh 2x8GB Crucial 3200er für 66,66€ geschnappt, stellt den auf 3600-3800 und man hat knapp 50% gespart für nahezu identische Leistung, das Geld kann dann versoffen oder für eine größere GPU gespart werden :)
 
Raptor85 schrieb:
Sehr gute APUs! Danke für den Test! :) Auch wenn mich persönlich eher der Ryzen 3 5300G respektive der 5350G (Pro) am meisten interessieren für den Aufbau eines kleinen HTPCs mit schön niedriger cTDP.

Dito!
 
catch 22 schrieb:
nur... hieß es damals nicht, dass die Xe Grafikeinheit in den Intel CPU schnell wie Schmitz Katze wäre und es dem Grafikpart der APU von AMD richtig schwer macht?
Oder hab ich da was so falsch wie nur möglich aufgeschnappt?
Das stimmt, aber im Desktop gibt es den voll Ausbau erst mit Alder-Lake , für Laptops seid ende 2020. Ich glaube Oktober hat Alder-Lake Release.
 
Zuletzt bearbeitet:
ElDiablo schrieb:
6GB 4400 CL19 gibt's gern mal für 120€.
mal unabhängig davon, das ich bei einem Shared Memory System nicht mit lediglich 16GB "leben wollen" würde, wenn ich zeitgleich den Anspruch an das System habe, mich mit "tollen FPS Werten" zu überraschen... (16GB mit dedizierter GPU können schon schlimm genug sein, wenn man die üblichen sonstigen Programme nebenher laufen lässt und dabei auch noch ein Browser mit zu vielen geöffneten Tabs bei ist)
Du willst doch nun nicht ernsthaft argumentieren, dass du einen einfachen und günstigen Rechner mit einer APU ohne dedizierte GPU für Tripple A Titel kaufen willst, nur um da dann unnötig viel Kohle rein zu Versenken damit die Spiele vielleicht bis zu zu 10% mehr FPS bieten... bei einer Basis von über wiegend 30FPS, mit Glück mal sowas um die 60FPS... ach ja... IN BESTEN FALLS MEDIUM SETTINGS brüll

(in der Hinsicht ist übrigens schon der ursprünglich von Hardware Unboxed verwendete 3200Mhz mit 14er CL Ram überteuerter Unfug. Einfache und billige 32GB@3600Mhz-CL16 und gut ist, nimm dann meinetwegen noch das richtige Modell und du kannst ihn bei Bedarf mit für die GPU Leistung zweifelhaften Nutzen auch noch übertakten, denn für CS Go, Rocket League, DOTA2 und sogar sowas wie GTA5 in höheren Settings ist der olle 3200MHZ-CL16 RAM schon lange mehr als ausreichend)
 
Blumenwiese schrieb:
@ElDiablo oder man hat sich bis heute früh 2x8GB Crucial 3200er für 66,66€ geschnappt, stellt den auf 3600-3800 und man hat knapp 50% gespart für nahezu identische Leistung, das Geld kann dann versoffen oder für eine größere GPU gespart werden :)
Das ginge natürlich auch. Wobei man zwischen 3600 und 4000 schon was merken dürfte. Vielleicht sind manche ITX Fans auch drauf aus, es eben ohne Grafikkarte auszureizen. Ordentliches FullHD Gaming gibt's dann vielleicht mit der nächsten Generation.

@catch 22 Es bleibt doch ein Hobby, wo man auch mal unsinnig ein paar Euro versenken darf 😀
 
Ich weiß ist nicht so ganz Topic, aber bei AMD wäre es schon toll wenn es in Zukunft wie bei Intel mindestens eine Wahl gäbe ob in einer Desktop CPU auch eine integrierte Grafik für 3 Displays vorhanden ist. Mal ganz abgesehen davon ob die Spiele tauglich ist oder nicht. Mich treibt das dann nämlich immer wieder zu Intel, einfach weil eine integrierte Grafik a) eine feine Sache ist fürs GPU flashen, b) ich nicht immer eine (momentan) sündhaft teure Grafikkarte dazu kaufen will die ich gar nicht nutze.
 
  • Gefällt mir
Reaktionen: cr4zym4th
SV3N schrieb:
Schon böse wie Vega (GCN) die Intel Xe als iGPU abfertigt.

Was soll die Architektur aussagen? Hast du dir auch mal die Recheneinheiten und Taktfrequenzen angeschaut? Vega 8 mit 2000 Mhz kommt auf 2.048 tflop während Xe 32EU 13000 Mhz gerade mal auf 0.665 tflop kommt. Das ist ein Unterschied von mehr als den Faktor 3. Intel verbaut in praktisch jeder CPU auf der Mainstream Plattform eine iGPU - genau das ist ein riesen Vorteil für Systembuilder.

Vermeer hat bekanntlich keine iGPU. Bei AMD müsste erstmal zwischen Produktlinie A oder B entschieden werden. Davon abgesehen sind die iGPU Versionen für den Desktop bei AMD immer zeitlich sehr stark versetzt, weil die immer nur zweitrangig sind.

Sollte AMD irgendwann auch mal den (richtigen) Weg gehen und sämtliche Mainstream CPUs mit einer iGPU ausstatten, wird AMD auch nicht einfach die größtmögliche Version dranklatschen können, das wäre wirtschaftlich nicht sinnvoll, sondern sie werden wahrscheinlich eine kleinere iGPU einbauen.
Ergänzung ()

Northstar2710 schrieb:
Das stimmt, aber im Desktop gibt es den voll Ausbau erst mit Alder-Lake , für Laptops seid ende 2020. Ich glaube Oktober hat Alder-Lake Release.


ADL-S bleibt bei 32 EUs. Den nächsten Sprung kann man erst bei Meteor Lake erwarten. Intel gibt auf dem Slide für MTL 96-192EUs an. Hier wäre es denkbar, dass die mobilen bis zu 192EUs bekommen, während die Desktop Versionen die kleinste Größe von 96EUs bekommen. Das wäre ein Sprung, nur wird es sicherlich so bleiben das man die größtmögliche Version nur für mobile Versionen bekommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cr4zym4th
Zurück
Oben