Test Ryzen 7 8700G & 5 8600G (OC) im Test: AMDs Zen-4-RDNA-3-APU vs. 5700G, Radeon, GeForce & Xe

Ghostshield schrieb:
Wenn die APU eine NPU auf XDNA 2 hat und 178mm² Fläche bei 4nm besitzt, dann wundert mich das der Z1 Extreme oder 7840HS keine NPU hat, sind ja alles die selben Chips.
Ich denke das es hier nur eine Softwarelösung ist die hier die Double Issue FP32 kerne nutzt.
und um das zu vermarkten haben die eine Gen das Feature TOT gelassen.
Wie kommst du darauf, dass der 7840HS (genau wie der U) sie nicht haben sollen?
Letztendlich ist aber auch die Frage: Hat sie bis zum Ende des Lebenszyklus' eine Relevanz?
Sollte sie beim Z1 fehlen: Es wäre möglich, dass man beim Z1 auch Chips verwendet, bei denen die NPU defekt ist - weil man keinen Wert darauf gelegt hat.

Wenn du weniger denken und mehr lesen würdest, wüsstest du, dass die NPU eine Lösung von Xilinx ist - und die sind experten für FPGAs, nicht für standard X86-Rechenkerne.
 
Hat jemand schon einen Test zum 8500G gesehen? Das ist mein Favorit für Office/Youtube, jetzt muss Asrock nur noch den Deskmini rausrücken :D
 
  • Gefällt mir
Reaktionen: Smartbomb, Cowpower, Alesis und eine weitere Person
Jan schrieb:
Im Notebook, ja. Wie sich der Core Ultra 7 155H in dem Parcours schlägt, sehen wir uns die Tage an. Spoiler: naja.

Würde mich auch interessieren. Insbesondere wenn man dort das PL1 auch auf 65W TDP einstellen könnte.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Mcr-King
Icetrey schrieb:
Das ist mein Favorit
Ist für mich auch die beste Media, Internet APU. Und bei 6 Kerne auch mal gut für Anwendungen.
Da ich noch Zeit habe, kann ich warten. Den aktuellen Preis empfinde ich noch für überzogen.
Da der Deskmini leider schon wieder nur USB 5Gb/s bietet, obwohl auch der 8500G 2x USB 4 40Gb/s und 2x USB 10Gb/s bietet, sehe ich den Deskmini irgendwie als mieses Produkt an. Schande über ASRock.
 
  • Gefällt mir
Reaktionen: Tsu, saintsimon, Qyxes und eine weitere Person
hmmm... vielleicht gibts das auch bei MSI Mini PCs, z.B. in der Modellserie DP21. Sieht recht ähnlich aus zum AsRock Deskmini. Hab mich aber noch nicht genau informiert über dessen Qualität...
 
  • Gefällt mir
Reaktionen: Mcr-King
Piktogramm schrieb:
Die Treiber für RDNA3 lassen so oder so nicht all zu viel liegen, die dGPUs sind eine Weile draußen und tiefer hängenden Früchte bereits geerntet. Bei 38% schnellerem Speicher im Vergleich zur 5200er Basis ist die iGPU über den Daumen im Mittel 7..8% schneller.
Und auch mehr L3 Cache für die CPU bringt nichts, denn da hat nur die CPU etwas davon, die GPU hat ihren eigenen (kleinen) L2 Cache und geht von da auf den Hauptspeicher:
https://chipsandcheese.com/2023/09/16/hot-chips-2023-amds-phoenix-soc/

Selbst bei VanGoh (dem Ding im SteamDeck), geht die iGPU am L3 der CPU vorbei.

Intel hat mit Broadwell nen L4 eingeführt der damals die GPU gut beschleunigt hat (zumindest so verkauft) und der Prozessor selbst hat davon auch Profitiert bzw für die gleichen FPS weniger takt benötigt (und bekommen)

Ich blick nicht warum AMD nicht den gleichen weg gegangen ist. War das ne Technische oder ne Kaufmännische entscheidung? :D
 
Nagilum99 schrieb:
Wie kommst du darauf, dass der 7840HS (genau wie der U) sie nicht haben sollen?
Letztendlich ist aber auch die Frage: Hat sie bis zum Ende des Lebenszyklus' eine Relevanz?
Sollte sie beim Z1 fehlen: Es wäre möglich, dass man beim Z1 auch Chips verwendet, bei denen die NPU defekt ist - weil man keinen Wert darauf gelegt hat.

Wenn du weniger denken und mehr lesen würdest, wüsstest du, dass die NPU eine Lösung von Xilinx ist - und die sind experten für FPGAs, nicht für standard X86-Rechenkerne.
AMD wirbt beim 8700g/8840hs und 8600g/8640hs mit XDNA2 und bei dir anderen Phoenix APUs nicht
(7640/7840/7940/Z1 Extreme)
 
  • Gefällt mir
Reaktionen: Mcr-King
Coeckchen schrieb:
Intel hat mit Broadwell nen L4 eingeführt der damals die GPU gut beschleunigt hat (zumindest so verkauft) und der Prozessor selbst hat davon auch Profitiert bzw für die gleichen FPS weniger takt benötigt (und bekommen)

Ich blick nicht warum AMD nicht den gleichen weg gegangen ist. War das ne Technische oder ne Kaufmännische entscheidung? :D

Ob eDRAM wie beim Broadwell technisch noch sinnvoll geht, weiss ich nicht, aber mit SRAM waere sowas sicher technisch moeglich, wie der Infinity Cache von RDNA2 zeigt.

Daher ist es offensichtlich eine kaufmaennische Entscheidung: AMD glaubt nicht, dass sie das Produkt zu einem Preis anbieten koennen, der dann von sovielen Leuten gekauft wird, dass sich das rechnet.

Bei Intel folgte dem Broadwell mit Iris Pro ein Skylake mit Iris Pro und 128MB L4 (der bis dato an mir voellig vorbeigegangen ist, genau wie der zugehoerige Sockel BGA 1440 (klingt eher nach Laptop, wird aber als Desktop gelistet). Bei der 7000er und 8000er Generation hat Intel noch U-Modelle mit 128GB L4 gebaut, und das dann aufgegeben. Interessanterweise haben sie trotzdem dann bei Tiger Lake U dann 96 EUs ohne L4 Cache verbaut (bis 32EUs bei den Desktop-Chips nach Skylake, 48 bei Broadwell mit Iris Pro, 72 bei Skylake mit Iris Pro). Naja, jedenfalls meint Intel offenbar, dass sich bei Desktop-Chips grosse Grafik nicht gut genug verkauft, um es zu bauen, und L4-Cache offenbar nicht einmal mehr fuer Laptops.

AMD baut mit Strix Halo sowas (wobei Speicher/Cache noch unbekannt sind), vermutlich fuer den Laptop-Markt, und es wird dann vielleicht auch in die Mini-PCs gebracht. Beim Desktop bin ich selbst in der Form "Mainboard mit verloeteter CPU" skeptisch, die Form gibt's eher nur bei sehr niederpreisigen oder spezialisierten Produkten.
 
  • Gefällt mir
Reaktionen: Smartbomb, Coeckchen und Mcr-King
Nachdem die CPUs jetzt auch endlich bei Mindfactory bestellbar sind, habe ich eben den 8700g geordert. :)
 
  • Gefällt mir
Reaktionen: Mcr-King
D0m1n4t0r schrieb:
Mit welchen Taktraten lief die integrierte Grafik in dem Test eigentlich? Entweder steht nix dazu im Artikel oder ich habs überlesen. Weiss das jemand ?
Ryzen 8300G GPU 2600MHz
Ryzen 8500G GPU 2800MHz
Ryzen 8600G GPU 2800MHz
Ryzen 8700G GPU 2900MHz

Screenshot 2024-02-02 at 13-10-20 AMD Ryzen 8700G & 8600G im Test Gaming Multimedia Apps.png
 
  • Gefällt mir
Reaktionen: Smartbomb und medsommer
Coeckchen schrieb:
Intel hat mit Broadwell nen L4 eingeführt der damals die GPU gut beschleunigt hat (zumindest so verkauft) und der Prozessor selbst hat davon auch Profitiert bzw für die gleichen FPS weniger takt benötigt (und bekommen)

Ich blick nicht warum AMD nicht den gleichen weg gegangen ist. War das ne Technische oder ne Kaufmännische entscheidung? :D
Jain. Mehr Speicher mit geringer Latenz und hohem Durchsatz ist immer gut, aber irgendwann steigt halt der Aufwand (Chipfläche, Energie, Finanzen) ohne entsprechenden Mehrwert. Bei dem was an Tests mit übertaktetem Speicher gezeigt wurde, scheint die iGPU über die Speicherbandbreite nur mittelprächtig zu skalieren, was ein Hinweis darauf ist, dass die Speicheranbindung kein akutes Problem darstellt. Möglichkeiten wieso dem so ist und das im Vergleich zum eDRAM von Broadwell/Skylake kann ich allenfalls vermuten. GPU Kram verfolge ich interessiert oberflächlich, aber mehr auch nicht.

Zu aller Erst, es gibt verschiedene Modi die beim Rendern genutzt werden können. Zu Zeiten von Broadwell war "inmidiate Rendering" bei Nvidia, AMD und Intel[1] verbreitet. Mit Maxwell hat Nvidia dann auf "Tiled Caching" umgestellt, wobei damals vermutet wurde, dass Nvidia "Tile Based Rendering" nutzt[2]. Tiled Caching kommt mit "etwas" Overhead beim Rechenaufwand, reduziert jedoch die benötigte Speicherbandbreite und reudziert die Zufälligkeit der Speicherzugriffe[3], wenn man der GPU dafür "etwas" größere Caches spendiert (also damals 2..3MB L2 anstatt >100MB eDram oder gar GB an HBM). Eine Entwicklung die sowieso erforderlich wurde da Compute Shader zu der Zeit mit DirectX12 auch deutlich größer wurden. Da der Bedarf an Speicherbandbreite für alle Anbieter von GPUs auf absehbare Zeit unbeherrschbar wachsen würde, haben alle anderen Anbieter (hier AMD und Intel, ARM Mali und Qualcom Adreno sind schon länger tiled) auch auf Tiled Caching/Rendering umgestellt, bei AMD war es mit Vega und bei Intel habe ich keinen Schimmer.
Das ging auch eine ganze Zeit ganz gut so, bis wir bei der aktuellen Generation an Spielen/Effekten angekommen. Die Modelle sind komplexer, Texturen höher auflösend und teils gestapelt, die Shaderprogramme sind länger mit mehr Parametern, die Fülle an Shadern ist exploriert und wir sind an der Stelle wieder an einem Punkt, wo GPUs die Spiele in voller Pracht rendern sollen irgendwie mehr Speicherbandbreite brauchen. Entsprechend haben die großen Ada Lovelace GPUs 96MB L2 Cache und die großen RDNA3 verhalten gewachsene 6MB L2 und ebenso 96MB beim L3.
Wenn wir nun die iGPU ansehen, die ist vergleichsweise schwach, realistische Einstellungen bei Spielen werden da allenfalls ein Minimum an Grafikqualität einstellen, was das Problem der eskalierenden 3D Modelle, Texturen, Shader massiv entschärft und damit auch den Druck auf die Caches.
Ein weiterer Punkt ist schlicht die Latenz. GDDR Speicher bietet meist vergleichsweise hohe Latenzen, damit kann eine GPU gut leben, da sie im zweifelsfall genügend Jobs hat, damit sie die Pipelines füllen kann, während auf Speicheranfragen für andere Jobs gewartet wird. Die Caches der großen GPUs helfen auch dabei, schlicht wartende Jobs lokal halten zu können. Der (L)DDR5 Speicher der CPUs hat im Regelfall bessere Latenzen, als GDDR. Womit die iGPU tendenziell auch etwas weniger Jobs in Wartestellung im Cache liegen lassen muss.

Naja und eine weitere Möglichkeit wäre noch, dass bei den APUs im Vergleich zu den dGPUs die Größe der Tiles angepasst wurde. Kleinere Teiles bedingen mehr Overhead beim Rechenaufwand, aber verringern die benötigte Speicherbandbreite. Da müsste sich mal jemand den Treiber[4] vornehmen und schauen ob dem so ist :)

Naja und letztendlich, betriebswirtschaftlich wird da auch gerechnet worden sein. Ich sehe da nicht einen zusätzlichen Verkauf an Spieler, wenn die iGPU mit mehr Cache wenige Prozentpunkte schneller wäre, wenn für das Spielen moderner Titel in FullHD mit höher Qualität das Minimumd as Doppelte an Leistung ist.

[1] Intels eigene GPU Lösungen, das PowerVR Zeug war eklig, aber hat wohl historisch auch Tiles genutzt
[2] https://www.techpowerup.com/231129/on-nvidias-tile-based-rendering
[3] Je weniger zufällig Speicherzugriffe sind bzw. in je kleineren Speicherbereichen diese erfolgen, desto eher hat man Treffer im Cache und desto besser funktioniert Prefetch
[4] Sowohl Mesa als auch AMDGPU, sind ja beide Quelloffen. Wochenende steht ja an und das Wetter ist auch mies, also viel Spaß :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, medsommer und Coeckchen
So meiner ist da :-)
 

Anhänge

  • 20240202_161213.jpg
    20240202_161213.jpg
    132,6 KB · Aufrufe: 128
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: duke1976 und karamba
Ghostshield schrieb:
AMD wirbt beim 8700g/8840hs und 8600g/8640hs mit XDNA2 und bei dir anderen Phoenix APUs nicht
(7640/7840/7940/Z1 Extreme)
XDNA2 ist nicht anderes als der Nachfolger der NPU von Phoenix, wobei man davon ausgeht, dass es schlichtweg mehr Schaltkreise gibt, die Technik aber gleich bleibt.

https://www.amd.com/de/products/apu/amd-ryzen-7-7840u
Weit unten: "AI Engine Capabilities"
 
Hmm, schade, hätte gerne gewusst wie die APU mit 3200 oder 3400 MHz GPU Takt so läuft bzw. wieviel GPU Takt möglich ist.
 
Glaub Verfügbarkeit von den 8x00Gs ist echt ok

Hihi geht ja schnell das Basteln - denk ich - Pins können bei AM5 auch nimmer verbogen werden :)
 
Bohnenhans schrieb:
Hihi geht ja schnell das Basteln - denk ich - Pins können bei AM5 auch nimmer verbogen werden
solange das Bios update mitspielt….. ;)
 
Bohnenhans schrieb:
So meiner ist da :-)
Nice. Ist der Karton wirklich so groß wie auf einigen Bildern zu sehen?
Bohnenhans schrieb:
Hihi geht ja schnell das Basteln - denk ich - Pins können bei AM5 auch nimmer verbogen werden :)
Halt dann auf dem Mainboard. Hab schon welche auf Kleinanzeigen gesehen, wo bei der Montage der Kühler draufgefallen ist.
 
Jo da ist bei mir auch nen Lüfter drin hab halt die Boxed Version genommen
 
Zurück
Oben