News Ryzen 5 8600G & Ryzen 7 8700G: Integrierte AMD-Radeon-GPU taktet mit bis zu 2.900 MHz

syfsyn schrieb:
Und es soll ab der ryzen 9000g ne igp mit 40cu kommen
Wo habt ihr sowas immer alle her? Das wird nie im Leben in den (Massen-)Markt kommen und schürt nur eine nicht zu erfüllende Erwartungshaltung. AMD würde sich ja selbst kannibalisieren damit.
 
Connsen27 schrieb:
AMD würde sich ja selbst kannibalisieren damit.
Ich denke AMD hat nicht mehr viel Spielraum wenn es darum geht, sich in dem von Nvidia dominierten Markt zu behaupten. Die relativ gut laufenden CPUs mit eigenen GPUs zu koppeln ist eine Möglichkeit.
 
Nitschi66 schrieb:
Wo hast du die Infos her? :-D Februar ist ja nur noch +1 Monat :-P Auf einen Deskmeet freu ich mich.
Hab mir schon ein 2x16 GB 7600MHz Kit zugelegt. Selbst wenn das Deskmeet das nicht schafft, wird der Ram halt niedriger getaktet und dafür die Timings bisschen angezogen.
Von AsRock Europe(per Mail).
 
  • Gefällt mir
Reaktionen: Nitschi66
Connsen27 schrieb:
Wo habt ihr sowas immer alle her?
Strix Halo steht auf geleakten Roadmaps als Chip mit 40CU. Das Gerücht hält sich so hartnäckig, dass es wahr sein dürfte.

Wesentlich weniger klar ist aber, für was für Produkte das ganze gedacht ist. Und da bezweifle ich genau wie du, dass das etwas für den Massenmarkt wird und noch viel mehr, dass das als G-Serie für den Desktopsockel kommt.
 
Connsen27 schrieb:
Wo habt ihr sowas immer alle her?
Der Youtube Kanal MLID (CB Link zur News) hat das in den Raum geworfen.

Alle geilen sich an der Info auf und freuen sich auf massig GPU Leistung. Ähnlich wie du und @stefan92x denke ich aber auch, dass das eher weniger für den Massenmarkt gedacht ist.
 
Zu 40CUs:

Connsen27 schrieb:
AMD würde sich ja selbst kannibalisieren damit.

In erster Linie wuerden sie Nvidia kannibalisieren, und ihre Board-Partner. Wenn sie so eine APU (und den dazupassenden Sockel) fuer einen entsprechenden Preis anbieten wuerden und die Kunden das kaufen wuerden, waere das fuer AMD wirtschaftlich durchaus sinnvoll. Die Frage ist halt, ob genuegend Kunden bereit sind, Preise zu bezahlen, die fuer AMD den reduzierten Umsatz bei den diskreten Grafikkarten mehr als ausgleichen wuerden. Derzeit verlangen sie ja bei APUs nicht mehr als bei den vergleichbaren CPUs; das waere fuer eine 40CU-APU mit dafuer noetigem Infinity-Cache oder einem breiteren Speicherinterface natuerlich anders.

Intel hat bisher bei Desktop-CPUs eher schwachbruestige Grafik verbaut, bei Laptop-CPUs teilweise aber viel mehr. Offenbar glaubt Intel nicht daran, dass sich im Desktop-Bereich Kunden fuer starke integrierte Grafik finden.
 
Galaxytourist schrieb:
Das ist ja schön das Apple das hat, für ein X86 System bringt mir das trotzdem nichts. Und am Ende des Tages macht AMD übrigens auch schon so was ähnliches mit Ryzen 5800X3D und Co, nur eben als extra Cache.
Das war nicht der Punkt, es geht nicht um die Marke, denn AMD hat etwas ähnliches (Direct-Lötung-GDDR) bei der PS und Xbox schon länger, sondern um den Kostenfaktor. Es ist überhaupt kein technisches Problem bei TSMC eine AM5 CPU mit RDNA3 GPU und 16GB SiP aufs Package zu stopfen (2.5D Packaging).

Warum macht AMD das dann nicht? Weil es aus unternehmenssicht keinen Sinn macht, so eine APU wäre das teuerste Produkt im Consumer-Lineup bei weitem und würde zudem die eigenen Einstiegsgrafikkarten kannibalisieren und deswegen werden die APUs auch seit einer Ewigkeit so stiefmütterlich behandelt - die Technik ist nämlich nicht der limitierende Faktor.

Galaxytourist schrieb:
Und den "Kniff" mit dem Infinity Cache um eine geringere Speicherbandreite zu kompensieren wendet AMD ja schon bei Desktopgrafikkarten an, scheint also doch was zu bringen.
Das ist kein Kniff und der IC reduziert lediglich die Bandbreite in sehr geringen Umfang bei dem häufig verwendete Daten im GDDR6 Speicher der eben direkt verlötet ist. Der physische Falschenhals hin zum Hauptspeicher jedoch bleibt bestehen, daran kann keine technische Lösung etwas ändern, ausser ihn eben physisch abzuschaffen.
 
  • Gefällt mir
Reaktionen: karamba
Wenn AMD hingehen würde und APUs mit 16/24/32 Grafikeinheiten verkaufen würde, dann würden die den kompletten Bereich an low-performance Grafikkarten damit abdecken. Sowas wie GTX 3050 oder ne RX 6400 und so wäre Geschichte. Fände ich aber nicht schlecht muss ich sagen ;)

Ne APU mit 16 CUs wäre etwas schwächer als ne 6500 XT und mit 32 CUs etwas schwächer als ne RX 7600. (Wegen schnellerem RAM auf den Grafikkarten).

So ne 32 CU APU hätte dann in etwa (bzw. etwas weniger) Grafikleistung als eine Intel Arc 770, Nvidia RTX 4060 oder AMD RX 7600.
Alles darunter hätte einfach keine Daseinsberechtigung mehr.

Wäre ich AMD, ich würde die nächste APU Generation mit 32 CUs rausbringen und empfehlen dazu maximal schnellen RAM zu verbauen. Und selber dann nurnoch Grafikkarten produzieren die auf RX 7700 XT Niveau oder schneller sind.

Und was wichtig wäre, die Boardhersteller und OEMs dazu zu verpflichten schnellen dual channel dual rank speicher dazu zu verbauen. Und vielleicht optimalerweise von vornherein die APU im Bios so einstellen dass der CPU Teil undervoltet und der GPU Teil overclocked wird. Sonst kommt wieder irgendwer an, testet mit Single Channel DDR5-5200 und behauptet dann die Leistung wäre mies.
 
Zuletzt bearbeitet:
Tech6 schrieb:
Ende Februar wurde mir von AsRock gesagt.
Bin auch heiß drauf :-)

//Hab nochmal nachgesehen:
Ja geil, danke für die Info :D
Nitschi66 schrieb:
ein 2x16 GB 7600MHz Kit zugelegt.
für 7600 brauchst du aber ein gutes Board, mit 6 Layer Desktop Boards kannst du 7600 vergessen.
 
ThePlayer schrieb:
Wieso so teuer? Die 5700g gab es auch deutlich günstiger.
Weil's neu ist und noch eine neue Plattform dazu. Wir reden hier von einem Sechszehnkerner und das sogar mit integrierter Grafikeinheit. Wenn der 7950 schon fast so teuer ist, warum sollten die die neuen dann billiger machen?
Ergänzung ()

BAR86 schrieb:
EN oder DEcoding.
Beim ENcoding bist du wahrscheinlich mit Intel besser dran
Nein, nur DEcoding. Der Rest spielt für mich keine Rolle, weil ich keine Videos umwandeln werde. Streaming fällt auch raus. Einfach nur einen "Bürorechner" der wieder mindestens zehn Jahre halten soll. Dann würde ich sogar mindestens den Zwölfkerner kaufen
 
bad_sign schrieb:
Ja geil, danke für die Info :D

für 7600 brauchst du aber ein gutes Board, mit 6 Layer Desktop Boards kannst du 7600 vergessen.
Gerne, ich war auch happy.

Bzgl RAM: Ist denn überhaupt sicher das beim Deskmeet und Mini normaler DDR5 zum Einsatz kommt und kein So-Dimm?
 
Soweit ich weiss ist bei denen das Notebook Board und DDR5-5200 SO-Dimm verbaut.

Daher besser auf den 8700G warten und zusammen mit nem guten mini-ITX Board verbauen.
 
Ich glaube nicht, dass AMD nennenswert Konsoumenten oder Käufer mit solch einer starken APU (32CU und mehr, was hier geschrieben wird) gewinnen könnte, durch den relativ gesehen guten Ruf der eigenen CPUs (im Vergleich zu den GPUs). Problem ist einfach, dass die meisten ehh Nvidia kaufen wegen dem Namen.

Auch wenn so eine CPU ein technisch ausgereiftes Produkt sein sollte, wo auch der Preis und die Leistung attraktiv sind. Bei den Leuten, die sowieso immer Nvidia kaufen, kommt sowas doch gar nicht an, bzw. das Interesse sich damit auseinander zu setzen.

Dann wird am Ende halt nen Ryzen gekauft, ohne igpu oder eben mit den heute 2CUs.

So eine APU kann preislich doch auch einfach nicht attraktiv sein. Die wird doch so teuer, dass sich dann schon ganz schnell wieder eine kleine dGPU lohnt.
 
  • Gefällt mir
Reaktionen: karamba
D0m1n4t0r schrieb:
Daher besser auf den 8700G warten und zusammen mit nem guten mini-ITX Board verbauen.

Dann hast du aber ein echt teures Paket. "Gute" ITX-Boards für AM5 mit mindestens einem B650-Chip sind immer 200+ Euro, der 8700G dürfte zu Beginn wohl fast 400 Euro kosten, wenn man einen 8600G schon für 300 Euro listet. Die Preise sind alle rund 30 Euro zu hoch gegenüber Geizhals, aber trotzdem: Teuer!

GC_ffEFbgAAuugq.png
 
Bin wirklich mal gespannt, was die APUs leisten werden…
 
The_waron schrieb:
Der physische Falschenhals hin zum Hauptspeicher jedoch bleibt bestehen, daran kann keine technische Lösung etwas ändern, ausser ihn eben physisch abzuschaffen
Das ist mir auch klar, so was wie infinity cache würde aber die Auswirkungen davon verringern, was ja auch genauso bei den Desktop-GPU der Fall ist. Deswegen hat es AMD ja gemacht, damit das kleinere Speicherinterface reicht und die GPU nicht zu sehr ausbremst.
 
Ich frage mich, warum die Ryzen 8000 iGPUs so hohe Taktraten erreichen. Liegt es an der geringeren Anzahl an CUs im Vergleich zu den dezidierten Grafikkarten oder hat AMD RDNA 3 architektonisch verbessert?
 
Zurück
Oben