News AMD Ryzen 8000G: ASRock und Asus enthüllen Details zur neuen APU-Serie

nöörd schrieb:
Die Kerne werden statt mit einer High-Performance-Library mit einer High-Density-Library gefertigt. Dadurch sinken die Kosten weil die gleiche Schaltung weniger Platz benötigt, die Taktraten sind aber geringer.
Es ist tatsächlich nicht nur das. Zen 4 besteht aus sehr vielen klar getrennten logischen Blöcken - jeden konnte man für sich entwickeln und simulieren, aber beim Zusammenfügen zu einer Maske entsteht dabei auch praktisch unbenutzt Fläche. Bei Zen 4c gibt es viel weniger dieser Blöcke, weil man den Schaltplan von Zen 4 als gesamten Kern einfach übernommen hat und für diesen erprobten Schaltplan den Chip aufgebaut hat.
 
bad_sign schrieb:
Das Teil eignet sich auch Prima als Server. CPU Power en masse und sehr effizient. Wenn noch ECC dazukommt (kommen würde), dann wäre das schon sehr attraktiv

Allerdings unterstuetzt Asrock bei AM5 kein ECC (oder hat sich das geaendert). Man muss sich bei AM5 also mit ASUS begnuegen. Und ob der 8700G ECC kann, ist auch die Frage. Der 5700G kann es jedenfalls nicht, was auch immer AMD davon zu haben glaubt (einen nicht an mich verkauften 5700G z.B.).
 
  • Gefällt mir
Reaktionen: bad_sign
k0n schrieb:
Der Desktop musste ganz schön lange warten auf eine RDNA iGPU
Nun, rein technisch betrachtet hatte AM5 von Anfang an RDNA2 iGPUs, nur halt nicht in der für APUs üblichen Leistungsklasse.
https://geizhals.de/amd-ryzen-7-7700x-100-100000591wof-a2801229.html
Screenshot 2023-12-16 at 00-29-05 AMD Ryzen 7 7700X 8C_16T 4.50-5.40GHz boxed ohne Kühler ab €...png

crustenscharbap schrieb:
Es gibt Gerüchte auch von Ryzen 5600GT und 5700GT. Vielleicht haben die RDNA2/3 mit DDR4
Nach allem was derzeit bekannt ist, wird das Zen3/GCN 5.1 mit etwas mehr Takt.
mae schrieb:
Allerdings unterstuetzt Asrock bei AM5 kein ECC
DDR5 hat on-die ECC. Was nach wie vor nicht geht ist RDIMM, aber das war bei AM4 auch schon so.
 
Zuletzt bearbeitet:
ghecko schrieb:
Nun, rein technisch betrachtet hatte AM5 von Anfang an RDNA2 iGPUs, nur halt nicht in der für APUs üblichen Leistungsklasse

Ja das ist mir bekannt. Ich meinte in Richtung APU... 2400G mit 11 GCN CU's, 3400G mit 11 GCN CU's, 4700G mit 8 GCN CU's und dann eine "Ewigkeit" 5700G mit 8 GCN CU's.

RDNA startete 07/19, also vor 4,5 Jahren! Ja RDNA1 war nicht wahnsinnig gut, aber RDNA2 ist auch schon 3 Jahre alt.

Wenn man bedenkt wie selten diese Sprünge sind... das wars für die nächten 6 Jahre (2400G, Februar 2018). Freut euch auf X3D / Infinity Cache :heul: xD
 
Alesis schrieb:
Man kann, sicherlich auch du, bei AMD für die 8540U APU nachlesen, welche Kerne verbaut sind.
Für die 8000G Desktop Modelle gibt es noch keine Liste, da es diese APUs noch nicht gibt.
Diese selten dämliche Diskussion führe ich nicht mehr Mr. "Phoenix 2 hat nur Zen 4 Kerne":
Alesis schrieb:
Völlig egal, denn AMD kommuniziert die Spezifikation.
Ob nun einzeln, wie du mit deinem Link gezeigt hast, oder beide Z1 per Reiter.
https://www.amd.com/en/processors/ryzen-z1 Specifications klicken, ganz nach unten scrollen.
Beim Z1 hat es ewig gedauert, bis sie es in die Specs geschrieben haben (es ist immer noch recht versteckt) und es wird noch immer nicht korrekterweise als 2+4 auf der Hauptseite niedergeschrieben.
Intel kriegt es gebacken, also sollte AMD das auch mal auf die Kette kriegen. Ende.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
k0n schrieb:
aber RDNA2 ist auch schon 3 Jahre alt.
AMD hat sich echt Zeit gelassen bis Rembrandt. Deshalb habe ich auch ewig und 3 Tage gewartet, mir ein neues NB zu kaufen. Und wenn ich jetzt Phoenix sehe, wünschte ich, ich hätte noch ein Jahr gewartet :D
That's life.

Warum sie die APUs erst jetzt auf AM5 bringen liegt wahrscheinlich an AM4. Die Plattform macht als Budget-Option einfach vielfach mehr Sinn als günstige Prozessoren für eine schweineteure Plattform zu verkaufen.
Einziger Wermutstropfen: AMD bricht bei den APUs mit RDNA2 auch mit DDR4, somit gab und wird es bis zuletzt keine RDNA APU auf AM4 geben.
k0n schrieb:
Ja RDNA1 war nicht wahnsinnig gut
Die Treiber waren es anfangs nicht, rein technisch unterscheidet sich RDNA(1) und RDNA2 recht wenig.
Und ich denke das war der Knackpunkt, wieso AMD so lange bei den APUs gewartet hat. Bis die Treiber für RDNA in einem akzeptablen Zustand waren, um sie auf den NB und OEM-Markt loszulassen.
 
Zuletzt bearbeitet:
Sorry AMD, ich mag eure APUs aber es hat mir zu lange gedauert.

Lange mit dem 5600G zufrieden war irgendwann mehr Leistung nötig und im flachen HTPC Gehäuse (Silverstone Milo) ist dann eine low profile RX6400 dazu gekommen vor einem halben Jahr.

Nachdem ich jetzt eine RX6600M geschossen habe auf AliExpress für 130€ und ein gebrauchtes Silverstone Grandia HTPC Gehäuse (weg von low profile, der Platz ist da) für ~45€ ist der Umbau für 175€ insgesamt günstiger als auf AM5 aufzurüsten mit einer iGPU, die gegen eine RX6600 nicht anstinken kann.

Intel war mit Meteor Lake jetzt auch gewillt im Mobilbereich eine APU mit mehr GPU Recheneinheiten auszustatten und obwohl die GPU Treiber noch nicht so weit sind wie die von AMD ernten sie jetzt im direkten Vergleich schon ein paar Früchte.

Warum AMD nicht endlich (schon seit Zen2) eine APU im Leistungs-Maßstab einer PS5 / XBOX veröffentlicht bleibt mir schleierhaft. Die Technik ist doch schon lange da und jeder Kunde, der sich eine tray/boxed Ryzen APU holt ist doch der direkte Kunde für nicht nur Gaming-fähige sondern Gaming-beherrschende APUs.

Seit Zen4 CPUs immer eine mini GPU dabei haben, die für den Medien-Konsum und Office Betrieb völlig ausreicht, ist eine APU doch wirklich nur noch für Gamer interessant, die entweder eine günstige AM5 Basis bauen wollen und sich eine GPU später dazu kaufen oder eben sehr klein im ITX Format gänzlich ohne dGPU auskommen wollen. Und denen gibt man jetzt fast 2 Jahre nach dem Rembrandt Release die nahezu gleiche iGPU mit ihren 12CUs :rolleyes:

Wie gesagt, vor einem Jahr hätte ich mich über einen 7000G als Phoenix mit höherer TDP gefreut und für jeden, der einen mini Würfel PC haben möchte, der auf AM5 aufrüstbar bleibt wird es erstmal die beste Wahl sein... aber ein paar CUs mehr in der nächsten Version und nicht nur ein Sprung von RDNA3 auf RNDA4 wären wirklich wünschenswert.
 
  • Gefällt mir
Reaktionen: k0n und DFFVB
SFFox schrieb:
Warum AMD nicht endlich (schon seit Zen2) eine APU im Leistungs-Maßstab einer PS5 / XBOX veröffentlicht bleibt mir schleierhaft.
Weil das dann nur verlötet geht, mit verlötetem DDR5/GDDR6 RAM außen herum.

Ich wünsche mir schon lange eine APU mit einem HBM-Tile, das wäre so der einzige Weg eine APU mit der Leistung einer RX6600 unter den AM5-Heatspreader zu packen. Dual Channel DDR5 ist zu langsam für mehr CUs.
Aber AMD macht es einfach nicht. Mich frustriert das auch.
 
  • Gefällt mir
Reaktionen: Smartbomb, Col. Jessep, DFFVB und 2 andere
ghecko schrieb:
Weil das dann nur verlötet geht, mit verlötetem DDR5/GDDR6 RAM außen herum.
Deine Aussage trifft aber nur genau auf den Custom SoC der Konsolen zu. Ich fordere etwas in der selben Leistungsklasse und nicht in genau der Umsetzung. Ich möchte mehr CUs in der iGPU (gibt es bereits), ich will einen Memory Controller, der auf den RAM zugreift, wie bei anderen iGPUs auch (gibt es bereits)... die beiden Sachen kombinieren? Wo ist das Problem? :) Ja der Die wird größer, aber Intel macht's doch jetzt mit Meteor Lake auch?
ghecko schrieb:
Ich wünsche mir schon lange eine APU mit einem HBM-Tile, das wäre so der einzige Weg eine APU mit der Leistung einer RX6600 unter den AM5-Heatspreader zu packen. Dual Channel DDR5 ist zu langsam für mehr CUs.
Aber AMD macht es einfach nicht. Mich frustriert das auch.
Klar der System RAM wird immer eine Bremse sein verglichen mit GDDR RAM, aber in manchen Titeln ist Meteor Lake auch ohne GDDR mit mehr Recheneinheiten bis zu ~70%!? vorne... da ist also mehr Luft als man vllt. denkt. Und falls der Die noch größer wird kann auch etwas Infinity Cache vllt. helfen. Wird das dann teurer? Ja bestimmt, auch für den Kunden. Aber ist es dann endlich das, was wir ITX Kunden haben wollen ohne Kompromisse? Total!
 
  • Gefällt mir
Reaktionen: DFFVB
SFFox schrieb:
Deine Aussage trifft aber nur genau auf den Custom SoC der Konsolen zu.
Nein, generell APUs. Das Problem mit der Skalierung der Grafikleistung bei APUs war schon immer das Interface zum Grafikspeicher. DDR5 hat uns hier einen Leistungszuwachs beschert, wir sind aber mit Phoenix bereits jetzt schon wieder an der Auslastungsgrenze. Schnellere APUs sind nur möglich, wenn die Bandbreite zum RAM erhöht wird. Und das geht auf Desktopsockeln einfach nicht. Und mobil ohne verlöteten RAM auch nicht.
SFFox schrieb:
aber in manchen Titeln ist Meteor Lake auch ohne GDDR mit mehr Recheneinheiten bis zu ~70%!? vorne...
Das hat denke ich eher mit der Architektur und dem Treiber zu tun. Im Sinne von: Intel ist hier nicht schneller, sondern AMD langsamer. DC DDR5 ist nach wie vor die harte Grenze, der beide unterliegen. Denn trotz der vielen Recheneinheiten konnte Intel durch die Bank nur ~5% mehr rausholen, über alle Titel gemittelt.
Ohne HBM kommen wir derzeit nicht weiter. Zumindest nicht auf dem Desktop. Vllt kann man durch Optimierung und Cache noch 10-20% raus holen, das ist dann aber immer noch meilenweit von einer RX6600 entfernt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb und DFFVB
ghecko schrieb:
Nein, generell APUs. Das Problem mit der Skalierung der Grafikleistung bei APUs war schon immer das Interface zum Grafikspeicher. DDR5 hat uns hier einen Leistungszuwachs beschert, wir sind aber mit Phoenix bereits jetzt schon wieder an der Auslastungsgrenze. Schnellere APUs sind nur möglich, wenn die Bandbreite zum RAM erhöht wird. Und das geht auf Desktopsockeln einfach nicht.
Das würde ich gerne noch mal irgendwo als Test sehen, denn das wird (ist ja sicherlich auch ein valider Grund und entscheidender Faktor, das erkenne ich an) schon lange angeführt. DDR5 künstlich runter bremsen auf die selbe Bandbreite/ähnliche Latenz wie DDR4 und dann RDNA2/3 iGPU im Verhältnis zur Vega8 fänd' ich super interessant, um zu sehen, wie aktuell das noch ist. In Laptops lässt sich das nur nie frei konfigurieren.

Klar sind das unterschiedliche Generationen, die nicht 1zu1 Vergleichbar sind, aber ein Verhältnis zur Speicherbandbreite sollte ja doch gut genug erkennbar sein, wenn das so wahnsinnig signifikant die Grenze aktueller iGPU Leistungsfähigkeit vorgibt. Natürlich hängt es auch vom jeweiligen Spiel/der Anwendung ab, wie Bandbreiten-hungrig hier gearbeitet wird.

Denn über einen gewissen Punkt steigt auch bei einer übertakteten iGPU Leistung die Leistung nicht in entsprechendem Verhältnis zu höherem Speichertakt an. Ein zu langsam gibt es natürlich trotzdem. Dennoch denke ich, dass 12CUs eines Phoenix2 in Desktop-Form die Bandbreite eines schnellen Dual Channel DDR5 Speichers noch weit nicht an die Grenze bringen.
ghecko schrieb:
Das hat denke ich eher mit der Architektur und dem Treiber zu tun. Im Sinne von: Intel ist hier nicht schneller, sondern AMD langsamer. DC DDR5 ist nach wie vor die harte Grenze, der beide unterliegen. Denn trotz der vielen Recheneinheiten konnte Intel durch die Bank nur ~5% mehr rausholen, über alle Titel gemittelt.
Ich glaube das können wir beide von außen, ohne die konkreten Gründe für die Unterschiede zu kennen, doch nicht so argumentativ nutzen, wie wir wollen ;) Am Ende wissen wir nicht ob Intel bei Titeln etwas "falsch" macht (ARC ist ja doch immer noch relativ jung und sehr durchwachsen) oder AMD bei Titeln zurück liegt, weil hier etwas "falsch" gemacht wurde. So richtig sicher sein können wir uns beide nicht, ob es Fehler/Ineffizienz oder hohe Rohleistung sind, die zum jeweiligen Resultat führen.
ghecko schrieb:
Ohne HBM kommen wir derzeit nicht weiter. Zumindest nicht auf dem Desktop. Vllt kann man durch Optimierung und Cache noch 10-20% raus holen, das ist dann aber immer noch meilenweit von einer RX6600 entfernt.
Da träume ich mit dir, für eine HBM Lösung (selbst als mittelgroßer Framebuffer-Cache) würde ich gerne drauf zahlen :D So einen Versuch gab es ja ähnlich schon mal von Intel in AMD Kooperation mit dem 8809g und integrierter Vega (24CUs + HBM)... bzw. so halb integriert... war schon ein eigener Chip auf einer großen CPU-Platine ;)
 
Zuletzt bearbeitet:
SFFox schrieb:
So einen Versuch gab es ja ähnlich schon mal von Intel in AMD Kooperation mit dem 8809g und integrierter Vega (24CUs + HBM).
Und genau deshalb verstehe ich die ganzen Argumente aus der Kiste "zu teuer, Markt zu klein" halt nicht, die gegen so eine Lösung immer hervor gebracht werden.
Intel hat das schon mal gemacht, und die Geräte waren nicht abstrus teuer. Warum macht AMD es dann nicht?
Desktopgrafikkarten mit HBM gab es auch schon mal, die waren auch bezahlbar. Und ich könnte mich irren, aber die Lösung bei Intel hat nicht mal einen Silizium-Interposer benötigt, das ging scheinbar durchs Glasfaser-Substrat:
intel-kaby-lake-g-core-i7-8705g-8809g-big-2583409676.jpg

Und das war HBM2 mit über 200GB/s.
https://www.techpowerup.com/gpu-specs/radeon-rx-vega-m-gh.c3056
Dual Channel DDR5 mit 6400MT/s schafft knapp 100GB/s und das muss sich die APU noch mit der CPU teilen. Der GDDR6 auf der RX6600 hat übrigens 224GB/s. Die PS5 hingegen erreicht mit einem 256bit breiten GDDR6-Interface 448.0 GB/s. Das entspricht Octa Channel DDR5 mit 6500MT/s um das mal ins Verhältnis zu setzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, Col. Jessep, Volvo480 und 4 andere
ghecko schrieb:
Und genau deshalb verstehe ich die ganzen Argumente aus der Kiste "zu teuer, Markt zu klein" halt nicht, die gegen so eine Lösung immer hervor gebracht werden.
Japp, ITX Enthusiasten geben sowieso schon viel für möglichst kleinen Raum aus. Das bisschen mehr im Verhältnis für die PERFEKTE Kombi ist vielen sicher das Geld auch wert.
Wer günstigeres sucht hat ja auch immer noch weitere Alternativen, niemand wäre gezwungen die Deluxe Lösung zu kaufen ;)
ghecko schrieb:
Intel hat das schon mal gemacht, und die Geräte waren nicht abstrus teuer. Warum macht AMD es dann nicht?
Desktopgrafikkarten mit HBM gab es auch schon mal, die waren auch bezahlbar. Und ich könnte mich irren, aber die Lösung bei Intel hat nicht mal einen Silizium-Interposer benötigt, das ging scheinbar durchs Glasfaser-Substrat:
To be fair: Vega war vielleicht nicht die beste Generation für dieses Experiment. Es hat sich sicherlich nur angeboten, weil Vega schon mit einem HBM Speicher-Controller ausgestattet war. Die Leistung war 2018 schon gut, aber nicht so bahnbrechend, wie erhofft (etwa so schnell wie die 1,5 Jahre ältere GTX 1050 Ti bei 25W mehr Verbrauch, wenn ich das bei techpowerup richtig bewerte). Nur schön klein war das Gesamtpaket eben durch den HBM.
ghecko schrieb:
Und das war HBM2 mit über 200GB/s.
https://www.techpowerup.com/gpu-specs/radeon-rx-vega-m-gh.c3056
Dual Channel DDR5 mit 6400MT/s schafft knapp 100GB/s und das muss sich die APU noch mit der CPU teilen. Der GDDR6 auf der RX6600 hat übrigens 224GB/s.
Ja, das Teilen ist je nach Anwendung sicherlich ebenfalls ein großes Problem. Wie gesagt, ich würde mich sehr über einen Bandbreiten-abhängigen Test freuen, um aktuelle Grenzen auszuloten. Eine Live Anzeige der genutzten RAM Bandbreite gibt's ja leider nicht.
 
SFFox schrieb:
Japp, ITX Enthusiasten geben sowieso schon viel für möglichst kleinen Raum aus. Das bisschen mehr im Verhältnis für die PERFEKTE Kombi ist vielen sicher das Geld auch wert.
Es geht ja nicht nur darum, sondern wir brauchen auf dem Nicht-Apple Markt auch unseren M1-Moment.
Und das könnte eben so eine APU sein, die von Laptop über Mini-PC bis hin zum Desktop 40% des Marktes abdecken kann. Wenn ich mir die Leistung der populärsten GPUs auf Steam so ansehe, vllt auch mehr.
Und wenn man das ganze wie bei Meteorlake über Chiplets löst, ist man auch nicht an die Ausstattung eines Monolitischen DIEs gebunden und kann unterschiedliche Leistungsklassen und Ausstattungen, sowohl bei GPU als auch CPU anbieten.
SFFox schrieb:
Es hat sich sicherlich nur angeboten, weil Vega schon mit einem HBM Speicher-Controller ausgestattet war.
Das Ding ist ja: das war eine Polaris, also eher so was wie eine RX560. Die hatten kein HBM MC. Der Chip war also wirklich custom für Intel gebaut.
SFFox schrieb:
Nur schön klein war das Gesamtpaket eben durch den HBM.
Und das ist der Vorteil, der das ganze auf AM5 ermöglichen würde.
SFFox schrieb:
Wie gesagt, ich würde mich sehr über einen Bandbreiten-abhängigen Test freuen, um aktuelle Grenzen auszuloten. Eine Live Anzeige der genutzten RAM Bandbreite gibt's ja leider nicht.
Leider nicht. Aber oben noch die PS5 zum Vergleich ergänzt:
ghecko schrieb:
Die PS5 hingegen erreicht mit einem 256bit breiten GDDR6-Interface 448.0 GB/s. Das entspricht Octa Channel DDR5 mit 6500MT/s um das mal ins Verhältnis zu setzen.
 
ghecko schrieb:
Und genau deshalb verstehe ich die ganzen Argumente aus der Kiste "zu teuer, Markt zu klein" halt nicht, die gegen so eine Lösung immer hervor gebracht werden.
Du bringst gerade das beste Argument dafür. Du bringst nur die Kausalität durcheinander.

ghecko schrieb:
Intel hat das schon mal gemacht, und die Geräte waren nicht abstrus teuer. Warum macht AMD es dann nicht?
Warum wurde es in keinem Notebook verbaut? Warum hat Intel es direkt nach einer Generation eingestellt? Es war ein kompletter Flop.
Das ganze Konstrukt war teuer und der Markt eine kleine Nische. Es gab kaum Modelle damit und die die es gab wurden eben über dem Preis verramscht weil die wie Blei in den Regalen lagene.

Das Konstrukt hatte ja auch kaum Vorteile, nur etwas Platzersparnis. Es ist einfach eine dedizierte GPU mit eigenem Speicher auf dem gleichen Package. Die CPU hatte weiterhin ihren normalen DDR4 Speicher.
ghecko schrieb:
Desktopgrafikkarten mit HBM gab es auch schon mal, die waren auch bezahlbar.
Das ist doch kein Argument. AMDs Geschäftszahlen waren nicht rosig. Was meinst du warum AMD wieder zurück auf GDDR ist? Weil der Vorteil in keinem Verhältnis zum höheren Preis steht.
ghecko schrieb:
Und ich könnte mich irren, aber die Lösung bei Intel hat nicht mal einen Silizium-Interposer benötigt, das ging scheinbar durchs Glasfaser-Substrat:
EMIB.
Rein über Substrat bekommt man diese Bandbreite nicht vernünftig.
 
  • Gefällt mir
Reaktionen: Smartbomb und guggi4
bensen schrieb:
Warum wurde es in keinem Notebook verbaut?
https://www.notebookinfo.de/produkt/hp-spectre-x360-15-ch005ng-35477
Gab mehrere Notebooks.
bensen schrieb:
was meinst du warum AMD wieder zurück auf GDDR ist? Weil der Vorteil in keinem Verhältnis zum höheren Preis steht.
Die Frage ist, was hat das mit den jetzigen APUs zu tun? Die Bandbreite zum RAM ist ein Problem, das man abseits von HBM nicht so einfach lösen kann. Der Bedarf an schnelleren APUs ist jetzt da.
Oder hast du einen anderen, genialen Plan wie man das umgehen kann? Noch mehr X3D-Cache oben drauf?
bensen schrieb:
Die CPU hatte weiterhin ihren normalen DDR4 Speicher.
Was ja sinnvoll ist. Unified Memory hat nicht nur Vorteile. Ich plädiere auch nicht dafür dass die APUs zugunsten von HBM ihr DDR5 Interface aufgeben.
bensen schrieb:
Warum hat Intel das direkt nach einer Generation eingestellt?
Weil Intel die Notwendigkeit erkannt hatte, aber zu dieser Zeit noch keine eigene, leistungsfähige Grafikarchitektur hatte. Das Kaby Lage G damals eine Machbarkeitsstudie war bestreitet keiner.
Und jetzt stehen wir vor Meteor Lake und Phoenix, den modernen Nachfolgern. Und sind ziemlich genau bei der Grafikleistung angekommen, die der Kaby Lake G 2018 schon hatte. Wir treten auf der Stelle.
 
Zuletzt bearbeitet:
ghecko schrieb:
Ja, so zwei bis drei. Es war ein Flop.

ghecko schrieb:
Die Frage ist, was hat das mit den jetzigen APUs zu tun?
Keine Ahnung, du hast die Grafikkarten ins Spiel gebracht und nicht ich.
Es zeigt zumindest, dass HBM eine teure Lösung ist.
ghecko schrieb:
Die Bandbreite zum RAM ist ein Problem, das man abseits von HBM nicht so einfach lösen kann. Der Bedarf an schnelleren APUs ist jetzt da.
Grafikkarten lösen es anders. Apple löst es anders. Niemand nutzt dafür HBM.

Woran machst du den Bedarf fest? Woran machst du fest, dass er größer ist als vor ein paar Jahren?

ghecko schrieb:
Oder hast du einen anderen, genialen Plan wie man das umgehen kann? Noch mehr X3D-Cache oben drauf?
Was bedeutet noch mehr? Gibt ja bisher keinen. Größere Caches helfen natürlich, unabhängig davon ob stacked oder nicht. Siehe Apple.
Ist eben auch nicht billig. Die Frage ist ganz einfach wer bereit ist das zu bezahlen.

ghecko schrieb:
Was ja sinnvoll ist. Unified Memory hat nicht nur Vorteile. Ich plädiere auch nicht dafür dass die APUs zugunsten von HBM ihr DDR5 Interface aufgeben.
Wenn es um Kompaktheit geht, ist das definitiv keine gute Lösung.

ghecko schrieb:
Weil Intel die Notwendigkeit erkannt hatte, aber zu dieser Zeit noch keine eigene, leistungsfähige Grafikarchitektur hatte. Das Kaby Lage G damals eine Machbarkeitsstudie war bestreitet keiner.
Und was war das Ergebnis dieser Studie? Wohl eher nicht sinnvoll, sonst gäbe es ja einen Nachfolger.
Das Intel keine eigene starke GPU hatte werden sie selber gewusst haben.

ghecko schrieb:
Und jetzt stehen wir vor Meteor Lake und Phoenix, den modernen Nachfolgern. Und sind ziemlich genau bei der Grafikleistung angekommen, die der Kaby Lake G 2018 schon hatte. Wir treten auf der Stelle.
Es sind komplett andere Produkte. Phoenix ist ein Mainstream Produkt. AMD kommt kaum hinterher ihre Produkte zu Releasen, da haben Nischenprodukte eben keinen Priorität.
Technisch ist das alles möglich (ohne HBM), ist aber teuer. Sobald das wirtschaftlich interessant ist, wird es auch Lösungen geben. Man muss eben ne gewisse Stückzahl an den Mann bringen.

Mit Strix Halo oder Lunar Lake/Meteor Lake mit LPDDR auf dem Package oder großen Caches ist ja vieles in der Entwicklung bzw. Gerüchteküche. Mal schauen was davon auf den Markt kommt.
 
  • Gefällt mir
Reaktionen: Smartbomb
ghecko schrieb:
Der Bedarf an schnelleren APUs ist jetzt da.
Das schließt du jetzt woraus? Aus Kommentaren eines Technik-bubble-Forums?

Wer mehr GPU Leistung braucht, der kauft ein Notebook mit dGPU. Im Desktop ist eine Gaming apu noch mehr Niesche
 
  • Gefällt mir
Reaktionen: Smartbomb und bad_sign
Nitschi66 schrieb:
Das schließt du jetzt woraus?
Steamdeck und seine drölf Konkurrenten zb?
Die APUs von Apple verkaufen sich auch ziemlich gut, die machen nichts anderes mehr. Phoenix wird den Händlern auch aus den Händen gerissen, eben weil es kompakte. sparsame Systeme mit brauchbarer Grafikleistung ermöglicht. Unsere Technikbubble hat scheinbar doch so eine Art Halo-effekt.
Nitschi66 schrieb:
Aus Kommentaren eines Technik-bubble-Forums?
Ja, unter anderem. Das Interesse an solchen APUs besteht, ist damit durchaus bewiesen.
bensen schrieb:
Es zeigt zumindest, dass HBM eine teure Lösung ist.
Waren Solarpanel auch mal.
bensen schrieb:
Grafikkarten lösen es anders. Apple löst es anders. Niemand nutzt dafür HBM.
Ja, weil keiner seine Lösungen in einen Desktop-Sockel zwängen muss. Dafür sind LPDDR Lösungen ungeeignet, soweit die nicht on-die gestapelt werden.
bensen schrieb:
Die Frage ist ganz einfach wer bereit ist das zu bezahlen.
Hier.
bensen schrieb:
Wenn es um Kompaktheit geht, ist das definitiv keine gute Lösung.
Es ist die einzige Lösung, wenn wir gesockelte, aufrüstbare Systeme nicht aufgeben wollen.
bensen schrieb:
Wohl eher nicht sinnvoll, sonst gäbe es ja einen Nachfolger.
Also wohin ich auch schaue, ich sehe nur Nachfolger.
bensen schrieb:
Technisch ist das alles möglich (ohne HBM), ist aber teuer.
Die Kosten für immer kleiner werdende Fertigung explodieren auch. Hält uns das auf?
bensen schrieb:
Mit Strix Halo oder Lunar Lake/Meteor Lake mit LPDDR auf dem Package oder großen Caches ist ja vieles in der Entwicklung bzw. Gerüchteküche. Mal schauen was davon auf den Markt kommt.
Tja, und ich hoffe eben das AMD den HBM-Weg geht. Du magst mir da nicht zustimmen, aber du wirst mich nicht umstimmen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AB´solut SiD
ghecko schrieb:
Steamdeck und seine drölf Konkurrenten zb?
Die TDP ist so gering, dass man dort gar nicht so viel mehr Speicherbandbreite benötigt.
Mehr Cache hilft hier für bessere Effizienz.
ghecko schrieb:
Die APUs von Apple verkaufen sich auch ziemlich gut, die machen nichts anderes mehr. Phoenix wird den Händlern auch aus den Händen gerissen, eben weil es kompakte. sparsame Systeme mit brauchbarer Grafikleistung ermöglicht.
Wieviele Macs werden denn mit den großen SoC verkauft und nicht mit den kleinen? Und ist der SoC der einzige Grund dafür, dass Apple Geräte verkauft?
Keine Ahnung wie Phoenix in die Reihe passt, der hat rein gar keinen größeren GPU Sprung gemacht als die Vorgänger. Business as usual. Und nebendrein ist auch die CPU selber eher gut, also kein Indiz, dass e swegen der GPU gekauft wird.
Woran machst du außerdem fest, dass sie aus den Händen gerissen werden? Die Stückzahlen scheinen immer noch klein. AMD hat keine Marktanteile im mobile segment gewonnen. Ganz im Gegenteil.
ghecko schrieb:
Ja, unter anderem. Das Interesse an solchen APUs besteht, ist damit durchaus bewiesen.
Es geht um Masse. Die Entwicklung muss auf die Stückzahlen umgelegt werden. Das muss mehr sein, als ein paar Geräte.
ghecko schrieb:
Waren Solarpanel auch mal.
Und HBM immer noch. Verstehe nicht was jetzt dein Argument ist.
ghecko schrieb:
Ja, weil keiner seine Lösungen in einen Desktop-Sockel zwängen muss. Dafür sind LPDDR Lösungen ungeeignet, soweit die nicht on-die gestapelt werden.
Muss AMD auch nicht. Kompakt und Sockel schließt sich aus. Es wird ganz sicher keine high-end APU für den Desktop kommen. Die Nische ist ja nochmal kleiner.
ghecko schrieb:
Es ist die einzige Lösung, wenn wir gesockelte, aufrüstbare Systeme nicht aufgeben wollen.
Siehe oben.
ghecko schrieb:
Also wohin ich auch schaue, ich sehe nur Nachfolger.
Der da wäre?
ghecko schrieb:
Die Kosten für immer kleiner werdende Fertigung explodieren auch. Hält uns das auf?
Definitiv. Wenn Kosten keinen Rolle spielt ist alles möglich. Aber Kosten sind nun mal der zentrale Punkt wenn man Produkte verkaufen will.
ghecko schrieb:
Tja, und ich hoffe eben das AMD den HBM-Weg geht. Du magst mir da nicht zustimmen, aber du wirst mich nicht umstimmen.
Ich Frage mich nur warum du diskutieren willst, wenn du alle Fakten irgnorierst und bei deiner Meinung bleiben willst.
 
  • Gefällt mir
Reaktionen: Smartbomb
Zurück
Oben