News AMD Cezanne: Sichtung eines Musters mit 512 Shadern und 1.850 MHz

StockholmSyndr. schrieb:
Kaby Lake-G ist mal flockig 2.5x schneller - und das, obwohl die APU zweieinhalb Jahre auf dem Buckel hat.
HBM2 macht's möglich.
Und die 3-Fache Abzahl an CUs

Wie schon erwähnt wurde, hängt eine APU an der geringen Speicherbandbreite. Aber was ist die Alternative? HBM verteuert solch eine APU wesentlich und der Markt für solche APUs dürfte eher klein sein, als dass man dafür eine Extra-APU auflegen würde, man bräuchte ja auch ein Die, welches mit HBM umgehen kann. Man ist mit einer "normalen" APU und einer optional zusätzlichen dGPU doch deutlich flexibler.

Thema 8CUs:
Schon bei Raven-Ridge hat man gesehen, dass die 11 CUs des 2400G sich nicht so stark von den 8CUs des 2200G absetzen konnte. Bei Renoir sind jetzt nur 8CUs vorhanden, die aber schneller sind, vor allem durch höheren Takt. Diese 8CUs sind ein wenig schneller als die 11CUs von Raven Ridge, weshalb mehr CUs eben auch wenig Sinn machen, weil der Speicher dann soweit ausbremst, dass die Mehrleistung nur in Wärme verpufft.
Die Speicherproblematik bleibt mit Cezanne weiter bestehen, also bleibt es wieder bei 8 CUs. Schnellerer Speicher macht der Grafik der APU ja noch Beine, daher konnten sich Mobile-APUs mit LPDDR etwas besser von Raven-Ridge und Picasso absetzen, als es die Desktop-Pendants tun. Also bleibt auch für einen höheren Speichertakt noch genug Potential in den 8CUs, ohne auf mehr CUs angewiesen zu sein.

Thema Vega vs RDNA
Das hat @Teralios schon gut beschrieben.
Die Vega IGP hatte nie das Problem der großen Vegas, arbeiten durchaus Effizient, entgegen des Images von Vega. Auch "damals" hab ich und auch andere schon gewusst, dass man die Vega in den APUs und die Vega in den dGPUs nicht wirklich miteinander vergleichen kann.
Da RDNA auch noch pro CU größer ausfällt, würde sich die Frage stellen, ob RDNA in einer APU wirklich Vorteile bringen würde. Schneller als die 8 Vega-CUs wird durch den Speicher ausgebremst. Für gleiche Chipfläche müssten weniger CUs verwendet werden.
Denke schon, dass sich AMD da gedanken zu gemacht hat und das so tatsächlich der sinnvollere Weg ist.

Vielleicht wird mit Zen4 dann RDNA in APUs Einzug erhalten, die mit DDR5 dann potenziell auch mehr Speicherbandbreite zur Verfügung haben. Aber sicher ist das auch nicht, man kann sich auch hier noch Vega vorstellen, dann auch wieder ein paar CUs mehr. Man braucht ja was, was "unten rum" passt, die größeren RDNA-CUs könnten durchaus wenig Sinn bei wenigen CUs geben.
Aber alles nur Spekulation.
 
  • Gefällt mir
Reaktionen: Rockstar85, Onkel Föhn und HaZweiOh
Es gibt Leute wie "StockholmSynd.", die schon seit 2011 die gleiche Leier über APUs erzählen ("Ich hab keine, deshalb kann es auch sonst niemand gebrauchen", "Weder Fisch noch Fleisch" und anderes bla bla).

Trotzdem verkaufen sie sich gut, und dringen immer weiter in Alltags-Szenarien vor. Webseiten rendern, die Office Oberfläche rendern und Grafiken abspeichern ist z. B. "Office in Reinform". Im privaten Umfeld auch noch einges mehr. Und gespielt wird damit auch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85 und Schorsch92
benneq schrieb:
Und das tut sie eben nicht. Die APUs sind so dimensioniert, dass sie zur aktuell verfügbaren RAM Bandbreite passen
Genau das.

Wenn man jetzt HBM einsetzen würde und dazu dann noch deutlich mehr CUs, damit die Bandbreite des HBMs auch genutzt werden kann, bekommen wir eine große und teure APU für einen eher kleinen Kundenkreis. Dürfte kein gutes Geschäft für AMD sein. Die bessere alternative ist dann die Verwendung einer dedizierten GPU, mit der eine große HBM-APU konkurrieren müsste, also konkurrenz aus eigenem Hause.

Wie die Speichernutzung einer APU mit zusätzlichen HBM ausseven würde, ist auch noch ein Punkt. Intels Kaby-G war ja eine CPU-GPU-Kombination in einem Package, die Grafik war per PCIe an die CPU angebunden. Innerhalb einer APU funktioniert das aber anders. In wie weit sich da zwei völlig verschiedene Speicher-Controller gleichzeitig nutzen, ist nicht bekannt. Selbst die APUs der nächsten Konsolen teilen sich einen gesamten Speicher, in dem Fall GDDR6.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Schorsch92
Ozmog schrieb:
In wie weit sich da zwei völlig verschiedene Speicher-Controller gleichzeitig nutzen, ist nicht bekannt.
Intel hat damit ja schon vorher Experimente gemacht bei Broadwell mit dem 128MB L4 Cache. Das war natürlich auch eher nur ein zusätzlicher Cache, und nicht der richtige VRAM, aber soweit ich mich erinnere stand der vollständig für die iGPU zur Verfügung (?).
Und im Endeffekt kann man den VRAM selbst ja auch als Cache ansehen, genau so wie normaler System RAM auch nur ein Cache für die Daten von der HDD ist. Je Stufe bringt die Daten näher und schneller zu den Rechenkernen - und kostet entsprechend auch immer ein Vielfaches mehr.
Also würde das sicherlich problemlos funktionieren. Aber die Kosten für die Entwicklung und das Silizium und die winzige Zielgruppe wird das nicht rechtfertigen.
 
benneq schrieb:
Intel hat damit ja schon vorher Experimente gemacht bei Broadwell mit dem 128MB L4 Cache. Das war natürlich auch eher nur ein zusätzlicher Cache, und nicht der richtige VRAM, aber soweit ich mich erinnere stand der vollständig für die iGPU zur Verfügung (?).
Nein, der Speicher da war nicht exklusive für die iGPU, sondern diente allgemein als L4-Cache. Deswegen war auch Broadwell in den 5xxxC-Prozessoren so ein Brett und in der IPC den Skylakes voraus.
 
  • Gefällt mir
Reaktionen: Rockstar85, Draco Nobilis, Ozmog und eine weitere Person
HaZweiOh schrieb:
"Weder Fisch noch Fleisch
Sowas kommt eben zu Stande, wenn man nicht über den Tellerrand schauen kann und die Computernutzung nur stark gegensätzlich betrachtet, statt verschiedenste Anwendungsfälle zwischen den "Extremen" zu betrachten. Zwischen High-End-Gaming und E-Mails lesen gibts bei einigen wohl auch keine andere Anwendung.

Dabei bekommt man bereits mit einem Raven Ridge eine APU, die gut als HTPC geeignet ist und dazu noch das eine oder andere Spielchen erlaubt. Mit einem 2200G in der Zweitwohnung passabel eine Runde Skyrim SE zu spielen, hatte ach was, statt für seltene Nutzung gleich ein ganzes Gaming-Geschütz aufzustellen.
Ergänzung ()

@benneq
Ja, eine zusätzliche Cache-Ebene wäre immerhin möglich, nur muss man auch schauen, wo die dann eingebunden wird. Ich denke, das GPU-Exklusiv kann man hier auch knicken, der HBM wird dann von CPU und GPU gleichermaßen verwendet. Also quasi vom RAM in den HBM-Cache und dann über den IF zu den CUs und CCX.

Es bleibt aber immernoch die Kosten/Nutzen-Frage.

Intels Kaby-G war bereits eine Nische, bei AMD würde sich solch eine teure und große APU gleichzeitig mit AMDs dGPUs messen lassen.
Und Intel hat nach Broadwell auch nicht mehr auf einen L4 gesetzt, obwohl das auch der CPU zugute kam. Der Kosten/Nutzen-Effekt war wohl nicht gegeben.
 
Zuletzt bearbeitet:
Teralios schrieb:
Nein, der Speicher da war nicht exklusive für die iGPU, sondern diente allgemein als L4-Cache. Deswegen war auch Broadwell in den 5xxxC-Prozessoren so ein Brett und in der IPC den Skylakes voraus.
und hatten übelste Treiber/Stabilitätsprobleme.
sonst waren die in der Tat nett.
 
Mann... wird wieder rumgejammert.... nicht genug Gamingleistung:heul:.....

Wenn ihr ne APU mit Gamingleistung wollt, kauft euch ne Konsole.
Selbst wenn es so eine APU gäbe, wäre sie nicht billig.

Es handelt sich hier um EIN Produkt über das man noch so gut wie nichts weiß.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Heschel und Schorsch92
Nun die APU ist immer ein Kompromiß und so sind die Zielanwender nicht unbedingt Gamer mit Wunsch nach maximaler GPU-Performance. Ein einfacher Office-PC und selbst viele Privat-PCs nutzen die GPU-Performance nicht aus - höchstens bei 4K Videomaterial und ein bisschen Browser-Gaming.
Da gewinnt dann das Gesamtpaket aus Preis+GPU+CPU+Schnittstellen+Speicheranbindung+Gehäuse/Peripherie und Verfügbarkeit. Es sind vorallem die letzten beiden Punkte, die meistens den Ausschlag in Richtung Intel geben. Ist leider so... Würde ein gutes AMD-Gesamtpaket auch haben wollen.
 
  • Gefällt mir
Reaktionen: Schorsch92 und andi_sco
Sa.Lt schrieb:
...
und zu dual-channel bei APU.. die muss sich die Bandbreite mit der CPU teilen..

Bei 8 Threads hat die GPU sicherlich noch genügend Reserven.
Teilweise stehen pro Kern oder Thread doch nur 2-3 GB/s zur Verfügung - im Extremfall!
Ergänzung ()

benneq schrieb:
Intel hat damit ja schon vorher Experimente gemacht bei Broadwell mit dem 128MB L4 Cache...

Und AMD/ATi bei der ersten Version der XBox 360 GPU, mit 10MB EDRAM.

Und die aktuelle XBox wird auch zwei unterschiedliche Speicherinterfaces bekommen.

Für starke APUs wäre sicherlich ein Triple Channel SI gut, aber wahrscheinlich zu teuer, für den Einsatzzweck.
 
Zuletzt bearbeitet:
benneq schrieb:
Und wenn man z.B. zu AMD Epyc geht erhält man Octa-Channel, was dann schon 204,8 GB/sec bei DDR4 3200 wären.
Was im Vergleich zu aktuellem Grafikspeicher immer noch Arschlahm ist. Ob 25 oder 50 GB/s, aktuelle Grafikkarten haben die zigfache Bandbreite zur Verfügung. Die ursprüngliche Aussage bleibt daher richtig.
Ergänzung ()

cele schrieb:
Muss gar nicht unbedingt so sein.
Verkaufe dem geneigten Gamer
1*CPU + 1*GPU
oder
1*APU
Allerdings sieht das bei den meisten geneigten Gamern so aus:
1*CPU (Intel) + 1*GPU (Nvidia)
ODER
1*CPU (AMD) + 1*GPU (Nvidia)

Die Rechnung geht zur Zeit einfach nicht auf. Die paar Prozentchen, die auch 1*GPU (AMD) kaufen, fallen da nicht ins Gewicht und würden von einer APU eh nicht angesprochen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schorsch92
Balikon schrieb:
...
Die ursprüngliche Aussage bleibt daher richtig.
...

Wieso? Was nützen mir 200 GB/s an einer Vega 8?
 
Weil die CPU auch gerne was von der Bandbreite haben will. Ihr tut ja so, als würden die 50GB/s exklusiv der Grafik zur Verfügung stehen.
Genauso, wie sich CPU und GPU das TDP-Budget und die Package-Power teilen, tun sie dass natürlich auch mit der Bandbreites des RAM.
Deswegen kann man z.B. eine bessere Spieleleistung erreichen, wenn man den CPU-Teil bei APUs einbremst: Weniger TDP, Power und RAM-Bandbreite für die CPU, das darf sich dann die GPU nehmen.


Ein Beispiel anhand des 2500U und Kingdom Come Deliverance (720p, niedrige Details)

CPU und GPU auf normalen Energieplan (CPU dank HP "nur" auf 3 - 3,2 GHz):
15 - 17 fps mit starken Framedrops.

CPU per Windows auf 50% Takt gedrosselt (1,5 - 1,7 Ghz):
28 - 30 fps ohne erkennbare Framedrops (die wahrscheinlich schon noch gibt, die aber nicht störend auffallen).

Skaliert auffallend gut, oder? Leider lässt sich das am Notebook nur grob mit Windows (100 oder 50% CPU-Leistung) einstellen, bei einer Desktop-APU mit Ryzen Master kann man sicher einen Sweetspot ermitteln, wo die Grafik profitiert, ohne von der CPU wieder ausgebremst zu werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: andi_sco
Ne dickere APU im Sortiment zu haben würde wohl Sinn ergeben, einfach damit man den Konkurrenten auf Abstand hält.

Außerdem sollte man immer etwas überdimensioniert kaufen, wenn man Hardware mehr als nur 5-6 Jahre verwenden möchte.

Solang der verbrauch stimmt, und man keine unsummen bezahlen muss.

Ich denke mal, dass die zen 3 APU schon laaange in den Schubladen liegen. Sowas zimmert man nicht mal eben zusammen. Wenn man den Erfolg vorhergesehen hätte, hätte man vielleicht auch teurere Produkte entwickelt.
 
Balikon schrieb:
...
Nochmal das Beispiel anhand des 2500U...

Jupp, ich weiß. Die 15W Klasse ist da aber wirklich zu starkt eingeschränkt.
Eine super APU, aber 15W sind da doch echt knapp. 25W wäre perfekt, allein wegen dem Grafikteil.
 
15 Watt, schön wärs! Dann kam HP und hat die TDP noch weiter gedeckelt. Ein Schelm, der Böses denkt. Bin trotzdem zufrieden. Hätte ja nie gedacht, dass ich KCD auf einem 470-Euro-Notebook überhaupt irgendwie spielbar zum laufen kriege.

Ich bin aber fest davon überzeugt, dass der Effekt nicht nur TDP- und Powerbedingt zustande kommt, sondern dass die GPU auch mehr RAM-Bandbreite kriegt.
 
  • Gefällt mir
Reaktionen: Schorsch92
Acer ist da recht human, da wird der CPU Teil im Single Core gut hochgetaktet.
Ich hoffe nur, dass ich das nicht mit Core Temp ausgelesen hatte.
 
Dr.Pawel schrieb:
Bleibt Spannend fürs Notebook. Im Desktop sehe ich zunehmend keinen Sinn mehr für solch "starke" APUs, solange die Grafik einfach zu schwach fürs Gaming bleibt aber viel zu stark für nen Office PC ist es einfach weder Fisch noch Fleisch.
Jein. Man verbessert sich auf Seiten der GPU ja nicht mehr, nutzt nur was schon da ist. Und das ist besser als Intels Lösung 😉
Gleichzeitig schiebt man aber die CPU Performance voran. Ich würde sagen alles richtig gemacht!
AMD war nur bei Grafik immer besser als Intel. Ob das praktischen Nutzen hat hat meines Erachtens nie eine Rolle gespielt. Im APU Vergleich haben sie immer (Wenigstens) den Grafikteil gewonnen.
 
  • Gefällt mir
Reaktionen: andi_sco
k0n schrieb:
Ryzen 5000 fände ich richtig dämlich. Warum sich den Namen nicht für 5nm, DDR5 und PCIE 5.0 aufheben?

Moore's Law Is Dead war es glaube ich, der spekulierte, dass sich AMD bei einer künftigen APU auf CPU Leistung konzentriert (Zen3+Vega, Cézanne?) und bei einer anderen auf GPU-Leistung (eventuell Zen2?+RDNA2, Van Gogh?).


Ich fänds ganz gut, wenn die APUs sich künftig mit den CPUs wieder einen gemeinsamen Tausenderbereich teilen würden. Und wenn ich mich nicht irre, ist die 4 gerade im asiatischen Raum doch so eine Art 666, wenn ihr versteht was ich meine. Oder ist das nur eine urban legend?
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Zurück
Oben