News AMD: Renoir war ursprünglich nur mit bis zu 6 Kernen geplant

Inxession schrieb:
Mir würden 6 Kerne mit voller GPU Ausstattung besser gefallen. Vor allem im Notebook. Aber auch als Desktop APU wäre ein "vermeintlicher 4670G" mit der stärksten VEGA einfach Top.
Sehe ich auch so. Am Notebook mache ich idr. eh nichts, was zwingend mehr als 12 Threads erfordert.
Mein aktuelles Thinkpad mit Ryzen 5 2500U mit 4C/8T reicht mir von der CPU her eigentlich schon prima.

Die iGPU dürfte aber ruhig noch eine gute Ecke flotter sein um damit auch mal ein wenig daddeln zu können, ohne selbst in anspruchslosen Spielen gleich alle Einstellungen auf niedrig setzen zu müssen.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Ravenstein schrieb:
Kannst du evtl eine Aussage bzgl finalfantasy14 treffen?

Leider nicht, FF14 habe ich nie gespielt. :/

Das einzige was ich aufführen kann ist GW2, da stemmt das Ding in Löwenstein ca. 40-60 FPS. Allerdings auch in nativer Auflösung. Würde ich das auf 720p zurückstellen (was bei 14" auch noch ok wäre denke ich) würde ich da wohl etwas mehr rausholen können.
 
peru3232 schrieb:
eigenartige Aussage - Renoir basiert ja 100% auf Zen2 Kerne, die es wiederrum nur in einem 4er CCX Cluster gibt... somit entweder max 4 Kerne, wie bei Picasso, oder eben 2x4=8 bei Renoir
Glaube kaum, dass sie da eine Extrawurst mit einem 6er CCX einbauen wollten, das macht überhaupt keinen Sinn! Das einzig mögliche denkbare Szenario, dass eventuell nicht von Anfang an 8 kerne in der U-Serie vorgesehen waren

Diese Aussage halte ich so für irreführend!
Die CCX Cluster sind eben durch den kleineren Level 3 Cache nicht wirklich identisch und Renoir ist als monolithische CPU ohne extra I/O Die aufgebaut und braucht somit sowieso eine eigene Produktionsmaske. Insoweit können sie da sehr wohl an einem 6er CCX Cluster gearbeitet haben, zu ZEN3 wird es ja höchstwahrscheinlich auch ein 8er CCX geben mit einheitlichem Leve3 Cache geben.
 
  • Gefällt mir
Reaktionen: Schorsch92, SpamBot, Smartbomb und 6 andere
Zen2 ist worauf alle Hardware-Enthusiasten seit Sandy Bridge (iCore2 quasi) gewartet haben.
Aber im Gegensatz zur 3. iCore Gen wird Zen 3 nochmal eine große Schüppe drauf legen...
Und da red ich noch gar nicht von Zen4/5, die schon in der Entwicklung sind und mit 5nm nochmal eine andere Liga eröffnen.
 
  • Gefällt mir
Reaktionen: Smartbomb und LamaMitHut
Das wären 4+2 CCX geworden. 2 Kerne-CCX gibts seit Dali ja auch. Der extrem hohe Takt bei Vega ist der Schlüssel zum Erfolg gewesen. Bei Cezanne holt man ja noch mal 100MHz mehr raus offenbar.
 
  • Gefällt mir
Reaktionen: LamaMitHut
Hatsune_Miku schrieb:
OT
Wären mit dem Chipletdesigns nicht auch exotischere APUs/CPUs möglich? Sprich 7C/14T"3+4" oder 10C/20T"4+3+3" oder vielleicht auch 14C/28T"4+4+3+3"

Schau dir mal "Dali" an, da wird mit 2/2 2/4 gearbeitet

https://en.wikichip.org/wiki/amd/cores/dali

Das auf Zen 4 Basis (5nm) wäre mein feuchter Fanboytraum für unterwegs, die Laufzeiten dürften gigantisch sein.
 
kamanu schrieb:
Wenn doch nur langsam mal die Thinkpads mit Ryzen 7 4xxx verfügbar würden...
Habe meiner Nichte für die Jugendweihe vor zwei Wochen das Thinkpad E15 G2 AMD mit Ryzen 4700U bestellt und geliefert bekommen. Oder meinst du andere Prozessoren oder Thinkpads?
 
  • Gefällt mir
Reaktionen: keyring80
peru3232 schrieb:
ein neues Design, also Zen2+ für eine minimalste Flächenersparnis? Und das nur dafür, dass sie etwas neues kreieren müssen was Aufwand und Geld bedeutet und sie in weiteren Möglichkeiten für mehr Leistungsfreigabe einschränken wird?
Wo soll das Problem sein den CCX so zu belassen und den vierten Kern einfach ganz weg zu lassen? Ein Redesign des CCX war wegen der Beschneidungen des Cache wohl ohnehin erforderlich.
Dessen Anschluss an der Crossbar des CCX liegt dann eben brach und kann entsprechend deaktiviert werden. Ordnet man die dann spiegelverkehrt nebeneinander an kann man den Hohlraum den die 2 Kerne hinterlassen mit anderen Funktionen füllen und bekommt so mehr auf dem kleinen Raum unter. Durch das Redesign konnte man sich am Ende diesen Schritt sparen und wieder wie gehabt vorgehen. Solange sich der Chip noch in der Entwicklungsphase auf dem Reißbrett befindet sollte das kein allso großer Rückschritt sein denn richtig teuer wird so ein Schritt erst erst wenn die Masken für die Fertigung der ersten Prototypen bestellt werden.
Das Ding von Anfang an mit 8 Kernen und 11 CUs zu planen hätte ihn deutlich größer werden lassen und ihn damit entsprechend in der Produktion verteuert.
Für die Stutzung der GPU sehe ich aber auch noch einen anderen Sinn, die verfügbare Speicherbandbreite.
Selbst bei Raven und Picasso ist die schon ein Problem für die GPU Performance weshalb sich eine weitere Steigerung deren Leistung wohl nahezu verpufft wäre. Läßt sie sich allerdings mit vertretbaren Energieaufwand gut genug takten um die fehlenden CUs auszugleichen dann wäre dies sicherlich der bessere Weg.
 
  • Gefällt mir
Reaktionen: jemandanders
Nachdem ich ja seit einigen Monaten auf einen ITX-Rechner beim Streamen setze, macht es umso mehr Spaß, was AMD hier rausknallt. Die Ryzen sind einfach eine Schau!
 
Egal was AMD gedacht hat. Die APU funzt einfach genial.
Mein Chefe wollte neue Lappi bis €2000,-, bekam einen T14s mit 4750U mit allem drum herum.
Leider hatte ich kaum Zeit den zum testen :(
Als er das erste mal das NB startet, war er mehr wie begeistert wie schnell das NB ist. Dann fragte er mal so neben bei was für ein Intel es ist :) Als ich sagte es ist keines, das sah man ??? in den Augen. Echt --> Ja.
Auf die Aussage und Erklärung was AMD ist, muss ich bis Jahresende ole Rechner umswitchen auf AMD. Naja sind halt nur 60 Stück in der Gemeinde :)
 
  • Gefällt mir
Reaktionen: Sennox, Digitalzombie, Cassiopea und 9 andere
@peru3232 und @DisOrcus und den Rest der hier was con CCX schreibt: Im Text heißt es doch das Renoir ein Monolitischer DIE ist. Renoir ist ja auch ein SoC!
 
  • Gefällt mir
Reaktionen: Rockstar85
@LamaMitHut
Das ist glaub ich aber was anderes als ich meinte, ist ja quasi nur ne verdoppelung. Ich meinte aber wirklich sowas stark gemischtes mit verschiedenen CCDs oder CCXs zb. CCD1 3Kerne + CCD2 mit 4Kernen + natürlich SMT. Ich kann mir nicht vorstellen das sowas ohne sehr großen aufwand machbar wäre.
Dali ist ja 2C4T oder 2C/2T
 
@ThePlayer

Abgesehen von Threadripper und Epic traf das auch auf die ersten zen Generation zu und hatten dennoch eine CCX Aufteilung. ;)
 
  • Gefällt mir
Reaktionen: DonL_
Ich bin von meinem 4800U auch völlig begeistert. So viel Leistung in nur 15W TDP-Budget zu bekommen ist schlicht beeindruckend.

Was mich aber noch mehr beeindruckt sind die für die Kernzahl recht hohen Taktraten bei Allcore-Last. Da ist man bei Intel anderes gewohnt.

Von der iGPU darf man natürlich nicht zu viel erwarten, aber auch diese ist überdurchschnittlich leistungsstark und kann mehr, wie ich selbst erwartet habe.
 
  • Gefällt mir
Reaktionen: andi_sco
Intel so: Unser 10nm Prozess ist etwas aus dem Takt geraten, wir mussten die Grafikeinheit deaktivieren.

AMDs Antwort:
Im Laufe der Entwicklung hätte sich dann allerdings gezeigt ... mit acht CPU-Kernen ermöglichen

Weiter so👍🏽, AMD und TSMC
 
  • Gefällt mir
Reaktionen: Smartbomb
iGameKudan schrieb:
Ich bin von meinem 4800U auch völlig begeistert. So viel Leistung in nur 15W TDP-Budget zu bekommen ist schlicht beeindruckend.
Kann mich da nur anschließen. Hab meinen Desktop PC deswegen aufgegeben. Mit 4 Kernen bei Intel hätte ich das sicher nicht. Da warte ich mir ein Ast, bis Berechnungen fertig sind. Aber ja, für Office und bisschen Entpacken ist es egal.
 
Hier sieht man dann wieder, dass AMD die Intel Corp nicht unterschätzt, sondern das maximale raus holt.
Auch wenn viele mehr GPU Leistung hätten, für 90% des marktes reicht es. Und wenn man ne 4700U mit ner 5600M oder ner 1650 koppeln kann, passt des.
Klar ginge im GPU Bereich mehr, aber so isses eben für die Masse absolut ausreichend.
 
  • Gefällt mir
Reaktionen: jemandanders
Wadenbeisser schrieb:
Wo soll das Problem sein den CCX so zu belassen und den vierten Kern einfach ganz weg zu lassen? Ein Redesign des CCX war wegen der Beschneidungen des Cache wohl ohnehin erforderlich.
....
Es macht einfach wirtschaftlich betrachtet absolut 0 Sinn!
Nochmal: sie brauchten ja einen 8 Kern SoC um mit Intel im Powersegment (H) auch konkurieren zu können. Das war ja auch locker und leicht im TDP Budget drinnen. Weshalb also sollten sie nun einen extra 6 Kern-Die machen? Für noch dazu zusätzlichen Aufwand der Chiphaushaltung? für paar mm und größere Ausschußmöglichkeit?
Wenn das Geld so locker sitzen sollte, hätten sie wohl eher verschiedene Chiplets entworfen/produziert
Da hätte ja ein 2-4 Kern mit 3CUs extra Chip wesentlich mehr Sinn gemacht, um auch 5W TDP Bereich abdecken zu können...

edit: oder weil sie Intel so lieb haben und nicht zu sehr demütigen wollen? hmmm
 
Zurück
Oben