News AMD Ryzen 6000 Mobile: Rembrandt bringt Zen 3+, RDNA 2, DDR5 und vieles mehr

Ich nehme es von 25% mehr Performance von der Architektur, dann dem Bandbreiten-Limit von VEGA bei den 8CU's. Man konnte es z.B bei Aya Neo mit der 4800U(die hat auch 8CU's) sehen, dass trotz Watt Erhöhung auf 25 Watt die GPU nicht viel brachte, sprich, die war einfach im BB-Limit. Dann halt der höhere Takt der RDN2 zzgl. der 50% mehr Cu's, welche halt nicht am BB-Limit liegen und die TDP von 28Watt sehr gut annehmen können. Sprich, die Limitierung der Vega-Leistung wegen der Bandbreite und nicht wegen dem TDP

Also 25% Architektur + 50% mehr CU's + 15% mehr Takt(1.9Ghz zu 2,2Ghz) + Bandbreite-Limit(hier gehe ich von 20%) = 25+50+15+20= um die 110% schneller bei gleicher Watt-Leistung und halt noch 6nm EUV zu 7nm DUV
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Philste
Der iGPU Vergleich ist ja lustig. Für Rembrandt nehmen sie LPDDR5-6400 CL19 und bei Renoir nehmen sie DDR4-3200 CL22. Warum nicht LPDDR4x-4266? Wenn sie DDR5 vs DDR4 genommen hätten Ok, aber LPDDR5 vs DDR4 ist ein unfairer Vergleich. Und die Systemdetails werden bei der Iris Xe gleich mal ganz verschwiegen.
 
mkl1 schrieb:
aber LPDDR5 vs DDR4 ist ein unfairer Vergleich.
Vielleicht weil die Masse an Cezanne & auch Renoir Notebooks mit DDR4 gebaut wurde und nun großflächig auf LPDDR5 gesetzt werden soll? Außerdem sieht´s besser aus. ;)
 
  • Gefällt mir
Reaktionen: -> m1 <-
NguyenV3 schrieb:
USB 4.0 basiert auf Thunderbolt. Ein AMD Notebook mit USB 4.0 Anschluss kann also aus meiner Sicht die gleichen Features anbieten.

"The USB4 architecture is based on the Thunderbolt™ protocol specification recently contributed by Intel Corporation to the USB Promoter Group."
Das entspricht nicht der Darstellung in der USB4 Spezification.

Thunderbolt™ 3 ist für USB4 Hosts und USB4 Devices nur ein optionales Feature. D. h. USB4 kann nicht auf Thunderbolt™ 3 basieren.

Laut der Spezifikation ist USB4 ist eine Weiterentwicklung von USB3.2.
Der Unterschied zwischen USB4 und USB 3.2 besteht darin, dass USB4 eine verbindungsorientierte tunneling architecture ist, die mehrere Protokolle auf einer einzigen physischen Schnittstelle kombiniert, so dass die Gesamtgeschwindigkeit und Leistung der USB4-Fabric dynamisch gemeinsam genutzt werden kann.
aus der Spec und mit DeepL übersetzt


Ob diese tunneling architecture von Thunderbolt™ 3 inspiriert wurde, weiß ich nicht.

NguyenV3 schrieb:
Aber es darf wohl nur mit Thunderbolt geworben werden, wenn auch alle Features unterstützt werden.
So wie ich es verstehe ist Thunderbolt™ 4 nichts anderes als ein spezielles Label für USB4-Ports.

Um dies zu kaschieren und um die eigenen Chips zu promoten hat Intel für Thunderbolt 4 höhere Mindestanforderungen festgelegt als das USB IF an USB4 Hosts stellt.

Der Grund dafür ist ganz einfach. Intel hat nur PCs im Blick, während das USB IF auch noch viele andere Geräte berücksichtigen muss. Wenn das USB IF die Hürden zu hoch anlegt, bleiben diese auf USB 3.x.

Es ist übrigens festgelegt, dass ein USB4 Hub oder ein USB4 based Dock an allen USB4 Port sowohl 40 Gbit/4 als auch Thunderbolt unterstützen muss.

Ergänzung ()

Summerbreeze schrieb:
Vielleicht weil die Masse an Cezanne & auch Renoir Notebooks mit DDR4 gebaut wurde und nun großflächig auf LPDDR5 gesetzt werden soll?
Ich denke LPDDR5 wird sich in den Notebooks stärker als LPDDR4 verbreiten.

Das Aufrüsten von Speicher wird nur noch von wenigen Endkunden wahrgenommen.
Bleibt als Vorteil von DDR5-SoDIMMs noch die Möglichkeit nach der Produktion zu konfigurieren.

Summerbreeze schrieb:
Außerdem sieht´s besser aus. ;)
Ich denke diese ganzen schiefen Vergleiche sind ein massives Eigentor von AMD.

Ich sehe alle Performancevergleiche als stark geschönt an.
Mal abwarten was von den behaupteten Performancesteigerungen nach den unabhängigen Tests übrig bleibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jemandanders und fullnewb
Summerbreeze schrieb:
Vielleicht weil die Masse an Cezanne & auch Renoir Notebooks mit DDR4 gebaut wurde und nun großflächig auf LPDDR5 gesetzt werden soll? Außerdem sieht´s besser aus. ;)


Was ein Quatsch, den 4800U und 5800U hatten sie immer mit LPDDR4x verglichen und jetzt soll das Masse Argument greifen. Nach der Verfügbarkeit ist AMD noch nie gegangen.

Es gibt kaum LPDDR4x Geräte mit AMD, dafür sehr viele mit DDR4, nach deiner Logik hätten sie vorher schon nicht mit LPDDR4x vergleichen dürfen. Dass DDR5 jetzt mehr verbaut werden soll als LPDDR5, muss sich erstmal zeigen. Wie kommst du darauf, LPDDR5 würde großflächig verbaut werden? Der Vergleich ist Absicht von AMD, damit sie Rembrandt einen größeren Vorsprung bescheren können.
 
t3chn0 schrieb:
Im Desktop Bereich bin ich deutlich skeptischer. Nur der 5800X erhält 3D VCache und das so spät, dass ZEN4 auf der Matte steht und es sich kaum lohnt.
Wer mit einem 3XXX unterwegs ist, und sich nicht gleich eine neue Plattform kaufen will, für den ist der 5800X mit 3D-Cache doch eine super Aufrüstoption. Spricht halt eine andere Zielgruppe an, und soll ggf. ein paar Leute davon abhalten, auf Intel umzusatteln, nur wegen ein paar FPS.
 
@mkl1 Ist doch nebensächlich, ob jetzt mehr auf LPDDR5 oder mehr auf DDR5 gesetzt wird. Am Markt wird beides erscheinen, folglich entscheidet der Käufer, was er haben will.

Meine Prognose ist, dass die U-Modelle eher auf LPDDR5 setzen werden, während die H-Modelle der Modularität halber eher auf DDR5 setzen werden - und letztere dürften auch mit dedizierten GPUs kommen, wodurch die Auswirkungen des langsameren RAMs auf die iGPU eh nicht so wichtig sind.
 
Verstehe nicht, wie man da am Sinn der CPU zweifeln kann. Genauso könnte man dann ab jetzt auch an der ADL Plattform zweifeln, weil in 6-9 Monaten ja AM5 kommt und dann wieder einen draufsetzt.

Der 5800X-3D ist für viele eine sinnvolle Aufrüstoption um jetzt noch maximale Gaming-Leistung ohne Plattformwechsel zu kriegen. DDR5 und PCIe5 kann man so gut und gerne noch 3-4 Jahre vor sich herschieben. Bis dahin gibt es dann auch günstige hochtaktende DDR5 Module auf dem Wühltisch.
 
@Balikon

Da gebe ich Dir uneingeschränkt Recht. Die CPU selbst und die vermuteten Werte für Spiele dürfte gerade für Aufrüster einfach hervorragend sein.

Bleibt nur die Frage wie die CPU preislich positioniert wird.

Ich persönlich finde es schade, dass sie nicht zumindest auch den 5900X direkt ausgestattet haben. Gerade der 5900X ist neben dem 5600X doch die aktuell mit attraktivste Gaming CPU.
 
  • Gefällt mir
Reaktionen: Balikon
t3chn0 schrieb:
Ich persönlich finde es schade, dass sie nicht zumindest auch den 5900X direkt ausgestattet haben. Gerade der 5900X ist neben dem 5600X doch die aktuell mit attraktivste Gaming CPU.
Vermutlich würde auf dem 5900X und 5950X beim Gaming wieder einiges an der IF verpuffen. Wenn ich mir z.B. WinRAR ansehe, dann bringen die zusätzlichen Cores und der doppelte Cache nichts in einer einzelnen cachelastingen Gaming Anwendung, wenn die Threads über IF Grenzen verteilt werden. Auch in Valorant ist z.B der 5800X am schnellsten.
 
mkl1 schrieb:
Der iGPU Vergleich ist ja lustig. Für Rembrandt nehmen sie LPDDR5-6400 CL19 und bei Renoir nehmen sie DDR4-3200 CL22. Warum nicht LPDDR4x-4266? Wenn sie DDR5 vs DDR4 genommen hätten Ok, aber LPDDR5 vs DDR4 ist ein unfairer Vergleich. Und die Systemdetails werden bei der Iris Xe gleich mal ganz verschwiegen.
Ich verstehe das Geheule nicht.
Computerbase hat doch vor ein zwei Jahren nen Vergleich gemacht bei dem rauskam, dass RDNA 2 ca. 37% schneller bei gleichem Takt und Shaderzahl als GCN Gen 2 war.

Worauf bezieht sich also deine Kritik ?

Darf AMD jetzt nicht mehr Brandbeite nutzen und Takt erhöhen um mehr Leistung zu erreichen?
 
mastakilla91 schrieb:
Darf AMD jetzt nicht mehr Brandbeite nutzen und Takt erhöhen um mehr Leistung zu erreichen?
Es sieht halt stark danach aus, dass eine langsame Konfiguration der 5000er Plattform mit einer schnellen Version der 6000er verglichen wird.
 
mastakilla91 schrieb:
Ich verstehe das Geheule nicht.
Computerbase hat doch vor ein zwei Jahren nen Vergleich gemacht bei dem rauskam, dass RDNA 2 ca. 37% schneller bei gleichem Takt und Shaderzahl als GCN Gen 2 war.

Worauf bezieht sich also deine Kritik ?

Darf AMD jetzt nicht mehr Brandbeite nutzen und Takt erhöhen um mehr Leistung zu erreichen?


Meine Kritik bezieht sich darauf, dass AMD einen unfairen Vergleich veranstaltet. Wenn sie den schnellsten Speicher für Rembrandt nehmen, müssen sie auch den schnellsten Speicher für Cezanne nehmen. Alles andere ist eine Verfälschung. Was ist daran so schwer zu verstehen?
 
Popey900 schrieb:
Geil, ein Notebook mit 6800u und großem Akku ist gekauft.
+1
Mein Vater scharrt auch schon mit den Hufen wegen einem neuen Büro&Arbeitsnotebook.
Der alte i7 Broadwell und die verlöteten 8GB RAM werden immer mehr zur Spaßbremse.
Mal sehen was ich ihm dann schönes bei Schenker (oder Lenovo) raussuche.
Der 6600HS wär auch nicht uninteressant; GPU Leistung wäre bei ihm jetzt nicht so ausschlaggebend.

Ich werd mich selber noch bis Herbst gedulden, und dann den 3600 mit dem 5800X3D auf meinem B550 ersetzen während der Hexa Zen2 in den HTPC auf "Altersteilzeit" umzieht.
~30% mehr Dampf pro Core und 2 Kerne mehr (oder es kommt doch noch ein 3D-12C...?) sind noch ein nettes günstiges Upgrade ohne gleich die ganze Plattform neu kaufen zu müssen.
RAM ist ausreichend vorhanden, sonst kann ich mir auch immer nochmal weitere 32GB dazustecken.
Neubau gibts dann wohl erst mit AM6... :)
 
Zuletzt bearbeitet:
Taxxor schrieb:
Übrigens der beste Satz des Abends

"AMD is the only team that can deliver a performance core and an efficient core IN THE SAME CORE" :D
Und auch der Dümmste. Oder was glauben die Helden bei AMDs Marketing machen Intel Kerne wenn die nicht gebraucht werden?
Ich sag nur Idle Verbrauch Zen3 vs. Skylake.
Screenshot 2022-01-05 061602.png
 
Innocience schrieb:
Ich sag nur Idle Verbrauch Zen3 vs. Skylake.
Naja, wie du siehst, waren Zen (1) und Zen+ ja bereits etwas sparsamer als Zen 2 und 3 und etwa auf einem Niveau wie Skylake. Dass Zen 2 und 3 mehr verbrauchen, kann auch am dort eingeführten I/O-Die liegen, der ja noch von GloFo gefertigt wird und bekannterweise nicht der beste ist. Die Notebookvarianten sind ja monolithisch in TSMC's 6 nm-Verfahren gefertigt und nicht wirklich mit den Modellen aus dem Desktop zu vergleichen. Vom ineffizienten X570-Chipsatz mal ganz abgesehen.

Aber ja, der Vergleich von AMD war natürlich pures Marketing. Dennoch haben sie starke Produkte präsentiert.
 
Clifton schrieb:
6800u (28w) in einem 14" 1920x1200er Notebook würde viele Gelegenheitszocker mit eigentlichem Fokus auf Produktivität imho glücklich machen ...
Das könnte man doch als "Thinkpad P14s Gen3 AMD" herausbringen...
Das wäre schon sehr sexy.
 
Innocience schrieb:
Und auch der Dümmste. Oder was glauben die Helden bei AMDs Marketing machen Intel Kerne wenn die nicht gebraucht werden?
Ich sag nur Idle Verbrauch Zen3 vs. Skylake.
Dann schau die mal den Verbrauch der Kerne im Idle an, nicht den des Systems.
Der I/O-Die ist es, was den Idle verbrauch bei den Desktop Zen3 CPUs hoch schraubt, die Kerne selbst verbrauchen im Idle so gut wie nichts und das sieht man auch im Gesamtsystem, wenn man sich die APUs anschaut die keinen I/O-Die besitzen..

Zudem ging es bei der Aussage auch um Zen3+, wo die Kerne noch mal sparsamer sind.
 
  • Gefällt mir
Reaktionen: LukS
wird echt schwer dem neuen G14 zu widerstehen... hätten die doch bloß eine amd gpu, dann wäre die Wahl einfacher. Und bevor jemand irgendwelche Unterstellungen bringt, es ist wohl kaum meine Schuld, dass Nvidias Linux-Support unter aller Sau ist. Leider
 
Zurück
Oben