News AMD Ryzen 8000: Strix Point mit 4+8c- und Strix Halo mit 16 Zen-5-Kernen

Wäre es aus Spielersicht performancemäßig nicht sinnvoller, 8 „ganze“ und 4 c-Kerne zu kombinieren (d. h. 8 Kerne mit hoher Single-Core-Leistung und 4 sparsamere für weniger anspruchsvolle Dinge)? Oder soll das eher für Produktiv-/Multi-Core-Anwendungen gedacht sein?
Das selbe frage ich mich übrigens auch bei Intel, aber da denke ich gehts v. a. darum, den längsten (Balken) zu haben.
 
  • Gefällt mir
Reaktionen: Hatch, fox40phil, Philste und 2 andere
Wun Wun schrieb:
Wäre es aus Spielersicht performancemäßig nicht sinnvoller, 8 „ganze“ und 4 c-Kerne zu kombinieren (d. h. 8 Kerne mit hoher Single-Core-Leistung und 4 sparsamere für weniger anspruchsvolle Dinge)?
Passt dann nicht mehr auf ein Chiplet - 6+4 würde gehen mMn.

Für reine Zocker wird dann sowieso ein 8C + X3D Modell kommen behaupte ich.
 
Wun Wun schrieb:
Wäre es aus Spielersicht performancemäßig nicht sinnvoller, 8 „ganze“ und 4 c-Kerne zu kombinieren (d. h. 8 Kerne mit hoher Single-Core-Leistung und 4 sparsamere für weniger anspruchsvolle Dinge)?

Es kommt wohl drauf an, wie viele Threads mit hoher CPU-Last typische Spiele und Anwendungen erzeugen.

Mein Bauchgefühl würde auch in die Richtung gehen, dass ein mehr Performance-Kerne sinnvoll wären, plus weniger Stromspar-Kerne für Teillast und Quasi-Idle.

Aber wenn sowohl Intel als auch AMD in die selbe Richtung gehen, und stattdessen viele Stromspar-Kerne mit eher weniger Performance-Cores kombinieren, scheint es wohl in eine andere Richtung zu gehen.
 
Wun Wun schrieb:
Wäre es aus Spielersicht performancemäßig nicht sinnvoller, 8 „ganze“ und 4 c-Kerne zu kombinieren
Das dachte ich mir auch schon. Es ist zwar ein Monolith, aber die Kommunikation zwischen den beiden CCX sollte trotzdem langsam sein. Damit hätte man möglicherweise einen 4 Kerner, der genügend Cache hat (aber eben nur 4 Kerne) und einen mehr oder weniger separaten 8 Kerner, der aber am Cache verhungert.
 
Es werden bestimmt nicht nur 4+8c CPUs erscheinen. Sicherlich auch 8+8c, oder 6+8c. Letztlich sind diese eh erst einmal Prozessoren für den mobilen Sektor. Was dann irgendwann in den Desktop kommt bleibt offen.
Denn laut dieser Meldung wird Zen 5 im Desktop keine C-Kerne bieten.
 
Herdware schrieb:
Es kommt wohl drauf an, wie viele Threads mit hoher CPU-Last typische Spiele und Anwendungen erzeugen.
"Klassisches" Spiele-Multithreading hat einen Hauptthread, der einzelne Aufgaben unterverteilt. Da würde ein P-Core schon reichen. Das kann durchaus anders aussehen, aber mein Bauchgefühl ist tatsächlich deshalb das Gegenteil von deinem - wenige P-Cores müssten reichen.
 
  • Gefällt mir
Reaktionen: Smartbomb
Man ist bei Zen 5 also wieder zum Konzept gewechselt, dass man schon bei Zen 2 hatte? Also 2*4 Kerne teilen sich einen L3, um eine bessere Verwertung bei Teildefekten zu ermöglichen?

Bei Zen 3 und 4 gab es ja keine Quadcores, weil es bei der core2core Kommunikation in dem Fall schwierig geworden wäre, richtig?
 
LamaMitHut schrieb:
Man ist bei Zen 5 also wieder zum Konzept gewechselt, dass man schon bei Zen 2 hatte?
Nur bei Strix Point, denke ich. Phoenix 2 hat angeblich trotz der Mischung von ZEN4 und ZEN4c Kernen nur ein CCX. Aber das sind insgesamt auch nur 6 Kerne. AMD hat noch nie ein CCX >8 Kerne gebaut, von daher ist der Schritt bei Strix Point wohl notwendig. Ich gehe aber stark davon aus, dass das der einzige 4 Kern CCX bei ZEN5 bleiben wird.
 
  • Gefällt mir
Reaktionen: Deinorius und LamaMitHut
Vitec schrieb:
Also genau dasselbe Schema bei AMD in Zukunft wie bei Intel. Für 1 normalen Kern bekommt man dann 2 abgespeckte
Eben das ist bei AMD ja nicht der Fall. Die CPU kerne haben alle das gleiche set an Instruktionen. Lediglich der L3 Cache ist bei den C Varianten kleiner
 
  • Gefällt mir
Reaktionen: Zarlak und Rockstar85
Kommt drauf an wie hoch die C Kerne jetzt am Ende wirklich takten können. Das weiß ja bis jetzt noch keiner, da es noch keinen Test zu Phoenix 2 gibt. Das gleiche Instruktionsset ist eher für den Server wichtig. Als durchschnittlicher Notebookuser wird man nicht merken, ob alle Kerne AVX512 unterstützen. Wenn es bei den guten 3 GHz bleibt, dann hat man außer AVX512 keinen Vorteil gegenüber Intels E Kernen. Die haben zwar weniger IPC, takten aber im Verhältnis zu den P Kernen höher.
 
SFFox schrieb:
Laut Tech Powerup ist die 780M iGPU ja noch mal ein gutes Stückchen schneller als die RX 6400
Wird sich zeigen, da sich die 6400 die Bandbreite nicht mit der CPU teilen muss und zusätzlich über 16MB Infinity Cache verfügt.
 
Wun Wun schrieb:
Wäre es aus Spielersicht performancemäßig nicht sinnvoller, 8 „ganze“ und 4 c-Kerne zu kombinieren (d. h. 8 Kerne mit hoher Single-Core-Leistung und 4 sparsamere für weniger anspruchsvolle Dinge)? Oder soll das eher für Produktiv-/Multi-Core-Anwendungen gedacht sein?
Multicore Anwendungen ist natürlich das Thema. Bezogen auf das Gaming ist es uninteressant. Denn es kommt ganz darauf an wie du spielen möchtest. Vor allem wenn es bei einer Apu bleibt und keine dgpu dazu kommt. Die Architektur ist ja die gleiche nur in mhz und Cache beschnitten.

Zumindest das was so genannt wird.

Jetzt schau dir einfach mal cpu benches in spielen an, wieviel fps auch ältere CPUs noch machen.
 
andi_sco schrieb:
Wird sich zeigen, da sich die 6400 die Bandbreite nicht mit der CPU teilen muss und zusätzlich über 16MB Infinity Cache verfügt.
Gespannt auf die realen Resultate am Ende bin ich auch. Sprichst du in dem Fall von der Speicherbandbreite oder der Anbindungsbandbreite über PCIe? :)
In ersten Fall bin ich voll bei dir: dedizierter VRAM + Infinity Cache schlagen shared memory. 👍
Bei PCIe hingegen ist die iGPU ggf. wieder mit 8x angebunden, wie die Vega iGPUs auch schon, während die RX 6400 nur ein 4x Interface bedient.

Es spricht jedenfalls viel für die Leistung der 780M, da ja die Phoenix APUs mit 45 Watt schon vermessen werden konnten und wir berücksichtigen können, dass CPU/iGPU sich mit mehr TDP Headroom auch ein Stück mehr Performance erlauben können.

Wenn ich auf Youtube diverse Cyberpunk Benchmarks zwischen der mobilen 780M und der RX 6400 vergleiche hat die 780M die Nase vorn, auch wenn die mangelnde Vergleichbarkeit zwischen Patch-Version, Treibern und genauen Settings hohe Unschärfe in das Vergleichsergebnis bringt, selbst wenn man sich auf 1080p und "low settings" dabei beschränkt.

Ich sehe das also nicht als unumstößlichen Beweis aber definitiv als Tendenz :)
 
[Hybrid GPU]
Casillas schrieb:
Läuft tatsächlich auch mit Ryzen 7000 und Nvidia 4000. Leider machen gerade wieder 7000er Radeons Probleme.

Zumindest mit dem 23.7.1 Treiber macht eine 7900XT + i7-11700 keine (fast) Probleme.

Beim Planet 3Dnow Artikel ist ja auch eine Verbesserung zu erkennen:
22.12.2 --> funktioniert nicht
23.1.1 --> funktioniert immer noch nicht
23.1.2 --> halbwegs Zitat:
Während die Umschaltung zwischen Idle und 3D-Last mit diesem Treiber endlich so funktionierte, wie sie sollte, sorgte der Windows-Reboot bzw. ‑Shutdown für Probleme. Die Animation des Windows-Kreisels stockte regelmäßig und in geschätzt der Hälfte aller Fälle kam es zu einem Bluescreen. Somit hat AMD hier noch weitere Arbeit vor sich.

hier:
23.7.1 --> funktioniert

einziger Nachteil:
Nach dem Aufwecken (stanby) resettet sich der AMD-Treiber beim ersten Zugriff auf die AMD-Karte (zB: Spiel starten, GPU-Z aufrufen). Das geschieht ein einziges mal, und geschieht wieder, nachdem der Rechner aus dem stanby geholt wird. (kann auch an meinem System liegen)

Dadurch geht meine selbst eingestellte Lüfterkurve verloren.

Vorteil:
Die dGPU wird nur bei Bedarf belastet, und dümpelt ansonsten mit 6-7W TBP vor sich hin. Auch vom hohen idle-Verbrauch bei Multimonitor oder YT-4k-schauen (Intel QuickSync regelt) bin ich verschont.
 
Zuletzt bearbeitet:
PS828 schrieb:
Lediglich der L3 Cache ist bei den C Varianten kleiner
Vor allem ist das Layout der Kerne ein völlig anderes, der Cache ist ja außerhalb der Kerne. Unbekannt ist, wie sehr dadurch das Taktpotential begrenzt wird, aber die Vermutung ist zumindest naheliegend, dass es einen negativen Einfluss hat, wenn alles kompakter wird.
 
LamaMitHut schrieb:
Man ist bei Zen 5 also wieder zum Konzept gewechselt, dass man schon bei Zen 2 hatte? Also 2*4 Kerne teilen sich einen L3, um eine bessere Verwertung bei Teildefekten zu ermöglichen?

Nein. Strix Point kriegt einen CCX mit 8 Zen5c-Cores, und einen CCX mit 4 Zen5-Cores. Alle 12 Cores in einem CCX geht sich nicht aus, solange sie die CCXe nicht neu konzipieren, und fuer 8 Zen5 Cores in Strix Point sehen sie wohl den Markt nicht bzw. diesem Markt addressieren sie mit anderen Produkten.

Bei Zen 3 und 4 gab es ja keine Quadcores, weil es bei der core2core Kommunikation in dem Fall schwierig geworden wäre, richtig?

Nein, weil sie dafuer Zen2 haben, und eben ein (und einer der wichtigsten) Fortschritt bei Zen3 die Faehigkeit des CCX fuer 8 cores ist.
 
Wun Wun schrieb:
Wäre es aus Spielersicht performancemäßig nicht sinnvoller, 8 „ganze“ und 4 c-Kerne zu kombinieren (d. h. 8 Kerne mit hoher Single-Core-Leistung und 4 sparsamere für weniger anspruchsvolle Dinge)? Oder soll das eher für Produktiv-/Multi-Core-Anwendungen gedacht sein?

Letzteres... Es geht hier nicht um weniger anspruchsvolle Dinge im Hintergrund sondern Multicore mit vielen Kernen und Singlecore mit wenigen.

Intel möchte, wenn sie schon soviel Chipfläche in die P's stecken (müssen), diese auch "ausfahren". Also nur soviele P's wie man auch versorgen kann und will. Wären 8 Kerne nicht bereits so etabliert hätte man wahrscheinlich nur 4P Cores beim i9... 4+32 statt 8+16 (13900).
 
  • Gefällt mir
Reaktionen: Smartbomb
Damit wird AMD die Multithreading-Performance erheblich steigern.
Für Gaming wäre ein klassischer 8 Kerner mit 32 MB wohl besser.
 
TheHille schrieb:
Oder dann eher der BIG.little-Ansatz, wo zu einer vollständigen "BIG-CPU" vielleicht 2 kleine Cores dazukommen, die dann für Office/Surfen oder so reichen.
Da braucht es schon seine vier Kerne, bei Windows 10.
Ist aber nicht schlimm, sofern vier Kleine einem Großen entsprechen.
Da wäre Platztechnisch dann auch ein drei Kerner + vier Kleine möglich. Wären immer noch 10 Threads möglich und damit rennt Windows schon sehr, sehr gut.
 
@Corpus Delicti
Ja allg. finde ich es schön zu sehen, dass diese Technologie überhaupt noch verfolgt wird, auch unabhängig dessen, wie oft sie wohl anwendung findet. Daher finde ich kann man das AMD schon positiv anrechnen, dass scheinbar hier im Treiber auch dran gearbeitet wird.

Ich finde allerdings den Nachteil mit den Latenzen nicht ausser Acht zu lassen. Aber das muss man dann halt abwägen.
 
Zurück
Oben