Es gibt Awendungen, die nicht latenzsensitiv sind und bereits bei der Auslastung von 9 Threads vom zweiten CCD profitieren würden. Dann gibt es latenzsensitive Anwendungen oder Games, die z.B. 16 Threads auslasten können, aber schneller auf dem ersten CCD laufen, weil die Latenz der IF ihnen die Beine bricht. So einfach ist das also nicht.Convert schrieb:Jede Anwendung würde zuerst auf dem X3D-CCD laufen und der zweite CCD würde dazu kommen, wenn mehr Kerne genutzt werden.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Ryzen 9 9950X3D & 9900X3D: AMD erklärt, wieso es weiterhin nur ein X3D-Chiplet gibt
SwissSkynet
Cadet 4th Year
- Registriert
- Sep. 2020
- Beiträge
- 104
Dann soll AMD halt einen Chip mit 16 Kernen bringen und eben einen X3D Cache.
Zum Beispiel:
800X3D = 8 Kerne, 1 CCD, 1 Cache
950X3D = 16 Kerne, 2 CCD, 1 Cache
990X3D = 16 Kerne, 1 CCD, 1 Cache (Kostet dann halt was mehr)
Würd ich auch gerne 1000€ für bezahlen.
8 Kerne ist für Unity einfach lahm und der 16 Kerner mit 2 CCD und einem Cache ist nur nervig da es bei vielen Games Probleme bringt (Teilweisse langsamer als der 8 Kerner)
Zum Beispiel:
800X3D = 8 Kerne, 1 CCD, 1 Cache
950X3D = 16 Kerne, 2 CCD, 1 Cache
990X3D = 16 Kerne, 1 CCD, 1 Cache (Kostet dann halt was mehr)
Würd ich auch gerne 1000€ für bezahlen.
8 Kerne ist für Unity einfach lahm und der 16 Kerner mit 2 CCD und einem Cache ist nur nervig da es bei vielen Games Probleme bringt (Teilweisse langsamer als der 8 Kerner)
Du meinst also, dass es dennoch Sinn machen würde über die X-Box-Game-Bar die Spiele als solche zu erkennen? Das wäre ja ok, wenn man weiterhin die X-Box-Game-Bar nutzt um die Spiele zu erkennen und das Core-Parking damit zu steuern. Aber wenn mal ein Spiel als solches nicht erkannt wird, würde es immerhin auf dem richtigen CCD (X3D) laufen, wenn immer das X3D-CCD priorisiert wird. Es wäre also nicht ganz so optimal, aber auch nicht gleich so schlecht wie jetzt, wo nicht nur das Core parking nicht optimal ausgeführt wird, sondern das Spiel direkt auf dem falschen CCD landet. Außerdem kann man so eine CPU auch wirklich nur für Spiele benutzen. Wenn ich z.B. eine Simulationssoftware starte, die von X3D profitieren würde, so tut sie es nicht, weil die nicht als Spiel erkannt wird und damit auf dem Non-X3D-CCD läuft. Wäre immer der X3D-CCD priorisiert, würde diese aber auf dem X3D-CCD zunächst die Kerne buchen. Deswegen verstehe ich nicht, warum AMD an den 300 Mhz mehr von dem Non-X3D festhält und den Non-X3D in allen Anwendungen außer Spielen priorisiert und all die anderen Nachteile ignoriert.Nolag schrieb:Es gibt Awendungen, die nicht latenzsensitiv sind und bereits bei der Auslastung von 9 Threads vom zweiten CCD profitieren würden. Dann gibt es latenzsensitive Anwendungen oder Games, die z.B. 16 Threads auslasten können, aber schneller auf dem ersten CCD laufen,..
Man hätte übrigens das ja auch als Zusatzfeature im Bios anbieten können, wenn man es schon nicht als Grundeinstellung anbieten will. Das man dort einfach einstellt "X3D-CCD immer priorisieren" und dann meldet die CPU dem Betriebssystem immer, dass das X3D-CCD die schnellsten Kerne hat, auch wenn das andere CCD eigentlich schneller takten kann.
Zuletzt bearbeitet:
Nein, das grundsätzliche Priorisieren des ersten CCD wäre schon ok. Es ist nur das Problem, dass der Scheduler ab dem 9 Thread wissen müsste ob es eine latenzsensitive Anwendung ist oder nicht. Der Scheduler muss dann nämlich entscheiden ob der neunte Thread auf den zweiten CCD kann oder nicht. Wenn man immer bis zu 16 Threads auf dem ersten CCD bleibt verlieren nicht latenzsensitive Anwendungen massiv Performance. Das ist auch der Grund warum Core Parking nie für alle Anwendungen funktioniert hat. Es wurde immer HT/SMT zu früh verwendet und massiv Performance liegen gelassen. Die Lösung war dann, dass Microsoft es deaktiviert hat.Convert schrieb:Du meinst also, dass es dennoch Sinn machen würde über die X-Box-Game-Bar die Spiele als solche zu erkennen?
Kalsarikännit
Commander Pro
- Registriert
- Aug. 2012
- Beiträge
- 2.296
eins ist jedenfalls mal wieder sicher - die größten CPU-Spezialisten finden sich nicht in Santa Clara, sondern in Online-Foren.
Die achso genialen CPU-Spezialisten aus Santa Clara haben aus Kostengründen eine CPU Architektur geschaffen, die den Scheduler eines Betriebssystems vor unlösbare Herausforderungen stellt. Man braucht bei einer CPU mit mehreren CCDs immer Kompromisse und manuelle Eingriffe, um die Leistung für verschiedene Anwendungen zu optimieren. Man kann nicht von den Anwendungsentwicklern verlangen jede CPU Architektur zu erkennen und die Zuweisung auf die CCDs in der Anwendung durchzuführen. Bei HPC Anwendungen wird das häufig gemacht, weil man für eine bekannte Plattform optimiert. Das ist aber für allgemeine Anwendungen, die auf allen CPUs der letzten 10 Jahre funktionieren sollen, nicht praktikabel.Kalsarikännit schrieb:die größten CPU-Spezialisten finden sich nicht in Santa Clara, sondern in Online-Foren.
Das nennt sich "Marketing". Ist relativ neu und gab es glaub bis gestern noch gar nicht.Ja_Ge schrieb:Könnt ihr das auch irgendwie beweisen das AMD hier lügt? Oder ist das nur AMD Bashing aus Lust und Laune?
@scryed
Solange nicht viel mehr Spiele (alles was so kommt) davon stark profitiert, wird kaum eine Firma ein Minusgeschäft machen wollen. AMD muss immer noch zusehen, dass sie Anteile von Intel bekommen. Ich persönlich betrachte die 3D daher mehr als Version 1.
In der gleichen Preisklasse wie der 7950X wäre auch der 9900X.GOOFY71 schrieb:Da ich wieder auf 16 Kerne setzen werde, ist das beste Preisleistungverhältnis wohl ein 7950X für knapp 470€ neu. Ein guter Kompromiss zwischen Spiele und Anwendungsleistung. Den 265K schaue ich mir aber auch noch genau an.
Der hat zwar dann nur 12 Kerne statt 16 Kerne, aber da bei Zen5 ja in jedem Kern 6 ALUs stecken aber bei Zen4 nur 4 ALUs, sollte der 9900X mindestens genauso schnell sein.
Man könnte ihn ja trotzdem anbieten auch wenn es nicht viel bringt, und die Kunden selbst entscheiden lassen.stefan92x schrieb:AMD hat sowas schon seit den ersten Versuchen überhaupt getestet. Und es hat sich wohl noch nie in messbar mehr Leistung niedergeschlagen. Wenn ein solcher 9990X3D in keiner Anwendung schneller ist als ein 9950X3D, warum sollte man ihn überhaupt anbieten, bzw warum sollte ihn jemand kaufen?
Könnte man natürlich. Aber wenn es absehbar ist, dass es einfach (fast) nichts bringt, wäre das halt wirklich ein sinnfreies Produkt. Und dazu kommt natürlich noch der Punkt, dass AMD offensichtlich in der Produktionskapazität beschränkt ist. Jeder Dual-X3D würde also eine produzierte X3D-CPU weniger bedeuten und einen enttäuschten Kunden mehr, der keine bekommt.Martyn schrieb:Man könnte ihn ja trotzdem anbieten auch wenn es nicht viel bringt, und die Kunden selbst entscheiden lassen.
ThirdLife
Captain
- Registriert
- Aug. 2019
- Beiträge
- 3.217
Tun halt nur das Nötigste. Haben aber sicher ein Problem damit wenn ihre Mitarbeiter nur das Nötigste machen. Konzerne halt. Große Klappe und immer am Heulen.ruthi91 schrieb:Und was spräche gegen einen "9990X3D" mit zwei X3D Chiplets für einen gewissen Aufpreis?
Hat AMD den Kampfgeist verloren?
Will man keine neuen Grenzen ausloten?
stefan92x,
und für jede Dual-X3D-CPU, die dennoch Thread/Die-Pinning erfordert, müsste man den "Experten" erklären, warum das Teil in Benchmarks von einem 9800X3D beinahe zerrissen/zerstört wird.
Kann die YouTube-Thumbnails schon sehen: "ZERSTÖRUNG des 9990X3D²! FAKE?!? Wie AMD uns verarscht!!!"
Das Geheule wäre groß, der Shitstorm wäre groß und vollkommen unangebracht, weil die Consumer die Basics nicht raffen.
Über mir auch so'n "Experte".
Das Problem ist schon bekannt seit es damals noch zwei CCX' auf einem CCD gab: Zen(+).
und für jede Dual-X3D-CPU, die dennoch Thread/Die-Pinning erfordert, müsste man den "Experten" erklären, warum das Teil in Benchmarks von einem 9800X3D beinahe zerrissen/zerstört wird.
Kann die YouTube-Thumbnails schon sehen: "ZERSTÖRUNG des 9990X3D²! FAKE?!? Wie AMD uns verarscht!!!"
Das Geheule wäre groß, der Shitstorm wäre groß und vollkommen unangebracht, weil die Consumer die Basics nicht raffen.
Über mir auch so'n "Experte".
Das Problem ist schon bekannt seit es damals noch zwei CCX' auf einem CCD gab: Zen(+).
Zuletzt bearbeitet:
Daggy820
Lt. Commander
- Registriert
- Aug. 2010
- Beiträge
- 1.968
Ich hoffe ja jede Generation auf einen Ryzen mit 10K/20T und X3D auf einem Chiplet.Holgmann75 schrieb:Also weiter hoffen das bald Chiplets mit 12 Kernen oder sowas kommen.
Wann kommt die nächste Konsolengeneration? 🤔
Cr4y
Captain
- Registriert
- Mai 2007
- Beiträge
- 3.309
Ist die recht rudimentäre Packaging-Technik bei den Ryzens überhaupt ein Engpass?CDLABSRadonP... schrieb:Wenn genügend Packagingkapazitäten zur Verfügung stehen würden, dann gäbe es sowohl einen 9950X3D als auch einen 9950X3D Omni.
Kalsarikännit
Commander Pro
- Registriert
- Aug. 2012
- Beiträge
- 2.296
Man könnte auch Leberwurstcola anbieten, schmeckt zwar nicht so gut aber das können ja die Kunden entscheiden.Martyn schrieb:Man könnte ihn ja trotzdem anbieten auch wenn es nicht viel bringt, und die Kunden selbst entscheiden lassen.
Einfach mal bei AMD anrufen und denen erklären wie sie endlich mal was richtig machen. Aber vorher mir kurz Bescheid geben dann veräußere ich schnell noch mein Aktienpaket.
beckenrandschwi
Lt. Commander
- Registriert
- Aug. 2004
- Beiträge
- 2.037
wird Zeit, dass AMD endlich 16 Kerne in ein Chiplet packt. Dann 128MB 3D Cache drunter und fertig ist der neue Held
Ähnliche Themen
- Antworten
- 165
- Aufrufe
- 15.179
- Antworten
- 29
- Aufrufe
- 2.470
- Antworten
- 53
- Aufrufe
- 5.879