News Intel-CPU-Gerüchte: Comet Lake bringt 26 Modelle und bis zu 5,3 GHz

Ned Flanders schrieb:
Jetzt mals halt nicht schön. Sagt ja keiner das alles scheisse sei. Aber das Ding hat halt spezifische aber eklatante Schwächen.
Ich frag mich hier allerdings, woran du das fest machst?
Der technische Ansatz - und das wäre der Part über den man spricht wenn man von eben jenen Schwächen spricht - ist ne ganz andere Nummer als die spezifische Umsetzung, bspw. in SKL-X. Aktuell vermischt du den Designansatz mit einer möglicherweise einfach nur schlechten Umsetzung bei Skylake.

Warum da dieses komische Userbenchzeugs so lahm ist, muss absolut gar nix mit dem Mesh zu tun haben, ich halte sogar den Zusammenhang an der Stelle für fraglich, eher noch wäre der Modus in dem der Speichercontroller arbeitet wahrscheinlicher als Ursache als ein Limit der Bandbreite. Sprich der SingleThread Zugriff nur einen Kanal nutzt. Schaut man mal weiter - 6950X, kein Mesh, ähnlich niedriger Speichertakt und auch reihenweise 15GB\sec Werte. Btw. scheint mir auch der Eintrag den du verlinktest, nicht zu stimmen, denn die Bandbreite ist für 3200er Speicher viel zu niedrig und deckt sich eher mit 2400er Einträgen auf dem gleichen Prozessor, generell sind die Werte extrem inkonsistent, was jetzt nicht gerade zur Sinnhaftigkeit solcher Messungen beiträgt.
PCIe Bandbreite geht btw. auch voll bei SingleThread und liegt mit 16GB\s größer als die 12GB des verlinkten RAM Tests, im Mesh geht das auch den "gleichen" Weg, PCIe ist oben im Mesh, die beiden MC Teile jeweils links und rechts.
 
  • Gefällt mir
Reaktionen: ZeroStrat und Mcr-King
10900X

Mesh 3GHz

1577660833574.png


Mesh 3,2Ghz

1577660861700.png
 
  • Gefällt mir
Reaktionen: Ned Flanders
Hinsichtlich Mesh macht es ja durchaus Sinn bzw ist erklärbar dass der einzelne Kern nicht von mehreren SI parallel Daten zugeschaufelt bekommt. Beim Ringbus und im IO Die hingehen kann ich mir paralleler Zugriff schon eher vorstellen. Denke die Bandbreite einzelner Mesh Interconnects ist vergleichsweise gering, geringere als bei einem Ringbus der ja genügend Bandbreite liefern muss im alle angehängten Kerne zu bedienen.

Genauso muss die Rate IO Die - Chiplet ja hoch genug sein um 8 Kerne voll auszulasten was Ram und Core to Core angeht.
 
Krautmaster schrieb:
Hinsichtlich Mesh macht es ja durchaus Sinn bzw ist erklärbar dass der einzelne Kern nicht von mehreren SI parallel Daten zugeschaufelt bekommt. Beim Ringbus und im IO Die hingehen kann ich mir paralleler Zugriff schon eher vorstellen. Denke die Bandbreite einzelner Mesh Interconnects ist vergleichsweise gering, geringere als bei einem Ringbus der ja genügend Bandbreite liefern muss im alle angehängten Kerne zu bedienen.
Die Bandbreite muss deutlich höher liegen, sonst hätte man alle Nase lang Limits, PCIe mit 3.0 x16 macht mehr Durchsatz, die UPI Links ebenfalls, die Cachezugriffe intern auch usw.

Bei AMD konnte man früher mal den Speichercontroller von ganged in unganged umschalten, kein Plan wie die Intel HEDT hier laufen, mich würde aufgrund der Server-Abfall Thematik nicht wundern, wenn das SI nicht zusammen, sondern jeder Controller einzeln läuft, für volle Bandbreite brauch es dann halt auch mehr gleichzeitige Zugriffe. Was idR. eh gängige Praxis ist. Wenn das Mesh hier limitieren würde, müsste der 6950X oder 5960X signifikannt schneller sein, ist aber nicht der Fall, genügend Werte deutlich unter 20GB\sec finden sich dort auch. Die teils sehr große Streuung kommt noch hinzu.

Interessanterweise sind halt die Desktop Intels, selbst bei niedrigem RAM Takt, im Schnitt da scheinbar schneller!
 
PhoenixMDA schrieb:
Hier mal nen Vergleich der Verschiedenen Plattformen @OC, ich denke man sieht gut wo der Gravierende Unterschied ist.

Du vergisst dabei das ein 9900k 16MB Cache hat, ein 3900X hat 64MB.

Das verhindert viele Speicherzugriffe und ist je nach Last mal besser oder schlechter als niedrige Speicherlatenzen.
 
Zuletzt bearbeitet:
Teiby schrieb:
Wenn es einfach nur funktionieren soll: Intel
Wer Probleme mit Mainboard, Bios, Hitze, Software haben möchte: AMD
So meine Erfahrung, auch mit der neuen Generation selbst erlebt.
Tja, meine Erfahrung ist nahezu genau umgekehrt .... und damit sind wir beide off-topic.
 
  • Gefällt mir
Reaktionen: Smartbomb, Ned Flanders, Benji18 und eine weitere Person
@fdsonne

Denke so teif ist hier kaum jemand drin um zB zu deuten ob 15GB/s SC Ram Bandbreite nun genug oder zu wenig ist. Würde annehmen wie du dass nicht jeder Core Anspruch auf alle SI Kanäle haben muss. Bei TR 1/2 waren es sicher auch bestenfalls die 2 Kanäle der Die an dem der Ram hängt, verständlich.

Interessant wird Ice Lake + Mesh, SLX hat ja teilweiße das was Ice Lake nun implementiert. Auch muss Intel hinsichtlich Multichip Design Überlegungen anstellen und ggf ist Mesh auf Kernebene auch gar nicht zielführend, ggf ist darunter ein CCX also keines Kern Cluster durchaus sinnvoll.

fdsonne schrieb:
Interessanterweise sind halt die Desktop Intels, selbst bei niedrigem RAM Takt, im Schnitt da scheinbar schneller!

Da sind alle Hops kleiner bzw weniger, jeder Kern bekommt mehr vom Kuchen ab. Der Ringbus muss weniger schaufeln, da ist eh die Frage wie weit Intel da noch gehen kann.
 
Zuletzt bearbeitet:
War das größte Problem mit dem Ringbus nicht das er bei komplexeren Designs zu problematisch wird und hatte man später nicht sogar einen doppel Ringbus benommen um damit klar zu kommen, bevor man zum Mash wechselte? Das könnte auch die Ursache sein warum einfachere Desktop Designs bei entsprechenden Tests besser laufen.
 
Bei Ringbus muss ich immer an ein altes BNC-Netzwerk denken und das Informationen die für Core xy gedacht sind immer stehts einen Teil der anderen Cores durchlaufen müssen.
 
Es ist meist eine Kombination diverser Topologien. Bei AMD ist es ja quasi ein Baum während es ganz unten bei den CCX Full Connected ist, die untersten 4 Kerne also jeder mit jedem direkt kann. So war es zumindest.

Edit:
bei Zen 3 werden es wohl 8C pro CCX
https://www.golem.de/news/milan-amd-plant-zen-3-mit-acht-kernen-pro-ccx-1910-144271.html

Bei Zen 2 müssen wohl die 2 CCX auf einem Chiplet über die IO Die kommunizieren, bei Zen 3 haben sie denselben L3 Cache. Kerne reden ja nur über den Cache miteinander, also geh ich Mal von aus alles andere macht ja wenig Sinn.

Die Anpassung ist überschaubar. Der gemeinsame L3 ist also deutlich größer. Hat Vorteile wenn die Daten im L3 zu finden sind und zugleich meist etwas Nachteile sofern sie nicht zu finden sind und nach oben deligiert werden muss.


Edit: Knoten sind wohl also weniger die einzelnen Kerne sondern der Speicher. Und dann kommt es drauf an ob der Speicher-Bereich zB L3 für alle Kerne homogen zugreifbar ist oder "gesplittet" wie bei TR 1/2.
Nicht ganz easy zu verstehen aber klar, die Caches sind ja mit das wichtigste da der Zugriff auf Ram eher die Ausnahme als Regel sein soll, deswegen hat man ja die schnellen L1-L3 Caches bzw so viel Ebenen wie man als wichtig erachtet.

Ice Lake wurde auch bereits gut durchleuchtet
https://www.anandtech.com/show/14664/testing-intel-ice-lake-10nm/2

One of the major balancing acts with cache sizes is also cache latency. The bigger the cache, the longer it takes to retrieve data from it – increasing associativity can do this as well.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King und gesperrter_User
IBISXI schrieb:
Du vergisst dabei das ein 9900k 16MB Cache hat, ein 3900X hat 64MB.

Das verhindert viele Speicherzugriffe und ist je nach Last mal besser oder schlechter als niedrige Speicherlatenzen.
Viel Cache ist definitiv gut aber, Irgend einen Tot muss man aber immer sterben.
Guck dir mal Powerplay seine Zugriffszeit beim 3900X mit 61,9ns an, das ist nun nicht unbedeutend, auch wenn er gegen den 9900K@OC+Subs ca. 25% bei Games zurück liegt, einen 9900K mit Speicher @XMP überholt er damit locker.

Grob gesagt bringt bei AMD vor allem Latenz was, beim 9900K skaliert es gut mit der Bandbreite bei Games, die Latenz scheint da meist schon niedrig genug zu sein.Ob ich 36,5 oder 35,5ns hab kommt aufs gleiche, aber 63k zu 65k Copy macht nen Unterschied.
Die Latenz bringt aber an anderen "Stellen" was.
 
  • Gefällt mir
Reaktionen: KlaraElfer
@Krautmaster
Da es aber nach der Meinung einiger User so wahnsinnig unmöglich zu sein scheint mehr als 8 Kerne bei einem Programm zu nutzen dürfte das alles kein allso großes Problem sein denn es würde sich alles in einem Chiplet abspielen und die Kommunikation über den RAM damit entfallen. Um das zu nutzen müsste meiner Meinung nach der Prozessor nicht zwangsläufig in NUMA Nodes aufgeteilt werden sondern der Sheduler lediglich das Schema der Kern Aufteilung kennen. Das ist ja bekannt und damit über alle Modelle hinweg mehr oder weniger anzutreffen. Verklicker ihm das er immer 8 oder vielleicht besser 4 Kerne zusammen nutzen soll und du hast den Großteil der Produktpalette abgedeckt. Die gestutzten Modelle würden dann zwar nicht so ganz reinpassen aber auch das wäre immernoch besser als ein dummer Sheduler der von garnichts ne Ahnung hat.
Zudem gibt es auch schon länger Technologieen bei denen z.B. sowas wie ein Inhaltsverzeichnis aller L3 Caches in jedem L3 Cache abgelegt wird und damit der Weg über den RAM weitestgehend umgangen werden kann. Das erste mal hatte ich beim 6 kernigen Phenom II davon gehört. Es würde mich wundern wenn das bei dem Monster L3 Cache der Zen Multichip Prozessoren nicht auch der Fall wäre.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich muss da mal Laie einfach fragen: Was genau ist denn der Vorteil / Nachteil am festhalten in Bezug auf Sockel und neue CPU?

oder welchen Vor- oder Nachteil hat ein ständiges Neurausbringen von Sockeln
 
@umax1980
Vorteil ist du musst nicht beim wechsel auf eine aktuellere CPU das Mainboard wechseln

Nachteil die Mainboard Hersteller und der Chipsatz Hersteller machen weniger Gewinn da du länger dein board behältst.

Neutral gesehen macht das durchaus sinn, jedoch wenn user ihre Systeme 5 Jahre behalten kann die Intel Variante durchaus sinnvoll sein. Anders gesehen kann man sich aber jetzt z.b. eine low end cpu holen und in 2-3 Jahren dann auf eine High end wechseln ohne das gesamte System neu zukaufen.

kann man sehen wie man will es hat beides vor und nachteile.
 
  • Gefällt mir
Reaktionen: Mcr-King
@umax1980 Der Vorteil für den Kunden ist, dass man nach 2-3 Jahren noch mal die aktuelle Generation an CPUs mit entsprechendem Leistungssprung auf sein altes Board packen kann und damit Geld spart.
Gleichzeitig ist das auch ein Vorteil für den Hersteller, da es die Attraktivität der Plattform erhöht.
Sofern der Chipsatz nicht vom Hersteller selbst kommt, macht es auch keinen großen Unterschied ob der Kunde sich jetzt ein neues Board kauft oder nicht.

Nachteil für den Hersteller ist, dass er beim Design neuer CPUs in seinen Möglichkeiten beschränkt ist. Für Zen2 musste schon einiges angepasst werden, damit er auf dem AM4 Sockel läuft, das wäre mit einem neuen Sockel leichter gewesen.
Außerdem sind die CPUs dadurch idR weniger preisstabil, da man umgekehrt ja auch alte CPUs noch auf neue Boards packen kann und nicht zwingend die neuen kaufen muss.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Qyxes und Mcr-King
fdsonne schrieb:
Sprich der SingleThread Zugriff nur einen Kanal nutzt. Schaut man mal weiter - 6950X, kein Mesh, ähnlich niedriger Speichertakt und auch reihenweise 15GB\sec Werte. Btw. scheint mir auch der Eintrag den du verlinktest, nicht zu stimmen, denn die Bandbreite ist für 3200er Speicher viel zu niedrig und deckt sich eher mit 2400er Einträgen auf dem gleichen Prozessor, generell sind die Werte extrem inkonsistent, was jetzt nicht gerade zur Sinnhaftigkeit solcher Messungen beiträgt.
PCIe Bandbreite geht btw. auch voll bei SingleThread und liegt mit 16GB\s größer als die 12GB des verlinkten RAM Tests, im Mesh geht das auch den "gleichen" Weg, PCIe ist oben im Mesh, die beiden MC Teile jeweils links und rechts.

Es ist bekannt, dass Intel CPUs Singlethread die volle RAM Bandbreite nicht ausnutzen können. Epyc Rome kann sogar Singlethread Octa-Channel voll ausschöpfen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Mcr-King
umax1980 schrieb:
welchen Vor- oder Nachteil hat ein ständiges Neurausbringen von Sockeln
Vorteil für die Hersteller:
Eine zusätzliche Einnahmequelle durch das neue Mainboard bei maginalen Anpassungen für die neue Generation, wenn überhaupt.
Billiger im Support weil man sich nicht um abwärtskompatibilitäten zu den älteren Modellen kümmern muss.

Nachteil für den Endkunden:
Er muss jedes mal bei einer Aufrüstung den ganzen Rechner auseinander nehmen.
Der Mainboardwechsel bedeutet Zusatzkosten.
 
  • Gefällt mir
Reaktionen: Mcr-King
Snowi schrieb:
Kosten halt aber auch mehr. Ich hab jetzt nur die Tests von CB genommen, weil ich keine Lust habe, ewig viele Benchmarks durchzugehen und die Setups davon zu vergleichen.

CB ist bei CPU-Tests aber bestenfalls suboptimal. Es ist ja schön wenn man aktuelle Spiele zeigen will aber die Aussagekraft ist bei einem (teilweisen) GPU Limit nun mal begrenzt. An dem Punkt muss man sich dann eben mal die Arbeit machen und Spiele im totalen CPU Limit mit Savegames wählen. Ob due ein Cities Skylines, Stellaris oder X4 in 720 oder UHD laufen lässt ist egal.
Problematisch ist im Simulationsbereich zB die Zeitdelatation. Damit es auf schwachen CPUs nicht ruckelt wird eben der Zeitablauf in die Unendlichkeit gestreckt. Diese "tolle" Idee macht es erst recht auf schwachen Prozessoren unspielbar.

pseudopseudonym schrieb:
Meine NAS mit einem Intel J2900, welcher gerne mal den Dienst quittiert (C-State-Bug oder so).
Bug in der CPU. C-State auf C2 oder so senken.
 
  • Gefällt mir
Reaktionen: Snowi und Mcr-King
Zurück
Oben