News Intel-Prozessoren: Starttermine für Kaby Lake-X, Skylake-X und Coffee Lake

man hat das Gefühl, jede Woche bringt Intel entweder neue CPUs raus oder kündigt welche an. Ermüdend. Inflationär.
 
Holt schrieb:
Das sieht so aus, aber Kaby Lake ist Skylake mit mehr Takt dank ausgreifterer Fertigung und aus der Fertigung kommt Skylake-X sicher auch, man wird kaum auf die alten Fertigung zurückgehen.

möglich. möglich ist aber auch, dass nur ein teil der produktion auf kaby lake umgestellt wurde. möglicherweise lassen sich sich mit der skylake-fertigung mittlererweile mehr stück/zeit herstellen, also quantitativ optimiert wurde. möglich, dass zudem auch die qualititive ausbeute, hinsichtlich intakter kerne, optimiert wurde. und möglicherweise landen auch cpus aus der kaby lake fertigung unter den skylake x.

hab zwar nur sehr wenig ahnung von der materie, aber wär zumindest theoretisch denkbar. schade, dass hierzu keine einblicke publik werden...
 
DunklerRabe schrieb:
Hoppla. Natürlich.

Zudem soll ja auch Skylake-x deutlich weniger L3 Cache bekommen. Ich denke bei SKL-EP wird man die riesige Menge beibehalten.
So würde schon auch eine starke Abgrenzung der beiden Plattformen vorhanden sein.
 
oldmanhunting schrieb:
Der @GreatEvil wird uns und jedem anderen auch weiterhin erzählen dass DMI 3 ein Nadelöhr ist aber begründen kann er das nicht und sowieso ist bei AMD alles besser.
Dann erkläre ich es. Es hängt wie immer von den Boardherstellern ab. Klar kann man den M.2 Slot an die CPU direkt angeschlossen werden. Wird er aber nicht immer sondern auch mal nur übers DMI. Die aktuellen NVM SSDs von Samsung belegen gerne mal die komplette Bandbreite von 4x3.0 PCIExpress. Der Rest ist klitterkram.
Das Problem ist, es wird selten offensiv damit umgegangen, wie der Slot angeschlossen ist.
 
@D708 und @GreatEvil
Eine NVM SSD (z.B. die Samsung 512GB 960 Evo) kann sequenziell 2.300 MB/s lesen und 1.700 MB/s schreiben. Das aber nicht durchgängig sondern je nach Kühlung für eine kurze Zeit.
DMI 3.0 kann 3.93 GB/s bidirektional also gleichzeitig lesen und schreiben, wobei man nach Overhead real auf die von @Holt genannten 3.2 GB/s kommt.

Klar, wenn ich genug Geld habe und es darauf anlege, dann kann ich DMI 3.0 in die Knie zwingen. Man könnte ja ein Raid0 mit zwei NVM SSD's machen aber reden wir dann immer noch von dem, was User mit Ihrem PC machen und gibt es dafür keine Alternativen?

Der @Holt hat es in Beitrag #83 ja schon dem @GreatEvil erklärt und ich bin so frei und zitiere Ihn hier:
Wo ist das Problem? DMI3 ist technisch PCIe 3.0 x4 und bietet damit so 3200MB/s pro Richtig und zwar in beide Richtungen gleichzeitig, damit kann man schon 3 bis 4 USB 3.1 Gen2 Anschlüsse parallel und in die gleiche Richtung mit voller Geschwindigkeit Daten übertragen lassen und wenn die dann auf die PCIe SSD gehen oder von der kommen, gehen deren immer noch parallel in die Gegenrichtung! Bei den vielen Lanes könnten Schnittstellen die besonders viel Bandbreite brauchen auf den Boards auch mit Lanes der CPU realisiert werden, außer wenn Kaby Lake-X verwendet wird. Aber so viel I/O um DMI3 zu sättigen muss man auch erst mal haben, außer einem RAID 0 von PCIe SSDs fällt mir da nichts ein was dies schaffen würde ohne zu konstruiert auszusehen.
 
Zuletzt bearbeitet:
Nein genau deshalb halte ich das DMI 3.0 auch vollkommen außreichend. Aber es wird jedes Mal Gebetsmühlenartig von 24x 3.0 PCI Express am DMI gefaselt plus eben die 16 Lanes von der CPU. Diesen Schwachsinn liest man hier leider häufig genug.
Und ja, der DMI 3.0 kann zu Schwachstelle werden, wenn die Boardherrsteller scheiße bauen und z.B zwei M.2 Slots über das DMI abklemmen und man dann mit einer Thunderbolt 3 SSD kopieren will. Das ist ein ähnlicher Fall wie ein Quad SLI und dann nur ne Verteilung von 16/8/8/8 Lanes.

Generell begrüße ich eine Nutzung des DMI aka Southbridge. Die dynamische Laneverteilung ist tausendmal besser als die Statische Aufteilung der CPU Lanes.

Ich habe nur daraufhin gewiesen, dass das DMI zum Problem werden kann, nicht muss. AMD baut auf das gleiche System wie Intel also gleiche Probleme. Ich hätte mir eher ein DMI mit 8x 3.0 PCIExpress Lanes gewünscht, aber ist ja nicht möglich bei nur 20 Lanes von der CPU.
 
Seit Skylake hängen die Boardhersteller die M.2 Slot an die PCIe Lanes des Chipsatzes, auch mal 2 oder mehr, aber mit Scheiße bauen hat das trotzdem nichts zu tun. Erstens kann man nur am Chipsatz ein RAID mit den SSDs machen, dafür musste Intel auch einen Trick anwenden und es ist auf den IntelRST Treiber limitiert, aber sonst würde einem nur ein SW RAID bleiben. Zweitens werden nur wenige User wirklich ein RAID 0 mit zwei oder noch mehr PCIe SSDs realisieren, denn es macht meist mehr Sinn für Anwendungen wie Videoschnitt auf Rohmaterial Quelle und Ziel auf getrennten SSDs zu halten wo die eine dann nur liest und die anderen nur schreibt als beide in ein RAID zu packen und beiden SSD gemischte Lese- und Schreibzugriffe zuzumuten, denn dabei sind SSD in aller Regel deutlich langsamer als wenn sie nur Lesen oder nur Schreiben müssen.

Wenn sich die 24 PCIe Lanes (plus USB und SATA Ports) des Chipsatzes die 4 Lanes der DMI Anbindung teilen müssen, dann ist da natürlich ein Flaschenhals vorhanden und wäre DMI mit 8 PCIe Lanes doppelt so breit, wäre der weiter, aber außer wenn man ein RAID 0 mit wirklich schnellen PCIe SSDs baut, wird man das kaum jemals merken und selbst bei dem RAID 0 mit 2 SSDs fällt es vor allem Lesend auf, schreibend sind selbst die schnellsten M.2 PCIe Consumer SSDs bisher ja nicht so schnell und durch ein RAID gibt es auch etwas Verlust gegenüber der Leistung des einzelnen Laufwerks. Nur wo sollten die Daten dann so schnell abgeliefert werden, dass es abseits der Benchmark praktisch relevant wäre, dass die Lesegeschwindigkeit so eines RAID 0 dann eben durch DMI3 begrenzt wird? Man muss sich die Dimension mal klar machen, bei 3,2GB/s kann man 32GB RAM in 10 Sekunden übertragen!
 
D708 schrieb:
Nein genau deshalb halte ich das DMI 3.0 auch vollkommen außreichend. Aber es wird jedes Mal Gebetsmühlenartig von 24x 3.0 PCI Express am DMI gefaselt plus eben die 16 Lanes von der CPU. Diesen Schwachsinn liest man hier leider häufig genug.
Was soll daran Schwachsinn sein? Klar muss man beachten wo die herkommen, aber sie sind trotzdem vorhanden und sinnvoll. Man kann natürlich auch seine SSDs on the fly durchtauschen wenn man andere Daten benötigt. Ging ja früher mit den Disketten auch...
Es ist doch vollkommen ausreichend mehrere Geräte gleichzeitg nutzen aber nicht alle gleichzeitig voll auslasten zu können.
Vor allem weiß ich gar nicht was das hier zu suchen hat. Die CPU hat den Gerüchten nach zusätzlich 44 PCIe Lanes.
Aber nein der GreatEvil will seine Maus nur an einem USB-Anschluss direkt an der CPU anschließen. Zum totlachen.
 
Die Sache ist nur, dass die Speichergeschwindigkeit(so nen ich sie einfach mal) in den letzten Jahren richtig an Fahrt aufgenommen hat.
Nur als Betonung, ich finde das DMI 3.0 nicht schlecht doch hätte ich für die Enthusiasten mehr als den gleich DMI im Mainstream erwartet. Vorallem weil die Highend Sockel auch wieder 2 Gens Tragen werden(vielleicht auch 3). Mit Coffeelake wird wahrscheinlich auch der DMI 4.0 released. Dann schnuffelt x299 wieder hinterher.
Ganz nebenbei kann man auch Raidverbünde ohne DMI verwirklichen. Einfach nen Raidcobtroller dazwischen pappen. Was bei PCIEX Steckkarten klappt, geht auch vor einem M.2 Slot. Möglichkeiten den M.2 Direkt an die CPU zu bringen wäre da.

@Bensen
Nein es geht um das DMI 3.0. es ist genau dasselbe wie in den z170 boards oder in den neuen x299 boards. Und es sind und bleiben 4 3.0 PCIEX Lanes.
Wenn man nen 4Fach USB Switch in nen USB Port Klemme, vergrößert das nicht die Bandbreite. Und ob das Switch 4 oder 4000 Ports hat, ist irrelevant. Die Intel Angabe 24Lanes des DMI 3.0 kann man sich in die Haare schmieren.
 
Zuletzt bearbeitet:
D708 schrieb:
Die Intel Angabe 24Lanes des DMI 3.0 kann man sich in die Haare schmieren.
Hä? Wo geben sie denn an der DMI wäre 24 Lanes breit? Der PCH hat bis zu 24 PCIe Lanes. Und angebunden über 4 Lanes mit der CPU. Das ist korrekt angegeben und auch sinnvoll so.

Wenn man nen 4Fach USB Switch in nen USB Port Klemme, vergrößert das nicht die Bandbreite. Und ob das Switch 4 oder 4000 Ports hat, ist irrelevant
Nein das ist nicht irrelevant. Ich kann eben mehrere Geräte anschließen. Der Vorteil liegt klar auf der Hand. Natürlich erhöht sich der maximale Durchsatz nicht. behauptet ja auch niemand. Nur hat man trotzdem die entsprechende Anzahl an Lanes.
Dein Beispiel ist auch gerade sehr nett. Ich habe noch niemanden gehört der sagt sein Z97-Board hätte nur 2 USB-Ports. Ein USB-Controller kann nämlich auch nicht alle USB-Ports gleichzeitig mit maximalem Durchsatz füttern. Käme aber keiner auf die Idee nur die Ports zu zählen die auch gleichzeitg maximal befeuert werden können.
 
D708 schrieb:
Mit Coffeelake wird wahrscheinlich auch der DMI 4.0 released.
Wie kommst Du darau? Nach der bisherigen Vorgehensweise wäre DMI4 dann PCIe 4.0 x4, aber PCIe 4.0 ist immer noch nicht einmal finale spezifiziert worden und dann wird es wohl wie PCIe 3.0 zuerst für die Lanes der CPU kommen, das war bei Ivy Bridge der Fall und dann für die Anbindung und die Lanes des Chipsatzes, was bei PCIe 3.0 erst mit Skylake passiert ist, also 3 Generationen später! Das Coffee Lake überhaupt PCIe 4.0 bekommt, halt ich für unwahrscheinlich, denn es dürfte die gleiche Technik wie Skylake und Kaby Lake sein, nur mit einer noch einmal verbesserten 14nm Fertigung und mehr Kernen beim Spitzenmodell für den Mainstream.
D708 schrieb:
Dann schnuffelt x299 wieder hinterher.
Das dürfte passieren, aber da die CPUs für den großen Sockel eigentlich genug PCIe Lanes haben, dürfte dies egal sein, da nur Heimanwender die I/O Ports des Chipsatzes wirklich intensiv nutzen.
D708 schrieb:
Ganz nebenbei kann man auch Raidverbünde ohne DMI verwirklichen. Einfach nen Raidcobtroller dazwischen pappen.
Und welchen bitte? Mit ist kein RAID Controller für PCIe SSDs bekannt und SAS verwendet zwar auch SFF-8643 als Anschluss für die LW auf der karte genau wie U.2, aber da liegen andere Signale an mit denen eine U.2 SSD nichts anfangen kann. RAID Karten für M.2 PCIe SSDs wie das HP Z Turbo Quad haben nur eine PCIe Lanes Switch (PLX Chip) um die PCI2 Lanes des Solts aufzuteilen und so mehrere SSDs physikalisch in einem Slot betreiben zu können, die RAID Funktion geht da nur per SW "because software RAID is used"
D708 schrieb:
Was bei PCIEX Steckkarten klappt, geht auch vor einem M.2 Slot. Möglichkeiten den M.2 Direkt an die CPU zu bringen wäre da.
Natürlich, dies bestreitet ja auch niemand, mit einem X99er Board welches 4 Slots mit PCIe Lanes der CPU hat, 4 solchen M.2 PCIe Slot Adaptern und 4 M.2 PCIe SSDs kannst Du Dir das gleich nachbauen was auch ein HP Z Turbo Quad macht. Nur gelten da eben auch die gleichen Restruktionen die HP nennt:
Das dürfte nicht jedem gefallen und diese Einschränkung des Windows SW RAIDs hat eben Intel mit dem Chipsatz-RAID über RST auch für PCIe SSDs aufgehoben.

D708 schrieb:
Nein es geht um das DMI 3.0. es ist genau dasselbe wie in den z170 boards oder in den neuen x299 boards. Und es sind und bleiben 4 3.0 PCIEX Lanes.
Womit etwas über 3GB/s pro Richtung und das gleichzeitig übertragen werden können, was so wenig nicht ist.

D708 schrieb:
Wenn man nen 4Fach USB Switch in nen USB Port Klemme, vergrößert das nicht die Bandbreite. Und ob das Switch 4 oder 4000 Ports hat, ist irrelevant. Die Intel Angabe 24Lanes des DMI 3.0 kann man sich in die Haare schmieren.
Wenn das so daneben ist weile es eben unbestritten die Bandbreite nicht erhöht, wieso kaufen Leute dann überhaupt USB Switches oder auch SAS Expander, da ist es ja nicht anderes? Eben, weil sie mehr Geräte auch einmal anschließen können und nicht umstecken müssen, außerdem reicht die Bandbreite meist auch aus um mehr als ein Geräte auf einmal zu nutzen, selbst wenn sie nicht reichen würde um alle Geräte auf einmal zu nutzen, aber wer hat denn schon z.B. 4 HDDs an einem USB Hub und kopiert mit allen 4 gleichzeitig Daten? Das ist wohl eher die Ausnahme und wenn, dann gibt es spätestens beim Kopieren von der oder auf die gleiche HDD sowieso wegen der damit verbundenen Kopfbewegungen einen deutlichen Performanceeinbruch.

Man kann immer Fälle konstruieren wo auch DMI3 limitiert, aber außer bei einem RAID 0 mit PCIe SSDs sehe ich keine Fall, der dann nicht auch zumindest für die Nutzung von Heimanwendern wirklich konstruiert wirken würde. Aber wer sowas wirklich hat und wirklich darunter leidet, der muss dies eben bei der Auswahl und Konfiguration der HW berücksichtigen und dann ggf. eben die M.2 SSD in einem Slot Adapter in einem PCIe Slot mit Lanes der CPU packen, statt in den M.2 Slot auf dem Board der an PCIe Lanes vom Chipsatz hängt. Gerade mit einem Skylake-X mit 44 PCIe Lanes sollte das doch wohl möglich sein.
 
bensen schrieb:
Hä? Wo geben sie denn an der DMI wäre 24 Lanes breit? Der PCH hat bis zu 24 PCIe Lanes. Und angebunden über 4 Lanes mit der CPU. Das ist korrekt angegeben und auch sinnvoll so.
Ich habe nie behauptet, dass Intel bei der Angabe PCH(Southbridge) 24 Lanes gelogen hat. Der Wert stimmt schon, ist aber dennoch ne Marketing Zahl. Wenn die Bandbreite des DMI voll ist, nützt es nichts, wenn die Southbridge noch Bandbreiten Kapazität hat und damit komme ich auf den Ursprung dieser "Auseinandersetzung".

CPU 44 Lanes
DMI 4 Lanes
PCH 24 Lanes

Damit ist doch wohl rein objektiv, ob man die Bandbreite braucht oder nicht, ganz klar, dass das DMI ein Nadelöhr ist. Und ich hätte mir gewünscht, diese Lücke kleiner zu machen.

Und zum Abschluss nocheinmal. Das DMI ist mir im Mainstream nicht zu klein. Aber auf einer Plattform, bei der man locker 200€ mehr zahlt, mit dem gleichen "Gelumpe" abgespeist zu werden, finde ich unnötig. Vorallem da das PCH deutlich mehr I/O Anschlüsse bekommt als im Mainstream.

Es ist wie bei der Apple Werbung für das neue MacBook Pro. "Jeder USB-3 Anschluss hat Thunderbolt 3 Bandbreite", aber nicht alle aufeinmal.
 
Eine sehr effiziente Lösung könnte doch sein, auf einer Highend-CPU 2x DMI zu realisieren. Damit hat man Anzahl der IOs und Bandbreite gegenüber dem "Mainstream" verdoppelt. Und man hat keinen Entwicklungsaufwand für einen "Highend"-PCH. Und ich könnte mir auch vorstellen, das es einfacher ist , in einem ersten Schritt zur Einführung von PCIe-4.0 nur DMI auf PCIe-4.0 Technologie umzustellen, da dabei auftretende Probleme hausintern gelöst werden können.
 
D708 schrieb:
Ich habe nie behauptet, dass Intel bei der Angabe PCH(Southbridge) 24 Lanes gelogen hat. Der Wert stimmt schon, ist aber dennoch ne Marketing Zahl. Wenn die Bandbreite des DMI voll ist, nützt es nichts, wenn die Southbridge noch Bandbreiten Kapazität hat und damit komme ich auf den Ursprung dieser "Auseinandersetzung".
Natürlich bringt es dir was. Du kannst mehrere Sachen gleichzeitig anschließen. Du würdest also lieber immer an den Rechner die nächste SSD einbauen, weil du wieder auf andere Daten zugreifen willst.
Damit ist doch wohl rein objektiv, ob man die Bandbreite braucht oder nicht, ganz klar, dass das DMI ein Nadelöhr ist.
Ja klar ist es das. Aber praktisch von 0 Relevanz.
Und zum Abschluss nocheinmal. Das DMI ist mir im Mainstream nicht zu klein.
Ach was. Und deswegen sind mehr als 4 PCIe Lanes am PCH nur Marketing?
Auf den anderen Plattformen ist doch noch egaler als im Mainstream. Nimm doch einfach eine der 44 anderen Lanes. Wo ist das Problem? Du kannst SSDs alle an die CPU pappen. Und was für Anschlüsse soll denn der X299 mehr bekommen? Ein paar SATA? Gegenüber 24 PCIe-Lanes alles zu vernachlässigen. Und wer mir hier kommt für USB und SATA reichen knapp 4 GB/s nicht, hat den Schuß nicht gehört.
 
D708 schrieb:
Wenn die Bandbreite des DMI voll ist, nützt es nichts, wenn die Southbridge noch Bandbreiten Kapazität hat und damit komme ich auf den Ursprung dieser "Auseinandersetzung".
Nur sind Situationen bei denen das passieren könnte, eben seht konstruiert!

D708 schrieb:
Vorallem da das PCH deutlich mehr I/O Anschlüsse bekommt als im Mainstream.
Zwei zusätzliche SATA Ports kann man wohl erwarten, die hat aber selbst der C236 schon und wahrscheinlich sind X299 und Z270 am Ende das gleiche Die und künftig alle Chipsätze technisch identisch und werden nur eben unterschiedliche Funktionen beschnitten.
 
bensen schrieb:
Ach was. Und deswegen sind mehr als 4 PCIe Lanes am PCH nur Marketing?
Auf den anderen Plattformen ist doch noch egaler als im Mainstream. Nimm doch einfach eine der 44 anderen Lanes. Wo ist das Problem? Du kannst SSDs alle an die CPU pappen. Und was für Anschlüsse soll denn der X299 mehr bekommen? Ein paar SATA? Gegenüber 24 PCIe-Lanes alles zu vernachlässigen. Und wer mir hier kommt für USB und SATA reichen knapp 4 GB/s nicht, hat den Schuß nicht gehört.
Das Problem ist, ich würde mir gerne andere Lanes nehmen aber nicht jeder Mainboardhersteller macht die Angabe, ob das PCh für den M.2 Slot gebraucht wird oder es direkt an der CPU ist. Klar kann man mit PCI Steckkarten arbeiten, aber ab 2x M.2 Slots übers DMI können Probleme auftauchen. Gerade im Enthusiastenmarkt kommt es häufiger vor, dass mehrere M.2 SSDs verbaut werden. Ob im RAID oder nicht, sobald beide angesprochen werden verliert man Leistung. Mit nem 2Fachrn DMI 3.0 würde das nicht passieren, bzw. würde ich mich über 3x M.2 Slots auf nem Mainboard wundern.

Und die 24 Lanes sind eine Marketingzahl. Die könnten auch 44 Lanes hinschreiben. Das DMI spielt die Musik. Die PCH ist nur eine weiterer Verteiler. Bei alten AM3 Bretter wurden an die Southbridge auch nur zusätzliche Controller genagelt. Ob es 24 Lanes oder 44 Lanes sind spielt keine Rolle. Das PCH könnte auch einfach 4Lanes breit sein und danach würde einfach Controller kommen. Es gibt auch Boards mit x99 die mehr als 10 SATA Schnittstellen haben.(oder mehr USB Ports). Die werden auch nicht von dem PCH Supportet sondern über weitere Controller gemanagt. Für mich ist Die Breite des PCH Interface nebensächlich.
Ergänzung ()

Zum Ende Zitiere ich noch mal den eigentlich Post.
oldmanhunting schrieb:
Der @GreatEvil wird uns und jedem anderen auch weiterhin erzählen dass DMI 3 ein Nadelöhr ist aber begründen kann er das nicht und sowieso ist bei AMD alles besser.
Das DMI 3.0 ist ein Nadelöhr. Ob es relevant ist, würde ich eher mit nein antworten. Aber die Bezeichnung Nadelöhr ist vollkommen korrekt.
Wenn man auf der einen Seite 44 Lanes hat und auf der anderen 24 Lanes, sind 4Lanes ein Hindernis.
AMD macht es nicht Besser.
 
Zuletzt bearbeitet:
Nadelöhr (Begriffsklärung) Wiki:
- eine kapazitätslimitierende Verengung im Straßenverkehr, die häufig zu einem Verkehrsstau führt.

Wo kein Stau da kein Nadelöhr.

Die Aussage vom @GreatEvil war: und der Rest, inklusiver alle USB Anschluesse wird durch das Nadeloehr DMI gestopft???
Das mußte dem Leser, der sich nicht mit DMI 3 auskennt und einen ganz normalen Zocker Rechner hat einfach erklärt werden, dass hier nichts gestopft wird und er sich keine Sorgen machen muß. Nicht mehr und nicht weniger.

Anyhow, ich bin hier raus, weil irgendwann ist es mir auch zu dumm.
 
D708 schrieb:
aber nicht jeder Mainboardhersteller macht die Angabe, ob das PCh für den M.2 Slot gebraucht wird oder es direkt an der CPU ist.
Das kann man doch anhand der Angaben im Handbuch was zusammen genutzt werden kann oder was eben nicht geht wie dies so oder so genutzt wird, selbst ermitteln. Etwas Ahnung vom den CPUs und Chipsätzen muss man aber schon haben.
 
D708 schrieb:
Das PCH könnte auch einfach 4Lanes breit sein und danach würde einfach Controller kommen. Es gibt auch Boards mit x99 die mehr als 10 SATA Schnittstellen haben.(oder mehr USB Ports). Die werden auch nicht von dem PCH Supportet sondern über weitere Controller gemanagt. Für mich ist Die Breite des PCH Interface nebensächlich.
Und wo willlst du die Controller "drannageln" wenn du kein PCIe Lanes hast? Sicher ist der PCH mehr oder weniger ein Verteiler. Aber wo ist jetzt der Vorteil wenn du alles extern löst? Warum nicht in einem Chip?
Das macht doch gar keinen Sinn alles extern aufzusplittern, dann läufst du ja noch eher in Limitierungen.
 
Zurück
Oben