News Core X: Intel spezifiziert die fehlenden Skylake-X alias Core i9

@Krautmaster
Die Lanes vom Chipsatz sind dennoch nie ein vollwertiger Ersatz für die in der CPU denn man kann nie die volle Bandbreite nutzen und dürfte mit der maximalen Übertragungsrate unterhalb der von 4 PCIe Lanes bleiben. Es müssen sich schließlich alle Geräte den Flaschenhals teilen.
Zudem, wenn es ja so ein Unding ist Grafikkarten an den Chipsatz zu hängen, wofür willst du die Lanes dann sonst verwenden die hier so schön mit denen der CPU zusammen addiert werden?
 
Krautmaster schrieb:
Ergänzung ()

Hat eigentlich mal jemand getestet ob so eine CPU überhaupt simultane Datenrate auf jedem PCIe Lane bereitstellen kann? Schon mal dran gedacht dass intern vielleicht auch nur ein PCIe Switch oder anderer Flaschenhals existiert?

Kann ein i5 / Ryzen 40Gbyte /s über PCIe verarbeiten? Ein Threadripper ~128 Gbyte /s.

vergiss es , sonst würden nicht bis zu 6 Radeon Instinct an nen Epyc gekoppelt und könnten ihre Leistung entfalten , runtergerechnet auf TR , wären es immer noch 3 ...

Mit PCIe 4.0 werden es künftig noch höhere Transferraten werden , externe SSD s werden Standard werden , weil unempfindlich und quasi unkaputtbar , das gleiche gilt für USB 3.1 Sticks mit 10 gbit . Auch ist NAS im Heimnetzwerk nichts ungewöhnliches mehr , sagt was ihr wollt , 32 mbit von DMI 3.0 sind nicht viel .... mittlerweile grade mal die 3 fache USB 3.1 Geschwindigkeit und TB3 Anhängern sind diese 10 gbit immer noch zu langsam ...

nebenbei , mittlerweile gibt's schon USB 3.2 = 20 Gbit ... = DMI 3.0 mit einem USB 3.2 schon zu 60 % ausgelastet ... https://www.computerbase.de/2017-07/usb-3.2-entwurf-20-gbps/

@Krautmaster

10 GByte sind nicht viel , zb. nen 4k Video , nicht als h265 komprimiert , hat wieviel GB ?
 
Krautmaster schrieb:
Es geht schlicht darum dass das Thema oft total überdreht wird. Das mag bei dem µATX Board stimmen (ist übrigens aber bei ATX B350 eben genauso ) - aber wie ich finde noch viel massiver in der Diskussion in wie fern der DMI im Privatbereich oder selbst bei HEDT einen ausbremst. :rolleyes:

Das Thema ist halt eine weiterere Patrone im Lauf der Intel AMD Fraktionen. Das stört mich soweit nicht. Es mag sogar sein das B350 entweder 6 x SATA oder 4x SATA + M2 bietet (also effektiv n-1 Laufwerke) Wen das aber stören sollte der greift zum X370 und hat seine Ruhe (bei meinem ehemaligen AB350 steht übrigens nichts dergleichen im Manual). Mein mITX bietet sowieso nur 4xSATA + M2 (reicht auch).

Wichtig ist aus meiner Sicht, und da mögen sich die Geister scheiden, dass ich auf dem Top End Produkt (HEDT) keine Einschränkungen mehr erfahre, weil was besseres kann ich mir nicht kaufen. Wenn da die Plattform hakt, dann is halt doof. Siehst du nicht so?

BTW, Glückwunsch zu 17k Beiträgen :-) Nein... das ist noch nicht pathologisch, keine Sorge.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
geht um die AVX Performance.
Anhang anzeigen 636686
Der Anhang ist ungültig und bzgl. der Nutzung der neuen Möglichkeiten mit AVX512 muss sicher noch einiges an SW Optimierung durchgeführt werden, aber Slylake-X ist ja auch noch brandneu und bisher konnten nur die exotischen Xeon-Phi überhaupt AVX512, die aber unterstützen ein andere Subsets. Bei y-cruncher steht ja auch: "Memory bandwidth is a significant bottleneck" Da muss man die Algorithmen also so wählen, dass die Daten besser in die Caches passen.
Krautmaster schrieb:
Wenn man sich das vor Augen führt wird auch klar weshalb man bei gleichem Takt bei AVX so satt mehr Saft zieht.
Wenn man mit AVX praktisch den gleichen Takt anlegt, ist das ein Fehler bzw. Übertaktung und übertaktete CPUs brauchen viel mehr Saft und verlieren massiv an Effizienz, was aber eigentlich jedem klar sein sollte.

Wadenbeisser schrieb:
Das bedeutet lediglich das gleichzeitig Daten gesendet und empfangen werden können und ändert nichts an der verfügbaren Bandbreite. Fordern mehrer Geräte gleichzeitig Daten an müssen sie sich dennoch den Flaschenhals teilen.
Klar, aber dies ist doch nur ein Problem wenn mehrere Geräte in die gleiche Richtung gleichzeitig mehr Daten übertragen wollen als DMI3 erlaubt. Beim Kopieren von einer SSD auf die andere oder von/auf einen Netzwerk oder Storagecontroller werden die Daten aber von dem einen gelesen, gehen also zur CPU und auf den Anderen geschrieben, gehen also von der CPU zurück an den Chipsatz. Damit würde der Kopiervorgang mit so etwa bis zu 3500MB/s möglich sein und welche Geräte schaffen es Daten noch schneller zu liefern bzw. aufzunehmen? Eben, praktisch keine, außer eben einem RAID von PCIe SSDs!

Wadenbeisser schrieb:
Die Lanes vom Chipsatz sind dennoch nie ein vollwertiger Ersatz für die in der CPU denn man kann nie die volle Bandbreite nutzen
Man kann maximal die Brandbreite von DMI3 nutzen, was technisch PCIe 3.0 x4 ist. Erst wenn mehrere Geräte Daten in die gleiche Richtung übertragen und dies zusammen mehr sind als die DMI Bandbreite von etwa so 3500MB/s je Richtung, dann wird es auch praktisch zum Flaschenhals.
Wadenbeisser schrieb:
dürfte mit der maximalen Übertragungsrate unterhalb der von 4 PCIe Lanes bleiben.
Wieso sollte sie unterhalb bleiben? Reviews mit RAID 0 am Chipsatz zeigen dies so nicht, sondern eine volle Auslastung der Bandbreite, nur wird die Übertragungsrate eben nicht noch höher gehen können. Aber RAID 0 mit PCIe SSDs sind doch eher die Ausnahme und was für Benchmarkfreaks, die können diese ja nun bei Skylake auch an den PCIe Lanes der CPU realisieren, was bei AMD nicht geht, da bleibt nur die Möglichkeit ein SW RAID zu bauen, wie übrigens bei allen anderen Herstellern auch. Nur Intel bietet überhaupt die Möglichkeit RAIDs von PCIe SSDs außerhalb von SW RAID zu realisieren an.
Wadenbeisser schrieb:
wenn es ja so ein Unding ist Grafikkarten an den Chipsatz zu hängen, wofür willst du die Lanes dann sonst verwenden die hier so schön mit denen der CPU zusammen addiert werden?
Hängst Du nur Grakas an PCIe Lanes? Wieso argumentierst Du dann mit SSD und Netzwerkkarten?
 
@ Holt
Wenn du 20 Geräte an eine Steckdose hängst, wie hoch ist dann die Warscheinlichkeit dass sie überlastet wird?

Zudem kann jedes Gerät im und am Chipsatz Daten mit der CPU oder dem RAM austauschen, wie hoch ist die Warscheinlichkeit das bei der Anzahl der möglichen Überträger kein anderes Gerät Daten austauschen will?

Zudem, was ist der letzte Punkt für ein witzloses Argument?
Willst du damit ausdrücken das Intels Chipsatz Lösung gleichwertig ist weil mehr als sagen wir 24 Lanes (16 Grafikkarte, 4 SSD, 4 Chipsatz) ohnehin nutzlos wären?
 
MK one schrieb:
Mit PCIe 4.0 werden es künftig noch höhere Transferraten werden
.....
32 mbit von DMI 3.0 sind nicht viel ....

Mit PCIe 4.0 wird auch DMI 4.0 kommen.

Trotzdem ist die Diskussion müßig. Selbst die 4GB/s muss man erst einmal in einer Realworld Anwendung auslasten können.

Mehr Lanes sind immer besser. Mehr Lanes nur um mehr Lanes zu haben machen aber auch keinen Sinn. Du kannst auf der Intel Plattform auch gerne 200 Lanes haben mit einem entsprechenden Server- oder Workstationsystem. Die Frage ist, welcher Anteil an potentieller Käufer einer Plattform, werden von dem potentiellen Flaschenhals am Kauf einer Plattform gehindert?

Wer meint er braucht 64 Lanes, soll doch gerne zu AMD greifen. Sich irgendwelche unrealistischen Anwendungsszenarien aus der Nase zu ziehen, um diese Entscheidung zu begründen braucht man aber nicht wirklich.

Da kann ich mich auch darüber beschweren wieso ich keine 2TB Speicher einbauen kann. Es gibt genug Anwendungen die davon mehr profitieren würden also von ein paar PCIe Lanes. Speicher kann man nie genug haben! (Ist genauso lächerlich)
 
Zuletzt bearbeitet:
xexex schrieb:
Wer meint er braucht 64 Lanes, soll doch gerne zu AMD greifen. Sich irgendwelche unrealistischen Anwendungsszenarien aus der Nase zu ziehen, um diese Entscheidung zu begründen braucht man aber nicht wirklich.


Ja zu viele PCIe Lanes zu haben ist echt furchtbar, vor allem wenn sie bei einer günstigen CPU dabei sind.:D
 
IBISXI schrieb:
Ja zu viele PCIe Lanes zu haben ist echt furchtbar, vor allem wenn sie bei einer günstigen CPU dabei sind.:D

Ist es nicht! Daraus einen Schwanzlängenvergleich in jedem Thread zu machen aber schon! Ob das Ding nun 25 oder 30cm lang ist, ab einer gewissen Größe ist das "Anwendungsszenario" nur noch gering! :evillol:
 
Zuletzt bearbeitet:
Mehr ist nun mal besser.
Ob es jetzt jeder braucht oder nicht...
Schaden wird es auch nicht.
 
MK one schrieb:
@Krautmaster

10 GByte sind nicht viel , zb. nen 4k Video , nicht als h265 komprimiert , hat wieviel GB ?

ich finde 10 GByte / s schon recht viel. ^^

Weiß ja nicht wie oft du von nem M.2 SSD Raid an CPU auf dein M.2 SSD Raid an dem Chipsatz mit ~7GB/s (was so ne power SSD im Raid 0 vllt schaffen könne) kopierst.

Scheint ja ein richtiges Problem zu sein. Bei SLX muss also selbst mit 28 Lanes schon echt viel zutreffen dass es ein Limit wird. Multi GPU hatte ich genannt, da dann 8+8. Da ist es die Anzahl die suckt. Aber Bandbreite? Man muss ein M.2 SSD Raid 0 an der CPU betreiben und ein Laufwerk das >3.5 Gb/s wegschreiben kann am Chipsatz + nen UseCase dafür haben.

Das Internet ist ja regelrecht voll von Leuten die darüber abkotzen.

Wadenbeisser schrieb:
@Krautmaster
Die Lanes vom Chipsatz sind dennoch nie ein vollwertiger Ersatz für die in der CPU denn man kann nie die volle Bandbreite nutzen und dürfte mit der maximalen Übertragungsrate unterhalb der von 4 PCIe Lanes bleiben.

du willst also sagen dass sie in 99,9% der Fälle also doch vollwertiger Ersatz sind?

Zudem, wenn es ja so ein Unding ist Grafikkarten an den Chipsatz zu hängen, wofür willst du die Lanes dann sonst verwenden die hier so schön mit denen der CPU zusammen addiert werden?

schön dass du offensichtlich auch nicht weißt für was du sie verwenden willst - außer der GPU natürlich.

Wie ich schon schreib. Klar ist der potentielle Flaschenhals da. Genau wie die Möglichkeit dass mir vielleicht 32 SATA Ports privat nicht ausreichen. Wenn man von den X mehr CPU PCIe Lanes von Theradripper profitiert... dann muss man ganz klar da zuschlagen.

@Ned Flanders

die Einschränkung ist relativ. Wenn SLX nun 80 PCIe Lanes hätte, wären dann die 64 Lanes von TR eine Einschränkung?

Vielleicht müsste man mal via Aida ne Statistik abrufen wer wie viele Lanes nutzt.
Ergänzung ()

IBISXI schrieb:
Mehr ist nun mal besser.
Ob es jetzt jeder braucht oder nicht...
Schaden wird es auch nicht.

und wer hat mehr Lanes? zB bei der AM4 / 1151 Plattform?

Was genau ist nun das Problem? Der Fakt dass ein Teil der Lanes sich die 4 Lanes des DMI sharen müssen oder die Anzahl der Lanes selbst?
 
Zuletzt bearbeitet:
xexex schrieb:
.

Da kann ich mich auch darüber beschweren wieso ich keine 2TB Speicher einbauen kann. Es gibt genug Anwendungen die davon mehr profitieren würden also von ein paar PCIe Lanes. Speicher kann man nie genug haben! (Ist genauso lächerlich)

sieht man mal wieder, das dein Horizont etwas begrenzt ist ... , wenn nicht so schweineteuer wäre würd ich mir sofort nen Rechner mit 1 TB Ram holen ..

schon mal was von Ram Disk gehört ? https://www.netzwelt.de/ssd/159476-ram-disk-tool-schont-ssd-beschleunigt-system.html

schneller als jede SSD ... ramdisk-benchjpg-202345.jpg

Je schneller der Ram desto schneller die Ramdisk
 
xexex schrieb:
Da kann ich mich auch darüber beschweren wieso ich keine 2TB Speicher einbauen kann. Es gibt genug Anwendungen die davon mehr profitieren würden also von ein paar PCIe Lanes. Speicher kann man nie genug haben! (Ist genauso lächerlich)

true ^^

@MK one

Du hast den Vergleich glaub nicht kapiert. Es geht darum sich über was auszulassen was etwa die Marktrelevanz von vergolten Lamborghinis hat.

Am besten ist es man betreibt 10 M.2 SSDs a 128GB mit je ~4 Gb/s im Raid 0 an den 64 Threadripper Lanes und füllt daraus seine 1 TB Hauptspeicher. Sonst dauert es ja auch ewig die Ram Disk zu laden / speichern.
Dank 40Gb/s geht dass dann immerhin in 25s.


Edit: Anderes Beispiel. ich hätte damals zig AM1 Bretter als kleine sparsame Nas Plattform verbaut wenn sie ~6 Sata geboten hätten (nicht nur 2). Die Bandbreite von 2x SATA III hätte mir dabei üppig ausgereicht.
Erfüllt das Angebotene eben die eigenen Voraussetzungen kauft man was anderes.

Reichen die CPU Lanes von SLX nicht aus kauft man halt TR. Reicht das nicht kauft man zB Epyc.
 
Zuletzt bearbeitet:
@Krautmaster: Willst Du etwa damit sagen mein vergoldeter Lamborghini hat keine Relevanz? ;-) verdammt!
 
ah ja .. "Speicher kann man nie genug haben! (Ist genauso lächerlich) " , steht das da oder nicht ?

das mehr Arbeitsspeicher nützlich ist steht außer Frage , aber befüll mal einen 1 TB Arbeitsspeicher mir 4 GByte/ sec .... , da geht aber Eieruhr nen paarmal rum ... , selbst mit "nur" 128 GB sind es schon 30 sec

Ihr könnt behaupten was ihr wollt , CPU Lanes sind besser als reine Chipsatz Lanes , und oh Wunder , der Ryzen und TR hat ebenfalls 4 Lanes von Chipsatz zur CPU (bei Intel DMI 3.0 genannt ) und realisiert zusätzliche 3.0 und 2.0 Lanes zu den reinen CPU Lanes
 
MK one schrieb:
sieht man mal wieder, das dein Horizont etwas begrenzt ist ... , wenn nicht so schweineteuer wäre würd ich mir sofort nen Rechner mit 1 TB Ram holen ..

Es geht darum ein Produkt entsprechend der Anwendungsszenarien zu gestalten. 2TB RAM machen bei Servern Sinn, deshalb können Server-CPUs auch so viel adressieren und deshalb gibt es auch durchaus bezahlbare Boards die so viel Speicher aufnehmen könnten.

Es hat aber bei einer HEDT Plattform, die nicht einmal für den professionellen Einsatz gedacht ist keine Relevanz. Am Ende zählt nur welchen Mehrwert etwas hat und ob ich davon irgendwie profitieren kann. Wenn der Unterschied zwischen 2 Grafikkarten die per x16 angebunden sind und zwei die per x8 angebunden sind nur maximal 5% beträgt, ist es für 99,999% der Kunden irrelevant und mit jeder möglichen Grafikkarte wird der Gegenwert geringer. Der Rest kommt vermutlich selbst mit 64 Lanes nicht weit und/oder kann so ein System leisten.
https://www.supermicro.com/products/system/4U/4028/SYS-4028GR-TR.cfm

Das gleiche gilt eben für den Speicher, Anzahl der Kerne, Stromverbrauch usw.

Es gibt heutzutage fast nichts was es nicht gibt und einen Flaschenhals wird es immer geben. Die Frage ist welcher Flaschenhals entscheidend ist und nicht was möglich wäre.

MK one schrieb:
ah ja .. "Speicher kann man nie genug haben! (Ist genauso lächerlich) " , steht das da oder nicht ?

Es steht da. Weil es eben genauso wie 44 Lanes(+Chipsatz) ein für diese Plattform recht unrealistischer und nicht praxisrelevanter Flaschenhals ist und es wäre lächerlich darüber zu diskutieren. Brauche ich mehr Speicher, hole ich mir eine Dual CPU WS mit entsprechenden ECC Speicher und hab dann auch gleich doppelt so viele PCIe Lanes zur Verfügung.

Hier vergessen anscheinend einige, dass die HEDT Plattform weder bei Intel noch bei AMD die Spitze des Eisbergs darstellt. Die Pros werden bei AMD noch mit Epyc bedient und Intel hat dafür ihre Xeons.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
die Einschränkung ist relativ. Wenn SLX nun 80 PCIe Lanes hätte, wären dann die 64 Lanes von TR eine Einschränkung
?

Wenn ich damit Arrma3 Spielen will nicht. Wenn ich damit arbeiten will auf jeden Fall. Schlicht weil ich keine 4 oder 5 CUDA karten full speed in die kiste bekomme. Nur mal so als Nummer: ein Zeiss Lightsheet Z1 nimmt pro session grob 4 TB an Daten auf. Die müssen nicht nur verrechnet sondern auch verschoben werden. Wenn ich da eine 10gb Karte habe ist das gut, aber auch nicht das Ende dessen was ich mir vorstellen kann.

Und für office oder Arma brauch ich so ne kiste nicht.
Ergänzung ()

MK one schrieb:
Ihr könnt behaupten was ihr wollt , CPU Lanes sind besser als reine Chipsatz Lanes

Selbstverständlich sind sie das.

xexex schrieb:
Es hat aber bei einer HEDT Plattform, die nicht einmal für den professionellen Einsatz gedacht ist keine Relevanz.

Es ist teilweise schon ziemlich abgefahren wie du von Unsinn nicht abrückst und andere angreifst. Bischen locker machen.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
du willst also sagen dass sie in 99,9% der Fälle also doch vollwertiger Ersatz sind?
Du meinst die Fälle in denen solche Systeme nicht gekauf oder die zusätzlichen Lanes nicht genutzt werden?

schön dass du offensichtlich auch nicht weißt für was du sie verwenden willst - außer der GPU natürlich.

Wie ich schon schreib. Klar ist der potentielle Flaschenhals da. Genau wie die Möglichkeit dass mir vielleicht 32 SATA Ports privat nicht ausreichen. Wenn man von den X mehr CPU PCIe Lanes von Theradripper profitiert... dann muss man ganz klar da zuschlagen.
Für was ausser GPUs sollten bei einem Desktop System so viele Lanes sonst genutzt werden?

Für entsprechende Filde Server und dergleichen sind andere Hardware Komponenten mit der nötigen Ausfallsicherheit da.
 
Ähm PCie SSDs mit PCIe 8x und mehr für Workstations z.b.
 
@Ned Flanders

weil einer von 10000 HEDT Besitzer 5 Cuda Karten mit einer Consumer CPU Betreiben will wird eine Plattform aber nicht sonderlich uninteressanter, außer eben für diesen einen ;)

Und nichts anderes haben xexex und ich gesagt. 128 Lanes wären noch besser, sollten mit dem Sockel auch möglich sein. Genau wie 32 Kerne bei SP3. Warum tuts AMD nicht? Weil mehr Lanes auch vom Board supported werden müssen und den Preis hochtreiben.

Wieso also ein Board auch nur 10€ teurer machen nur damit einer von 10000 damit was anfangen kann?

Bei deinem Cuda Zeug limitiert die GPU Bandbreite über PCIe? Lass mal sehn.

Edit: wie wärs damit
https://hothardware.com/news/gigabyte-mz31-amd-epyc-7000-motherboard-16-dimm-slots
 
Zuletzt bearbeitet:
Zurück
Oben