Notiz Jetzt verfügbar: Intel Xeon W-3175X für 2.999 USD offiziell im Handel

Keine Ahnung wie gut der Kunde es auslasten kann mit seiner SW Umsetzung vom Quellsystem, aber Anforderung war 6 GByte/s bis die Datenträger voll sind wegschreibbar und 4x 10 Gbe/s als ein Teil vom Input. Und mobil...
 
@MK one

alles gut keine Sorge. Solange du dir unterm Strich sicher bist dass sich das Raid 0 aus SSD für dich lohnt spricht ja auch nichts dagegen. Dann ist dein Schwerpunkt und Usecase wohl eher viel schnell Daten schaufeln / verarbeiten. Was das konkret ist wirst du schon wissen, und wenn es da Vorteile bringt... nur zu.
Ergänzung ()

iamunknown schrieb:
Keine Ahnung wie gut der Kunde es auslasten kann mit seiner SW Umsetzung vom Quellsystem, aber Anforderung war 6 GByte/s bis die Datenträger voll sind wegschreibbar und 4x 10 Gbe/s als ein Teil vom Input. Und mobil...

denke dafür sollte AM4 / 1151 noch ausreichen. 20 Lanes an CPU. ;)
Je nach Ram Bandbreite und CPU Power die dafür nötig sein sollte.
 
Krautmaster schrieb:
denke dafür sollte AM4 noch ausreichen. 20 Lanes an CPU. ;)
Dann zeig mir ein Board welches dafür 4x x8 Slots anbietet und qualitativ Richtung Industrieboards geht. Und ja, es gibt Bauteile die auf x8 (2.0) angewiesen sind und für die es keinen anderen Ersatz gibt.
 
4x8x Slots? Wozu?

4x10 Gbit reichen 8x PCIe 3.0:
https://www.heise.de/preisvergleich/supermicro-aoc-stg-i4s-a1712554.html

6Gb/s Schreiben ebenso:
https://geizhals.de/kingston-dcp1000-ssd-3-2tb-sedc1000h-3200g-a1720065.html?hloc=at&hloc=de

So deine Spec (6Gb/s schreiben. 4x 10Gbe). Wenn man mehr Puffer einkalkuliert und zb eher Richtung Raid 10 mit 2x2x4x PCIe 3.0 geht brauchst du schon 16+8=24 Lanes.

https://geizhals.de/highpoint-ssd7120-nvme-raid-controller-a1811008.html?hloc=at&hloc=de
https://geizhals.de/highpoint-ssd7101a-1-nvme-raid-controller-a1874364.html?hloc=at&hloc=de
 
Zuletzt bearbeitet:
Krautmaster schrieb:
4x8x Slots? Wozu?
Dafür:
iamunknown schrieb:
Und ja, es gibt Bauteile die auf x8 (2.0) angewiesen sind und für die es keinen anderen Ersatz gibt.
Krautmaster schrieb:
Und nach 9 Minuten wird die PCIe-Karte getauscht wenn es über Stunden funktionieren soll?
Krautmaster schrieb:
Nicht wenn ein bestimmter Chip sowie RJ45 bevorzugt wird.
 
Krautmaster schrieb:
Falscher Chip.
Krautmaster schrieb:
@ Storage siehe mein Edit. Dann nimm U2 oder Optane SSDs.
Nun ja, Optane SSDs sind sehr fein, aber leider viel zu klein. Denk eher in Dimensionen, dass man auch mal mehrere Stunden loggen möchte.
Krautmaster schrieb:
Und schon sind wir bei einem Xeon Board. Also nichts mit AM4.

Übrigens läuft das ganze bereits - ein Gesamtsystem hängt nicht nur an der Optimierung von Lanes - es muss nicht nur funktionieren, sondern auch weitere Anforderungen erfüllen. Daraus ergibt sich schnell ein Bedarf von Lanes ==> 44 Lanes sind für mich mehr als Spielzeug aber zu wenig für viele Dinge.
 
@iamunknown

Dann musst du nächstes mal etwas präziser werden. 6 GByte/s schreiben + 4x 10GBE bedienen geht sowohl mit Sockel 1151 als auch AM4 ausgehend von PCIe Lanes. Ohne Probleme. Kann man ja gern Xeon Ware nehmen.

Die Frage ist ob ~7GB/s ausreichend sind wenn man von 2x M.2 SSDs ausgeht und oder ob Redundanz / Puffer erwünscht ist (4 SSDs und mehr). Dann braucht es natürlich mehr. 24 Lanes. Ggf gehen auch 3 SSDs im Raid bei 20 Lanes (um wieder AM4 ins rennen zu werfen)

Bis zu 44 is dann aber doch noch etwas hin.
 
Ctrl schrieb:
deine 4K Werte sehen bescheiden aus..scheint sich nicht wirklich zu lohnen..
was glaubst du bedeutet 4K ? = 4 KB warum so wenig ? weil selbst 38 - 40 MB ca 9000 - 10.000 Zufalls Lese Zugriffe bedeuten .... , und klar deine Dateien sind alle 4 KB groß und auf deiner 1 TB SSD hast du 250.000.000 a 4 KB ( = 1 TB ) davon rumliegen :freaky:

ab Filegrößen von 1 MB wird die Bandbreite voll genutzt
2018-11-27.png
 
Krautmaster schrieb:
Dann musst du nächstes mal etwas präziser werden.
Ich werde hier mit Sicherheit nichts breit treten was nicht in meiner Freizeit entstanden ist. Mein Abschließender Satz ist etwas bereits erwähntes: 32 Lanes werden im konzipierten System verwendet und andere Aufteilungen waren nicht möglich. Genauso wenig kann man 64+ TB in zwei PCIe-SSDs einfach aufteilen noch schnell wechseln.
 
Ich bin ja aus allen Wolken gefallen, als Steve (Gamer Nexus) in seinem Video gesagt hat, dass das Ding NICHT soldered ist... :lol:
 
Hollomen schrieb:
sehe hier Epyc ab Sommer auch eigentlich als wirklichen Gegner.
Also ich glaube kein Mensch der sich wirklich eines von beiden kauft, muss sich ernsthaft zwischen beiden entscheiden. Die zielen auf ganz unterschiedliche Zielgruppen und Märkt, die EPYC wie Rome sind Server CPUs und der W3175X ist ein eine Enthusiasten CPU, die nicht in Servern landen wird. Der Markt für sowas ist extrem klein und dürfte vor allem Extrem OCler ansprechen und da Intel sie wohl nur an OEMs abgibt, wird man sie dann wohl auch nur in Systemen mit entsprechenden Boards, Kühlungen und Netzteilen sehen.

Wer sich fragt ob Xeon oder EYPC, der denkt an Xeon Gold oder Xeon Platinum.
HardRockDude schrieb:
Mit dem Unterschied, dass Intel das förmlich notgedrungen gemacht hat.
So wie AMD es notgedrungen gemacht hat die TR 2970WX und 2990WX zu bringen nachdem Intel mit dem 7980XE einen 18 Kerner gebracht hat, der den 1950X übertrumpft hat. Das ist ein Wettrennen und jeder genug um die Nase vorne zu haben, aber auch nicht unbedingt alles was möglich wäre. Hätte AMD die 32 Kerner von Anfang an geplant, hätte es auch einen 1990WX gegeben.
pipip schrieb:
Gibt es infos zu passenden Kühler?
Die sind nur für OEMs, die werden die dann mit Boards, Kühler und allem zusammen anbieten.
JiJiB! schrieb:
Da versteht man auch den Ansatz von AMD, einfach kleine Dies zu bauen und diese zusammen auf ein Package zu werfen, statt riesige Monolithen zu schnitzen. Ausbeute höher, leichter erweiterbar.
In der Fertigung ist der Ansatz von AMD billiger, aber technisch gibt es auch Nachteile, die eben durch die NUMA Architektur bedingt sind, es haben eben nicht alle Dies die gleiche Latenz bei der Anbindung ans RAM und die PCIe Lanes und man wird sehen müssen, wie weit AMD dies mit dem I/O Chip bei Rome behoben bekommt. Die viel höhere Latenz zwischen den Kernen auf unterschiedlichen Dies wird man aber kaum beheben können. Klar gibt es bei Intels Mesh diese Unterschiede auch, da die Kerne ja unterschiedliche Abstände zueinander und den RAM und PCIe Controllern haben, aber die Unterschiede zwischen den Kernen sind da weitaus geringer.

Alles hat eben Vor- und Nachteile und was die bessere Lösung ist, hängt eben auch von der Nutzung ab.
D708 schrieb:
Du vergleichst HDET mit Mainstream Anwendungsgebiete.
Wieso? Bei Intel kann man auch bei S.1151(v2) Systemen zwei PCIe SSD mit je 4 PCIe 3.0 Lanes anbinden, ohne Lanes der Garka zu verlieren. Mir ist kein S.1151(v2) Board bekannt, bei dem die M.2 Slots PCIe Lanes von der CPU verwenden, also den Grakas Lanes wegnehmen.
D708 schrieb:
da treten eben genau 60 gegen 44 Lanes an. Alles andere ist Marketing bla bla.
Nein, die PCIe 3.0 Lanes der Chipsatze kommen noch dazu, die sind vorhanden und gut nutzbar. Marketing bla bla ist nur die Aussage der TR hätten 64 PCIe 3.0 Lanes, da 4 davon immer fest mit dem X399 verbunden sind und daher nicht zur Verfügung stehen.
 
  • Gefällt mir
Reaktionen: Ctrl und gaelic
Bin ich eigentlich der einzige, der sich fragt, wieso das ding 3175 heißt, wenn es sich (rein logisch betrachtet) als übertaktbarer 28Kerner über nem 8180 postieren sollte?
 
  • Gefällt mir
Reaktionen: Yar, dersuperpro1337, nazgul77 und 3 andere
BoaTheCrafter schrieb:
wenn es sich (rein logisch betrachtet) als übertaktbarer 28Kerner über nem 8180 postieren
Der Xeon 8180 ist eine Server CPU und der 3175 eine Workstation oder eher HEDT CPU. Der 81810 ist für bis zu 8 CPU pro Rechner, der 3175 ist nur für Single CPU Konfigurationen.
 
Holt schrieb:
Nein, die PCIe 3.0 Lanes der Chipsatze kommen noch dazu, die sind vorhanden und gut nutzbar. Marketing bla bla ist nur die Aussage der TR hätten 64 PCIe 3.0 Lanes, da 4 davon immer fest mit dem X399 verbunden sind und daher nicht zur Verfügung stehen.
Nein, dass ist Quatsch. Schonmal versucht ne Graka ans DMI zu hängen. Dann stellt man schnell fest, ups sind doch keine 24 Lanes. Das DMI ist nichts anders als ein Lane Switch. Wenn mehr als 4 Lanes an Bandbreite gefragt ist, ist es vorbei.
Um das schöne Beispiel von Krautmaster zu bemühen, wenn man Linkaggration beim Client benutzt, wird die Bandbreite zum Server auch nicht besser.

Und Logo, im Mainstream macht das DMI Sinn. Wenn man die Graka weg lässt, kommt selten eine Nutzung von mehr als 4 PCIe Lanes raus. Einziges Relevantes Beispiel wäre eine parallelnutzung von NVM SSD und Thunderbolt 3. dann würde es ziemlich eng werden fürs DMI.
Im HEDT ist sieht es anders aus. Die CPU mit 28Kernen wird wohl häufiger auf eine Laneauslastung kommen, die über 4 Lanes liegt, abseits der Graka.

Ganz plakativ, wenn man die Bandbreite von 60 Lanes parallel benötigt, schaffen das SingleSocket CPUs von Intel nicht. Und wenn du 100Mal dagegen agrumentierst, es bleiben in Summe eine maximale Bandbreite von 48 Lanes als Anbindung an die CPU.

Wie relevant das ist, kann jeder selber entscheiden. Aber zu sagen, diese CPU hat 68 Lanes ist einfach nicht wahr. Das erinnert mich irgend wie an Michael Ende. „Aber der Hauptmann ist doch immer einer von Euch“
 
  • Gefällt mir
Reaktionen: s0UL1 und I'm unknown
"… der Preis mit 2.999 US-Dollar überraschend „niedrig“. Da er aber nur von OEMs/Systemintegratoren verkauft werden soll, müssen für die passenden Systeme in der Regel vermutlich noch einige tausend Euro mehr gezahlt werden.

In Japan werden 495.780 Yen oder knapp 4.000 Euro aufgerufen."

Na Gott sei Dank, kommt ja in Bälde der AMD Epyc Rome ...

https://www.computerbase.de/2018-11/amd-epyc-rome-64-kerne-9-chip-prozessor/

MfG, Föhn.
Ergänzung ()

Simanova schrieb:
Glückwunsch an Intel für die Leistungskrone.
Ich würde mir für die Zukunft wünschen, dass Intel das Pimmelfechten mit AMD auf einer seriöseren Ebene austrägt.

https://www.golem.de/news/amd-cpu-ein-rome-epyc-schlaegt-zwei-xeons-auf-einmal-1811-137546.html

MfG, Föhn.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: nazgul77
Zurück
Oben