Wie kann der Z270 Chipsatz 24 pcie 3.0 lanes haben aber nur mit 4 angebunden sein?

Nein das ist Quatsch, DMI3.0 geht separat, das ist nicht in den 16 Lanes enthalten und wird nicht mit aufgezählt.
 
killerkappi schrieb:
Was ich sagen will ist nicht das ich sli mit x16 will meine aussage ist das ich sicherheitshalber die lanes so haben will das bei SLI nicht unter 8x/8x fällt

Ohne x8 Anbindung funktioniert SLI erst gar nicht.
44 Lanes X99 oder 40 Lanes x99
 
Bei X299 belastet der m.2 slot den DMI nicht oder?
 
Kann man so pauschal nicht sagen, habe mir ein paar Motherboard-Handbücher angeschaut und da war m.2 bzw. u.2 am Chipsatz angeschlossen und die CPU-Lanes für die Grafikkarte(n) reserviert. Da könntest du die m.2-SSD dann höchstens mit einer Adapterkarte im PCIe-Slot betreiben.
 
Genau dafür sind ja die ganzen Lanes da.
Um die Slots breit anzubinden.
 
Die 16 Lanes haben bei Intel nix mit DMI zu tun. Macht eigentlich auch keinen Sinn Lanes auszuweisen, die der Anwender weder beeinflussen noch nutzen kann.
 
Zuletzt bearbeitet:
hast wohl recht , Intel nennt es halt DMI 3.0 , obwohl es eigentlich nur 4 PCIe 3.0 Lanes sind

trotzdem hat der Kabylake nen bissl wenig Lanes . Ne 960 EVO sollte zb schon per 4X angeschlossen werden , sie erreicht über 3 Gb / sec beim lesen bei mir .
2017-05-18.jpg
 
Zuletzt bearbeitet:
was dir nichts nutzt , da die EVo allein schon die ganze Bandbreite belegen würde - und an den 4 Chipsatz Lanes hängt alles , alle USB Ports , Sata Ports und Lan ...
 
Naja, ist ja nicht immer alles voll ausgelastet .... aber ich weiß schon, weshalb ich x99-Systeme habe :)
 

Anhänge

  • CDM.jpg
    CDM.jpg
    65,2 KB · Aufrufe: 380
Zuletzt bearbeitet:
Ich denke ich werde mal schauen wie sich Threadripper schlägt und dan entweder so einen Kaufen oder einen geköpften 7820x er
 
da ich ja im anderen thread mehr oder weniger als dumm bezeichnet wurde, hier scheint ja jemand ahnung zu haben in bezug auf die anbindung vom chipsatz zur cpu.

Der X299 hat 24 PCIe Lanes und ist mit 4 Lanes dann an der CPU. Dass er im SLI nicht die volle Leistung bringt wenn man theoretisch die eine GPU über den Chip anbinden würde ist mir ja klar, aber für sämtliche SSDs, Netzwerkarten etc reichen doch die 24 dicke aus ohne dass irgendwas schlapp macht wenn man nicht grad 4 ssds im raid fährt (wofür auch immer) was eh kein schwein macht. Dazu 28 von der CPU für 16-8 SLI? wo man eh keinen Unterschied spürt ob die 2. karte im 16 oder 8 läuft.
 
gunmarine schrieb:
wo man eh keinen Unterschied spürt ob die 2. karte im 16 oder 8 läuft.

Das ist mit der Einführung von 4K (und für mich dem einzigen Feld wo SLI überhaupt noch Sinn macht) leider nicht mehr richtig. Da zählt die Bandbreite nämlich plötzlich wieder, und Du kommst auch gerne mal bei 50% Unterschied von 16/16 zu 16/8 raus, sofern Du keine HB-Bridges benutzt.

Und die Grafikkarten hängen IMMER direkt an der CPU und nicht am Chipsatz.
D.h. wenn Du Dir eine CPU mit 44 PCIe-Lanes kaufst (oder eine mit 40 auf dem X99-Chipsatz), dann sind 2x16 überhaupt kein Problem. Und Du kannst noch zwei PCIe-SSDs gleich nebendrann stecken (falls die bescheuerten 3-Slot-Grafikkarten nicht allen Platz auffressen).
 
Danke für die Aufklärung HisN, das mit 4k hatte ich schon wieder vergessen, dass es eh nur da Sinn macht sollte hoffentlich jedem klar sein. Dass die Karten an der CPU hängen hatte ich mir eh schon gedacht, was ja trotzdem insg. 52 Lanes zulässt wenn der der MB Hersteller mitmacht. Nur halt 28 für die GPUs.

Aber nutzt man nicht eh die HB Bridges ab der 1080(ti)? Wie siehts denn mit den HB Bridges +16/8 aus? ~5% sind ja zu vernachlässigen.
 
Zuletzt bearbeitet:
Muss ich leider passen, hab ich noch keine Tests zu gesehen, und konnte auch selbst keine machen, weil ich mein Titan X Pascal-SLI nur wenige Tage hatte (bringt für mich trotz 4K einfach keine Punkte).
 
killerkappi schrieb:
Meine Verbraucher:
  • Sound x1
  • NIC x8
  • Graka x16
  • ssd x4
Ich möchte sicherstellen das die graka x16 hat damit ich vlt mal auf sli wechseln kann. Doch limitiert der DMI nicht den Speed des ganzen.
DMI limitiert im Alltag nicht, denn auch wenn schnelle PCIe SSD lesend die Bandbreite von DMI3 auslasten können, denn DMI (technisch ist DMI3 PCIe 3.0 x4) ist vollduplex und kann real rund 3.5GB/s in beide Richtungen gleichzeitig übertragen. Von der SSD Daten zu Lesen und über das 10GbE Netzwerk zu senden, wäre also selbst dann kein Problem, wenn es 40GbE wäre.

Es wird aber trotzdem nicht so gehen wie Du es Dir denkst, denn Slots mit x8 Anbindung gibt es auf den Z270er Boards nur mit Lanes der CPU, die dann als x8/x8 aufgeteilt werden. Die Graka hat dann nur noch 8 Lanes und SLI fällt dann flach.

So schlimm ist das trotzdem nicht, denn die Karte dürfte zwar PCIe 2.0 x8 als Anbindung haben, aber selbst PCIe 2.0 x4 schafft so 1600MB/s bis 1800MB/s und das wie gesagt in jede Richtung gleichzeitig. Wenn Du also nicht gerade 2 10GbE Ports im Teaming betreibst, kannst Du immer noch von einem Port zum anderen mit voller Performance übertragen. Damit brauchst Du nur ein Mainboard bei dem ein Slot mechanisch x8 oder x16 ist und der mit 4 PCIe 3.0 Lanes des Chipsatzes angebunden ist. Alleine ein Z270 Chipsatz hat bis zu 24 PCIe 3.0 Lanes (plus die 16 direkt von der CPU), da bleiben also auch für eine SSD noch genug übrig. Mit den genannten Einschränkungen reicht also auch die Mainstreamplattform.

killerkappi schrieb:
Wirklich? Ich dachte das bei einem i7 7700k 4 lanes direkt verbunden sind zum chipsatz
Nein, vergiss einfach was MK one schreibt, der hat keine Ahnung und stänkert nur rum und gehört auf die Ignorieliste jeder Users hier, vermutlich ist es sowieso ein AMD Werbebot. :evillol:
 
Zuletzt bearbeitet:
Ich mag Bilder bei sowas:

Z270-Diagram.png

Erklaert ja alles.
 
Zurück
Oben