News Intel Comet Lake-S: MSIs Portfolio bietet auch ein 960-Euro-Mainboard

@Tigerfox

Öhm, nö denn ich wollte das es jemand mit ner dual GPU Karte testet denn da ist idR. ebenfalls ein PCIe Switch verbaut. Von meinen damaligen Tests konnte ich nur sagen das es diesem egal ist ob am Slot nur 8 Lanes anlagen, die GPUs selbst bekamen immer jeweils 16 Lanes vom PCIe Switch.

Das Kuriose an deiner Argumentation wäre ja das dich deine Links widerlegen würden denn die Verbindung zur CPU basiert auf 4 PCIe 3.0 Lanes und dennoch bietet der Chipsatz PCIe 2.0 Lanes für Endgeräte ohne die Lanes der CPU auf den 2.0er Standard runter zu ziehen. ;)
 
@Wadenbeisser :
Was soll denn das Dual-GPU-Beispiel? Auf denen ist ein ganz normaler NF200 bzw. PLX PEX8647/8747. Da ist jede GPU mit x16 an den Switch angebunden, aber der Switch nur mit ebenfalls x16 an den Slot. Die beiden GPUs kommunizieren mit x16 untereinander, teilen sich aber einen x16 zur Kommunikation mit der CPU. In deinem Fall dann sogar x8.
Das ist exakt das Gleiche wie bei Mainboards, auf denen ein NF200 oder PEX8747 verbaut wurde. Wenn man dort zwei Grafikkarten in die x16-Slots steckt, kommunizieren die auch untereinander mit x16, mit der CPU aber beide zusammen nur über x16 - bei machen Boards sogar nur mit x8.
Die PCIe-Generation war aber immer gleich. NF200 und PEX8647 wurden nur für Gen2-Grakas bzw. Chipsätze und CPUs genutzt, für Gen3 dann nurnoch der PEX8747. Wenn Du nun in ein Board mit PEX8747 Gen2-Grakas steckst, hast Du aber tatsächlich den Effekt, dass die Grakas zwar nur mit PCIe2.0x16 angebunden sind, aber die Verbindung zur CPU PCIe3.0x16 ist. Die Grakas können zwar trotzdem nur mit Gen2x16 untereinander und jede einzelne mit der CPU kommunizieren, die Gesamtbandbreite beider Grakas zusammen zur CPU entspricht jedoch Gen3x16. Das ist dann genau der Fall, wie ich ihn vorher mit einem 12-Lane Gen2-Switch mit 1xGen1x4 zum PCH auf der einen und 4xGen2x1 zu den Controllern auf der anderen Seite beschrieben habe.


Ja, die AM4 Chipsätze sind kurios. Erstmal sehe ich bis heute auch keinen Beweis, dass die Verbindung zur CPU auch wirklich PCIe3.0x4 ist. Man müsste z.B. von ein RAID0 aus 6 SATA-SSD auf ein M.2-SSD an der CPU kopieren.
Und dann lässt sich das damit erklären, das die Chipsätze eigentlich Gen3 können, aber nicht zertifiziert wurden. Die Verbindung zur CPU wurde vielleicht zertifiziert, der Rest nicht, oder weil der Chipsatz eigentlich Gen3 kann und die CPU auch, kann die Verbindung einfach Gen3, auch ohne Zertifizierung bzw. es ist keine Zertifizierung nötig.

Man kann jedenfalls nicht diese super kuriösen Chips, wo nur in irgendwelchen Vorrelease-Folien PCIe3.0 auftaucht, als Belegt dafür nehmen, wenn absolut alle anderen PCIe-Geräte dagegen sprechen.
Du darfst gerne versuchen, dieses Kuriosum zu ergründen, aber das wird Dir nicht erschöpfend gelingen. Inzwischen interessiert das auch keinen mehr, bei Release von AM4 fand ich das Thema noch interessant.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Anders gefragt. Wieso hat Intel wohl bei quasi gleichem Sockel die Power Pins beim 1151 V2 erhöht wenn es weniger doch in deinen Worten "Jeder OC Situation tut"?
Und wieso läuft dann ein 9900K bei Typen mit 1,5 Volt unter LN2 ohne dass die Pins eines Z170 weg brutzeln, wo sie doch zwingend erforderlich sind?

Bringt uns nicht wirklich weiter, die Fragerei, was?
Kann im Endeffekt jeder glauben, was er mag.
Die Praxis gibt da schon den passenden Hinweis.
 
Einfache Antwort: Weil Intel andere Standards an zulässigen, sicheren Betrieb setzt.

Man sieht es am Wechsel von Z370 zu Z390 und jetzt zu Z490: Beim Z370 war ein zusätzlicher 4-Pin ATX12V noch extrem selten. OC-Boards haben aber schon länger 2x8-Pin EPS12V. Beim Z390 findet man den zusätzlichen 4-Pin bei manchen Herstellern schon (fast) durchgehend, bei anderen immernoch nur Highend (Asus bei allen Maximus). Bei Z490 scheint er verpflichtend, selbst das billige Prime Z490-P hat einen.
 
Und ich hab ihn schon auf meinem Z170.
Erklärt aber alles immer noch nicht, warum man dann nicht die 4-Kerner der neueren Generationen frei gegeben hat.
 
@Tigerfox

Du fragst ernsthaft was das Produkt mit einem entsprechenden PCIe Switch bei der Frage soll ob der ältere PCIe Standard am Eingang an die Ausgänge weitergereicht wird?
Bist du vielleicht mal auf die Idee gekommen das die Switches aus deinem Beispiel den höheren Standard nicht beherrschen könnten?
Schaut man dann mal in das Datenblatt des PEX8647 dann steht da (oh Wunder) das er nur r2.0 beherrscht und beim PEX8747 ist bereits r3.0 drin.

https://www.broadcom.com/products/pcie-switches-bridges/pcie-switches/pex8647
https://www.broadcom.com/products/pcie-switches-bridges/pcie-switches/pex8747

Natürlich muss der PCIe Switch den höheren Standard erstmal beherrschen damit er auch genutzt werden kann.
 
Ja, dass sag ich doch die ganze Zeit!

Ausgang der Diskussion war, ob man nicht eine Gen4-Lane vom X570 auf zwei Lanes Gen3 aufswitchen kann, um mehr davon zu haben.
Und ich sage, dass das nicht geht, man könnte nur mit einem Gen4-Switch aus einer Lane Gen4 zwei machen und dann eben nur Gen3-Controller anbinden. Dafür bräuchte man aber einen Gen4-Switch, den es noch nicht gibt.
Mit einem Gen3-Switch würde die eine Lane Gen4 vom X570, an der der Switch hängt, auch auf Gen3 herabgestuft.

So, ich beende die Diskussion jetzt, Ihr beide scheint die ganze Zeit meine Aussagen nicht zu verstehen und bewerft mich mit Argumenten, die dem entsprechen, was ich selbst sage.
 
  • Gefällt mir
Reaktionen: Shoryuken94
xexex schrieb:
Du hast faktisch eine 6 Jahre alte CPU und während du diese weiter benutzt ist deine 6 Jahre alte GPU anscheinend zum Alteisen geworden, also was hat denn wohl wirklich limitiert?
Spreche ich chinesisch oder so?

Die CPU hat schon lange limitiert.
Fallout 4 kam übrigens 2015 raus.

Natürlich limitiert die GPU auch irgendwo ... und das nahezu immer.
Denn "alles auf Ultra, 4K und am besten noch AA oben drauf" schafft keine.
Ist aber irrelevant, wenn es um die CPU geht.

xexex schrieb:
Ich Wirklichkeit ist eben beides ein Limit und wenn du mit schlechterer Qualität zurecht kommst, müsstest du dann auch mit 30FPS zurecht kommen ...
Auch wieder so ne unlogische Aussage. Was man tolerieren kann und was nicht, ist eben subjektiv.
Aber natürlich habe ich die Grafikkarte nicht umsonst geupgraded. In einigen Spielen, wo die CPU noch immer ausreicht, war es dann eben tatsächlich mal die Grafikkarte, die "der limitierende Faktor" war.
Das sind eben 2 voneinander unabhängige Aspekte.


Vielleicht schreibe ich das noch mal ganz deutlich:
Die Grafikkarte ist KEIN Faktor in der Frage, welche CPU man sich kaufen sollte!
Deshalb ergeben auch Aussagen wie "Mit deiner Grafikkarte brauchst du diese CPU nicht, weil die Grafikkarte limitiert." keinen Sinn. Es sind 2 voneinander unabhängige Komponenten, die beide die nötige Leistung bringen müssen.

Es ging hier darum, was bei einer CPU sinnvoll ist.
Einige behaupten ja nach wie vor, dass man HighEnd nicht bräuchte, dass Intel auch keinen Sinn ergibt, weil ein x3700 reiche, OC den Aufwand nicht rechtfertigt, etc.
Und das mag für bestimmte Nutzer stimmen ... für viele Gamer aber eben nicht, wenn sie wirklich in (nahezu) allen Spielen stabile Frameraten haben wollen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tidus1979 und Shoryuken94
Fallout 4 hat nicht limitiert, weil die CPU zu langsam war, sondern weil die Engine die größte Krütze am Markt ist. In dem Zustand würden auch heutige CPUs da limitieren, weil Bethesda so schlau war verschiedene Funktionen von der GPU auf die CPU zu schieben und diese das berechnen zu lassen. Stichwort: Godrays.

Eine Ausnahme macht dies aber nicht zur Regel.
 
Pjack schrieb:
Und wieso läuft dann ein 9900K bei Typen mit 1,5 Volt unter LN2 ohne dass die Pins eines Z170 weg brutzeln, wo sie doch zwingend erforderlich sind?

Hat Roman Hartung da nicht mal einen "Test" mit abgeklebten Pins gemacht? Ich meine das Resultat war, dass man jeden einzelnen Pin theoretisch um ein Mehrfaches überlasten kann und das ganze zumindest im Testverlauf kein Problem ist.

Ich kann hier aber sehr gut die Hersteller verstehen, die jede Eventualität abdecken möchten und entsprechend dicke Reserven verplanen. Sollte es mal zu Problemen kommen, fällt es schließlich auf sie zurück.

Wird überall in der Industrie auch so gemacht. Die ganzen Motoren halten (mit wenigen Ausnahmen) auch deutlich mehr Leistung aus. Wenn ich als Hersteller aber den Kopf hinhalte, eine gewisse Haltbarkeit garantiere und entsprechende Materialspezifikationen einhalten möchte, dann plane ich einen entsprechenden Puffer ein.

AMD hat dies beim AM4 Sockel getan. Aber hier hat sich die Leistungsaufnahme über die Dauer auch nicht massiv erhöht. Intel scheint hier nur von Generation zu Generation zu planen. Aber eigentlich wollten Sie ja auch mal heute bei der Fertigung an einem ganz anderen Punkt sein.
 
@Tigerfox

Der Ausgang dieser sinnlosen Diskussion war das man keine PCIe 4.0 Lanes per PCIe Switch auf mehr PCIe 3.0 Lanes aufteilen könne weil dieser den Eingang auf 3.0 rungerschalten würde sobald ein 3.0 Endgerät dran hängt und das ist offenichtlich Unsinn.
 
Wadenbeisser schrieb:
Und zu Starcraft 2, ist das dein ernst? Eine der Multicore Krücken schlechthin.
aldaric schrieb:
Fallout 4 hat nicht limitiert, weil die CPU zu langsam war, sondern weil die Engine die größte Krütze am Markt ist.
Man kann sich ja gerne über miese Programmierung ärgern. Mache ich auch.
Ändert nur leider nichts an den Tatsachen.

Starcraft 2, Fallout 4, Cities Skylines, etc.
Das sind halt trotzdem alles (sehr) gute Spiele.
Dass die schlecht programmiert sind, stimmt vermutlich ... ist aber kein Argument dafür, dass man eine entsprechende CPU nicht bräuchte. Eher im Gegenteil. Denn solche Spiele wird es leider immer geben.

aldaric schrieb:
In dem Zustand würden auch heutige CPUs da limitieren, weil Bethesda so schlau war verschiedene Funktionen von der GPU auf die CPU zu schieben und diese das berechnen zu lassen. Stichwort: Godrays.
Beides falsch.
Die GodRays ziehen GPU-Leistung, wenn sie aktiviert sind. Hat mit CPU nix zu tun. Und man kann sie auch deaktivieren oder auf eine geringere Stufe einstellen, womit sie auf aktuellen Grafikkarten kein großes Thema mehr sind.

Ganz unabhängig davon hat Fallout 4 (und auch Fallout 76) jedoch ein massives Drawcall-Problem.
Und dieses Problem hängt mit der Darstellung der Schatten zusammen. Nicht deren Auflösung (was wiederum auf die GPU geht), sondern ausschließlich der Anzeige-Distanz.

Und hier lohnen sich CPU und RAM extrem.
Die GPU tut hier gar nichts zur Sache. Die Multikern-Leistung auch nicht.
Ja, ist doof. Ist aber eben so.
 
  • Gefällt mir
Reaktionen: KlaraElfer, Tonks und Shoryuken94
@Wadenbeisser : Ja, das ist Unsinn, klar. Das habe ich aber auch nicht gesagt bzw. da müsstest Du mich missverstanden haben.

Natürlich kann ein Gen3-Gerät nicht per Switch auf Gen4 beschleunigt werden, aber man kann z.B. mehrere Gen3-Geräte an einen Gen4-Switch hängen, z.B. 2xGen3x4-SSD per 12-Lane-Gen4-Switch an einen Gen4x4. Aber dazu muss der Switch eben auch Gen4 können, sonst ist die Anbindung zum X570 auch nur Gen3. Und Gen4-Switches gibt es bis jetzt nocht nicht.

Was ich mir z.B. wünschen würde, wäre eine M.2-Adapterkarte mit einem solchen Switch. Ich könnte ein Gen4x4-SSD in meinen Gen3x8 stecken.
 
  • Gefällt mir
Reaktionen: Shoryuken94
Shoryuken94 schrieb:
Intel scheint hier nur von Generation zu Generation zu planen. A
Eher unabsichtlich. Ich mein der Skylake Sockel war auf 2 Jahre konzipiert, dass wir jetzt immer noch LGA 1151 als Basis haben liegt ja wie vieles an den 10nm die Probleme machen, bereits seit vielen Jahren.
Intel dachte stets dass man es binnen kurzer Zeit hinbekommt und dann war es ja logisch dass man den Refresh Refresh Chip (Zwischenlösung) nur auf einen kurzen Horizont plant.

Intel wurde bezüglich der Laufzeit von 14nm eines besseren belehrt. Einfach mal schauen wann da die ersten 14nm CPU kamen ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Shoryuken94
Tigerfox schrieb:
Und ich sage, dass das nicht geht, man könnte nur mit einem Gen4-Switch aus einer Lane Gen4 zwei machen und dann eben nur Gen3-Controller anbinden.

Man kann aber auch Switchseitig die Downlinkports auf PCIe 3.0 begrenzen um Energie zu sparen und niedrigere Anforderungen an die Verkabelung zu haben. Genau das willst du aber scheinend nicht verstehen!

Mag sein, dass ein X370 Chipsatz sogar mehrere PCIe 3.0 Downlink Ports zur Verfügung hätte stellen können, jemand hat allerdings entschiedenen, dass er das nicht tut. Genauso hätte AMD eben beim X570 den Uplink bei 4xPCIe 4.0 lassen können, aber im Downlink statt 16 PCIe 4.0 Leitungen beim gleichen Powerbudet 24 PCIe 3.0 Lanes haben können, aber es ist nicht passiert.

Der Drops ist aber gelutscht, wie ich bereits sagte ist auch weniger der X570 das "Problem", sondern die veralteten 3xx/4xx Chipsätze.

USB-Kabeljau schrieb:
Es ging hier darum, was bei einer CPU sinnvoll ist.

Es gibt hier darum ob der hohe Aufpreis für OC fähige Komponenten die dadurch erzielbare Mehrleistung überhaupt rechtfertigt und da sage ich schlichtweg nein! Wenn man das auf die breite Masse bezieht.

Du hättest in der Zwischenzeit auch einfach einen i3-9100 für wenig Geld kaufen können oder irgendein billiges AMD System und schon wäre die Sache mit dem Limit vom Tisch. Für den Aufpreis den du seinerzeit für ein Z Board und die K CPU bezahlt hast, wären zwei "nicht OC taugliche" Systeme locker drin.
 
Zuletzt bearbeitet:
Das erste kann sein, aber das wird ja durch die angehängten Controller bestimmt. Klar, wenn ein GbE-NIC mit Gen2 und AFAIK reduiziertem Takt angehängt wird, muss die Verkablung nicht so komplex sein, wie für einen Gen4x1-Slot.

Das zweite stimmt aber nicht. Der X570 hätte entweder 16 Leitungen Gen4 oder Gen3 haben können, nicht 24.
 
@Tigerfox

Könnte man aber dann sind wir ganz schnell wieder bei dem Punkt den ich bereits ansprach, es wäre ein teurer PCIe 4.0 Switch nötig oder ein spezieller Chip der nicht mehr bei den Ausgängen beherrscht.

Dein Wunsch nach einen entsprechenden M.2 Adapterkarte dürfte ganz schnell verflogen sein wenn du die Preise für ein solches kleinstserien Produkt siehst denn dafür kann man sich auch allso oft gleich ein neues Mainboard kaufen. Ohne den Preisvorteil durch die normale Massenproduktion gehen die Preise ganz flott nach oben.
 
Ja, schon klar. Wenn PCIe4.0 auch wirklich so energiehungrig und aufwändig ist, dann kann ich mir auch vorstellen, dass eine solche Karte selbst in größerer Menge nicht billig würde.
 
Tigerfox schrieb:
Das zweite stimmt aber nicht. Der X570 hätte entweder 16 Leitungen Gen4 oder Gen3 haben können, nicht 24.

Der X570 hätte auch 96 PCIe Lanes haben können, wenn man dafür nicht den IO Chip genommen hätte. Das eine hat mit dem anderen doch nichts zu tun, die 16 Lanes kommen aus der Wiederverwertung des IO Chips.

Hätte man den neu entwickelt, würde sich aber die Frage stellen ob 24, 28 oder gar 32 PCIe 4.0 Lanes Sinn machen, wenn nur ein 4xPCIe 4.0 Uplink existiert oder ob man nicht lieber 24+ PCIe 3.0 Lanes am Chipsatz bietet und dieser dadurch möglicherweise sogar passiv gekühlt werden kann.
 
  • Gefällt mir
Reaktionen: Krautmaster
Ich hatte dich jetzt so verstanden, als hätte AMD aus den 16 Lanes Gen4 im IO-Chip auch durch Herabstufung und Aufteilung 24 Lanes Gen3 machen können.

AMD hat halt begrenzte Ressourcen und Asmedia als Zulieferer auch. Das ist schon ein deutlicher Nachteil gegenüber Intel.
Aber wie gesagt, wenn der Uplink Gen4 beherrschen soll, dann muss der Chip es für jede Lane beherrschen. D.h. der Chip wird auf jeden Fall komplex. Wenn diese dann nicht als Gen4-Lanes aus dem Chipsatz herausgeführt werden, macht das vielleicht das Board simpler und günstiger, nicht aber den Chipsatz.

Ähnlich scheint es ja bei USB3.1 zu laufen. Wie ich oben aufgeführt habe, kann der Z390 maximal 6xUSB3.1 Gen2 haben, von 6-10xUSB3.1 insgesamt, der X570 8xUSB3.1 Gen2 und die Ryzen3000 selbst auch noch 4x (auch ein Mysterium: Wieso hat der X570 doppelt soviel USB3.1 Gen2, wenn es doch der IO-Die aus der CPU ist?).
Trotzdem sieht man auf den Mainboards meist nur 2-4, manchmal auch garkeine. USB3.2 Gen2 scheint also bei der Konstruktion des Mainboards auch recht teuer zu sein.
 
Zurück
Oben