News Intel Comet Lake-S: MSIs Portfolio bietet auch ein 960-Euro-Mainboard

@Esenel

Du misbrauchst deinen Arbeitsrechner für private Aufgaben? Na sowas aber auch!
Schonmal was von privaten Arbeiten gehört? Was gibte s besseres als langwierige CPU Berechnungen im Hintergrund durchrattern zu lassen und die Wartezeit mit Daddelei zu überbrücken? Mit genug Kernen ist das absolut kein Problem und auch andere Tasks können nicht dazwischen pfuschen und Framedrops im Spiel verursachen weil sich die Programme um die Kerne kloppen. genau deshalb plane ich bei einer längeren Nutzungsdauer der Hardware +50% an Kernen mit ein und bin damit verdammt gut gefahren.
Ergänzung ()

@USB-Kabeljau

Ich kann seine Sichtweise durchaus verstehen und das hat auch einen ganz einfachen Grund.
Mir ist die Framerate herzlich egal denn ich will spielen und nicht benchen. Ist sie für mich unzureichend wird der Flaschenhals gesucht und beseitigt. Zu ca. 95% war das bisher die GPU und nein, ich dreh die Details deshalb nicht runter sondern baue eine schnellere Karte ein. In 2 Fällen war das auch mal ein überhitzter Spannungswandler der zur Drosselung des CPU Taktes führte. Hab dann einfach nen Propeller drauf pusten lassen und das Problem war Geschichte. CPU seitig wurde bisher lediglich der FX zum Ende hin zu langsam.
 
Zuletzt bearbeitet von einem Moderator:
xexex schrieb:
Diese Behauptung ist absoluter Quatsch, wenn du mal ein wenig nachdenkst und PCIe kann sogar noch wesentlich mehr, als das was du von Chipsätzen kennst.
Dein ganzes blabla ändert nichts an meiner Aussage. Mir ist vollkommen klar, dass es bei einem PCIe-Switch keinen echten Up- und Downlink gibt. PCIe-Switches haben eine bestimmte Anzahl Lanes und Links. Es gibt welche mit 48 Lanes, aber nur drei Links, wo man also nur 3x16 draus machen kann, aber auch welche mit viel viel mehr links, wo man eben fast 48x1 draus machen kann.
Aber es gibt eben nicht kaum, sondern keine Switches mit unterschiedlicher PCIe-Generation.
Deshalb kann das, was Du da faselst, nicht funktionieren. Man kann nicht mit einem Switch aus einer Lane Gen4 zwei Gen3 mach, weil auch die Verbindung zwischen Switch und Host nur Gen3 wäre, wenn der Switch nur Gen3 kann, und somit kein Geschwindigkeitsvorteil mehr bestünde.

Man kann nur entweder eine Lane Gen4 auf zwei aufswitchen und dort dann Controller mit Gen3 anbinden. Dann muss der Switch aber immernoch Gen4 beherrschen, was teuer ist und AFAIK noch nicht verfügbar.
Oder man macht es, wie in meinen Beispielen, umgekehrt und bindet per Switch Geräte mit einer neueren PCIe-Generation mit mehr Lanes an einen Host mit älterer Generation an.

Die 300er und 400er-Chipsätze sind bisher die einzigen Geräte, die augenscheinlich unterschiedliche PCIe-Generationen beherrschen. Aber eben nur augenscheinlich, weil schon vor Release von AM4 Gerüchte besagten, dass sie eigentlich PCIe3.0 beherrschten, aber die Zertifizierung nicht bekommen hätten. Bei den 400ern gab es dann wieder Gerüchte, dass sie diese nun bekämen, was ja nicht der Fall war. Nun gibt es Gerüchte, dass der B550 ein X470 mit PCIe3.0-Zertifizierung ist.

Du verlangst ja wohl nicht von mir, dass ich mir fast 30 min Videos angucke. Wenn die Videos irgendwas enthalten, was meine Aussagen widerlegt, dann verlink mir das genannte Produkt oder sag wenigstens die Stelle im Video.
 
Wadenbeisser schrieb:
Mir ist die Framerate herzlich egal denn ich will spielen und nicht benchen.
😳
Die Aussagen hier werden echt immer kurioser.

Von Benchen war hier nirgendwo die Rede.
Es ging um's Spielen und nur um's Spielen.
Schwankende Frameraten unter 60fps knabbern bei Vielen (mich eingeschlossen) aber arg am Spielspaß.

Wadenbeisser schrieb:
Ist sie für mich unzureichend wird der Flaschenhals gesucht und beseitigt.
Ich bin gespannt, wie du den Flaschenhals bei z.B. Cities Skylines oder CEMU mit Zelda - Breath of the Wild beseitigst, ohne CPU und/oder RAM zu upgraden.

Bei Fallout 4 kann man tatsächlich den Flaschenhals beseitigen ... man muss nur die Schatten-Distanz so niedrig einstellen, dass es total albern aussieht.


Noch mal:
Ist der Flaschenhals die GPU-Leistung, ist es i.d.R. sehr einfach, das Ganze so einzustellen, dass es wieder flüssig läuft.
Ist der Flaschenhals jedoch die CPU/RAM-Performance, kann man oft gar nichts machen.
 
  • Gefällt mir
Reaktionen: KlaraElfer und Esenel
@Tigerfox

Wo ist dein Beleg für eine entsorechende Drosselung?
Bisher habe ich nur viel Dampfplauderei die man dir auch ganz bestimmt glauben soll gelesen, er hatte zumindest Gründe gebracht warum das nicht sein könnte. Von meiner Erfahrung mit PCIe Switches auf dual GPU Karten kann ich nur sagen das weniger Lanes vom Slot nicht an die GPUs weiter gereicht werden.
Ergänzung ()

@USB-Kabeljau

Was soll daran kurios sein?
Wenn ich beim Spielen für mich genug Framerate habe ist mir der Wert herzlich egal. Meinetwegen kann diese dann auch bei 40-50 FPS liegen, wozu soll ich dann also krampfhaft an einer fixen 60 FPS Marke fest hängen und dafür auch noch Qualitätseinbußen bei der Grafik hinnehmen? Das Geld das ich dabei bei der CPU sparen kann fließt dann eben in die Grafikkarte und/oder schnelleren oder eher mehr RAM.
Damit bastel ich mir für das gleiche Budget einen Dauerläufer zusammen wärend du in einen Sprinter nach dem anderen investierst.
Ergänzung ()

Und zu deinen Spiele Beispielen, wozu sollte ich wenn ich die Spiele nicht spiele?
 
Zuletzt bearbeitet von einem Moderator:
Wadenbeisser schrieb:
@Esenel

Du misbrauchst deinen Arbeitsrechner für private Aufgaben? Na sowas aber auch!
Schonmal was von privaten Arbeiten gehört?

Du erfindest hier Sachen, dass es nicht mehr feierlich ist.

Ich hab nen Rechner zum Arbeiten. Punkt.
Und ich hab nen privaten Rechner für meine Aufgaben. Vor allem Games. Bissal Fotos schubsen.

Aber private Aufgaben/Tätigkeiten sind keine Arbeit so lange du nicht dafür bezahlt wirst.

Also keine Ahnung was du dir hier alles zusammenreimst.
 
  • Gefällt mir
Reaktionen: KlaraElfer und USB-Kabeljau
@Esenel

Und du bist dann also der Nabel der Welt nach dem sich gefälligst alle anderen mit ihren Anforderungen zu richten haben?

Och nö, da richte ich mich lieber nach meinen eigenen Anforderungen und rate da auch jedem anderen User. :cool_alt:
So bekommt man dann auch tatsächlich das beste System für sein Geld.
 
Wadenbeisser schrieb:
Damit bastel ich mir für das gleiche Budget einen Dauerläufer zusammen wärend du in einen Sprinter nach dem anderen investierst.
Die Tatsache, dass ich eine CPU aus dem Jahre 2013 verwende, zeigt natürlich, dass ich "in einen Sprinter nach dem anderen" investiere. 🤔

Übrigens ist es gerade, wenn man plant, sein System lange Zeit zu nutzen, sehr sinnvoll, bei der CPU nicht zu sparen.
Die Grafikkarte kann ich jederzeit upgraden, ohne sonst irgendetwas austauschen zu müssen.
Bei der CPU steht meist ein neues Mainboard an ... und oft auch noch neuer RAM.

Wadenbeisser schrieb:
Und zu deinen Spiele Beispielen, wozu sollte ich wenn ich die Spiele nicht spiele?
Um dich geht es hier aber nicht.

Ist überhaupt total seltsam, in eine Diskussion zu kommen, bei der es um Leistung und flüssiges Spielen geht, und dann mit "Ist mir egal, ob das nur 40fps sind." und "Ich spiele aber nur Spiele, die meine CPU kann." zu kommen.
Ist doch schön für dich ... trägt nur überhaupt nichts zum Thema bei.

Wadenbeisser schrieb:
Und du bist dann also der Nabel der Welt nach dem sich gefälligst alle anderen mit ihren Anforderungen zu richten haben?
Das ist jetzt irgendwie sehr ironisch ... :rolleyes:

Deine Aussage scheint ja in etwa die folgende zu sein:
"Ich brauche CPU-Leistung nicht. Also ist es unwichtig."
 
  • Gefällt mir
Reaktionen: KlaraElfer, tidus1979, Esenel und eine weitere Person
@Wadenbeisser

So wie ich das verstehe hat @Esenel sich eine CPU gekauft, die für seinen Anwendungsbereich ideal ist. Warum ist das denn so schlecht?

Mag doch sein das ein 3900X mehr Multi Core Leistung hat aber wenn man die nicht braucht, dann braucht man die nicht. Und normales Multitasking wie Browser auf einem zweiten Bildschirm laufenzulassen ist auch für nen 9900KS absolut kein Problem, denn auch der Intel kann Multithread. Es gibt hier genug Überlappung zwischen beiden CPUs.

Das du mehr Wert auf Multi legst ist doch auch OK. Wenn es für deinen Anwendungsbereich Sinn macht dann ist es so.

Für mich hat der 3900X und X570 am Ende auch mehr Sinn gemacht als ein (zu dem Zeitpunkt günstigeres) 9900K und Z390 System, da ich meine PCs bis auf die GPU gerne mal so um die 3-4 Jahre unangerührt lasse und weil ich auf 4k spiele. (E: Und Emulation ist auch mit dabei, da helfen die mehr Kerne.)

Da schrumpft zum einen der Performancevorteil des 9900K weil man sich hier praktisch immer im GPU Limit befindet und beide CPUs locker 60 FPS+ raushauen können (siehe oben mit der Überlappung).

Und zum anderen kann ich mir dann in zwei Jahren eine GPU gönnen, die auch PCIe 4.0 gut ausnutzen kann.
(Kann sein das Ampere das schon ansatzweise macht, aber wie auch die aktuellen 4.0 NVMes denke ich nicht das sie die extra Bandbreite vollständig ausnutzen kann).

Aber wie gesagt, das macht für mich Sinn. Wenn jemand jetzt die höchsten FPS bei 1080p und/oder gerne seine Hardware wechselt oder Spaß am OC hat, dann soll es der Person doch freigestellt sein, es zu tun ohne das man ihn dafür kritisieren muss nur weil es einem selber nicht passt.
 
  • Gefällt mir
Reaktionen: KlaraElfer, USB-Kabeljau und Esenel
@Krautmaster

Ich habe gerade noch ein wenig geschnüffelt weil mir die Pin Verteilung bei deinem Schaubild eigenartig vorkam und das ist garantiert nicht der AM4 Sockel.
Die doppel L Verteilung deutet eher auf Intels LGA Sockel hin und dem Schaubild fehlen auch die 4 Codierungs Felder im inneren des Sockels. Dafür hat es aber welche am Rand die ich dort ebenfalls nur von Intels Sockel kenne.

Edit: wenn ich das richtig sehe müsste das der Sockel 1366 sein.
 
Zuletzt bearbeitet von einem Moderator:
Wadenbeisser schrieb:
Die Nummer zieht sich schon seit dem Aufkommen der ersten Dualcores durch die Diskussionen. Das ganze wurde immer wieder mit der gleichen "nicht alles ist parallelisierbar" Argumentation begründet und wird heute mehr als 1 Kern genutzt? Der hohle Spruch wurde ja auch schon bei der lausigen CPU Unterstützung von PhysX verwendet um diese zu rechtfertigen aber wenn es nicht parallelisierbar wäre, warum käuft es dann performant auf einer GPU die extrem auf Parallelisierung setzt?

Warum siehst du immer so schwarz weiß. Niemand hat gesagt, dass mehr kern nicht genutzt werden können. Nur ist das traditionell eine eher langsame Entwicklung. Natürlich ist es im nachhinein immer einfach zu sagen "Siehst du heute werden XYZ kerne genutzt". Nur muss man das in den zeitlichen Kontext setzen.

Wadenbeisser schrieb:
Die effektivere Nutzung von mehr Kernen bei PC Spielen wurde in den letzten Jahren noch durch die Unzulänglichkeiten von DX11 und dem Klammern an diese API aufgehalten aber die weitere Entwicklung ist auch heute noch absehbar. Die größte Hürde dürfte dabei vor allem der Stand der PC Spiele im Markt sein, wodurch die Plattform eher mit billigen Konsolen Ports abgespeist wird.

Umso fraglicher, ob mehr kerne so fix in Games wirklich einen realen Vorteil bieten.
Wadenbeisser schrieb:
Hängt diese beim 3950X also bei 25% und beim 9900K bei 50% dann werden maximal 8 Kerne/Threads genutzt und der Rest liegt für das Spiel selbst brach. Schon weißt du warum der 9900K schneller ist.

mal wieder die typische Milchmädchenrechnung, ohne auf das explizite Beispiel einzugehen. Wie gesagt, es ging um Spiele die im Grunde beliebig viele Threads nutzen können. Selbst bei denen hebt der massive Threadvorteil nicht den rückstand zu einem aktuellen Intel auf.

aldaric schrieb:
Ausgehend von den wirklich Massen-Sellern (3600, 3700x) haben die Leute wohl auch da mehr als genügend Leistung für die nächsten Jahre.

Ja würde ich so 1 zu 1 unterschreiben.

aldaric schrieb:
Ich lass dem 9900k gerne seine 10-12% Vorsprung, wenn ich für das Geld auf dem Markt beim anderen Hersteller CPU, Board und Ram kaufen kann.

Und genau das ist doch der punkt, den jeder für sich entscheiden kann. Dir ist die mehrleistung nicht das Geld wert, ist völlig verständlich. Anderen ist es das wert, auch verständlich. Daher kann ich diese aggressive Anti Intel Haltung nicht nachvollziehen. man sollte so viel Verständnis mitbringen, dass andere andere Prioritäten setzen. Ein Dacia hat auch ein besseres Preis / leistung Verhältnis, als ein Mercedes, Golf oder was auch immer. trotzdem fahren nicht alle Dacia. Unterschiedliche Ansprüche, unterschiedliche, Prioritäten und unterschiedliche Budgets.
Wadenbeisser schrieb:

Komisch, die meisten nutzen dafür nicht Ihren Privatrechner. Selbst wenn, die meisten Arbeiten brauchen auch da keine 12-16 Kerne :)

Wadenbeisser schrieb:
Es kommen aber auch gern diverse Broweser Fenster, der Virenscanner und jede Menge anderer Kram hinzu die im Hintergrund fröhlich weiter laufen. Auch ist es verdammt praktisch Browser- und Chat Fenster auf einem zweiten Monitor auszugeben um sie damit im Auge behalten zu können. Das nennt sich übrigens Multitasking.

Brauchst du mir nicht sagen, nutze selbst 3 Monitore und habe einen 16 Kerner. Daher wundere ich mich ja auch ziemlich über solche Aussagen. Die ganzen Kleinigkeiten die nebenbei laufen, brauchen nämlich kaum Leistung. Von Vorteil sind hier eher mehr Ram. Wobei da 32 GB auch für die meisten dicke reichen, selbst bei Speicherhungrigen Spielen nebenbei.

Also wenn ich mal schaue, meine CPU auslastung liegt gerade bei 2-5%... wobei die 2% deutlich überwiegen. geöffnet sind 20 tabs in Chrome u.a. mit Twitch, Sotify web etc. und zwei Firefox Tabs, eine Remote Desktop Verbindung, paar Spieleclients wie Steam im Hintergrund und Discord.

Das schafft auch jede CPU mit deutlich weniger kernen nebenbei ;)

Wadenbeisser schrieb:
Einmal mehr sehe ich an deiner Argumentation das du dabei den vollen Tunnelblick besitzt denn man höre und staune, die vom Spiel ungenutzten Kerne kann man ganz einfach für andere Aufgaben nutzen.

Jaja voll der Tunnelblick ^^ Und wie gesagt, ich sage nicht, dass das nicht geht. Nur das das kein realistisches Szenario für die meisten ist, da die meisten nichts nebenbei machen, was viel Leistung kostet.

Wadenbeisser schrieb:
Gibt ja genug Streamer die genau deshalb auf viele Kerne setzen. Bei mir wären das eben ganz einfach andere Aufgaben.

Joa, wobei das jetzt für den Durchschnittsuser auch schon eher exotisch ist. Die nutzen dann eh lieber Nvenc. Noch beliebeter ist ein Setup mit separatem Streamingrechner :)

Wadenbeisser schrieb:
Bei mir wären das eben ganz einfach andere Aufgaben.

Geb doch mal ein paar konkrete Beispiele für deine Aufgaben... Wie gesagt, es geht ja auch nicht um den Einzellfall, sondern mehr um die breite Masse und bei denen wird wohl Gaming eher an oberster Stelle stehen und da geht auch ein wenig Kleinkram nebenbei bei aktuellen CPUs.

Wadenbeisser schrieb:
Mit genug Kernen ist das absolut kein Problem und auch andere Tasks können nicht dazwischen pfuschen und Framedrops im Spiel verursachen weil sich die Programme um die Kerne kloppen.

ich dachte

Wadenbeisser schrieb:
Mir ist die Framerate herzlich egal denn ich will spielen und nicht benchen.

Wadenbeisser schrieb:
Ist sie für mich unzureichend wird der Flaschenhals gesucht und beseitigt.

Kannst du mir da bei StarCraft 2 bitte helfen?
Wadenbeisser schrieb:
CPU seitig wurde bisher lediglich der FX zum Ende hin zu langsam.

Also mit Zen 1 Kernen fallen mir spontan viele spiele ein, wo die CPU zum Limit wird, trotz langsamer Vega 64. Aber auch hier hängt es immer vom Anwendungsfall ab.
Wadenbeisser schrieb:
Meinetwegen kann diese dann auch bei 40-50 FPS liegen, wozu soll ich dann also krampfhaft an einer fixen 60 FPS Marke fest hängen und dafür auch noch Qualitätseinbußen bei der Grafik hinnehmen?

Also mir ist die Framerate deutlich wichtiger, als die Grafik. deshalb wird wohl auch bald ein komplett neues System ins Gehäuse ziehen. Auch hier gibt es wohl sehr unterschiedliche Auffassungen. Aber sagen wir so, dass immer breiter werdende Angebot an, 144, 165, 240 und gar mehr Hz Monitoren zeigt mir schon, dass ich da nicht alleine bin.
Wadenbeisser schrieb:
Und du bist dann also der Nabel der Welt nach dem sich gefälligst alle anderen mit ihren Anforderungen zu richten haben?
Die frage möchte ich gerne zurückgeben.
Tonks schrieb:
Das du mehr Wert auf Multi legst ist doch auch OK. Wenn es für deinen Anwendungsbereich Sinn macht dann ist es so.

und genau das ist doch das Thema. Verschiedene Ansprüche führen zur unterschiedlichen Wahl des prozessors. warum muss man da also nun so verbissen sein, wie einige hier?
 
  • Gefällt mir
Reaktionen: KlaraElfer, tidus1979, USB-Kabeljau und 2 andere
USB-Kabeljau schrieb:
Wenn es darum geht, stabile 60fps zu bekommen, limitiert bei mir faktisch die CPU.

Du hast faktisch eine 6 Jahre alte CPU und während du diese weiter benutzt ist deine 6 Jahre alte GPU anscheinend zum Alteisen geworden, also was hat denn wohl wirklich limitiert?

Dein Vergleich hinkt sowieso, weil du einerseits die Reduktion der Grafikqualität nicht als "Limitierung" ansehen willst, die verringerten FPS durch eine langsame CPU aber schon. Ich Wirklichkeit ist eben beides ein Limit und wenn du mit schlechterer Qualität zurecht kommst, müsstest du dann auch mit 30FPS zurecht kommen und da reicht dann auch deine CPU noch für viele Jahre oder eine x-beliebige Kartoffel die man aktuell kaufen kann.
 
@Shoryuken94

Ganz einfach, wenn diese Argumentation nachweislich seit 15 Jahren und mit Einbeziehung der multi CPU Systeme für den Desktop Rechner sogar seit locker 20 Jahren (Ausgangspunkt Abit BP6) Unsinn ist, warum sollte das jetzt anders sein? Alles hängt vor allem davon ab wie programmiert wird und wenn nicht alles (100%) parallelisierbar ist dann ist mir das herzlich egal wenn es davon z.B. 95% wären.

Ich bin nicht derjenige der hier schwarz weiss denkt denn diese 95% wären dann eindeutig grau.

Und nein, die die Rechnung ist keine Milchmädchenrechnung sonder praxisnahe Mathematik.
Der Sheduler weist die Kerne nunmal gern nicht fest zu sondern läßt die Arbeit auch mal gern über mehrere Kerne springen und am Ende wird dann der Mittelwert bei der Kern Auslastung angezeigt. Ein Effekt den ich bei meiner Ursachenforschung schon öfters beobachten konnte denn deaktiviert man dann Kerne steigt auf wundersame Art und weise die Kern Auslastung wobei sich an der letztendlichen Leistung im Programm nichts ändert.
Würdest du dir mal die Mühe machen die Werte zu hinterfragen dann würdest du ganz schnell bei der Frage landen wie eine CPU limitieren kann wenn die Kerne nicht voll ausgelastet sind.
In der Praxis kann dies natürlich wie bei DX11 auch den Grund haben das der Kern mit dem Main Thread ganz einfach dicht ist und keine weitere Arbeit auf andere kerne verteilen kann, hängen aber alle bei Teillast rum ist das garantiert nicht der Fall.
Theorie und Praxis eben.

Auch sauge ich mir hier nichts aus den Finger, die Ursachen für die Limitierung interessieren nur ganz einfach kaum jemanden und werden bei Tests konsequent ignoriert. Es ist beim Endergebnis vollkommen egal wieviele Threads genutzt werden könnten wenn das Spiel sie bei seinen leistungskritischen Bestandteilen nicht nutzt. Für das Endergebnis ist dann nicht die Leistung des Prozessors sondern die Unzulänglichkeiten des Spiels verantwortlich und der Chip ist schneller der diese Unzulänglichkeiten am besten bedienen kann.

Und zu Starcraft 2, ist das dein ernst? Eine der Multicore Krücken schlechthin.
 
Wadenbeisser schrieb:
@Tigerfox

Wo ist dein Beleg für eine entsorechende Drosselung?
Bisher habe ich nur viel Dampfplauderei die man dir auch ganz bestimmt glauben soll gelesen, er hatte zumindest Gründe gebracht warum das nicht sein könnte. Von meiner Erfahrung mit PCIe Switches auf dual GPU Karten kann ich nur sagen das weniger Lanes vom Slot nicht an die GPUs weiter gereicht werden.

Bitte sehr, bitte gleich :D
 
@Tigerfox

Da geht es um Chipsätze die genau das beherrschen und nicht um PCIe Switches denen du es absprechen willst. 🤔
 
Ich spare mir einfach längere Antworten, es hat eh keinen Sinn mit vielen hier zu diskutieren, da wird sich das einfach immer zurecht gebogen, wie es einem gefällt.

Statt stichhaltiger Argumente sagt man dann einfach "Ja nach meiner Erfahrung ist es XY", "Das ist ein Sonderfall", "Schau über den Tellerrand", "Dem Mainstream ist das egal" Typisches Bullshitbingo

Einfach nur lächerlich, was manche hier abziehen und wie "argumentiert" wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, tidus1979, USB-Kabeljau und eine weitere Person
Wadenbeisser schrieb:
@Krautmaster
Edit: wenn ich das richtig sehe müsste das der Sockel 1366 sein.
so genau hab ichs gar nich angeschaut, ggf copy paste Fehler. Mal suchen ob man was zu AM4 findet, aber tut zur Diskussion eh nich viel :)

Edit. Ja war echt LGA1366. sry
 
  • Gefällt mir
Reaktionen: Shoryuken94
@Wadenbeisser : Du selbst hattest den Eindruck erweckt, dass dies das Gleiche sei. Ist es auch prinzipiell.

Bei den 300er-Chips gab es vorher eine große Verwirrung. Die sollten 4xPCIe3.0 für 2xSATAe haben, was aber eben nicht in 1xPCIe3.0x4 zusammenfassbar sein sollte, außerdem soll die Verbindung zur CPU über 1xPCIe3.0x4 erfolgen.
Daraus ist aber nichts geworden, laut der verlinkten Meldungen haben die Chips die Zertifizierung nicht erhalten, kein einziges Board mit 300er oder 400er-Chipsatz bietet in irgendeiner Form oder Anbindung PCIe3.0.
Die einzig mögliche Erklärung ist, dass die Chips generell Gen3 beherrschen sollten, aber nicht für alle Lanes zertifiziert werden sollten (evtl. Kosten der Signalwege etc.).

Dies wird wahrscheinlich eines der großen, ungeklärten Mysterien der Hardware-Geschichte bleiben. Vielleicht kommt Licht ins Dunkel, falls es sich bewahrheiten sollte, dass der B550 ein X470 mit Gen3-Zertifizierung ist. Auf jeden Fall ist das alles so nebulös, dass man nicht damit beweisen kann, dass es PCIe-Controller geben kann, die auf manchen Lanes eine andere Gen beherrschen als auf anderen.
Es ist z.B. auch kurios, dass beim X370 bei einigen Herstellern 8xSATA vom Chipsatz zur Verfügung standen, beim X470 dann aber nicht mehr.

Da es keinen PCIe-Switch mit Lanes unterschiedlicher Generationen gibt, muss ich garnichts beweisen, sondern Du, wenn Du das Gegenteil behauptest.
 
Pjack schrieb:
Das ist die Anzahl der "inkompatiblen" Pins zwischen den beiden Sockeln. Entweder ist der Rest also "zufällig" schon passend beschaltet oder komplett frei auf Boards mit Sockel 1151 V1.


Doch, sagt halt aus, dass es im Alltag und auch jeder denkbaren OC-Situation absolut problemlos läuft. Die Spezifikation, was ein Pin kann kommt doch sowieso von Intel. Ist ja nicht so, als würden sie gegen irgendeine DIN verstoßen, wenn sie testen, was der Sockel kann und merken, dass es problemlos funktioniert.


Hier scheint eher der Fan "seinen" Hersteller trotz dessen Kundenunfreundlichen Verhaltens zu verteidigen. Selbst wenn man davon ausgehen würde, dass die Pin-Geschichte der Grund wäre, erklärt das nicht, warum die 4-Kerner der 8er und 9er-Generation dann auch nicht für den Sockel gebracht wurden. Im Gegensatz zu den 6- und 8-Kernern sind die voll Pin-kompatibel, nur das passende BIOS fehlt.

AMD nimmt extra Aufwand in Kauf, um neue Prozessoren kompatibel zu bestehenden Plattformen zu halten, Intel betreibt extra Aufwand, damit es nicht so ist.

viel Text und Vorwurf dafür dass du nicht einmal auf erhöhte Anzahl der Power Pins eingehst.

Anders gefragt. Wieso hat Intel wohl bei quasi gleichem Sockel die Power Pins beim 1151 V2 erhöht wenn es weniger doch in deinen Worten "Jeder OC Situation tut"?

Dass man den Rest vom Sockel dabei quasi gleich lässt macht doch Sinn. Kein Sinn macht deine Logik von wegen dass Intel aus Jucks einfach mehr der vorhandenen Pins für den Saft her nimmt wo es doch gar nicht nötig wäre.

Im übrigen hab ich klar geschrieben dass es neben diesem technischen Aspekt sicher auch einen wirtschaftlichen Aspekt gab. Aber gegen einen rein wirtschaftlichen Aspekt spricht eben diese genannter Änderung bei den Power Pins von LGA 1151 auf 1151V2
 
Zuletzt bearbeitet:
Zurück
Oben