News Intel Comet Lake-S: MSIs Portfolio bietet auch ein 960-Euro-Mainboard

Esenel schrieb:
Ich zitiere einfach mal Dave von PCGH ausm Community Bench:
"Was Esenel da zaubert, könnte die Mainstream-Leistung der übernächsten CPU-Generation sein."--- PCGH_Dave
Du meinst die Leistung der übernächsten Intel CPU Generation? xD
Im Multicore Bereich ist Intel bereits heute schon der Konkurrenz erheblich hinterher und wenn die Geschichte eines gelehrt hat dann das sich auch Spiele weiter entwickeln und spätere Spiele mehr Kerne effektiv nutzen können, womit du dann heute eine CPU von vorgestern hättest.

Ich schreibe es gern nochmal, Intels CHips sind nur dann schneller wenn man selbst oder die Software nicht in der Lage ist die zusätzlichen Kerne der Konkurrenz zu nutzen.....und natürlich wenn die Konkurrenz durch die Software mit veralteten Befehlssätzen künstlich ausgebremst wird.
 
Wadenbeisser schrieb:
Du meinst die Leistung der übernächsten Intel CPU Generation? xD

Ich bin in meinem Anwendungsbereich, Games, 20-35% schneller als die Konkurrenz.
Heute schon.
Kommt etwas schnelleres raus, Hersteller egal, kommt das rein.

Und ich hatte den Ryzen 1700X und 2700X als es noch kein Happy Hippo Produkt war.

Bin halt kein blinder Marken Käufer wie einige hier...
 
  • Gefällt mir
Reaktionen: KlaraElfer und Shoryuken94
@KlaraElfer

Es sind auch nicht allso viele bereit die 4000€ für den 3990X auf den Tisch zu legen und nun?
Soll ich das jetzt als Indiz verstehen das du jegliches Preisgefühl verloren hast?
Das Ding hätte übrigens etwas mehr als die 5 fache Leistung des auf seine TDP begrenzte 9900KS.
Im Test des 3990X waren die Werte der ungedrosselten Version die vor allem beim AVX Vollast Test dem Verbrauch des 64 Kerners sehr nahe kam.
Ergänzung ()

USB-Kabeljau schrieb:
Übrigens: AM4 hat etwa 200 Versorgungs-Kontakte, und das ist kein LGA. Die Stifte können mehr Saft ab.
War dass das Schaubild des AM4 Sockels?
Das wäre interessant wenn mal wieder jemand seine CPU aus dem Sockel geruppt und dabei Pins verbogen hat. :D
Ergänzung ()

@Esenel
Und später bist du mit der gleichen Hardware vermutlich 30% oder mehr langsamer, und nun?
Die Voraussetzungen dafür gibt es mit den neuen APIs ja schon länger, nur müssen sie von der Spiele Industrie auch umgesetzt werden.
 
Zuletzt bearbeitet von einem Moderator:
Pjack schrieb:
Richtig. Zwischen 1152 und 1152 V2 sind genau zwei stromführende Pins dazu gekommen.
Kann sich ja jeder selbst überlegen, ob das bei einer Steigerung der TDP von 91 auf 125 Watt technisch unbedingt erforderlich ist. Zumal die Annahme, dass Intel an die Grenze der Leistungsfähigkeit der Pins gekommen ist, eben genau das ist: eine Annahme.
Bei den ganzen Reservepins, die so ein Sockel hat, sind sicher auch mehr als genug für die Stromzufuhr verbaut.
Das dürfte weniger was mit Reserve Pins zu tuen haben als vielmehr mit der Stromlast die sich auf die Pins aufteilen muss. Wenn einzelne drauf gehen macht das in der Masse nicht viel aus, wobei das beim ungedrosselten 9900KS schon grenzwertig werden könnte.
Ergänzung ()

@Krautmaster

Bin wohl noch nicht ganz wach und hatte mir vielleicht das falsche Zitat zusammengestutzt? :o
Dann speicher ich mir das Schaubild mal ab, wer weiss wann man das mal bräuchte. :daumen:
 
Wadenbeisser schrieb:
@Esenel
Und später bist du mit der gleichen Hardware vermutlich 30% oder mehr langsamer, und nun?
Die Voraussetzungen dafür gibt es mit den neuen APIs ja schon länger, nur müssen sie von der Spiele Industrie auch umgesetzt werden.

Ich weiß.
Lesen kann nicht jeder.

Esenel schrieb:
Kommt etwas schnelleres raus, Hersteller egal, kommt das rein.
..
Bin halt kein blinder Marken Käufer wie einige hier...

Da Copy und Latenz immer noch die wichtigsten Eigenschaften für Leistung in Spielen sind, wird sich hier so schnell wenig ändern.

Du darfst gerne in deiner Herstellerblase bleiben.
Ich tue das nicht.
 
  • Gefällt mir
Reaktionen: Shoryuken94
@Esenel

Für jemanden der alle Nase nach seine Hardware wechselt und dabei massig Geld verbrennt mag die Argumentation passen aber nicht für jemanden der sie längerfristig nutzen will. Da kommt dann nämlich genau das bei raus was ich schrieb.

Was offenbar einige nicht verstehen wollen, Anwendungsprofile unterscheiden sich stark, auch wenn einige das mit ihrem Tunnelblick (der sich durch ihre Community Blase auch noch verstärkt) nicht sehen wollen.
 
Wadenbeisser schrieb:
Was offenbar einige nicht verstehen wollen, Anwendungsprofile unterscheiden sich stark, auch wenn einige das mit ihrem Tunnelblick nicht sehen wollen.

Ich nehme mal an, dass du hier gerade von dir selbst redest?
 
Wadenbeisser schrieb:
Du meinst die Leistung der übernächsten Intel CPU Generation? xD
Im Multicore Bereich ist Intel bereits heute schon der Konkurrenz erheblich hinterher und wenn die Geschichte eines gelehrt hat dann das sich auch Spiele weiter entwickeln und spätere Spiele mehr Kerne effektiv nutzen können, womit du dann heute eine CPU von vorgestern hättest.

Die gleiche Argumentation, die man schon zu Bulldozer Zeiten immer wieder gelesen hat. Aber ja, wir sind da angekommen, dass ein FX8150 tatsächlich in den meisten modernen Spielen etwas schneller ist, als ein i5 von damals.

Die Geschichte hat viel eher gezeigt, dass man sich heute keine Hardware kaufen sollte, die Morgen eventuell besser ist. Nicht selten ist die Hardware bis dahin hoffnungslos veraltet und ein Upgrade auf die Einstiegsklasse wäre sinnvoller.

Trotz 100% mehr Threads ist ein 3950x bislang in keinem Spiel wirklich signifikant schneller obwohl es durchaus einige gibt, die deutlich über 16 Threads nutzen können. Ein First Gen Threadripper sieht in den spielen meist nicht mal dir Rücklichter eines 9900K.

Bin da eher den Fan davon, dass man sich das kauft, was auf eine absehbare zeit besser performt. Für die Zukunft kaufen hat sich bislang selten wirklich gelohnt.

Wadenbeisser schrieb:
Ich schreibe es gern nochmal, Intels CHips sind nur dann schneller wenn man selbst oder die Software nicht in der Lage ist die zusätzlichen Kerne der Konkurrenz zu nutzen.....

Ich lehne mich mal aus dem fenster und würde behaupten, dass die wenigsten wirklich viel von vielen kernen haben, da sie kaum Software nutzen, die diese auslasten kann und selbst wenn Sie es kann, privat ist es den meisten relativ egal, wenn sie hier und da 2-3 Minuten länger warten beim rendern. Spiele dürften in weiter Teilen noch immer die Anwendung privat sein, die den Vorrang bei vielen genießt. Bei den ganzen Basic Tasks ist es eh egal, was man verbaut hat, da reicht jede Desktop CPU der letzten Jahre.
 
  • Gefällt mir
Reaktionen: Krautmaster und Esenel
@Esenel

Na fast, eher von den drolligen Usern die der Meinung sind das PCs vor allem zum Spielen genutzt werden und damit auch nur dieses Szenario gilt.
War das hier oder in einer anderen Diskussion? Alles so verwirrend. :freaky:
 
Krautmaster schrieb:
Das ist die Anzahl der "inkompatiblen" Pins zwischen den beiden Sockeln. Entweder ist der Rest also "zufällig" schon passend beschaltet oder komplett frei auf Boards mit Sockel 1151 V1.

Krautmaster schrieb:
sagt nur halt leider nix aus.
Doch, sagt halt aus, dass es im Alltag und auch jeder denkbaren OC-Situation absolut problemlos läuft. Die Spezifikation, was ein Pin kann kommt doch sowieso von Intel. Ist ja nicht so, als würden sie gegen irgendeine DIN verstoßen, wenn sie testen, was der Sockel kann und merken, dass es problemlos funktioniert.

Krautmaster schrieb:
Hier maßt sich wie üblich der Foren Experte an es besser zu wissen als der Hersteller wann ein Sockel nötig ist und wann nicht.
Dass dahinter auch wirtschaftliche Aspekte stehen - absolut - aber die Sockel sind eben nicht wie oft dargestellt einfach 100% identisch mit anderer Einkerbung.
Hier scheint eher der Fan "seinen" Hersteller trotz dessen Kundenunfreundlichen Verhaltens zu verteidigen. Selbst wenn man davon ausgehen würde, dass die Pin-Geschichte der Grund wäre, erklärt das nicht, warum die 4-Kerner der 8er und 9er-Generation dann auch nicht für den Sockel gebracht wurden. Im Gegensatz zu den 6- und 8-Kernern sind die voll Pin-kompatibel, nur das passende BIOS fehlt.

AMD nimmt extra Aufwand in Kauf, um neue Prozessoren kompatibel zu bestehenden Plattformen zu halten, Intel betreibt extra Aufwand, damit es nicht so ist.
 
Der PC wird privat überwiegend zum Spielen oder Office Anwendungen genutzt.
Die paar die nun privat Videos schneiden werden auch mit nem 3600 glücklich werden.

Das drollige Argument Anwendungen hab ich mir beim Kauf des 1700X auch eingeredet...
 
  • Gefällt mir
Reaktionen: KlaraElfer
xexex schrieb:
Ich denke fast jeder der mit einer Auflösung 1080p oder höher spielt, wird eher sein System im GPU als CPU Limit betreiben, die Qualität reduzieren zu müssen, ändert nichts an dem Limit.

Die Grafik zeigt schon ganz gut, dass man keine OC Kiste braucht um problemlos auch die aktuell dickste Karte befeuern zu können, auch wenn das natürlich nur für das eine Spiel gilt und bei anderen die Ergebnisse anders ausfallen können.
Anhang anzeigen 905131
https://www.computerbase.de/artikel/gaming/ghost-recon-breakpoint-vulkan-benchmark-test.71594/

Aber ich will hier letztendlich keine Diskussion über Für und Wider von OC führen. Fakt dürfte schlichtweg sein, dass selbst hier im Forum nur ein Teil der Nutzer Interesse am OC hat und schon dieses Forum ist wenig repräsentativ im Vergleich zu der "normalen" Welt, wo solche Systeme viel eher eine Ausnahme als die Regel darstellen.
Und ehrlich, wer hat schon eine 2080 Ti?
Eine 5700 XT ist doch auch sehr oft bei Full HD im GPU-Limit.
 
@Shoryuken94

Die Nummer zieht sich schon seit dem Aufkommen der ersten Dualcores durch die Diskussionen. Das ganze wurde immer wieder mit der gleichen "nicht alles ist parallelisierbar" Argumentation begründet und wird heute mehr als 1 Kern genutzt? Der hohle Spruch wurde ja auch schon bei der lausigen CPU Unterstützung von PhysX verwendet um diese zu rechtfertigen aber wenn es nicht parallelisierbar wäre, warum käuft es dann performant auf einer GPU die extrem auf Parallelisierung setzt?

Die effektivere Nutzung von mehr Kernen bei PC Spielen wurde in den letzten Jahren noch durch die Unzulänglichkeiten von DX11 und dem Klammern an diese API aufgehalten aber die weitere Entwicklung ist auch heute noch absehbar. Die größte Hürde dürfte dabei vor allem der Stand der PC Spiele im Markt sein, wodurch die Plattform eher mit billigen Konsolen Ports abgespeist wird.

Warum ein 3950x trotz 100% mehr Threads nicht automatisch schneller als ein 9900k ist?
Ganz einfach, die Spiele sind eben nicht in der Lage die zusätzlichen Kerne/Threads auch zu nutzen und auszulasten. Das ganze wird dann noch durch das Core Hopping des Shedulers über alle Threads breit geschmiert und schon schaut es so aus als würde mehr genutzt.
Du willst ernsthaft wissen wieviele Kerne/Threads das Spiel im harten CPU Limit wirklich nutzen kann? Nimm die Gesammtauslastung der CPU und rechne sie auf die Threads runter. Hängt diese beim 3950X also bei 25% und beim 9900K bei 50% dann werden maximal 8 Kerne/Threads genutzt und der Rest liegt für das Spiel selbst brach. Schon weißt du warum der 9900K schneller ist.
 
Wadenbeisser schrieb:
Na fast, eher von den drolligen Usern die der Meinung sind das PCs vor allem zum Spielen genutzt werden und damit auch nur dieses Szenario gilt.

Was machen die meisten Privat denn enorm leistungshungriges am PC? Die meisten nutzen Ihren Rechner zum zocken und für die üblichen Verdächtigen wie Office, Multimedia und hier und da vielleicht mal ein Bild bearbeiten oder ein kleines Video schneiden. Für die meisten reicht da privat eine CPU der Einstiegsklasse aus.

Ausgehend von einem 9900k haben die meisten da wohl mehr als genug Leistung für die nächsten Jahre.
 
  • Gefällt mir
Reaktionen: Esenel
@Shoryuken94
Ach ja, ich hatte damals einen FX-8350 anstatt des gleich teuren i5 gekauft und das hatte einen ganz simplen Grund. Er bot mir beim Daddel genug Leistung und es war absehbar das er mit fortschreitende Software Entwicklung den i5 überholen wird. Abgelöst wurde er später wegen dem Plattform Wechsel von einem 8 kernigen Ryzen. Der 16 Kerner ist für das System bereits aus dem gleichen Grund in der Planung.
 
Shoryuken94 schrieb:
Was machen die meisten Privat denn enorm leistungshungriges am PC? Die meisten nutzen Ihren Rechner zum zocken und für die üblichen Verdächtigen wie Office, Multimedia und hier und da vielleicht mal ein Bild bearbeiten oder ein kleines Video schneiden....
....
Ausgehend von einem 9900k haben die meisten da wohl mehr als genug Leistung für die nächsten Jahre.

Ja und die meisten davon haben ganz sicher keinen 9900k im Rechner.

Ausgehend von den wirklich Massen-Sellern (3600, 3700x) haben die Leute wohl auch da mehr als genügend Leistung für die nächsten Jahre. Ich lass dem 9900k gerne seine 10-12% Vorsprung, wenn ich für das Geld auf dem Markt beim anderen Hersteller CPU, Board und Ram kaufen kann.
 
  • Gefällt mir
Reaktionen: Esenel
Shoryuken94 schrieb:
Was machen die meisten Privat denn enorm leistungshungriges am PC?

Arbeiten?
Ich für meinen Teil mache mir auch gern mal den Spass die vom Spiel ungenutzen Kerne mit DC Projekten zu belegen. Der Leistungsnachlass durch den geringeren Allcore Takt hält sich dabei sehr in Grenzen.
Es kommen aber auch gern diverse Broweser Fenster, der Virenscanner und jede Menge anderer Kram hinzu die im Hintergrund fröhlich weiter laufen. Auch ist es verdammt praktisch Browser- und Chat Fenster auf einem zweiten Monitor auszugeben um sie damit im Auge behalten zu können. Das nennt sich übrigens Multitasking.

Einmal mehr sehe ich an deiner Argumentation das du dabei den vollen Tunnelblick besitzt denn man höre und staune, die vom Spiel ungenutzten Kerne kann man ganz einfach für andere Aufgaben nutzen. Gibt ja genug Streamer die genau deshalb auf viele Kerne setzen. Bei mir wären das eben ganz einfach andere Aufgaben.

Mag ja sein das dein 9900K auch später genug Leistung haben dürfte aber warum darf dann dieses Argument nicht für ein Produkt zählen das dann höchst warscheinlich schneller ist und noch länger genügt?
 
Korrekt.
Warum dann immer die Diskussion es braucht den 3900X, denn die Welt rendert nur noch?

Der 3600 tuts für fast alle.
Oder sogar der 1600 12nm.
Ergänzung ()

Wadenbeisser schrieb:

Dafür stellt mir mein Arbeitgeber ein Gerät.
Sollte deiner dies nicht tun, würde ich mal mit ihm reden.

Und Browser Fenster etc kann man auch aufm nem 3600 gleichzeitig offen haben.
 
  • Gefällt mir
Reaktionen: KlaraElfer und Pjack
xexex schrieb:
Ich denke fast jeder der mit einer Auflösung 1080p oder höher spielt, wird eher sein System im GPU als CPU Limit betreiben, die Qualität reduzieren zu müssen, ändert nichts an dem Limit.
Das ist eine sehr seltsame Sichtweise.

Wie gesagt:
Wenn es darum geht, stabile 60fps zu bekommen, limitiert bei mir faktisch die CPU.
Das ist mit der RTX 2070 S so. Aber das war mit der GTX 960 ganz genau so.
Denn die CPU limitiert in jedem Fall.

Die GPU limitiert vielleicht die optische Darstellungsqualität, aber eben nicht absolut die Framerate.

xexex schrieb:
Die Grafik zeigt schon ganz gut, dass man keine OC Kiste braucht ...
Wie viel CPU-Leistung man braucht, hängt halt davon ab, was man machen will.
Die Top-End K-Prozessoren sind ja auch ohne OC schon schneller als die anderen Modelle.
Wüsste aber auch nicht, wieso man OC nun irgendeine Art "Sonderstatus" einräumen sollte, wenn es darum geht, was man braucht und was nicht.
Mehr Leistung ist mehr Leistung.
 
  • Gefällt mir
Reaktionen: KlaraElfer, Esenel und Shoryuken94
Zurück
Oben