News Intel-CPU-Gerüchte: Comet Lake bringt 26 Modelle und bis zu 5,3 GHz

Winder schrieb:
Wie gesagt, bei Spielen gibt es Tausende Sachen, die berechnet werden müssen, das sollte kein Problem sein.
hast du meine Frage zu Larrabee überlesen?

KnightsCorner u was da alles schon da war nicht mitbekommen?

warum hat man dein Problem nicht schon damals gelöst , und warum soll das jetzt mit AMD auf Kerntrip anderst sein?

Das einzig gute an x86 many Cores war so etwas wie Raytracing auf allen Kernen, aber auch da sind die Grafikkarten heute ,was die Berechnungen anbelangt im Vorteil
 
Zuletzt bearbeitet:
Was bei Intel einfach besser geht, ist das Thema OC/UV der CPU.

Was teilweise gezeigt wird (vermutlich auch richtigerweise) sind "Auto" Settings der Mainboards.

So ein 9900KS kann unfassbar gut undervolted werden und das bei noch immer 5Ghz Allcore. Wir reden hier von 1.2V oder weniger. Das ist schon wirklich super. Dann sind die Verbrauchswerte vollkommen anders. Auch beim RAM kann man mit den Intels richtig Gas geben.

Was mir bei AMD fehlt, ist eine richtig potente GPU. Die 5700XT bekomme ich easy auf 99% Load in BF5 bei 2560x1080P und 144Hz. Zum Vergleich liegt da eine 2080Ti bei 60% Load.

Nun kommt mein Wahnsinns-Projekt mit 2x5700XT im Crossfire, weil Battlefield immer sehr gut mit Multi GPU skaliert hat. Der 3900X wird durch einen 3950X ersetzt und dann gucken wir mal was da wirklich bei rum kommt.

Im GPU Segment ist es total langweilig geworden. Ich hoffe auf die 3080Ti und Big Navi mit 16GB Speicher.
 
  • Gefällt mir
Reaktionen: SVΞN, Laphonso, blacklotus83 und 2 andere
captain kirk schrieb:
Dann kannst du sicher auch erklären warum Intels Larrabee, nicht schon vor Jahren voll durchgestartet ist, wenn Parallelisierung doch so einfach geht, und warum das jetzt seit Ryzen sich geändert haben soll^^
Larrabee war eine CPU?
Für Spiele PCs?
Mit einem riesigen Marktanteil?

Ich habe nicht gesagt das es einfach ist.
Es ist eine Aufgabe, die viel Man Power braucht.
Und diese Arbeit nimmt man halt nur auf sich, wenn der Markt groß genug dafür ist.
Bei 1% der Spiele PCs lohnt sich das halt nicht.
Bei den Konsolen hingegen schon.
Aber deswegen werden wir beim PC auch erst einmal bei 8 bis 16 Kernen hängen bleiben, bis die PS6 erscheint (2027).
 
Krautmaster schrieb:
Ging ja nur darum dass man das easy wirtschaftlich von der Größe fertigen kann. Intel kommt der 10C nach wie vor sehr günstig. Vermutlich weit günstiger als AMD aktuell 10C Kosten.
Okay, dann vllt anders ausgedrückt:
https://www.pcgameshardware.de/CPU-...-wegen-AMD-Core-Prozessoren-groesser-1340093/
Größere Chips reduzieren die Produktion um ein Drittel
Intel gab auf einer Konferenz zu, dass die Lieferschwierigkeiten durch die inzwischen größeren Core-Prozessoren ausgelöst oder zumindest verstärkt wurden. Diese sind wiederum notwendig, um AMDs Ryzen-CPUs zumindest einigermaßen in Schach zu halten.

Zwar verstehe ich den Ansatz 16 oder 20 Core durch doppel Ringbus und keine IGP, aber der Chip wäre dann wie gesagt nur was für den Desktop, was den Chip dann teurer macht, im Vergleich zu Comet Lake, welchen man Notebook, Desktop und (untere Sever) verwenden kann. Und je nach Ausbeute verwursten kann.
 
rico007 schrieb:
@fdsonne

Kommt immer drauf an, was man machen will.
Beim Gamen wird es sicher genügend geben die 5 GHZ Allcore locker packen.
Beim Rendern eher nicht, haben wir auf der Arbeit schon mehrere male nachgestellt. Selbst mit Custom Wakü und hochgezogenen Power Target, 5 GHZ stabil packte kein 9900K. Aber 4,6 - 4,8 GHZ sind auch top, wenn man bedankt dass da immer die alte 14nm Fertigung hinter steckt.
Dafür brauchst du ne wirklich gute Kühlung und CPU bzw. KS, dann ist das kein Problem auch mit über 5Ghz selbst mit FMA3 ist bei 5/5,1Ghz drin.
Das sind dann die 5,2/5,3Ghz NonAVX CPU´s.
 
Zuletzt bearbeitet:
new Account() schrieb:
Teilweise mag das stimmen, aber im goßen und ganzen ist das einfach falsch:
Es geht einfach nicht, weil vieles nicht parallelisierbar ist.

Dieses ewige "nicht alles ist parallelisierbar" Gespräch ist doch wirklich langweilig mittlerweile.

Grundsätzlich stimmt es, nicht jede Berechnung kann parallelisiert ablaufen, es ist aber auch Fakt, dass grade im Software-Bereich Multithreading bisher eine kleine Rolle gespielt hat und sich dort extrem viele Engines/Entwickler etc. noch ganz am Anfang befinden.

Es wird auch künftig neue Schnittstellen geben, die das ganze den Entwicklern erleichtert.

Schon seit dem 7700k und Ryzen 1700x wird immer das gleiche Argument gebracht (nicht alles parallelisierbar, keiner braucht 8-Kerner). Komischerweise sehen wir aber jetzt diese 8-Kern CPUs an der Spitze, wo die 4-Kerner nichts mehr zu melden haben.
 
  • Gefällt mir
Reaktionen: GERmaximus, PS828, DarkerThanBlack und 3 andere
Winder schrieb:
Larrabee war eine CPU?
Für Spiele PCs?
Mit einem riesigen Marktanteil?

Ich habe nicht gesagt das es einfach ist.
Es ist eine Aufgabe, die viel Man Power braucht.
genau wegen dieser Unwirtschaftlichkeit gibt es Larrabee nicht mehr , und konnte sich auch nie wirklich durchsetzen, weil selbst GPUs deren Berechnungen effizienter durchführten

Aber AMD wird das jetzt ändern weil?^^

Weil selbst das einzig wirklich brauchbare Betätigungsfeld im Parallelem Traumland für Gamer (Raytracing) jetzt ebenso von GPUs abgefrühstückt wird

Selbst AMD wird das in den kommenden Konsolen so handhaben ist mir zu Ohren gekommen
 
Zuletzt bearbeitet:
rico007 schrieb:
Aber 4,6 - 4,8 GHZ sind auch top, wenn man bedankt dass da immer die alte 14nm Fertigung hinter steckt.
Warum sollte das nicht gehen? 4,7GHz ist der Allcore Boost des 9900k. Wenn alle Stricke reißen, Allcore wird der Prozessor definitiv stabil schaffen.
Man darf natürlich nicht da jetzt AVX Volllast drauf dübeln, klar... Es gibt zwar kein AVX Offset negativer Art beim 9900k, aber ich sehe da aus eigenen Tests her kein wirkliches Problem. Kühlung, Spannungsversorgung usw. müssen halt passen. Wenn ein beliebiger Core 5GHz stabil schafft, dann schaffen auch alle Cores 5GHz. Anders als bei irgend nem speziell markierten Core, wo dann nur dieser den Takt schaffen soll - aber das gibts weder beim 9900k noch beim ks soweit ich weis.

pipip schrieb:
Selbst wenn Intel den Ansatz reine CPU für Desktop gebracht hätte, kurz sagen wir oben die IGP weglassen, nur CPU Cores, doppelter Core Ansatz zu 12-16 Cores, würde es für Intel den Chip in Relation zu anderen Intel Chips oder auch zu AMD "teuer" machen (Außerdem nicht zu vergessen, dass irgendwie das Si so aufgeteilt werden müsste, dass eine Gruppe dann an einem SpeicherInterface lege). Es würde neben Entwicklungskosten einfach nur Prestige-Kosten bedeuten. Insofern, man seit Zen1 Gen so schnell entwickel kann. Weil ich vermute mittlerweile, dass Intel da noch sehr mit Hand optimiert, während man bei AMD (und dafür wurde ja AMD oft belächelt) mit Programmen arbeitet, die Teils von der GPU Entwicklung stammen. Aber gut das ist wirklich nur eine starke Annahme und eine Vermutung, die ich aus vergangene Artikel in Erinnerung geblieben ist.
Wieso Vermutungen anstellen, wenn es Fakten dazu gibt?
Ein Doppelringbus, inkl. dem von dir genannten "Aufteilen" des SI, gibt es seit Jahren in Intels "Schublade" - klingt vllt wieder doof, aber das Design hat man erfolgreich beim Broadwell-SP/EX genutzt. Zwei Doppelring Systeme, mit einem Interconnect dazwischen. Geteilem SI, keine GPU, shared L3 Cache usw. usf. All das, es existiert bereits... Hätte man das gewollt, man hätte es bringen können. Hat man aber nicht, man hat sich zugunsten der Vorteile in diesem Bereich für ein Mesh Konstrukt entschieden, weil offenbar der Doppel-Ring mit dem Interconnect Latenzen in die Höhe schnellen lässt, wenn da mal mehr los ist, als nur ein Spiel zu berechnen.
Technisch möglich das zu bringen wäre absolut kein Ding gewesen. Das belegt ganz eindeutig der gesplittete Ansatz von SKL-S vs. SKL-X/SKL-SP. Die CPU Architektur der Cores ist ohne großen Aufwand entkoppelbar vom Interconnect Ansatz.

Weiterhin ergibt das Spekulieren über den Wegfall der IGP bei einer Mainstreamlösung mMn keinen Sinn. Nur weil AMD das aktuell so macht (mehr oder weniger Notgedrungen - die GPU geht da atm offenbar nicht dran) gilt das für eine Intel noch lange nicht. Sie verkaufen ungefähr drei von vier der mit IGP produzierten produzierten Einheiten in einem Markt, der ne IGP nutzt und nicht umgekehrt, in einem Markt, wo das nur sinnloser Beikram wäre. Bei AMD aber komplett umgekehrt, sie verkaufen sogut wie gar nix von ihrem non APU Design in einem Markt, wo die IGP notwenig wäre. So sehr man auch über das IGP Teil bei Intel schimpfen kann - gerade im Mobilebereich, Zusatz-dGPU hin oder her, die IGP hilft massiv der Effizienz. dGPU only hingegen hätte nur und ausschließlich Nachteile bedeutet.
Man kann also nur darüber spekulieren wie sinnvoll das Weglassen der IGP wirklich wäre - wenn bei drei von vier ausgelieferten CPUs im Client x86 Markt quasi dann ein zusätzliches Design MIT eben jeder IGP notwendig wäre. Wie schon x-fach erwähnt, der Entwicklungsfokus ist nicht der Desktop Markt. Lange schon nicht mehr (bei Intel). Desktop bekommt das, was in anderen Marktbereichen vorgelebt wird. Kompromiss könnte man das nennen. Wie auch AMD einen Kompromiss, nur eben andersrum fährt, weil dort der Fokus (vorerst) auf die viel kleineren Marktbereiche liegt, wo Intel atm eben "schwächelt"

pipip schrieb:
Aber was noch interessanter ist, vor Comet Lake Desktop, kommt eventuell bei AMD noch Renoir. Zwar für Notebooks, aber im Endeffekt wären hier auch 8 Core mit 13 CUs für den Desktop möglich. Und wenn diese Chips wie ich mal schätze wirklich nur 150 mm^2 groß sind, wären sie für Intel 10 Core mit IGP nicht weniger ein Druck als aktuelle Ryzen 3000 Gen.
Je nach Marktdurchdringung und wie sich die OEMs damit platzieren wird AMDs kommende 4000er APU der wirkliche Gegner zu Intels Mainstream Produkten. Denn mit einer effizienten APU und ohne die bisherigen Nachteile der alten Technik sowie auch den Effizienznachteilen gibt es in Sachen rein technischer Entscheidungsgrundlagen keinen Grund die APUs nicht zu kaufen. Über bleiben bestenfalls für Intel noch Gründe abseits der Technik. Bspw. das Festhalten an homogene Infrastrukturen ggü. aufwendigem Wildwuchs.
 
pipip schrieb:
nur was für den Desktop, was den Chip dann teurer macht, im Vergleich zu Comet Lake
Macht AMD ja auch nicht anders. Es gibt ja bald Renoir für Mobile mit iGPU.
 
pipip schrieb:
Intels Fertigung ist sowieso auf Quad Core ausgelegt ^^ Ohne Ryzen und nur 4 Cores, hätten wir vllt auch bereits 4 Cores in 10 nm vergleichbar zu der Gen5 Serie Damals mit 65 Watt TDP gesehen.
Das hat dann aber nicht so viel mit Chiplets vs. Einzelchip zu tun.
AMD bringt halt auch APUs mit über 200mm2 heraus, die dann teils für unter 50€ verkauft werden. Das sollte überhaupt kein Problem sein.

Intels Problem ist halt die verspätete 10nm Fertigung.
Und zusätzlich noch die Apple Modems, die die 14nm Fertigung blockieren. Falls im neuen iPhone was anderes steckt, würde auch wieder viel Kapazität frei.
 
Wenn die ernsthaft die Top-Modelle der neuen Gen nochmal in 14nm bringen ... gehts kaum noch lächerlicher.
 
Krautmaster schrieb:
Zudem dürfte Intel deutlich günstiger fertigen können (sind eben recht kompakte ausgereifte 14nm aus Eigenfertigung). Wobei der Preis wohl weniger das Problem ist wenn man Intels Zahlen anschaut, auch bringt ein niedrigerer Preis wenig wenn man auch so schon auf 150% Auslastung läuft und nicht genug fertigen kann. So gesehen gehts Intel ja was Nachfrage angeht nach wie vor blendend.

Intel-CPUs: Lieferprobleme wegen AMD, Core-Prozessoren mussten größer werden
https://www.pcgameshardware.de/CPU-...-wegen-AMD-Core-Prozessoren-groesser-1340093/
Intels Lieferschwierigkeiten sollen angeblich nicht nur durch die anhaltenden Probleme beim 10-nm-Prozess kommen, sondern auch durch den erstarkten Konkurrenten AMD. Dessen Produkte zwingen Intel, CPUs mit mehr Kernen zu produzieren, wodurch weniger Chips auf einen Wafer passen.

Intel musste auf die erstarkte Konkurrenz reagieren und dementsprechend auch mehr Kerne bieten. Diese benötigen allerdings mehr Platz, sodass aktuelle Intel-Prozessoren durchschnittlich 125 mm² benötigen. Das bedeutet, dass Intel aus jedem Wafer ein Drittel weniger Chips erhält und dadurch die maximale Produktionskapazität deutlich absackt. Laut einer Rechnung von 3D Center können auf einem 300-mm-Waafer 688 Chips mit 85 mm² oder 460 Chips mit 125 mm² untergebracht werden.

Mit den kommenden Comet-Lake-Prozessoren dürfte dieses Problem noch größer werden, denn dann möchte Intel bis zu zehn Kerne anbieten um AMDs Zen-2-Prozessoren angreifen zu können.
Intels lange kritisiertes Festhalten an immer kleiner und somit günstiger werdenden Vierkernern scheint sich somit nun zu rächen, denn von Intels Lieferschwierigkeiten profitiert insbesondere der Auslöser: Der Hauptkonkurrent AMD.
 
speedy55 schrieb:
lol ... also darf man quasi mal wieder ein 'Asus Formular XI', welches ein x370 Chipsatz trägt, was ~400 Öck en gekostet hat (gut ich habs für die Hälfte bekommen) und ca. ein 3/4 Jahr als ist, wieder in die Tonne treten!?!

Einfach zu Amd wechseln bis Intel umdenken zu beginnt.

Spart Geld und Ärger 👍
 
Die Frage ist für mich wie skalierbar die Architektur ist.

Ist bei 10/20 wirklich Schluss, oder kommt da noch was? Vermutlich ist das Limit hier nicht nur der Platz, sondern die Abwärme. Ein 9900K bei 1.38V knallt schon richtig ordentlich was in den Kühlkreislauf.

Bei 10C/20T mit bis zu 5.3Ghz wird das wohl eher noch mehr werden. Klingt auf jeden Fall extrem spannend.

Ich traue Intel hier schon echt was zu. 10/20 mit vielleicht 5.1Ghz Allcore und 5.3Ghz im Boost...hui hui.

Als nächstes kommt wohl die Umstellung auf DDR5 und PCIe 5.0. Das wird nochmal einen massiven Schub geben.
 
Wenn Intel jetzt dicht macht und das Vermögen fair aufteilt
Taxxor schrieb:
Ergänzend zu Esenels Antwort, kann man am CPU Limit mit Ändern von Settings halt auch selbst nicht viel ändern. Ist man da drin, bekommt man einfach nicht mehr FPS, egal was man macht.

Die Bilder werden erst von der CPU vorbereitet und dann von der GPU ausgegeben, es macht also Sinn, dass man eher möchte, dass die GPU limitiert, aber genug Daten zur Verfügung hat, als dass die CPU limitiert und die GPU keine neuen Daten bekommt.

Im GPU Limit möchte man also sein, und dann kann man auch alle möglichen Settings zurückstellen, um mehr FPS zu bekommen, solange man eben nicht ins CPU Limit kommt.

Dazu kommt dass die Lasten in MP spielen massiv schwanken können. In Mordhau z.b. läuft meine graka zwischen 50-100%, je nachdem wie viele leute auf dem Schlachtfeld sichtbar sind^^ Wenn ich alles auf anschlag knalle kanns sein ich hab zwar 120fps aber wenns haarig wird bekomm ich nur noch 60.
 
captain kirk schrieb:
genau wegen dieser Unwirtschaftlichkeit gibt es Larrabee nicht mehr , und konnte sich auch nie wirklich durchsetzen, weil selbst GPUs deren Berechnungen effizienter durchführten

Larrabee hat gegen die GPUs von AMD und NVIDIA verloren und nicht gegen leicht zu programmierene CPUs.

Wie du selbst sagtest, waren die GPUs einfach effizienter. Allerdings waren die mit Sicherheit deutlich schwerer zu programmieren, schließlich besteht eine GPU aus tausenden Recheneinheiten und das ganze Design ist viel paralleler aufgebaut.
Man hat halt die Arbeit auf sich genommen, den ganzen Code neu zu schreiben, weil GPUs effizienter waren und die Aufgabe parallelisierbar war.
 
Wie sieht es mit Intels Sicherheitslücken by Design bei den "neuen" CPU aus?
 
  • Gefällt mir
Reaktionen: GERmaximus
Winder schrieb:
Wie gesagt, bei Spielen gibt es Tausende Sachen, die berechnet werden müssen, das sollte kein Problem sein.
Und die sind auch nicht alle voneinander abhängig und sollten problemlos parallel nebeneinander laufen.
Das ist jetzt keine Berechnung von PI oder eine unglaublich komplexe Formel in Exel, die bei ihren Berechnungen immer wieder auf Ergebnisse vorheriger Berechnungen zurück greifen muss.
Das ist doch überhaupt nicht das Problem... Immer diese Mär der angeblich zusammenhängenden Berechnungen. Sowas gibts, aber eben nicht in der Form wie immer behauptet wird. Aber es gibt andere Probleme, die eben dagegen sprechen.
Spiele ticken nach einer eigenen "Zeit" - es gibt ein Ziel, in dem müssen alle Berechnungen durchgeführt werden. IdR. meint das das Spielebackend. Da laufen dann die Berechnungen für KI, Wegfindung, irgendwelche Simulationen usw. usf.
Der Spaß läuft normal so und so viel mal pro Zeiteinheit. Ich denke jeder kennt hier bspw. die immer wieder genannte Tickrate in Sachen Multiplayer-Shooter. Exakt das ist so ein Thema. Es gibt ne fixe Grundlage, bis zu diesem Punkt MUSS die Anforderung erfüllt werden, alles drüber skaliert einfach nicht.
Und wie schon angedeutet, der zweite Punkt ist die API Limitation. Wenn das Backend einmal schnell genug ist, bleibt noch die Anforderung durch den möglichen Flaschenhals der API nicht limitiert zu werden, wenn der Prozessor also in der Lage ist, nebst Spielebackend zusätzlich noch genügend API Calls durchführen zu können in eben jeder gleichen Zeiteinheit, dann hat man schlicht und ergreifend (nahezu) gar kein CPU Limit mehr. Egal wie man das anstellt, egal wie man da noch mit CPU Cores drauf schmeißt, es wird nicht skalieren, weil alles notwendige schnell genug berechnet wird und am ehesten noch die GPU limitiert um noch schneller zu werden.

Btw. sind Spiele seit Jahren, bestimmt 10 oder vllt in den Anfängen sogar mehr Jahre, üblicherweise recht stark Multithreaded ausgelegt. Man schaue sich einfach nur mal an, wie viele Threads ein Spiel "startet", nur weil es läuft.
Nutzen von verschiedenen Threads heißt aber eben lange keine Skalierung mit den CPU Cores noch oben, ABER es kann bedeuten, dass bei Kürzung der CPU Breite untenraus eine sehr starke Threadskalierung einsetzen wird.

Winder schrieb:
Im Vergleich zu Spielen gibt es wohl kaum Software, die so viele unterschiedliche Berechnungen gleichzeitig durchführt.
Man muss halt "nur" die Engine entsprechend anpassen. Die großen Studios werden das schnell schaffen, die kleineren werden mehr Zeit brauchen.
Das ist halt einfach eine Unwahrheit. Die Engines in der heutigen Zeit sind sehr gut auf MT ausgelegt. Aber man ändert durch Multithreading nicht das Prinzip Problem der ausbleibenden Skalierung mit mehr CPU Breite. Nichts anderes fordert aber idR die Community. Das ist technisch aber eben solange quatsch wie man sich nicht vom fixen Spielebackend oder den API Anforderungen löst/lösen kann. Und das wäre bspw. der Fall, wenn mit steigender CPU Breite die KI schlauer wird, dynamisch!
Will man sowas?? Ein Shooter, wo die KI ausgeführt auf nem 32C Threadripper dann unbesiegbar für den User wäre, weil sie eben "schlauer", "besser", "reaktionsfreudiger" oder whatever wäre als bei nur halb oder viertel so vielen verfügbaren Ressourcen.
Ich denke man versteht wie unsinnig so ein Ansatz wäre. Diese Barriere kann man in fast keinem Fall überschreiten ohne dass das Ergebnis irgendwie zu einem Problem wird.
Das was heute getätigt wird um mehr MT-Leistung ausnutzen zu können, man baut einfach mehr Berechnungen dran. Damit steigt die Basisanforderung. CPUs, die nicht schnell genug sind um die Basis zu stemmen, haben massiv Probleme. Aber das verschiebt den genannten BEP einfach nur nach oben -> bis es irgendwann noch breitere CPUs gibt, die dann wieder nicht skalieren.
 
  • Gefällt mir
Reaktionen: captain kirk
Zurück
Oben