News Intel-CPU-Gerüchte: Comet Lake bringt 26 Modelle und bis zu 5,3 GHz

Winder
@Krautmaster

Ich stimme dir zu Winder.
Also wieviel Chips fertigt Intel. Neben Chipsätze, Coffe-Lake dann auch Comet-Lake, nicht zu vergessen in
verschiedenen Ausführungen, da ja unterschiedliche IGP Varianten gibt zusätzlich drei Chips für Server.
Und dann glaubt man echt, dass wegen der Modem Fertigung Schluss ist ? Eher sehe ich, dass es reinspielt und man dann vllt mehr Desktop Chips fertigen könnte. Aber so Modems selbst, wie groß sind die ?

Im Vergleich zu AMD. GF: I/O Chip, Picasso. TSMC: Zen2 Chiplet. Und schon ist der gleiche Markt, vergleichbar zu Intel abgedeckt. Klar kann sich AMD dann leisten, einen Chip etwas günstiger zu verkaufen, oder ?

Somit Krautmaster Ansatz ist interessant und würde gut Paroli halten. Nur würde so ein Chip vermutlich die Kapazitäten noch weiter verschlechtern. Also toller technischer Einfall ist meist nicht immer ein wirtschaftlich guter...
Nehmen wir den Vergleich Threadripper. AMD wollt Epyc und Ryzen auf den Markt bringen. Threadripper entstand Mitarbeiter-Projekt. Klar, für Workstation braucht man keine 8 Channel Si. Somit hat man schnell eine Plattform geschaffen, die für Workstation geeignet ist. Und das mit quasi Null Aufwand.
Somit mit dem Chiplet-Design hat AMD einfach einen bedeutsame "Wirtschaftliche" Entscheidung getroffen, gegen eine rein technische, die Die Fläche gespart und eventuell mehr Effizienz bedeutet hätte. Die Effizienz kommt bei Zen aber durch die leichte Skalierbarkeit zurück.

Hoffe man versteht jetzt was ich meine, im Vergleich, 20Core mit Doppelten Ringbus, wäre für Intel einfach teuer gewesen und eher Prestige Sache. Da halte ich einfach das Fokussieren auf neue Design basierend auf 10nm oder 7nm als sinnvoller.
 
aldaric schrieb:
Grundsätzlich stimmt es, nicht jede Berechnung kann parallelisiert ablaufen, es ist aber auch Fakt, dass grade im Software-Bereich Multithreading bisher eine kleine Rolle gespielt hat und sich dort extrem viele Engines/Entwickler etc. noch ganz am Anfang befinden.

Eigentlich ist das ziemlicher Käse. "eine kleine Rolle gespielt" oder "noch ganz am Anfang befinden" ähm nein. Das ist völliger Käse.
Schnapp dir ein Lowclock Modell mit vielen CPU Cores und teste einfach mal die Threadskalierung von gängigen Games über die letzten Jahre. Wichtig ist Lowclock. Also kein Plan, 2GHz oder so, 12C und mehr darf es dann gern sein.

Du wirst feststellen, dass die Threadskalierung unten einfach mal sehr gut funktioniert. Das geht (heute) soweit, dass selbst NVs Multithreadingansatz in Sachen DX-API in der Lage ist, Spiele, die nachweislich nur 1-2 Threads belasten können auf viel viel breiteren CPUs als damals üblich, auf einmal über sonstwie viele Cores skalieren lassen. Da skaliert ein Assbach CS:Go auf einmal 1a deutlich über 8 Threads bspw. Oder ein altes Gothic3, was zu Lebzeiten nur in der Lage war, einen Thread voll und einen weiteren ein wenig zu belasten, auf einmal munter über 4 und mehr Cores.

Der Grund dafür liegt auf der Hand - die Berechnungen werden via Multithreading auseinander gezogen, sodass sie ungehindert so viele Ressourcen nutzen können wie sie eben benötigen (oder wie es eben gibt). Bis zu dem Punkt, wo jeder Teil für sich so schnell berechnet wird, wie die Hardware eben liefern kann. DANN hört die Skalierung auf. Keine Optimierung der Welt wird daran was ändern, ohne die Anforderungen dynamisch mit den verfügbaren Ressourcen skalieren zu lassen. Und bis dato ist das schlicht nicht gewollt (siehe schlauere KI bei mehr CPU Breite)
 
@fdsonne

AEHmmm,
Ich sprach hier von den neuen Konsolen.?
Das ist ein Sprung von 8 schwachen Jaguar Kernen auf 8 starke Zen Kerne.
Das ist absolut machbar.!

Wenn die Konsolen nun bis zu 16 Threads unterstützen werden, dann werden die Spiele-Engines darauf angepasst und das hat natürlich auch Auswirkungen auf die Spiele PCs.
Ende 2020 8 oder mehr Kerne im PC zu haben wird sicherlich interessant. Allerdings wird spätestens ab 16 Kernen der Nutzen deutlich abflachen.
 
  • Gefällt mir
Reaktionen: IBISXI und Valeria
Winder
Naja, Games werden sicher nicht alle 16 Threads bekommen. Man wird wie bei den Vorgänger, einen Teil für das OS reservieren, sodass man schnell "switchen" kann.
Trotzdem werden viele/genug Threads für Games bleiben.

Viel entscheidender sehe ich in der aktuellen News, der I3 hat jetzt 4 Cores und 8 Threads und ist im Endeffekt ein 7700k. Man bedenke also, das war vor ein paar Jahren noch die Top Gaming CPU! Jetzt ist es Einsteiger.
In einigen Jahren kann man sich also erwarten, dass Game-Entw. auch davon profitieren.
Es gibt schon ein Grund, wieso Entw. oft Kommentare bezüglich bessere KI abgeben. Die letzte beeindruckende Aussage (für mich) war, dass man nicht nur die NPC klüger machen kann, sondern die Welt selbst. Wie sie mit Wetter umgeht, das Spielgeschehen beeinflussen kann und besser auf den Spieler abstimmen/anpassen könnte (eben KI unterstützt, lernend). Das könnte nämlich viel Immersion bringen, wenn auch nicht grafisch. Sondern eben im Bereich der Erzählung oder Erlebnis einer Spiele Welt.

Außerdem, was mich wundert, wieso CB bis heute nichts von den Physik-Möglichkeiten für Multi Core CPUs gezeigt hat.
https://www.pcgameshardware.de/Spie...ek-Materialphysik-CPU-Multithreading-1339520/
Es ist ein Ansatz, denn wir in Konsolen sehen könnten, aber auch auf AMD/Intel Multi Core Prozessoren. (Betonung könnten, zeigt aber was möglich wäre)
Denn klar vieles kann die GPU machen ja. Aber wenn CPU Cores leistbar werden (vorhin waren sie es nicht), kann man Aufgaben auch wieder auf diese verteilen. Denn aktuell werden CPUs günstiger als GPUs (wenn man jetzt den jeweiligen Performance Zuwachs zu deren Vorgänger in den letzten Jahren zum selben Preis vergleicht). Da könnte man dann Aufwand für eine GPU wieder mehr für ein "4k Bild" aufwenden. Nur mal so "gedacht".

fdsonne
Da ändert keine neue Konsolengeneration was dran und auch Jahrelanges Optimieren seitens der Entwickler nicht.
Vllt sollte man sich nicht immer auf den Gedanken versteifen, ob eine Sache "unendlich oft parallelisierbar" sei, sondern fragen, was könnten zusätzliche Ressourcen (Cores) neues bringen. Also in Games zusätzliche Möglichkeiten, wie ich ein Game verbessern kann. Denn auch einige Grafik-Huren (damit bist jetzt nicht du gemeint) werden am Ende zustimmen, das ein Game mehr ist, als nur ein "Benchmark" :D
(Jetzt mal auf Games bezogen, da von neune Konsolen die Rede ist)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus
Winder schrieb:
Larrabee hat gegen die GPUs von AMD und NVIDIA verloren und nicht gegen leicht zu programmierene CPUs.
Ja hat er und das in Rechencentren u Supercomputern, wo selbst von der Software schon alles getan wird u wurde,um eine möglichst breit skalierende Infrastruktur zu schaffen.
Wo quasi die idealsten Bedingungen bestehen , um parallel auf die Software aufzusetzen

Und trotzdem ist der x86 Ansatz hinten runter gefallen, und jetzt kommst du her und willst das in einem Umfeld etablieren , was noch weniger dafür geeignet ist, weil jetzt many Core Ryzen heißt und plötzlich zaubern kann bei der Aufgabenverteilung^^
 
Zuletzt bearbeitet:
Bin immer wieder am überlegen mal was neues zukaufen es reizt schon sehr wie darmals,
damit es sich richtig lohnt braucht man eigendlich das doppelte.

Und nun endlich will mir Intel so einen Prozessor anbieten zum normalen Preis :)

- Core i3-3220 ~ 2 x 3300 MHz + HT im Jahr 2013 für etwa 110 Euro

- Core i3-10100~ 4 x 3600 MHz + HT im Jahr 2020 ...


frankkl
 
so_oder_so schrieb:
Zeichnet leider ein sehr dunkles Bild für Intel.

Das Business CPU Produktion ist zu 90% Fertigung. Wenn Intel die Fertigung zum Laufen bekommt sind sie zurück, so wie AMD mit der Fertigung in 14/12/7nm zurück kam.

Zu doof eine schnelle Architektur zu entwerfen ist weder der eine noch der andere.

In sofern lässt mich die Comet Lake Story nicht aufhören (6% mehr Takt sind imho einfach nur rauschen), aber die Geschichte um Tiger Lake und Willow Cove klingt zum ersten mal seit langem, als ob Intel die Fertigung langsam in den Griff bekommt, und sollte das so sein, dann sollte TSMC nicht verbocken, denn das Design klingt als könne es was.
 
captain kirk schrieb:
deine kaputte Glaskugel möchte ich nicht haben

darfst dich gerne dann bei Spieleschmieden bewerben , wenn du den heiligen Gral für unendliche Parallelisierung gefunden hast, denn darauf läuft der Unsinn hinaus

Nennt sich funktionale Programmierung.
Ist leider für ziemlich viele Programmierer ungewohnt.
Damit lassen sich viele Abhängigkeiten von Tasks vermeiden.
 
  • Gefällt mir
Reaktionen: GERmaximus
Das Hauptproblem ist, dass man in der Regel immer auf gemeinsame Daten zugreifen muss, was synchronisiert werden muss und zusätzlichen Overhead bedeutet. Hat man es mit einem Problem zu tun, das man auf oberster Ebene parallelisieren kann (z.B. es werden mehrere User gleichzeitig bedient), dann skaliert das annährend linear. Muss man das Problem auf unterer Ebene parallelisieren (z.B. innerhalb einer Funktion, die nur 1 us läuft), dann geht das ziemlich schlecht, da die Erzeugung der Threads schon länger dauert. Das ist ganz unabhängig davon, ob sich der Algorithmus selbst parallelisieren lassen würde.
Die meisten Multimediaaufgaben lassen sich sehr gut parallelisieren, weil das Problem ziemlich weit oben parallelisiert werden kann. Bei Spielen passiert dies auf einer mittleren Ebene. Hier steckt schon extrem viel Optimierung dahinter, aber wenn ein Frame nur 10ms dauert, dann sind hier eben starke Grenzen gesetzt. Klar man könnte alle Frames parallel berechnen und mit einigen Sekunden Verzögerung ausgeben, aber das ist ja nicht sinnvoll für das Spielerlebnis.
Dann gibt es jedoch noch Unmengen an Software, die weder eine Multimediaanwendung noch ein Spiel sind und in der Regel gar nicht parallel laufen. Wer glaubt, dass er bei einem typischen Office PC auch nur irgendeinen Vorteil von mehr als 4 Kernen sehen wird, der wird grob enttäuscht sein (oder sich das Ergebnis schönreden).

Eine durchgehend brauchbare Parallelisierung wird es erst geben, wenn dies auf CPU und Compilerebene passiert ohne dass hier das Betriebssystem hier die Threads verwalten muss, davon sind wir aber noch meilenweit entfernt.
 
Winder schrieb:
Ich sprach hier von den neuen Konsolen.?
Das ist ein Sprung von 8 schwachen Jaguar Kernen auf 8 starke Zen Kerne.
Das ist absolut machbar.!

Machbar ist viel, die Frage ist, was bringt es?
Mit einer AMD GPU (weil kein Software Scheduling wie bei NV) und nem 4C/8T oder gar nur 4C/4T Prozessor kommt man heute immernoch auf weit weit mehr Leistung als es in den 8C Konsolen der PS4/Xbox der Fall ist. Vor allem wenn man das Detaillevel entsprechend anpasst (runter schraubt)

Von 8C auf 8C ändert sich auch in Sachen Multithreadinganforderung nicht sonderlich viel. Du sprachst davon, dass es irgendwo was neues wäre für die Entwickler oder sonstwas. Was eben nicht der Fall ist. Multithreading ist ein alter Hut und wird praktisch überall eingesetzt. Aber es ist eben ein Unterschied Threads zur Trennung von Teilaufgaben zu nutzen, die parallel ausgeführt werden könnten, aber nicht zwangsweise müssen, im Vergleich zu einer Ausrichtung auf eine Multithread Skalierung, inder die selbe Teilaufgabe in kleinere Teile zerhack-stückelt wird um schneller zu sein. Letztere ist effektiv für vieles ein Ding der Unmöglichkeit. Da ändert keine neue Konsolengeneration was dran und auch Jahrelanges Optimieren seitens der Entwickler nicht. Einfach weil das Grundproblem nicht die Skalierung ist, sondern die strikt sequenzielle Abarbeitung, Frame für Frame, Zeiteinheit für Zeiteinheit.
 
  • Gefällt mir
Reaktionen: captain kirk
Tja preislich muss da einiges passieren.
Faust2011 schrieb:
Schnellerer Speicher, egal ob 2.666 oder gar 3.000, würde quasi keine Verbesserung bringen
Du hast aber auch so schon mehr Speicherbandbreite bei langsameren Kernen, da du 4 Speicherkanäle bei weniger Takt hast. Da macht das dann wirklich nicht so viel aus. Dazu haben die neuen CPUs 10 statt 6 Kernen.
 
@pipi

Intel hat einfach Kapazitätsprobleme bei 14nm.
Umso mehr niedrig getaktete CPUs man nach 10nm schieben kann, umso besser. (Mobile jetzt, Server Ende 2020)
Umso mehr Chipsätze und Kleinkram man nach TSMC schieben kann, umso besser.
Das Grafikchiplet bei Samsung fertigen lassen, umso besser. (Gerücht)
Umso mehr Apple andere Modems verbaut, umso besser.

Umso erfolgreicher Intel hierbei ist, umso mehr Kapazitäten hat man bei 14nm frei. Und umso größer können dann auch die Prozessoren in 14nm werden. Also der Sprung von 4 auf 8/10 hoch taktene Kerne. Darüber wird dann die VerlustLeistung viel zu hoch.
Mit weniger Takt könnte man wohl noch mehr Kerne realisieren, aber das sollte man auch in 10nm hinbekommen


Ich glaube Krautmaster wollte nur aufzeigen, wie man eine CPU mit Ringbus und vielen Kernen realisieren kann. Nicht das man das unbedingt in 14nm umsetzen muss.
 
wird sich verkaufen wie warme semmel, 14nm alte tech hin oder her.

unterm schlussstrich wird auch hier Intel mehr kohle machen als AMD.

fertig.
 
Winder schrieb:
Allerdings wird spätestens ab 16 Kernen der Nutzen deutlich abflachen.
Ach was, einfach mehr Geld drauf werfen ;)


Atent123 schrieb:
Nennt sich funktionale Programmierung.
Ist leider für ziemlich viele Programmierer ungewohnt.
Damit lassen sich viele Abhängigkeiten von Tasks vermeiden.
Abhängigkeiten kann man nicht durch ein Programmierparadigma vermeiden.
Abhängigkeiten existieren auf konzeptioneller Ebene.
 
  • Gefällt mir
Reaktionen: adAstra
dante`afk schrieb:
wird sich verkaufen wie warme semmel, 14nm alte tech hin oder her.

unterm schlussstrich wird auch hier Intel mehr kohle machen als AMD.

fertig.

Wie kommst du darauf? Offenbar macht Intel aktuell nur 19% der selbstbauer aus, warum sollte sich das mit Comet lake ändern?

Die Knappheit wird die Preise nach oben bringen. Umso mehr Kerne Intel auf die Mainstream CPUs verbauen muss, umso mehr Wafer werden dafür draufgehen und am Ende kann man weniger CPUs pro Wafer herstellen, was die Preise noch mehr erhöht.
 
so sehr man wettbewerb auf dem cpu markt begrüßen kann und amd durchaus mit dem zen2 sympathisches cpu- lineup auf den markt gebracht hat, sollte man wirklich nicht vergessen dass intel nicht umsonst marktführer ist - die produkte waren in der vergangenheit meistens (nicht immer) alles andere als schlecht!
es ist garnicht so lange her, da war ein 6700k oder 8700k das maß der dinge!
und man bedenke auch: dafür das amd auf tsmc 7nm unterwegs ist, ist intel mit ihren 14nm++++ beachtlich nah dran!

ich schätze, es wird sich erst mit der kommenden ryzen 4000 und (über)nächsten intel-generation zeigen ob sich die marktaufteilung zugunsten von amd oder intel weiterentwickeln wird.
 
Ach wie schön wenn man nicht jeden Trend mitmacht. Mein 5820k @ 4,3 GHz reicht für alle Spiele noch prima aus. Ok, das Ding zieht mehr Strom als die neuen bei gleicher Leistung. Aber so viel Strom muss man erstmal verbrauchen, dass ein Neukauf gerechtfertigt ist.

Ich schau mir die langsame Entwicklung schon seit Jahren entspannt an. AMD ist inzwischen super dabei.

Ich warte trotzdem noch ganz entspannt weiter. Der Sockel 1200 macht überhaupt keinen Sinn, weil DDR5 Speicher in 2021/22 den Sockel sofort obsolet macht.

Meine Nutzungsdauers eines Rechners ist deutlich länger als 1-2 Jahre. Lieber einmal gescheit kaufen als jede Generation billig. Hilft auch dem Klima!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra und Ned Flanders
cypeak schrieb:
ich schätze, es wird sich erst mit der kommenden ryzen 4000 und (über)nächsten intel-generation zeigen ob sich die marktaufteilung zugunsten von amd oder intel weiterentwickeln wird.

Hast du mal die Umfrage gesehen? 47% hier haben Ryzen Prozessoren und 43% Intel Core Prozessoren. Der Rest ist FX, Xeon usw.
 
Icetea36 schrieb:
Wie kommst du darauf? Offenbar macht Intel aktuell nur 19% der selbstbauer aus, warum sollte sich das mit Comet lake ändern?

Die Knappheit wird die Preise nach oben bringen. Umso mehr Kerne Intel auf die Mainstream CPUs verbauen muss, umso mehr Wafer werden dafür draufgehen und am Ende kann man weniger CPUs pro Wafer herstellen, was die Preise noch mehr erhöht.

Weil es immernoch genug verblendete Inteljockel gibt.

Ich rede nicht von den Fans, die ihrer Marke treu bleiben. Ich reden von Marketingopfern.

Gibt ja einige die wissen, wie hart an der Grenze mit ihren 9900k/s agiert und das der Kram überteuert ist etc. blabla - dennoch stehen sie zu ihrem Kauf und zu Intel.

Andere labern nur das Marketingsprech nach und kaufen Intel weils laut Werbung soviel besser ist und seit Jahren super in die Hirne reingefuhrwerkt wurde. Null Sinn und Verstand. Die Inteljockel halt.

Der Kram wird sich verkaufen - da geb ich Dante Recht!
 
andr_gin schrieb:
Dann gibt es jedoch noch Unmengen an Software, die weder eine Multimediaanwendung noch ein Spiel sind und in der Regel gar nicht parallel laufen. Wer glaubt, dass er bei einem typischen Office PC auch nur irgendeinen Vorteil von mehr als 4 Kernen sehen wird, der wird grob enttäuscht sein (oder sich das Ergebnis schönreden).

Die Frage ist nur, müssen sie das denn??
Ich mein, wenn ich mir mal so meine avg. CPU Load auf meinem Arbeitsgerät ansehe, was ich schon als recht überdurchschnittlichen Usecase einstufen würde, dann hat man normalerweise gar kein CPU Leistungsproblem, was sich durch Parallelisierung verringern lassen würde, sondern man hat eher ein Latenzproblem. Seien es Storage Zugriffe, RAM Zugriffe oder sonstwas. Die kurzen Peaks laufen meist recht Störungsfrei ab, es kommt selten zu Fällen, wo irgendwo etwas länger ausgeführt wird, man man als User "merkt", dass da ein Leistungsproblem vorliegt, was durch mehr Threads verkürzt oder behoben werden könnte.
Spontan fällt mir da eigentlich nur der Systemstart selbst ein, wenn man früh auf die Arbeit kommt und erstmal alles an Tools aufreißt, was man eh braucht, das dauert dann ein paar wenige Sekunden, bis die Büchse das alles am Start hat und fertig. Permanente Belastung (wie bspw. die masse der Benchreviews suggieren) dürfte für die meisten Leute ein generell völlig untypisches Verhalten sein.

Es scheint mir allerdings so, dass gerade in den Foren sehr häufig die Meinung umgeht, dass man mit Multithreading irgendwo groß nen Blumentopf gewinnt und dass das ja alles nur daran liegt, weil es bist dato eben diese breiten CPUs gar nicht wirklich zu kaufen gab. MMn ist das halt Kappes, weil die reine Verfügbarkeit dieser CPUs die Anforderungen nicht nach oben schießen lässt. Vor allem nicht, wenn die Anforderungen schon mit weit weniger Aufwand ausreichend bis sehr gut abgefedert werden. Aber damit stößt man meist auf ziemliche Gegenwehr, weil unter xxC/xx*2T geht ja heute eh nix mehr...
 
  • Gefällt mir
Reaktionen: druckluft, captain kirk und .Sentinel.
Zurück
Oben