News Intel-CPU-Gerüchte: Comet Lake bringt 26 Modelle und bis zu 5,3 GHz

SV3N schrieb:
In 8 von 10 Fällen empfehle ich doch selbst einen Ryzen, nichtsdestotrotz gibt es Szenarien in denen ein 9900K nicht unerheblich mehr fps aus High-End-GPUs herausholt.

Welche 2 von 10 Fällen wären das denn? Leute die FHD mit 240 Hz spielen wollen? Ich selbst habe noch einen Intel in meinem System (weil mir mein alter 8700 noch locker reicht), aber ich sehe fast alle Fälle, die auf Computerbase und im Forum angeführt werden, als konstruiert an.
Klar Eure Aufgabe ist es zu testen und Unterschiede zu finden, aber ich finde die ganzen FHD Low Settings Tests in Spielen völlig belanglos. Wer viel Geld in einen spieletauglichem PC investiert will auvh in Höhe Auflösungen und hohen Settings spielen und da spielt Intel oder AMD keine Rolle mehr, da hängt jeder im GPU Limit.

Der einzige Fall wo ich noch Intel empfehle und verbauen würde sind irgendwelche kleinen Selbstbau Server, weil die kleinen AMD noch ein paar mehr Watt ziehen als die Intel.
 
  • Gefällt mir
Reaktionen: Rockstar85 und marimo111
Icetea36 schrieb:
Was verstehst du daran nicht? Die werden 8 Kerne und 16 Threads haben.
und was verstehst du daran nicht ,das sich gewisse Dinge in der Berechnung einfach nicht unendlich in die Breite ziehen lassen, egal mit wieviel Kernen geworben wird?

sorry aber die Bauernfängerei is nicht ,zumindestens nicht ,wenn man gewisse Abläufe versteht

Das kannst du vielleicht mit Cinebench u anderen Konvertierungstools dein Fähnchen wehen lassen für Manycores ,aber nicht bei Grafikengines bzw dort nur limitiert

Hier zählt ab einem gesättigten Punkt nur noch IPC u Takt , und das wird sich auch nicht ändern, wenn AMD drölftausend Kerne in die Arena wirft

Und das nochmal nach DXR u RTX jemand einen Raytracer auf old School CPU Basis verwendet, der dein Ansinnen auf extreme Parallelisierung dahingehend befriedigen würde , ist äußerst unwahrscheinlich

Die CPU bleibt in absehbarer Zukunft ,eine reine Füttermaschine für die GPU punkt!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: druckluft
mibbio schrieb:
Da Intel aber die Kerne nicht auf Chiplets aufteilen kann, sorgen halt Fertigungsfehler eher dafür, dass ein Die nicht mehr für ein 8-10 Kerne Modell nutzbar ist. Es ist also in so fern teurer, da man mit steigender Kernanzahl mehr Ausschuss hat, der nur noch für günstige Modelle taugt auch gar komplett unbrauchbar ist. AMD sucht sich dagegen einfach die passenden Chiplets zusammen für die großen Modelle.

Intel nutzt allerdings auch den am weitesten gereiften Fertigubgsprozess. Wenn man sieht, welche Die Monster die damit produzieren können, dann dürfte der Ausschuss relativ klein sein bei den Mini Chips der Mainstream CPUs.

Und man sollte beachten, AMD braucht für viele Produkte voll funktionsfähige Chiplets. (Alle 8 Kern CPUs, der 16 Kerner, diverse Threadripper und vor allem Epyc Varianten.

Bei Intel basieren Auf dem Die extrem viele CPUs und man kann nach unten hin gut skalieren.

Bei den Mainstrem CPUs wird bei den Kosten gut aufgestellt sein. Das chipeltdesign wird erst bei großen CPUs wirklich zum Vorteil. Zudem muss man auch beachten, bei einer kleinen Chiplet Konfiguration steigt der Aufwand in der Fertigung. Man braucht mehr Chips und mehr Fertigungsschritte. Zudem wird das Package deutlich komplexer. Ein 10 Kern Inteldürfte in der Fertigung für Intel sogar günstiger sein, als ein 8 Core Modell für AMD. Ganz alleine weil an jeder AMD CPU auch Glofo und TSMC mitverdienen.
 
MarcoMichel schrieb:
Das mit den ständigen neuen Sockel, sorry, mache ich nicht mehr mit. Intel kann die nächsten Jahre sein Zeug behalten. Kaufe nur noch AMD.
Solch ein kategorisches ablehnen ist aber auch Unfug.
Zum einen wird Intel irgendwann wieder attraktive Prozessoren auf den Markt werfen. Da dann zuzugreifen ist nicht verwerflich, außer man ist fanatischer Fanboy von AMD.
Zum anderem muss Intel lediglich die neuen Prozessoren nur endlich richtig einpreisen. Zugegeben, in Anbetracht des wahrscheinlichen Energiehungers, der Sockelpolitik, des mit dem möglichen Energiehunger einhergehenden Abwärme und vor allem des Ryzen 3600 für 200€ (ein Wahnsinnsteil zu einem Wahnsinnspreis, wie seinerzeit der i5 2500k und Xeon 1230 v1/2), dürfte der Großteil der kommenden Prozessoren sehr viel günstiger als 200€ sein müssen, um trotzdem als kaufbare Option genannt zu werden. Aber das wäre der Weg.

Fraglich nur, ob Intel vom hohen Ross herunter steigt, oder doch nicht weiterhin auf den OEM Markt setzt und ihn womöglich so riskiert?
 
Taxxor schrieb:
Fast alle Settings gehen rein oder größtenteils auf die GPU^^
Aber selbst wenn du alles auf Ultra stehen hast, die CPU kann dir je nach Szene halt trotzdem für Ausreißer nach unten verantwortlich sein.
Dann wirst du das Problem wohl nie lösen können, egal wie schnell die CPU auch immer sein marg.
 
catch 22 schrieb:
Das trifft soweit ich das verstehe auf eine CPU zu. Besteht das Intel Portfolio nur aus dieser einen CPU?

Im Endeffekt ja.
Entweder holt man sich nen Ryzen, oder das Flaggschiff von Intel.
Die CPUs darunter sind für mich persönlich keine Alternative zu Ryzen.

Iarn schrieb:
Welche 2 von 10 Fällen wären das denn?

BF V und Anno 1800 sind bei mir zwei Spiele, bei denen es auf eine schnelle CPU ankommt.
 
  • Gefällt mir
Reaktionen: GERmaximus, KlaraElfer, DriveByFM und eine weitere Person
@Shoryuken94 Klar braucht AMD auch entsprechend viele voll funktionsfähige Chiplets. Es ist aber trotzdem "einfacher" kleinere Einheiten fehlerfrei zu produzieren als einen "Klotz" am Stück mit allen 10 intakten Kernen.
 
Nureinnickname! schrieb:
Dann wirst du das Problem wohl nie lösen können, egal wie schnell die CPU auch immer sein marg.
Klar, sobald sie so schnell ist, dass sie niemals weniger Bilder liefert, als die GPU verarbeiten kann.
Dazu kann man sich ja in CPU Tests die Perzentile für seine Spiele ansehen, um das zu beurteilen.
Und wenn sie das nicht kann, habe ich trotzdem lieber eine CPU die das in 98% der Fälle kann, als eine die es nur in 80% der Fälle kann.
 
  • Gefällt mir
Reaktionen: GERmaximus und Esenel
Und noch ein erneuter Aufguss. Schauen wann die Mal wieder was richtig neues rausbringen. Uninteressant
 
Esenel schrieb:
BF V und Anno 1800 sind bei mir zwei Spiele, bei denen es auf eine schnelle CPU ankommt.
Wobei ich es bei Anno jetzt nicht so kritisch sehe, mein 3700X stört mich da nun nicht wirklich. Anno ist kein Spiel wo ich 60fps+ brauche. Allerdings kann ich mit meiner GPU ja auch sehr gut ein GPU Limit provozieren, sodass es nicht unangenehm auffällt
 
  • Gefällt mir
Reaktionen: znarfw
captain kirk schrieb:
und was verstehst du daran nicht ,das sich gewisse Dinge in der Berechnung einfach nicht unendlich in die Breite ziehen lassen, egal mit wieviel Kernen geworben wird?

sorry aber die Bauernfängerei is nicht
Bei Spielen gibt es Tausende von unterschiedlichen Dingen, die man berechnen muss. 16 Threads auszulasten sollte kein Problem sein.
Die Spielehersteller haben nur keine Lust den ganzen Aufwand zu betreiben, solange nur 1% der PCs das unterstützen. Wenn die neuen Konsolen kommen, wird sich das allerdings schnell ändern.

Die neuen Konsolen werden eh viel verändern. Wer hat im PC schon eine SSD mit 4xPCIe4.0 oder mindestens 16GB GDDR. (8 Kerne haben viele auch noch nicht)
Die 8GB der PS4 haben damals auch die Anforderungen an Grafikkarten sprunghaft erhöht.
 
mibbio schrieb:
@Shoryuken94 Klar braucht AMD auch entsprechend viele voll funktionsfähige Chiplets. Es ist aber trotzdem "einfacher" kleinere Einheiten fehlerfrei zu produzieren als einen "Klotz" am Stück mit allen 10 intakten Kernen.

Wie gesagt, es ist ja nur ein Klötzchen bei dem kleinen Mainstream CPUs. Wie die Yield raten aussehen, kann keiner sagen. Potentiell sind sie beim steinalten 14nm Verfahren aber ziemlich hoch. Sieht man an den Riesen Dies, die Intel anbietet und auch im Vollausbau anbieten kann. Beim 7nm Verfahren hingegen werden sie höchstwahrscheinlich deutlich geringer sein. Dürfte auch ein Grund sein, warum wir bis heute keinen wirklich großen 7nm Chip gesehen haben.

Der richtige Vorteil beim Chiplet Design gibts bei den richtig großen CPUs. (20 Kerne und mehr).
 
mibbio schrieb:
Da Intel aber die Kerne nicht auf Chiplets aufteilen kann, sorgen halt Fertigungsfehler eher dafür, dass ein Die nicht mehr für ein 8-10 Kerne Modell nutzbar ist. Es ist also in so fern teurer, da man mit steigender Kernanzahl mehr Ausschuss hat, der nur noch für günstige Modelle taugt auch gar komplett unbrauchbar ist. AMD sucht sich dagegen einfach die passenden Chiplets zusammen für die großen Modelle.

So funktioniert das aber praktisch nicht. Die mittlere Fehlerrate bezieht sich auf den ganzen Wafer. Wie viele und vor allem welche Chipgrößen da drauf belichtet werden, spielt effektiv keine wirkliche Rolle. Wichtiger ist, die Fehlerrate generell in den Griff zu bekommen.
Es ist davon auszugehen, dass (wie in all den Prozessschritten davor auch schon) die Ausbeute mittlerweile bei über 90% liegt in Intels Prozess. Heißt soviel wie, der Anteil von Ausschuss ist generell in Sachen echte Teildefekte vergleichsweise überschaubar.
Auf einem ganz anderen Blatt steht die Güte, also schafft das DIE am Ende das angepeilte Taktfenster/Verbrauchsfenster/Spannungsfenster oder nicht. Modelle die höher takten müssen ggü. Modellen die viel niedriger takten brauchen sind halt rarer. Das macht einen gewissen Anteil an den Kosten aus. Je nachdem, wie weit man sich ans physische Limit bewegt.

Unterm Strich kann man aber sagen, dass gerade die 9900K/KS zeigen, auf welch vergleichsweise hohem Niveau das bis dato funktioniert. Welcher 9900K oder KS macht nicht wenigstens die 5GHz Allcore (bei anständiger Kühlung, ohne ausartende Spannungen?) Sooo ultra viele von denen, wo es getestet wurde, gibts da meine ich nicht. Aktuell ist die Nachfrage auch so extrem hoch, dass man offenbar bei weitem nicht mit der Fertigung hinterher kommt.
Ein andererseits aufwendiges und unflexibel teures Chiplet-Design wäre da absolut kein wirklicher Vorteil. AMD mag mit dem Design dort punkten, wo Intel atm nicht punktet (das war aber auch der Sinn dahinter), aber sie punkten eben nicht überall damit. (APUs bspw., Embedded/Kleinstserver, usw.) Zudem ist AMDs IO DIE im Epyc von der Fläche her so riesig, wie ein 18C SKL-DIE bei Intel. Das kostet AMD Geld, weil GloFo und TSMC einfach nicht für Lau arbeiten. Jeder "verschenkter" mm² Fläche abseits der Leistungsbereiche, die Intel atm nicht bedient, kosten AMD Geld, während eine Intel durchaus in der Position ist, einfach dort ohne Verschnitt zu fertigen, wo die nachgefragten Mengen es zulassen.
Es hat schon Sinn, warum der 12-18C HCC DIE existiert - und man nicht ausschließlich den 28C XCC DIE nutzt. Genau so wie es Sinn hat, ein 4C+GT2 Design zu bringen, wie auch ein 8C+GT2 Design oder 6C+GT2 Design anstatt nur 8C und Teildeaktivieren. Was letztlich dem nahe kommt, was AMD tätigt, denn ihr IO DIE ist atm nur in zwei Versionen existent.
 
Winder schrieb:
Bei Spielen gibt es Tausende von unterschiedlichen Dingen, die man berechnen muss. 16 Threads auszulasten sollte kein Problem sein.
Nein Auslasten ist gewiss kein Problem.
Die Frage ist nur, ob man gewinnbringend auslasten kann, oder durch das Auslagern auf andere Threads mehr Kosten hat als man durch den anderen Thread einsparen würde.

Winder schrieb:
Die Spielehersteller haben nur keine Lust den ganzen Aufwand zu betreiben, solange nur 1% der PCs das unterstützen. Wenn die neuen Konsolen kommen, wird sich das allerdings schnell ändern.
Teilweise mag das stimmen, aber im goßen und ganzen ist das einfach falsch:
Es geht einfach nicht, weil vieles nicht parallelisierbar ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex, thuNDa und captain kirk
Winder schrieb:
Bei Spielen gibt es Tausende von unterschiedlichen Dingen, die man berechnen muss. 16 Threads ein wenig zu belasten auszulasten sollte kein Problem sein.

Ich hab das mal für dich korrigiert 😉 Oft genug ist ein einzelner Thread am Limit
 
  • Gefällt mir
Reaktionen: adAstra und captain kirk
@fdsonne

Kommt immer drauf an, was man machen will.
Beim Gamen wird es sicher genügend geben die 5 GHZ Allcore locker packen.
Beim Rendern eher nicht, haben wir auf der Arbeit schon mehrere male nachgestellt. Selbst mit Custom Wakü und hochgezogenen Power Target, 5 GHZ stabil packte kein 9900K. Aber 4,6 - 4,8 GHZ sind auch top, wenn man bedankt dass da immer die alte 14nm Fertigung hinter steckt.
 
Krautmaster schrieb:
Schau dir mal an wie klein so nen 8 Kern mit GPU ist. Wir reden da von ~170mm², wovon ~50mm² auf die GPU fallen. Intels 10C mit GPU ist kleiner als eine Zeppelin Die des Ryzen 1/2. Und auch kleiner als AMDs Picasso APU (210 mm²) die man ebenso bis in kleine Preisbereiche um 60€ anbieten kann.

1577537416403.png

vs
1577537459965.png



Das liegt aber auch daran, dass die GPU von RavenRidge/Piccaso deutlich größer ist, als die der Desktop Versionen. Nimmt man die Varianten mit größerer IGP seitens Intel, wächst das Design auch deutlich
Auch der Vergleich zu Zen1(+) ist kein direkter Vergleich, weil es der erste Ansatz eines Multi-Chip Design ist und was vllt im Desktop noch etwas größere Fläche bedeutet, macht es am Ende im Threadripper oder Epyc wieder weg, sodass obere Desktop quasi subventioniert...
1577537896752.png

Außerdem ist es ein SoC, kurz mit Chipsatz. aber man sieht, dass hier viel an Kommunikation "flöten" geht. Aber der 10Core muss sich dann am Ende sowieso mit Zen2 messen.
Aber dein Vergleich endet spätestens dann, wenn man Skylake Core mit Zen Core vergleicht und da ist bereits bekannt, dass der Zen Core Gen1 kleiner ist. Also machbar wäre für AMD auch vieles gewesen.
Aber wie bekannt, hat die Design Entscheidung, etwas mehr Fläche für Fabric Bus zu investieren und somit Richtung Chiplet Design zu gehen, was dein Gedankenspiel mit einem Doppel-Ringbus für 20 Cores im Endeffekt nichtig macht. Selbst wenn Intel den Ansatz reine CPU für Desktop gebracht hätte, kurz sagen wir oben die IGP weglassen, nur CPU Cores, doppelter Core Ansatz zu 12-16 Cores, würde es für Intel den Chip in Relation zu anderen Intel Chips oder auch zu AMD "teuer" machen (Außerdem nicht zu vergessen, dass irgendwie das Si so aufgeteilt werden müsste, dass eine Gruppe dann an einem SpeicherInterface lege). Es würde neben Entwicklungskosten einfach nur Prestige-Kosten bedeuten. Insofern, man seit Zen1 Gen so schnell entwickel kann. Weil ich vermute mittlerweile, dass Intel da noch sehr mit Hand optimiert, während man bei AMD (und dafür wurde ja AMD oft belächelt) mit Programmen arbeitet, die Teils von der GPU Entwicklung stammen. Aber gut das ist wirklich nur eine starke Annahme und eine Vermutung, die ich aus vergangene Artikel in Erinnerung geblieben ist.
https://www.pcgameshardware.de/CPU-CPU-154106/News/Prozessoren-849933/
(Link für HD-Libs 28nm APUs kommt noch)

Zur guter Letzt. Ich lese oft, Zen 3 kommt erst im 4 Quartal 2020.
https://www.pcgameshardware.de/AMD-...hr-2020-kommen-Zen-4-und-5-in-Arbeit-1335472/
Laut der News soll es aber bereits zweites Halbjahr sein. Vllt würde man aber dieses mal wirklich Server den Vorzug geben.

Aber was noch interessanter ist, vor Comet Lake Desktop, kommt eventuell bei AMD noch Renoir. Zwar für Notebooks, aber im Endeffekt wären hier auch 8 Core mit 13 CUs für den Desktop möglich. Und wenn diese Chips wie ich mal schätze wirklich nur 150 mm^2 groß sind, wären sie für Intel 10 Core mit IGP nicht weniger ein Druck als aktuelle Ryzen 3000 Gen.
 
Zuletzt bearbeitet:
Winder schrieb:
Bei Spielen gibt es Tausende von unterschiedlichen Dingen, die man berechnen muss. 16 Threads auszulasten sollte kein Problem sein.
Dann kannst du sicher auch erklären warum Intels Larrabee, nicht schon vor Jahren voll durchgestartet ist, wenn Parallelisierung doch so einfach geht, und warum das jetzt seit Ryzen sich geändert haben soll^^

Immerhin gab es deren Many Core Ansatz als x86 Co Prozessor schon viel länger...

Ich weiß nicht was AMDs Marketing mit der Denke einiger veranstaltet, aber es ist gewiss nix gutes
 
new Account() schrieb:
Nein Auslasten ist gewiss kein Problem.
Die Frage ist nur, ob man gewinnbringend auslasten kann, oder durch das Auslagern auf andere Threads mehr Kosten hat als man auf dem anderen Thread einsparen würde.
Wie gesagt, bei Spielen gibt es Tausende Sachen, die berechnet werden müssen, das sollte kein Problem sein.
Und die sind auch nicht alle voneinander abhängig und sollten problemlos parallel nebeneinander laufen.
Das ist jetzt keine Berechnung von PI oder eine unglaublich komplexe Formel in Exel, die bei ihren Berechnungen immer wieder auf Ergebnisse vorheriger Berechnungen zurück greifen muss.

Im Vergleich zu Spielen gibt es wohl kaum Software, die so viele unterschiedliche Berechnungen gleichzeitig durchführt.
Man muss halt "nur" die Engine entsprechend anpassen. Die großen Studios werden das schnell schaffen, die kleineren werden mehr Zeit brauchen.
 
pipip schrieb:
Das liegt aber auch daran, dass die GPU von RavenRidge/Piccaso deutlich größer ist, als die der Desktop Versionen. Nimmt man die Varianten mit größerer IGP seitens Intel, wächst das Design auch deutlich
Ging ja nur darum dass man das easy wirtschaftlich von der Größe fertigen kann. Intel kommt der 10C nach wie vor sehr günstig. Vermutlich weit günstiger als AMD aktuell 10C Kosten.
 
Zurück
Oben