News Intel-CPU-Gerüchte: Comet Lake bringt 26 Modelle und bis zu 5,3 GHz

In den meisten Games schafft man das, aber höhere Auflösung frisst auch CPU Leistung.

Bei dem SLI Video sieht man sehr gut das die nix optimiert haben.
Bei Shadow of the TomRaider kommt er mit RTX2080SLI auf 124AVG und RTX2080Titan 159AVG.

Ich hab ja nen paar Seiten vorher mit mein "nur" 2080'er gepostet ich hab 192FPS im Benchmark Shadow of the Tombraider bei 1440p@Ultra, da weiß man doch wo es hakt.
 
  • Gefällt mir
Reaktionen: captain kirk
naja jetzt sinds die 1% low wo es hackt :stacheln: :daumen:

Das dürfte einen High Fps Gamer wohl zu 99% der Zeit schnurz egal sein ,jedenfalls gibt es CPUs die diese 140 FPS Barriere knacken

Ausreden hin Ausreden her , die Intel K/KS bei 5GHZ sind solche

Kann mich nicht erinnern das sich jemand wegen den 1% ,schonmal extremst über Microruckler beschwert hätte, wenn der ansonsten bei über 140 FPS bleibt

eher schon der Lag des SLI Systems ,solange es keine solchen potenten Singelchip GPUs gibt
 
Zuletzt bearbeitet:
captain kirk schrieb:
naja jetzt sinds die 1% low wo es hackt :stacheln: :daumen:

Das dürfte einen High Fps Gamer wohl zu 99% der Zeit schnurz egal sein
Gerade die lows sind das wichtigste von allem, was bringen mir high FPS wenn sie immer wieder einbrechen?
Ein high FPS Gamer möchte neben hohen vor allem konstante FPS und ruhige Frametimes haben.


captain kirk schrieb:
jedenfalls gibt es CPUs die diese 140 FPS Barriere knacken

Ausreden hin Ausreden her , die Intel K/KS bei 5GHZ sind solche
Es geht immer noch nicht darum, dass sie 140 erreichen können sondern dass sie sie halten können.
Und das können sie keinesfalls in der Mehrzahl der Spiele.
Ergänzung ()

captain kirk schrieb:
Kann mich nicht erinnern das sich jemand wegen den 1% ,schonmal extremst über Microruckler beschwert hätte, wenn der ansonsten bei über 140 FPS bleibt
Wenn sie durch die CPU verursacht werden, kommt das schon vor.
Es dürfte auch den wenigsten auffallen, aber gerade die Enthusiasten sind da gerne Mal anfälliger^^
Und wenn dich diese lows von 160 auf 90fps werfen und danach wieder hoch gehen, dann fällt dir das auch auf, gerade weil du ansonsten über 140 bist
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: EyRaptor und Esenel
Die Low FPS sind auch super wenn man selber optimiert, aber ne schnelle m2 SSD bei 4k Zugriffen brauchst du auch, sonst ist es vorbei mit flüssig.

Sieht man sehr gut bei vielen Benches wo die AVG Top sind und die Min FPS für'n....
 
PhoenixMDA schrieb:
Die Low FPS sind auch super wenn man selber optimiert, aber ne schnelle m2 SSD bei 4k Zugriffen brauchst du auch, sonst ist es vorbei mit flüssig.

Dann ist das unter diesen Setup sprich 2 Karten Im NV-Link ohne PCI-E 4 schon ein Problem weil es u.u an genügend Lanes mangelt. Generell sollte da bei Intel auch ne Gen4 Antwort her.
 
Taxxor schrieb:
Und wenn dich diese lows von 160 auf 90fps werfen und danach wieder hoch gehen, dann fällt dir das auch auf, gerade weil du ansonsten über 140 bist
tun sie aber nicht ,und das selbst jetzt bereits mit dem suboptimalen microruckelnden von Profilen abhängigen SLI Setup, ein Singelchip mit solchen Leistungswerten wäre dort nochmal deutlich aufwertender

Das sieht man schon alleine beim Speicherpool der Titan RTX , das die minimum Frames im 1% Bereich keineswegs das CPU Limit abbilden, denn diese steigen ebenso weiter, wie die max Frames oben rum

Mehr Vram u potenter Singlechip, ohne Lag verseuchtes SLI , werden das eh nur 1% Problem , also noch weiter in Richtung Bedeutungslosigkeit verlagern
 
Zuletzt bearbeitet:
@captain kirk
Mach mal halblang, du nervst.
@aldaric
Und du genauso.
Ihr beide seid toxisch in diesem Thread.

Ein Beispiel, auf das ich die 140 FPS als Lock beziehe.

Nimmt man BF V, dann ist das Optimum eine zu 80-90% ausgelastete GPU.
Dies schaffe ich in 1440p Ultra garantiert mit 144 FPS. Deshalb ist mein selbst gesetztes Framelimit bei 144.
Und natürlich nerven dann Drops auf 120. Das merkt man.

Hat man eine schwächere GPU, stellt man das Limit halt z.B. auf 80. Hauptsache dieses Limit kann immer und zu jeder Zeit gehalten werden.

@captain kirk
Es kommt sehr wohl auf die P1 Werte in solchen Games an.
Vielleicht hast halt einfach keine Ahnung von dem Thema.
Aber Taxxor hier als dumm abzustempeln geht gar ned.
Also mal ein bisschen den Ball flachhalten.
Danke.

Natürlich gibt es auch andere Spiele, in denen die Engines das gar nicht hergeben.
Traurig aber war.

@PhoenixMDA
Lauf mal in SOTTR die PCGH Testszene durchs Dorf.
Da wirds auch eng mit deinen 192 FPS.
Die wirst ned schaffen.

So ehrlich muss man sein ;-)

Frohes Neues allen.
Vg
 
  • Gefällt mir
Reaktionen: EyRaptor, gesperrter_User, PhoenixMDA und 3 andere
Was für ne sinnlose Diskussion bei der sich mal wieder die 1% der User die solche Settings fahren als Maß aller Dinge ansehen, welche aber kaum einen bei der Entwicklung der Produkte interessieren denn sonst wären sie technisch nicht für die breite Masse ausgelegt die keine entsprechende Hardware besitzt.
 
  • Gefällt mir
Reaktionen: iron-man
Ein gutes neues Jahr.

Wir kennen ja den Preis für den 10 Kerner noch nicht, aber der wird sich sicherlich über dem 9900KS bewegen,
die Multicoreleistung vielleicht auf Höhe 3900X, dazu noch ein neues Board, das sicher wenig Neuerungen bietet und bestimmt oberhalb 200€ kostet. Da ist dann der Punkt erreicht, wo ich auch sage "Intel lohnt sich im Moment nicht", wenn man nicht gerade gewerblich fps-Games zockt.
Im Gegensatz zur Anschaffung des 9900K vor laaanger Zeit, der hat sich definitiv gelohnt.
 
Esenel schrieb:
Hat man eine schwächere GPU, stellt man das Limit halt z.B. auf 80. Hauptsache dieses Limit kann immer und zu jeder Zeit gehalten werden.
Das zweifelt auch keiner an
Nur ich hab jetzt schon mehrmals dazu geschrieben , das bei dem suboptimalen SLI Setup der Titan, die 1% Werte im selben Maße mit anwachsen, wenn nicht gar stärker, also kann es noch kein CPU verursachtes Limit sein sondern eines der GPUs bzw zum nicht unerheblichen Teil sogar dem SLI Verbund geschuldet

Wer schon SLI im Einsatz hatte ,wird wissen wie der Lag mit jeder zusätzlichen Karte systembedingt unweigerlich mit anwächst, und das 1% low damit selbstredend negativ beeinflusst

Also spar du dir mal lieber dein Bälle flach halten, und ich habe ihn nirgends als dumm bezeichnet, keine Ahnung wo du das her nimmst, also kannst du dir das umgekehrt bitte genauso sparen, denn die Einwände sind valide.
Danke!

Und trotzdem abseits dessen ein gutes neues Jahr!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Labberlippe
PhoenixMDA schrieb:
Die Low FPS sind auch super wenn man selber optimiert, aber ne schnelle m2 SSD bei 4k Zugriffen brauchst du auch, sonst ist es vorbei mit flüssig.

Sieht man sehr gut bei vielen Benches wo die AVG Top sind und die Min FPS für'n....
Welche Transferraten (in MB/s) braucht es denn für 4K um auf 60 FPS / 144FPS zu kommen bei einem Spiel wie z.B. Bei CS Go, LOL und RDR2 (in jeweils realen / vernünftigen Einstellungen, bei den beiden erst genannten in eSports Einstellungen), damit die HDD / SSD nicht zum Flaschenhals wird?

Ich habe mich mit dieser Frage nie beschäftigt, weil ich mir bisher nicht vorstellen konnte, dass ein zeitgemässes Laufwerk da zum Problem werden kann (z.B eine reguläre SATA SSD von Crucial / Samsung)
 
Esenel schrieb:
@PhoenixMDA
Lauf mal in SOTTR die PCGH Testszene durchs Dorf.
Da wirds auch eng mit deinen 192 FPS.
Die wirst ned schaffen.

So ehrlich muss man sein ;-)

Frohes Neues allen.
Vg
Dir auch, du hast vollkommen Recht, genau deswegen hab geschrieben das es der Benchmark war, weil ich nicht weiß was die getestet haben Benchmark/Szene.
Die niedrigste LowFPS liegen Benchmark etwas unter 140.
Ich werde trotzdem massiv über ihre 124FPS liegen.
Ich wollte damit nur sagen die sind im Video hart, wie ich auch zumindestens etwas im CPU Limit bin.

Ich kann das ja mal testen wenn ich wieder @Home bin in nen paar Tagen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Esenel
Wadenbeisser schrieb:
Kann es sein das du dich nichtmal ansatzweise mit dem grundsätzlichen Aufbau beschäftigt hast?

wir wirfst mir vor dass ich mich nicht mit dem Aufbau beschäftigt habe (was ich übrigens selbst geschrieben hatte, dass ich mich dahingehend nicht 100% schlau gemacht habe) - aber gleichzeitig redest du von 8 C und einem Chiplet, dabei ist es bei Zen 2 und Rome vollkommen egal ob die 8 ausgelasteten Kerne innerhalb eines Chiplets oder auf mehrere verteilt werden.

Die Granularität findet auf CCX Ebene statt, darüber gibt es meines Wissens keine Abstufung. Das schreibt ja auch Anandtech.
A little bit weird is the fact that accessing data that resides at the same die (CCD) but is not within the same CCX is just as slow as accessing data is on a totally different die. This is because regardless of where the other CCX is, whether it is nearby on the same die or on the other side of the chip, the data access still has to go through the IF to the IO die and back again.

Kann es sein das du dich nichtmal ansatzweise mit dem grundsätzlichen Aufbau beschäftigt hast?

Und das Zitat ist vollkommen wertneutral, denn wie ich auch schrieb ist es ein von AMD gut gewählter Ansatz hier nicht wie Intel zwingend auf alle Kerne verteilt eine mittlere Performance über ein Mesh zu erreichen, sondern mit dem CCX "darunter" kleine, schnelle Blöcke zu generieren die dann wie du richtig anmerkst zB der Single Core Performance und low threaded Prozessen auf die Beine helfen da dieses L3+CCX Konstrukt im Idealfall eben schneller ist als zb ein Mesh.

Du argumentiert weiter mit hoher Multicore Last - was richtig ist, aber wie gesagt sehr vom Workload abhängt. Es gibt Workloads die eher der Mesh Sache liegen (wenn der L3 Shared greift) und Workloads die eher dem CCX Modell liegen, eben wie Cinebench da eben nicht alle Threads "Miteinander" arbeiten sondern nebenläufig, heißt jedes CCX lebt voll aus seiner hohen L3 Geschwindigkeit, es muss selten über den RAM ausgetauscht werden.

Und ja, bei Zen 1 war das NUMA Modell Chaos, das seh nicht ich so sondern auch AMD ;)
Siehe Local / Game Mode usw.
Man hat ja bei AMD nicht umsonst umgestellt und die zentrale IO Die implementiert.

1577888729820.png
 
Taxxor schrieb:
Kommen die prognostizierten 15-17% IPC und noch mal 5% mehr Takt für Ryzen 4000

wo kommt das mit der IPC her und wie soll das bei gleichem Silizium drin sein? Mich würde die Quelle dazu interessieren.

Allenfalls bei Zen 3 kann ich mir das noch vorstellen, ggf mit DDR5.
 
Krautmaster schrieb:
wo kommt das mit der IPC her und wie soll das bei gleichem Silizium drin sein?
Von der offiziellen Aussage von AMD, dass man mit Zen3 einen größeren IPC Sprung machen wird, als man es beim Sprung auf Zen 2 erwartet hat.
Es soll ja laut AMD eine komplett neue Architektur sein, während Zen2 nur eine leichte Evolution von Zen1 war. Alleine der Ansatz mit einem 8C CCX dürfte schon viel davon ausmachen.
 
@Krautmaster
Sag doch gleich das du es nicht verstehen willst und erspare uns die Nummer bei der du zuerst von Leistungseinbußen bei der inter CCX Kommunikation der ersten Zen Generation redes und nun davon schreibst das es angeblich bei Zen 2 egal wenn nicht nur über die CCX sondern auch über die Chiplet Grenzen hinweg kommuniziert wird, gleichzeitig aber die Probleme der ersten Zen Generation auf Zen 2 übertragen willst um zu zeigen wie doll doch Intels Mash Ansatz ist. Die gesammte Argumentation ergibt so nämlich 0 Sinn.

Und nein, die CCX vs. Mash Geschichte hat nichts mit ideal Fall zu tuen sondern mit dem was mit dem was die TV "Fussballspezialisten" der Computerwelt so tagtäglich vom Stapel lassen. Das wo man sich auch heute noch krampfhaft an die Einzelkern Leistung der Prozessoren klammert und bestenfalls eingestanden wird das mehr ale ein Programm verwendet wird, vollkommen egal wieviele Kerne die Prozessoren besitzen.
Sobald mehr als ein Programm verwendet wird (Multitasking) wäre der unterteilte Ansatz im Vorteil, sofern es seitens der Software unterstützt wird und da die Chiplet Strategie deutlich mehr Kerne pro Prozessor zuläßt ist sie zwangsläufig auch bei Vollast im Vorteil. Allerdings bin ich mir auch sicher das die diesen Punkt erneut "überließt".
Und ja, der Chiplet Ansatz ist im Multicore Bereich zwangsläufig im Vorteil weiler ganz einfach erheblich mehr Kerne zuläßt...wie ich bereits schrieb.
Der Mash Ansatz von Intel ist vor allem eines, ein Kompromiss für ein Singlechip Design mit mehr als 4-8 Kernen und ein Kompromiss ist selten die leistungsfähigste Variante.....wie man sieht.

Und nein, das NUMA Modell istkein Chaos sondern spiegelt genau das wieder was ich bereits schrieb.
Es vereint die Eigenschaften eines 4 Sockel Systems in einer CPU, mit allen Vor- und Nachteilen aber zu einen deutlich günstigeren Preis.

Es würde mich ehrlich gesagt wundern wenn Intel auch auf lange sicht am Singlechip Design festhalten wird weil es einfach bei komplexeren Designs zu viele Wettbewerbsnachteile besitzt. Dem entsprechend rechne ich innerhalb der nächsten 3-5 Jahre auch von Intel mit einem vergleichbaren Design und auch die Software Landschaft dürfte sich entsprechend anpassen.
 
  • Gefällt mir
Reaktionen: Krautmaster
Der Multichip Ansatz hat wenig bis nichts mit CCX und "Mash" zu tun.

Das Beispiel mit dem 1800X Video und dem Beispiel zur Inter CCX Kommunikation diente rein zur Veranschaulichung dass es wichtig ist sich mit den Schwächen / Stärken der Topologien und verschiedenen Ansätzen auseinander zu setzen. Was im Video ein Zenario der Schwäche bei Ryzen 1 ist ist zugleich ja auch eine Stärke wenn die Belegung innerhalb eines CCX stattfindet, da dann die Performance hoch ist. Weiter kann man nicht 100% vom Ryzen 1 auf den aktuellen Zen 2 Ansatz schließen. Das Problem war meines Wissens auch die Kopplung von IF an Ram Takt, was nun ggf entkoppelt ist. Heißt es ist denkbar dass Rome weniger davon betroffen ist wenn über 2 CCX kommuniziert wird als ggf noch bei Ryzen 1/2. Bei Epyc der ersten Generation kam ja eher das Problem der mehren Hopps über Die hinweg ins Spiel, was weit gravierender war / ist als ein reiner Austausch über L3 wie bei Zeppelin Die oder nun bei Rome mit den IO Die und Chiplets.

Du stellst es hier immer so da als hätte ich der AMD CCX oder Multichip Sache iwas negativ angelastet, mit Nichten. AMD wäre wohl kaum so weit vorne und wirtschaftlich wenn es irgendwie schlecht oder schlechter als Mesh wäre. Es sind 2 verschiedene Ansätze wie ich schon schrieb.

Man sollte nicht in Waden beißen wenn man dem Opfer vorher ans Bein gepisst hat ;)
Ergänzung ()

Taxxor schrieb:
Von der offiziellen Aussage von AMD, dass man mit Zen3 einen größeren IPC Sprung machen wird, als man es beim Sprung auf Zen 2 erwartet hat.
Es soll ja laut AMD eine komplett neue Architektur sein, während Zen2 nur eine leichte Evolution von Zen1 war. Alleine der Ansatz mit einem 8C CCX dürfte schon viel davon ausmachen.
Klingt gut, wäre cool wenn AMD das schafft. Dass es möglich sein sollte zeigt ja auch Ice Lake.
Könnte sein dass AMD wie Intel auch ein Cache Redesign vornimmt. Soll Zen 3 in 5nm kommen? Gerüchen nach soll es bei 8C pro Chiplet bleiben, wohl aber alle Kerne in einem CCX. Zusammen mit ggf mehr L1 Cache und ggf auch Anpassung bei L2 / L3 sowie dem Overhead der durch 8C in einem CCX entsteht könnte die Sache durchaus auch in 5nm Sinn ergeben, ohne direkt auf 16C pro Chiplet zu gehen. Denke das wird man in der nächsten Iteration angehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gesperrter_User
Esenel schrieb:
Goil.
250W nach Spec.
Das wird ein Spaß zum OCn :-D

Die WaKü machts ja locker flockig mit :schaf:
Da freut sich einer wie n Schnitzel! :D aber gespannt bin ich auch, so ist das nicht ;)
 
  • Gefällt mir
Reaktionen: Esenel
Zurück
Oben