Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsSpecial Edition mit 5,5 GHz: Beim Intel Core i9-12900KS kostet ein Kern 50 Dollar
Genauso sehe ich das auch. Ab WQHD Auflösung tut es auch ein 6-Core mit SMT. Sieht man ja an den Benchmarks. Der 12400F ist die perfekte Gaming CPU und wird es auch noch ein Weilchen bleiben, natürlich auf den Preis bezogen. Wenn man zusätzlich noch in G-Sync oder FreeSync investiert, dann braucht man man nicht mal die stärkste Grafikkarte für flüssige Frames.
Es sind nicht 5,5 gegen 5,2 GHz, Turbo 3.0 und TVB gilt nur für 1 oder maximal 2 Kerne! Und so ist es in games ja nicht, da liegt die Last auf mehrere Kernen. Und dann ist da kein Turbo und TVB mehr, dann hast du nur noch deine 100 MHz Unterschied.
Wenn du es nach exakten Specs betreibst bringt die die TDP-Erhöhung von 125 auf 150 Watt da mehr. Denn wenn der normale 12900K hier und da abgefangen und dann bei 125 Watt betrieben wird, kann der 12900KS dann noch einige Watt mehr ausspielen. Aber das alles hägt eben extrem von Szemario ab und ist primär bei Anwendungen so, bei Games nicht so - aber da erreichen beide vermutlich keine 125 Watt anyway, sodass du wieder nur bei 100 MHz Unterschied bist^^
Also was ich bisher sehe ist die CPU sowas von krass ernüchternd aka Totaler Flop. Diesen TVB für so etwas wieder herauszukramen ist so ziemlich der größte Witz. Das wurde mal fürs Notebook erfunden, wo es echt sinnvolle Einsatzgebiete gibt. Aber nun für alle zu streichen und dann für die Über-Brutzel-Maschine wieder herauszuholen .. japp .. so muss das ..
solange die grakas bei 4k limitieren lohnen sich solche cpus doch fast garnicht.
auf 2k bringts ein paar fps mehr aber auch zu wenig und für 1080p kaufen das nur freaks.
für anwendungen kauft man mehr kerne...also was bringt das teil?
Für die wenigsten Anwendungen bezogen auf den Markt braucht man viele Kerne.
Und auch in 4K befördert eine schnelle CPU die min. FPS und bügelt oftmals die Frametimes glatt.
Der 12900K ist ja schon relativ gut gebinnt bzw. schon (weit) aus der guten Skalierung raus. Das beim KS nicht mehr viel kommen kann war damit abzusehen.
War bei AMD damals mit Zen2 und den XT Cpus ja nicht anders. Bissel schneller waren die, aber keine Welten.
Die 800€ fü die CPU stören dich nicht, aber 32Gb 6400CL32, was so mit das schnellste momentan sein dürfte, für 560€ sind zu teuer?
Obwohl man RAM in der Regel länger nutzt als die CPU?
Man könnte ja auch sagen: Hey, geiler Ram, wenn nur die CPU nicht so teuer wäre...
Du kannst das natürlich sehen, wie es dir beliebt, das ist dein gutes Recht. Es erschließ sich mir nur nicht, dass dir der RAM dann zu teuer ist, wenn es eh um ein Enthusiastensystem geht.
Und leicht langsamerer RAM wie 32GB 6000CL36 liegt dann schon "nur" noch bei ~420€.
Das "nur" bezieht sich auf die Relation zum CPU Preis.
OK und was macht er damit so aktuell weil ich meine viel kann man damit ja nicht anstellen mehr.
@Esenel
Das ist allerdings nur bei denen so der Fall wenn die Anwendung und spiele sehr stark von ramtakt profitieren. Ab einen gewissen Zeitpunkt scheint es aber nicht mehr so zu sein. Dann macht ram oc und höher Takt eben keinen Sinn mehr. Wie viel bringt denn ausgehend von ddr4 3600 MHz noch an nennenswerten mehrleistung bei noch mehr ramtakt oder schärfere Latenzen noch was.
DDR5 steht noch am Anfang.
Und in den meisten Fällen ist Latenz trumpf.
Selbst der 6600MHz DDR5 CL30 Speicher in dem System, welches ich zum Testen benutze, lässt nur das Ergebnis zu, dass das zu DDR4 Zeiten einem 3300MHz Cl15 Speicher in Sachen Latenz entspricht. Klar wird nach der Adressierung das folgende Dataset mit steigender Größer übertragen. Oftmals sind die Anfragen aber eher klein, so dass das Penalty auf den Fetch oft größer ausfällt als dass die kürzere Übertragungszeit das an sich wieder rausholen kann.
Kriegst aber heute schon 4000 MHz Cl14 DDR4.....
Klar, dass der DDR5 in Spielen mit diesen Werten (noch) nicht den Nachbrenner zünden kann bzw. nur bei den Applikationen, die eher Bandbreitengebunden sind (sind z.B. Spiele eher weniger).
@Esenel
Das ist allerdings nur bei denen so der Fall wenn die Anwendung und spiele sehr stark von ramtakt profitieren. Ab einen gewissen Zeitpunkt scheint es aber nicht mehr so zu sein. Dann macht ram oc und höher Takt eben keinen Sinn mehr. Wie viel bringt denn ausgehend von ddr4 3600 MHz noch an nennenswerten mehrleistung bei noch mehr ramtakt oder schärfere Latenzen noch was.
Hast du da Tests im Gaming dazu? Ein 8700K dürfte nicht effizienter als ein 12400F sein, zumal man ihn ja sowieso nicht mehr kaufen kann, außer teuer gebraucht. PCGH sieht ihn im Efifzienz Index knapp hinter dem 12400.
Der 5600X ist zwar effizienter, allerdings auch noch mal etwas teuer. Sind zwar aktuell nur noch ~30-40€, aber beim Verbrauch sprechen wir im Gaming hier auch von Unterschieden von 5-10W, das dauert ne Zeit, bis man damit 40€ rausgeholt hat^^
Den 10400F kann man aber noch kaufen und er ist auch deutlich günstiger als alle anderen genannten CPUs. Man ist zwar ~20% langsamer ggü. einem 12400F und ~25% ggü einem 5600X, aber das macht dann in WQHD+ auch nicht mehr viel aus.
Zu dem Effizienzindex von PCGH muss man auch dazu sagen, dass hier natürlich 720p getestet wurde. Wenn man nun im GPU Limit spielt, kann sich diese Reihenfolge auch komplett verändern, vor allem der 5600X dürfte dann weiter zurückfallen, da Intel außerhalb des CPU Limits generell im Verbrauch stärker abfällt.
Tiara G. schrieb:
Das einzige was Sync Technologien können ist Tearing zu verhindern, sonst nichts, das ist ihr Einsatzzweck, nichts anderes.
Wobei du an einem 144Hz Monitor mit VRR und z.B. 40fps schon ein flüssigeres Bild wahrnehmen kannst, als ohne, da der Monitor keine ungleichmäßig doppelten Bilder rausgibt, sondern in dem Fall dann immer auf 80Hz laufen würde und du jedes Bild genau 2mal siehst.
Die Sync Technologien können nichts ausrichten gegen Mikroruckler, nichts ausrichten gegen niedrige FPS, sie machen aus einer schwachen Graka keine bessere.
Das einzige was Sync Technologien können ist Tearing zu verhindern, sonst nichts, das ist ihr Einsatzzweck, nichts anderes.
Das ist halt wirklich subjektiv. Mich persönlich stören zum Beispiel niedrige FPS nicht die Bohne, das flüssige Bild sorgt für die Immersion. Ich treibe das mittlerweile auf die Spitze. Meine Grafikkarte ist eigentlich zu schwach für den Monitor in der Signatur. Aber da ich nirgends unter 40 FPS komme oder wie bei CP 2077 DLSS nutze, genügt sie mir.
Ich erinnere mich dran, als ich das erste Mal G-Sync auf einem Notebook-Display gesehen habe. Das muss der erste oder zweite Batman Teil gewesen sein. War damals sehr fordernd und gleiten ohne Tearing war quasi nicht drin, egal welche Grafikkarte. Mit G-Sync auf einmal: butterweiches Bild. Möchte ich ich beim Zocken nicht mehr missen.
Ergänzung ()
Schinken42 schrieb:
Aufbau- und Globalstrategie profitiert auch in 4k oft stark von mehr CPU Leistung.
Damit hast Du Recht! Ich würde da aber auch entgegnen, dass die meisten Engines schlecht optimiert sind. Wenn ich höre, dass Creative Assembly für Warhammer 3 wieder die selbe "hauptsache-ein-Kern-mit-hohem-Takt" Engine verwendet, habe ich schon keinen Bock mehr auf das Spiel. Und nein, da skaliert nix. Bei Troy treibst Du einen 5950X in die Knie, wenn Du das Gras auf Maximum stellst. Ohne Worte. Endless Space 2 ist ein ähnlicher Murks.
Und bei den gut optimierten wie Anno rennt man eigentlich auch eher ins Grafiklimit, wenn man alle Regler nach rechts dreht.
Ein flüssiges Bild wird, auch wenn es nicht definiert ist, eigentlich immer mit hohen (was hoch ist, ist dann wirklich subjektiv) FPS gleichgesetzt.
Da die Sync-Technologien die FPS nicht erhöhen, haben sie auch nichts mit einem flüssigen Bild zu tun.
user_zero schrieb:
Ich treibe das mittlerweile auf die Spitze. Meine Grafikkarte ist eigentlich zu schwach für den Monitor in der Signatur. Aber da ich nirgends unter 40 FPS komme oder wie bei CP 2077 DLSS nutze, genügt sie mir.
Das halte ich auch ohne eine synchronisiert Bildrate so.
Übrigens auch ganz ohne Tearing, dank Enhanced Sync. Allerdings gibt es Spiele, wo es nicht klappt. Insofern hätte ich es schon gern.
user_zero schrieb:
Ich erinnere mich dran, als ich das erste Mal G-Sync auf einem Notebook-Display gesehen habe. Das muss der erste oder zweite Batman Teil gewesen sein. War damals sehr fordernd und gleiten ohne Tearing war quasi nicht drin, egal welche Grafikkarte. Mit G-Sync auf einmal: butterweiches Bild. Möchte ich ich beim Zocken nicht mehr missen.
Ein flüssiges Bild wird, auch wenn es nicht definiert ist, eigentlich immer mit hohen (was hoch ist, ist dann wirklich subjektiv) FPS gleichgesetzt.
Da die Sync-Technologien die FPS nicht erhöhen, haben sie auch nichts mit einem flüssigen Bild zu tun.
Die Sync Technologien beeinflussen aber die Art und Weise, wie der Monitor dir das Bild ausgibt und genau an dem Punkt entscheidet sich ja, ob du etwas flüssig wahrnimmst oder nicht.
Wie viele FPS vom PC berechnet werden, ist da nicht der einzige Faktor, genau so wichtig ist, wie der Monitor es dann ausgibt.
Beim Steam Deck gibt es aktuell z.B. auch nur einen 30FPS und einen 60FPS Modus, weil das Teiler der Bildwiederholrate des Displays sind. 30FPS auf einem 60Hz Display ohne VRR können sich, wenn die Frametimes stabil sind, flüssiger anfühlen als 40FPS, da du bei 40FPS manche Bilder doppelt siehst und manche nur einmal, während bei 30fps gleichmäßig jedes Bild doppelt ist
Nope, nicht im Lategame. Normalerweise skaliert Aufbaustrategie ja gen unendlich. Soll heißen, mit Citys Skylines oder Anno landet man immer im CPU Limit, wenn man gross genug baut. Und gross bauen, das tue ich.
Zudem: Nehmen wir an, mit allen Garfikeinstellungen gemaxt komme ich auf 20 FPS im GPU Limit. Die CPU schafft aber 30 FPS. In diesem Szenario hast du zwar recht (alle Regler rechts = GPU Limit) aaber:
Ich will nicht mit 20 FPS spielen, ebensowenig aber mit 30.
Also schraube ich die Regler runter, bis ich sagen wir 40fps im Grafillimit erreiche. Nun bremst aber immernoch die CPU. Eine bessere CPU würde also helfen, selbst wenn ich anfangs, bei allen Reglern rechts, im Grafiklimit war.
Ergänzung ()
Taxxor schrieb:
Die Sync Technologien beeinflussen aber die Art und Weise, wie der Monitor dir das Bild ausgibt und genau an dem Punkt entscheidet sich ja, ob du etwas flüssig wahrnimmst oder nicht.
Wie viele FPS vom PC berechnet werden, ist da nicht der einzige Faktor, genau so wichtig ist, wie der Monitor es dann ausgibt.
Beim Steam Deck gibt es aktuell z.B. auch nur einen 30FPS und einen 60FPS Modus, weil das Teiler der Bildwiederholrate des Displays sind. 30FPS auf einem 60Hz Display ohne VRR können sich flüssiger anfühlen als 45FPS, da du bei 45FPS jedes zweite Bild doppelt siehst, während bei 30fps gleichmäßig jedes Bild doppelt ist
Stimmt. Nur kann man dann nicht bei beiden Eindrücken von "flüssig" sprechen.
Es sind unterschiedliche Phänomene, also muss man auch unabhängige Terminologie nutzen. Ob man dabei gesynctes Bild oder hohe FPS flüssig nennt ist natürlich relativ egal, solange man nicht beides gleich nennt. Für hohe FPS hat es sich nur schon eingebürgert.
Du sagst ja selbst, sie "können sich (...) anfühlen".
Hohe FPS fühlen sich immer flüssig an.
Ergo unterschiedliche Phänomene die unterschiedliche Namen brauchen.
Stimmt. Nur kann man dann nicht bei beiden Eindrücken von "flüssig" sprechen.
Es sind unterschiedliche Phänomene, also muss man auch unabhängige Terminologie nutzen.
Warum sollte man dafür eine andere Definition nehmen?
Flüssig ist das was ich als Nutzer am Bildschirm wahrnehme.
Ob etwas flüssig ist, weil ich weit höhere FPS habe, als mein Monitor ausgeben kann oder weil mein Monitor niedrigere FPS mit einer gleichmäígen Bildausgabe ausgleicht, sind einfach nur zwei verschiedene Gründe, warum etwas als flüssig wahrgenommen werden kann.
Deshalb führt aber nicht der eine Grund zu "flüssig" und der andere zu "neues Wort".
Eingebürgert hat es sich auch nicht für hohe FPS, sondern für gleichmäßige Frametimes, deswegen gibt es ja die Frametime Diagramme um zu beurteilen ob etwas flüssig läuft.
60fps können auch flüssiger sein als 100fps, wenn die Frametimes bei den 100fps zwischen 7ms und 14ms hin und her schwanken während sie bei 60fps stabil zwischen 16ms und 17ms bleiben
Ich verstehe deinen Punkt.
Aber hohe FPS sind objektiv flüssig. Ein gesynctes Bild subjektiv.
Was ich damit meine?
Du sagst selbst, eine gesynctes Bild könne flüssiger aussehen.
Könne!
Diese Einschränkung würde man bei hohen FPS nicht machen. Mehr FPS sind flüssiger fürs Auge, ohne Diskussion.
Das eine ist also objektiv belegt, das andere ein subjektiver Eindruck. Ich persönlich würde da ungern denselben Begriff verwenden, das führt zu Missverständnissen.
Aber es ist auch ein wenig Korinthenkackerei, das ist auch richtig. Aber begründete Korinthenkackerei .
Die siehst ja wie schwierig es ist, diesen Unterschied herauszuarbeiten, ein und derselbe Begriff hilft dabei nicht.