News Core i9-14900KS: Intels erster 6,2-GHz-Prozessor soll Mitte März erscheinen

0ssi schrieb:
Im absoluten CPU Limit und wenn die E-Core gut genutz werden vielleicht von 60 auf 120FPS
aber das kann eben Frame Generation auch also ich werde ganz gelassen auf Gen 15 warten.
Der 12900K ist mehr als doppelt so schnell wie der 9900K. Der 14900K ist 40% schneller als der 12900K.
Unbenannt.jpg

https://www.computerbase.de/2021-11/intel-core-i9-12900k-i7-12700k-i5-12600k-test/5/

Unbenannt2.jpg


https://www.pcgameshardware.de/Core...14600K-UVP-Release-Benchmark-Specs-1431342/2/

Macht auch einen Unterschied, ob ich mittels Framegen 240, statt nur 120 FPS bekomme.
Ergänzung ()

DevPandi schrieb:
Kann man beim KS sicher auch machen und hat bei bestimmten Szenarien die 6,2 GHz.
Nur braucht man dann keinen teuren KS, sondern kann sich auch den günstigeren 14900K holen.
 
  • Gefällt mir
Reaktionen: Michael vdMaas
GOOFY71 schrieb:
Das ist richtig, aber ich würde mir keinen 14900KS kaufen, um den Prozessor dann auf 125W einzubremsen. Dann kann man sich auch ein günstigeres Modell kaufen und sich den Aufpreis sparen.
Ich halte das nicht für korrekt. Zum einen wurde das Produkt noch nicht in einem 125W Limit getestet um es bewerten zu können, zum anderen wird selbst ein 14900KS in Spielen mit einem 125W Limit kaum an Leistung verlieren. Ein günstigeres Modell ist günstiger und natürlich auch langsamer. Vielleicht nur Minimal, aber das ist klar.
BxBender schrieb:
Und das gilt auch für den KS, der für 200 Euro Aufpreis dann so viel Leistung verliert, dass ein normaler K ohne Einschränkung mitunter schneller läuft.
Unwahrscheinlich, da der KS selektiert ist und der 14900K halt nicht.
BxBender schrieb:
Es ist also völlig sinnfrei, viel Geld für dann weniger Leistung ausgeben zu wollen.
Der KS wird aber schneller sein, egal in welchem Szenario.
Ich würde auch nicht sagen, dass es sich lohnt. Jemand der die Plattform aber neu kauft, hat die schnellste Mainstream Spiele und Anwendungs CPU bis zum erscheinen von Zen 5.
BxBender schrieb:
Ein KS muss mit Brechstange und mega dicker Kühlung betrieben werden, denn es ist eine reine Unvernunfts-CPU für Leute, die die letzten Mhz aus der Technik rausholen wollen, quasi eine Machbarkeitsstudie.
Wenn die Limits korrekt eingestellt werden, ist diese Aussage falsch. Es reicht eine billige 240er AiO WaKü.
BxBender schrieb:
Vor allem bei Multi-Core-Nutzung wird ein KS weniger Leistung als ein K bringen, wenn man im die Stromzufuhr abschneidet.
Auch unwahrscheinlich. Der Selektionsdruck um höhere Taktraten zu erreichen, wirkt auch bei niedrigeren Allcore Taktraten.
 
Zuletzt bearbeitet:
stefan92x schrieb:
Warum sollte das bei gleicher Kernanzahl so sein? Ich versteh den Punkt, wenn ich einen 14900(K/KS) gegen einen 14600 vergleiche, weil da einfach unterschiedliche Kernanzahlen vorliegen. Aber wieso ein 14900KS bei reduzierten Limits langsamer werden als ein 14900K? Da würde ich entweder gar keinen Unterschied erwarten oder sogar einen leichten Vorteil für den KS, da der ja vermutlich den besser selektierten Chip hat.
Ergänzung ()
Es geht doch darum:

niemand sollte sich einen selektierten, stark überteuerten KS Prozessor kaufen, und diesen dann künstlich beschneiden.
Auf 125W limitiert kann der dann sogar langamer sein als ein 14700K.
Warum also dann so viel Geld ausgeben?
Man gibt das Geld aus, um die 100-200mhz (bei bester Kühlung wohlgemerkt) und ohne Bios-Drosselung ausfahren zu können (zumindest versuchen).

Ich habe hier gerade in der Frühstückspause die PCGH 3/24 zum Lesen aufgeschlagen und sehe gerade, dass im Spiel Starfield die CPU Last angeblich auf 85% auf vielen Kernen hochgeht.
Da PCGH mit Herstellerspezifikation laut Datenblatt testet, schlägt ein 14700K den 14900K, weil letzterer da schon in sein TDP Limit kracht.
Setzt man einen 14900KS auf 125W runter, na was passiert dann wohl?
Eben, warum will man sich das antun wollen?
Ich kaufe mir ja auch nicht einen AMD Ryzen 7950X3D mit 16 dicken Kernen und 3D Cache, und dann limitiere ich den aus Spaß im Bios auf 45W Bio-Energiestromsparmodus.
Damit erreicht man nur, dass eine CPU unter Vollast zu einer Art Server-CPU degradiert wird, wo Threads wichtiger sind als Takt.
Dann ist es eigentlich immer sinnvoller, eine Nummer kleiner zu kaufen und sich das Geld zu sparen, was man ansonsten ungenutzt einfach so zum Fenster herauswirft.
Bei einer Grafikkarte wie einer 4090 macht das hingegen absolut Sinn.
Dort hat man aber auch 40% mehr Rohleistung als mit einer 4080.
Da kann man die Spannung und den Takt ein gutes Stück herunterregeln und auf bis zu 10% an Leistung einbüßen, spart dafür aber dann mal eben locker 50-100Watt ein, zusätzlich entlastet man die Gefahr des ominösen Kabelbruzzelns.
Ein Intel KS hingegen braucht das mehr an Watt im Bios, um überhaupt die Chance zu haben höher zu takten als der wesentlich günstigerer K.
Wir reden hier über 1-3% Leistungsdifferenz im Leistungsindex.
Das ist so oder so schon absolut rein gar nichts.
Da fällt mir dann auch jüst noch ein gutes (nur ähnliches) Beispiel bei Garfikkarten ein.
Die 4080 Super ist trotz mehr von allem quasi auch nur 1-3% schneller als die alte 4080.
Wie kommt das? Es liegt am Powerlimit von den gleichen 320 Watt.
Die limitieren einfach.
Hätte NVidia die Karte auch 100 Euro teurer angeboten (weil sie ist ja super und "besser"), das hätte sich auch niemand gefallen lassen, oder hätte gar gekauft.
Da lautet ja auch die Kaufempfehlung aller Tester: nehmt die Karte, die billiger zu haben ist.
 
BxBender schrieb:
Da PCGH mit Herstellerspezifikation laut Datenblatt testet, schlägt ein 14700K den 14900K, weil letzterer da schon in sein TDP Limit kracht.
Du vergleichst also einen 14700K mit dem 14900K(S), und nicht 14900K vs 14900KS - dann versteh ich dich und gebe dir recht, das war für mich bei deinem ersten Post nicht ganz klar :)
 
#mopowababeh !!!1!1!1

Kann man 2 Noctua NH D15 auf einer Intel CPU klemmen, damit die noch zu bändigen ist? 😂
 
Nun viel Spass beim Kühlen. Man hat jetzt schon teils Probleme und mit 6Ghz Plus wünsche ich jedem viel Spass im Sommer. Lüftkühlung wird sagen wir mal spannend. Und AIO´s haben mehr zu tun wie jetzt, und ich bin schon gespannt auf die Ratterberichte" hier im CB ;) Gamingzukunft spielt sich dann im Herbst und Winter ab ;)
 
  • Gefällt mir
Reaktionen: Mr.Seymour Buds
BxBender schrieb:
Da PCGH mit Herstellerspezifikation laut Datenblatt testet, schlägt ein 14700K den 14900K, weil letzterer da schon in sein TDP Limit kracht.
Über das Limit von 257 Watt? Das kann doch nur ein Messfehler oder ein Bug sein.
Der 13700K ist auch sehr nah an dem 13900K, der 12700K auch an dem 12900K.
Darauf sollte man sich nicht stützen.
BxBender schrieb:
Setzt man einen 14900KS auf 125W runter, na was passiert dann wohl?
Der wird schneller sein als ein auf 125W limitierter 14900K.
BxBender schrieb:
Dann ist es eigentlich immer sinnvoller, eine Nummer kleiner zu kaufen und sich das Geld zu sparen, was man ansonsten ungenutzt einfach so zum Fenster herauswirft.
Hat aber dann die schlechtere Effizienz und Leistung, irgendwie scheinst du verschiede Dinge miteinander zu vermengen.
BxBender schrieb:
Da kann man die Spannung und den Takt ein gutes Stück herunterregeln und auf bis zu 10% an Leistung einbüßen, spart dafür aber dann mal eben locker 50-100Watt ein(...)
Und genau dasselbe passiert, wenn man die CPU begrenzt. Sie wird massiv effizienter, ohne großartig Leistung einzubüßen, siehe die 88Watt Tests des 13900K im CB Launchartikel.
BxBender schrieb:
Ein Intel KS hingegen braucht das mehr an Watt im Bios, um überhaupt die Chance zu haben höher zu takten als der wesentlich günstigerer K.
Der K würde mehr Watt brauchen um so hoch takten zu können, das ist der Punkt.
BxBender schrieb:
Wie kommt das? Es liegt am Powerlimit von den gleichen 320 Watt.
Die limitieren einfach.
Das liegt nicht am Powerlimit, sondern daran, dass 3% mehr Bandbreite und 5% mehr Shader einfach nicht 1:1 skalieren und im Maximalfall nur 4% bringen. Das Powerlimit ist ziemlich egal.
 
Niemand behauptet man muss/soll von einem 12900k oder 13900k auf einen 14900k upgraden, aber jeder hat einen anderen Alterszustand seiner Hardware.

Ich bin von einem 5820k auf den 14900k gewechselt. und hätte es den 14900ks bereits gegeben dann wäre es wohl dieser geworden.

Davon abgesehen ist das eh maximal eine etwas bessere Silikon Lotterie, denn in den Werkseinstellungen von meinem Asus Board wurde die CPU eh schon höher getaktet auf 6.2GHz ^^
 
Da es hier kurz um den Multicore und Leistung in Anwendungen / Effizienz ging hab ich mal kurz nachgeschaut wie man aktuell gegen den Ryzen 9 5950X abschneidet, und wäre fast vor lachen vom Stuhl gefallen.

Zen 3 kam Ende 2020 raus.

Rocket Lake, Alder Lake, Raptor Lake, Raptor Lake refesh folgten, und nun hat man ca. 35% Vorsprung mit 8+16 vs 16 Kerne.
 
  • Gefällt mir
Reaktionen: Veitograf und DannyA4
t3chn0 schrieb:
Und ja, jetzt ist hier wieder gleich alles voll mit "sinnlos" "was für dumme" "Kernkraftwerk" "Erderwärmung" "lachhaft" "Intel ist bäh" "einfallslos" etc.
Mir fällt da eher $chw@nzverlängerung für diejenigen ein, die es nötig haben.😁
 
  • Gefällt mir
Reaktionen: DannyA4
Kool-Aid für richtige Opfer!
 
  • Gefällt mir
Reaktionen: DannyA4
c9hris schrieb:
Aber so manch einer wird ihm sich halt als Statussymbol kaufen.Aber wie immer gilt leben und leben lassen
Da fragt man sich nur, welchen Status man damit zum Ausdruck bringen will und wieso
Ergänzung ()

Willi-Fi schrieb:
aber mittels händischen Einstellungen dann bei 5-5,5Ghz zum Effizienzwunder.
YMMD
Mit würde ja echt viel einfallen, aber "Effizienzwunder" ist ein neues Level
 
  • Gefällt mir
Reaktionen: Michael vdMaas, iron_monkey, JarlBallin und eine weitere Person
Nope, lieber einen effizienten 15700/15900 K mit 3D-Cache. Solange hält mein 9900K auch noch durch :D
 
Chesterfield schrieb:
Lustig dass gerade Intel die damals den Bulldozer FX wegen ihren Gigahertz „Energie verbraten“ ausgelacht haben … so schnell wendet sich das Blatt 😅😅

Nur konnte der FX selbst mit der Brechstange nicht mithalten.
 
  • Gefällt mir
Reaktionen: BAR86
Das ist mir leider zu spät, der Winter war dann schon, Heizung brauch ich nicht mehr
Ergänzung ()

Chesterfield schrieb:
Lustig dass gerade Intel die damals den Bulldozer FX wegen ihren Gigahertz „Energie verbraten“ ausgelacht haben … so schnell wendet sich das Blatt 😅😅
immer wieder mal, ja.
Auch im GPU Bereich gings früher öfters hin und her ("Nvidia Thermi")
 
  • Gefällt mir
Reaktionen: jak80
Caramelito schrieb:
Diesen Ansatz verstehe ich auch absolut 0 - Aber wenn er es möchte, bitte.
Meiner ist auch auf 35 W limitiert, fällt beim zocken nicht auf in der Leistung. Selbst in CB R23 kommen noch bisschen über 14k Punkte aus
 
LamaMitHut schrieb:
Toll...

... Ist aber nicht Sinn der Sache, und das einige hier krampfhaft behaupten das Intel irgendwie technologisch auf Augenhöhe mit AMD wäre ist das traurige. In der Realität angekommen hat AMD einen Chip der vom Laptop bis zur MI300 verwendet werden kann, die Marktanteile spiegeln den Vorsprung leider noch nicht wieder.
Toll ist höchstens deine Interpretation dessen, was ich geschrieben habe. Ich habe nicht behauptet, dass Intel das technologisch bessere Produkt bietet.

Und daher verbitte ich mir einen Vergleich mit "einigen hier, die krampfhaft behaupten [...]". Weil weder lasse ich mich über einen Kamm mit "einigen hier" scheren, noch habe ich irgendwas behauptet.

Aber es ist auch völlig egal was man hier im Forum schreibt. Der Kindergarten hört einfach nicht auf. Wenn ich jetzt einen Hass-Kommentar wie deinen geschrieben hätte, nur in die andere Richtung, dann wären die Intel-Anhänger auf die Barrikaden gegangen.
 
BDR529 schrieb:
Aber es ist auch völlig egal was man hier im Forum schreibt. Der Kindergarten hört einfach nicht auf. Wenn ich jetzt einen Hass-Kommentar wie deinen geschrieben hätte,
Nur weil dir jemand widerspricht ist das noch lange kein "Hass-Kommentar". Das nennt man freie Meinungsäußerung und wenn du davon gebrauch machs, musst du auch damit leben, dass andere selbiges tun und dir nicht nach dem Mund reden ;)
 
  • Gefällt mir
Reaktionen: Veitograf, Michael vdMaas, iron_monkey und 4 andere
Quidproquo77 schrieb:
Die Realität ist eigentlich, dass dir Single Thread Performance im Alltagsprogrammen wie Photoshop, Adobe After Effects und Co mit Abstand am wichtigsten ist, da sie immer durchschlägt.
Multithreadingleistung wird erst dann interessant, wenn aus der vorliegenden Rohbearbeitung ein fertiges Bild oder Video berechnet wird. Solche Aufgaben sind auf X Kerne skalierbar.
Halt, ich muss mich berichtigen, ich sehe gerade in HWMonitor, dass bei mir 2 Cores (#1 und #6) doch schon das Maximum von 3999 MHz erreicht haben.
Das war mir früher noch nie aufgefallen, wenn ich mal mit HWMonitor nachgesehen habe.
Ok, damit hat sich das erledigt.

Danke für Deine / Eure Antworten.
 
Ist das noch eine CPU oder zählt es bereits als Heizung?
 
Zurück
Oben