News Intel Raptor Lake Refresh: Core i9-14900K soll mit 6 GHz protzen, Core i3 und i5 ohne Änderung

Tom_111 schrieb:
Schau dir mal ein paar Benchmarks an. High End Grafikkarten legen ordentlich an Leistung zu. Da braucht es entsprechend eine schnelle CPU, um sie voll auszulasten. Ich zocke in WQHD. Da fällt die CPU mit ins Gewicht. Selbst meine Radeon™ 64 Liquid Cooling hat in den FPS zugelegt, als ich von i7-4790K auf i9-9900K aufgerüstet habe.
Wenn du eine Mittelklasse-Grafikkarte hast, dann reicht auch eine Mittelklasse CPU..
Das ist ein gutes Argument, aber jede aktuelle CPU schafft heute die 144 FPS ich zum Beispiel Cap meine FPS auf 141, weil ich g-sync nutze und mein Monitor 144 HZ hat.
Das Wichtigste in einem System ist immer noch die GPU, den wie gesagt die 150+ Fps bekommst du heute mit fast allen Prozessoren und musst keine 600 Euro dafür ausgeben.


lg
Ergänzung ()

Tom_111 schrieb:
Cache und Core-Leistung, also IPC und Takt, ist bei Spielen gefragt.
Schau dir mal ein paar Benchmarks an. Der i5-13600K ist zu lahm.
Wenn du auf 720P unterwegs bist, mag das zutreffen, aber wenn du höher gehst mit der Auflösung, macht die meiste Arbeit die GPU früher war das mal anderes, heute sind teurere Prozessor Nebensache.
Die meisten von uns sind im GPU-Limit, da hilft auch keine 600 Euro CPU. Glaub mir hätte es einen Vorteil, sich so ein Teil zu kaufen, dann wäre ich der Erste, der diesen Prozessor im Rechner hat.
 
Zuletzt bearbeitet von einem Moderator:
HaRdWar§FreSseR schrieb:
Wenn du auf 720P unterwegs bist, mag das zutreffen, aber wenn du höher gehst mit der Auflösung, macht die meiste Arbeit die GPU früher war das mal anderes, heute sind teurere Prozessor Nebensache.
Die meisten von uns sind im GPU-Limit, da hilft auch keine 600 Euro CPU.
Das ist ein Irrglaube. Es kommt auf beides an. GPU und CPU.
 
Das ist kein Irrglaube, schau die doch mal die ganzen Benchmarks an ab 1440P, das bist du immer noch gut unterwegs mit einer 150 Euro-CPU. Die meiste Arbeit übernimmt deine Grafikkarte, kannst du überall im Netz nachschauen.
 
alkaAdeluxx schrieb:

Du Flöte hast den von dir zitierten Beitrag offensichtlich nicht mal selbst gelesen, da du ansonsten bemerkt hättest, dass ich den Beitrag oben absichtlich insgesamt zitiert habe, weil sich mein Beitrag nämlich auf das gesamte Zitat bezog ("...auf welche der vielen Aussagen eines langen Beitrags sich die Antwort genau bezieht."). Ach ja, wenn du Schlauberger dir übrigens die Mühe gemacht hättest und nur die letzten Beiträge in diesem Thread angesehen hättest, hättest du darüber hinaus auch bemerkt, dass mir das Kürzen von Zitaten durchaus geläufig ist. Aber Hauptsache du hast verstanden wie man die Schriftgröße auf 20 ändert und hierdurch den "Lesefluss" positiv beeinflusst.

Sorry, aber manchmal kann ich mir hier echt gut vorstellen wie sich ein Lehrer auf der Hauptschule fühlen muss...

Tom_111 schrieb:
Das ist ein Irrglaube. Es kommt auf beides an. GPU und CPU.

So ist es, wobei die Auflösung aber durchaus eine entscheidende Rolle spielt.

Hier kann man sich das mal grob anzeigen lassen: https://pc-builds.com/bottleneck-calculator
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
ToaStarr schrieb:
So ist es, wobei die Auflösung aber durchaus eine entscheidende Rolle spielt.

Hier kann man sich das mal grob anzeigen lassen: https://pc-builds.com/bottleneck-calculator
Dann habe ich doch recht, laut der Seite habe ich einem Bottleneck von 0,4 % und sehe da ich habe kein 700-Euro-Prozessor. ;) Wie gesagt, desto höher die Auflösung, desto mehr muss die GPU ran.
Getestet habe ich natürlich auf meiner Auflösung und mit meiner Hardware.

lg
 
HaRdWar§FreSseR schrieb:
Dann habe ich doch recht, laut der Seite habe ich einem Bottleneck von 0,4 % und sehe da ich habe kein 700-Euro-Prozessor. ;) Wie gesagt, desto höher die Auflösung, desto mehr muss die GPU ran.
Getestet habe ich natürlich auf meiner Auflösung und mit meiner Hardware.
Ich schaue mir regelmäßig Benchmarks an.
Deine Grafikkarte und Prozessor passen ja auch gut zusammen.
Hat man aber eine High End Grafikkarte, spielt die CPU wieder eine größere Rolle.
Selbst meine Radeon™ 64 wurde schneller durch eine schnellere CPU.
 
HaRdWar§FreSseR schrieb:
Dann habe ich doch recht, laut der Seite habe ich einem Bottleneck von 0,4 % und sehe da ich habe kein 700-Euro-Prozessor. ;) Wie gesagt, desto höher die Auflösung, desto mehr muss die GPU ran.
Wie viele FPS man tatsächlich erreichen möchte ist natürlich auch von Bedeutung.

Bei mir spuckt der Rechner z.B. folgendes aus:

Intel Core i9-13900KS and NVIDIA GeForce RTX 4090 will work great together on 1920 × 1080 pixels screen resolution for Graphic Card Intense Tasks. This configuration has 0.7% of processor bottleneck . Everything less than 5% should not be concerned major bottleneck.

Intel Core i9-13900KS and NVIDIA GeForce RTX 4090 will work great together on 2560 × 1440 pixels screen resolution for Graphic Card Intense Tasks. This configuration has 0.4% of graphic card bottleneck . Everything less than 5% should not be concerned major bottleneck.

NVIDIA GeForce RTX 4090 is too weak for Intel Core i9-13900KS on 3840 × 2160 pixels screen resolution for Graphic Card Intense Tasks. This configuration has 21.2% of graphic card bottleneck .

Sehr beruhigend zu lesen das ein Update bei der nächsten Grafikkartengeneration nochmal helfen wird... :-D

Bei meinem vorherigen Setup sah es dagegen z.B. mit den letzten beiden Grafikkartengenerationen wie folgt aus:

Intel Core i7-6700K is too weak for NVIDIA GeForce RTX 3090 Ti on 1920 × 1080 pixels screen resolution for Graphic Card Intense Tasks. This configuration has 47.5% of processor bottleneck .

Intel Core i7-6700K is too weak for NVIDIA GeForce RTX 3090 Ti on 2560 × 1440 pixels screen resolution for Graphic Card Intense Tasks. This configuration has 33.8% of processor bottleneck .

Intel Core i7-6700K is too weak for NVIDIA GeForce RTX 3090 Ti on 3840 × 2160 pixels screen resolution for Graphic Card Intense Tasks. This configuration has 6.2% of processor bottleneck .

Intel Core i7-6700K is too weak for NVIDIA GeForce RTX 2080 Ti on 1920 × 1080 pixels screen resolution for Graphic Card Intense Tasks. This configuration has 9.8% of processor bottleneck .

Intel Core i7-6700K and NVIDIA GeForce RTX 2080 Ti will work great together on 2560 × 1440 pixels screen resolution for Graphic Card Intense Tasks. This configuration has 0.0% of bottleneck . Everything less than 5% should not be concerned major bottleneck.

NVIDIA GeForce RTX 2080 Ti is too weak for Intel Core i7-6700K on 3840 × 2160 pixels screen resolution for Graphic Card Intense Tasks. This configuration has 10.7% of graphic card bottleneck .

Hier wurde der Prozessor langsam zu lahm...
 
Zuletzt bearbeitet:
Du bist selbst in UHD im CPU Bottleneck. Der Prozessor ist zu lahm für deine Grafikkarte.
 
Tom_111 schrieb:
Selbst meine Radeon™ 64 Liquid Cooling hat in den FPS zugelegt, als ich von i7-4790K auf i9-9900K aufgerüstet habe.
Wenn du eine Mittelklasse-Grafikkarte hast, dann reicht auch eine Mittelklasse CPU..
Das sind auch zwei CPUs die fünf Generationen auseinander sind. Auch ein 8600K hätte den 4790er filetiert.

Ein 9900K wird doch selbst von einem Alder Lake 12100 QuadCore heutzutage in Games auseinandergenommen. Faustregel ist halt einfach: Highend "lohnt" sich fast nie. Man zahlt 50% drauf für die letzten 10% Leistung und eine oder zwei Generationen später ist so oder so beides Altware und wird von der neuen Midrange stehen gelassen.

Auch was Nachhaltigkeit angeht: schmeiss die CPU halt nicht fort sondern verkauf sie wem anderen der glücklich damit wird, dann ist das auch nachhaltig. Und wenn du schon so nachhaltig denkst, dann lieber ne schwächere CPU und weniger Strom verbrauchen - wir wollen hier ja konsequent nachhaltig denken. :daumen:
 
  • Gefällt mir
Reaktionen: nighcrawler und HaRdWar§FreSseR
Tom_111 schrieb:
Du bist selbst in UHD im CPU Bottleneck. Der Prozessor ist zu lahm für deine Grafikkarte.
So ein schmarn. Wenn das Game nicht gerade mega CPU lastig ist läuft das ganze selbst mit nem I3 (ab 12th Gen) Smooth und ich brauch keine >200 FPs Pippi verlängerung .Ich spiele keine Toaster Games.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
ThirdLife schrieb:
Das sind auch zwei CPUs die fünf Generationen auseinander sind. Auch ein 8600K hätte den 4790er filetiert.

Ein 9900K wird doch selbst von einem Alder Lake 12100 QuadCore heutzutage in Games auseinandergenommen. Faustregel ist halt einfach: Highend "lohnt" sich fast nie. Man zahlt 50% drauf für die letzten 10% Leistung und eine oder zwei Generationen später ist so oder so beides Altware und wird von der neuen Midrange stehen gelassen.

Auch was Nachhaltigkeit angeht: schmeiss die CPU halt nicht fort sondern verkauf sie wem anderen der glücklich damit wird, dann ist das auch nachhaltig. Und wenn du schon so nachhaltig denkst, dann lieber ne schwächere CPU und weniger Strom verbrauchen - wir wollen hier ja konsequent nachhaltig denken. :daumen:
Ich bin da mit dir einer Meinung, ich hätte es nicht besser formulieren können.
Danke dafür.
Ergänzung ()

ToaStarr schrieb:
Wie viele FPS man tatsächlich erreichen möchte ist natürlich auch von Bedeutung.

Bei mir spuckt der Rechner z.B. folgendes aus:

Intel Core i9-13900KS and NVIDIA GeForce RTX 4090 will work great together on 1920 × 1080 pixels screen resolution for Graphic Card Intense Tasks. This configuration has 0.7% of processor bottleneck . Everything less than 5% should not be concerned major bottleneck.

Intel Core i9-13900KS and NVIDIA GeForce RTX 4090 will work great together on 2560 × 1440 pixels screen resolution for Graphic Card Intense Tasks. This configuration has 0.4% of graphic card bottleneck . Everything less than 5% should not be concerned major bottleneck.

NVIDIA GeForce RTX 4090 is too weak for Intel Core i9-13900KS on 3840 × 2160 pixels screen resolution for Graphic Card Intense Tasks. This configuration has 21.2% of graphic card bottleneck .

Sehr beruhigend zu lesen das ein Update bei der nächsten Grafikkartengeneration nochmal helfen wird... :-D

Bei meinem vorherigen Setup sah es dagegen z.B. mit den letzten beiden Grafikkartengenerationen wie folgt aus:

Intel Core i7-6700K is too weak for NVIDIA GeForce RTX 3090 Ti on 1920 × 1080 pixels screen resolution for Graphic Card Intense Tasks. This configuration has 47.5% of processor bottleneck .

Intel Core i7-6700K is too weak for NVIDIA GeForce RTX 3090 Ti on 2560 × 1440 pixels screen resolution for Graphic Card Intense Tasks. This configuration has 33.8% of processor bottleneck .

Intel Core i7-6700K is too weak for NVIDIA GeForce RTX 3090 Ti on 3840 × 2160 pixels screen resolution for Graphic Card Intense Tasks. This configuration has 6.2% of processor bottleneck .

Intel Core i7-6700K is too weak for NVIDIA GeForce RTX 2080 Ti on 1920 × 1080 pixels screen resolution for Graphic Card Intense Tasks. This configuration has 9.8% of processor bottleneck .

Intel Core i7-6700K and NVIDIA GeForce RTX 2080 Ti will work great together on 2560 × 1440 pixels screen resolution for Graphic Card Intense Tasks. This configuration has 0.0% of bottleneck . Everything less than 5% should not be concerned major bottleneck.

NVIDIA GeForce RTX 2080 Ti is too weak for Intel Core i7-6700K on 3840 × 2160 pixels screen resolution for Graphic Card Intense Tasks. This configuration has 10.7% of graphic card bottleneck .

Hier wurde der Prozessor langsam zu lahm...
Die Ergebnisse sprechen genau das, was ich dir versuche, die ganze Zeit zu erklären. Wenn du mit der Auflösung hochgehst, arbeitet die GPU mehr. Der 6700K kackt auf 1080P ab erst ab 1440P übernimmt die GPU die Arbeit. Wenn du nicht auf 1080P zockst, kannst du immer noch diesen Prozessor verwenden, den du hast. Und um diese Leistungseinbußen zu verhindern, reicht heute schon ein 150-Euro-Prozessor für FULL HD, wie mein Vorredner schon geschrieben hat: Ein Aktueller i3 lässt die alten Highend Prozessoren weit hinter sich. Man muss sich keine 700 CPU fürs Zocken kaufen, es sei, den man kombiniert die arbeitet uns das Zocken.


lg
Ergänzung ()

nighcrawler schrieb:
Wird Zeit für ein Upgrade kann dir dann den 13900K empfehlen ^^
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: ThirdLife und nighcrawler
So sieht es aus. Es gibt eben Leute die das teuerste kaufen weil es vermeindlich das beste ist und dann welche die kaufen das vernünftigere. Man kann sämtliche reviews und Foren durchforsten und bei Intel werden für Gaming in 99,9% aller fälle die I5 der 12/13. generation Empfohlen. Für Durchschnitts non Overclocker der 12/13400(f) oder mit etwas mehr Dampf der 12/13500(f) und für Leute die Übertakten wollen 12/13600k(f).

Sollten einige Leaks stimmen wird es keine Quadcores in der 14. Gen mehr geben und der I3 14xxx kommt mit 6 Pcores und 12 Threads ,wodurch er aufgrund der Singlecoreleistung (und wenn der Preis Stimmt) vermutlich die neue Gaming CPU empfehlung bei Intel wird.

Man muß bei der "mittelklasse" von Intel nicht mehr in Dimensionen der vor Alder Lake Zeit denken. Ein I5 der heutigen Generationen Zerstört etliche HEDT CPUs aus der Vorzeit ohne mit der Wimper zu Zucken und das in Hinsicht auf Leistung , Stromverbrauch und Preis.
Und ja auch meine lahme Mittelklassen CPU Kann 6GHz und das trotz Intel Standard PL1/PL2 und das auch noch Luftgekühlt via Dark Rock Pro 4 obwohl ich nichteinmal ne gue CPU hab (silicon Lotterie looser).

Wenn man mit dem System auch was Arbeiten will kann man zu I7/I9 greifen oder natürlich wenn man bevorzugt CPU lastige Games nutz logischerweise auch ... oder einfach weil man es will . Nach dem bereits oben angesprochenen Ausspruch : Lieber haben und nicht brauchen als brauchen und nicht haben :daumen:

Sollte der I5 14600K(f) mit 8+8 kommen und nochmals verbesserte Ram Unterstützung bringen sowie einen angemessenen , nicht Abgespaceten , Preis ist das meiner. Ob ich Ihn nun brauche oder nicht 😉


Singlecore.pngMulticore.png
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR und ThirdLife
ThirdLife schrieb:
Das sind auch zwei CPUs die fünf Generationen auseinander sind. Auch ein 8600K hätte den 4790er filetiert.

Öfter upgrade ich nicht, damit es sich dann auch lohnt. Bei den geringen Fortschritten, die Intel gemacht hat, hätte das auch kaum etwas gebracht.
Du hast aber nicht verstanden, was ich damit sagen wollte. Nämlich das eine schnelle CPU auch aus der Radeon 64 / GTX 1080 Klasse noch etwas FPS herausholt.

ThirdLife schrieb:
Ein 9900K wird doch selbst von einem Alder Lake 12100 QuadCore heutzutage in Games auseinandergenommen. Faustregel ist halt einfach: Highend "lohnt" sich fast nie. Man zahlt 50% drauf für die letzten 10% Leistung und eine oder zwei Generationen später ist so oder so beides Altware und wird von der neuen Midrange stehen gelassen.

Ich bin Technik-Entusiast. Eine billig CPU turnt mich nicht an.

ThirdLife schrieb:
Auch was Nachhaltigkeit angeht: schmeiss die CPU halt nicht fort sondern verkauf sie wem anderen der glücklich damit wird, dann ist das auch nachhaltig. Und wenn du schon so nachhaltig denkst, dann lieber ne schwächere CPU und weniger Strom verbrauchen - wir wollen hier ja konsequent nachhaltig denken. :daumen:

Die Hochleistungs-CPU verbraucht mehr Strom, ist dafür aber schneller fertig, wodruch sich das wieder relativiert.
 
Tom_111 schrieb:
Öfter upgrade ich nicht, damit es sich dann auch lohnt. Bei den geringen Fortschritten, die Intel gemacht hat, hätte das auch kaum etwas gebracht.
Das ist durchaus verständlich aber hat sich seit etwa vier bis fünf Jahren deutlich verändert. Mittlerweile sind die Fortschritte Gen to Gen meist relativ groß. Spätestens alle zwei Gens hat man aktuell eigentlich einen echten Mehrwert.

Tom_111 schrieb:
Du hast aber nicht verstanden, was ich damit sagen wollte. Nämlich das eine schnelle CPU auch aus der Radeon 64 / GTX 1080 Klasse noch etwas FPS herausholt.
Bis zu einem gewissen Punkt und je nach Game durchaus.

Tom_111 schrieb:
Ich bin Technik-Entusiast. Eine billig CPU turnt mich nicht an.
Und ich dachte schon hier gehts um Fakten, jetzt ists schon was sexuelles.🤣

Tom_111 schrieb:
Die Hochleistungs-CPU verbraucht mehr Strom, ist dafür aber schneller fertig, wodruch sich das wieder relativiert.
Schneller fertig ? Beim zocken ? Die rechnet so lange wie dein Spiel läuft.

Und in Anwendungen rechnet sich das unter Garantie nicht. Selbst wenn du 20% schneller fertig wärst aber 50% mehr Strom verbrauchst ist das schlicht nicht nachhaltig. :D

Unterm Strich möchtest du es einfach "weil halt". Hier gehts nicht um Sinn oder Unsinn. Debatte ist also müßig.
 
  • Gefällt mir
Reaktionen: nighcrawler
Tom_111 schrieb:
Ich bin Technik-Entusiast. Eine billig CPU turnt mich nicht an.

Warum hast du dann den billigen 9900K gekauft und nicht den 9980XE ? Das war ne Männer CPU mit 18 Kernen 36 Threads und nicht so ein Billig I9 😂
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
ThirdLife schrieb:
Schneller fertig ? Beim zocken ? Die rechnet so lange wie dein Spiel läuft.

In GPU lastigen Spielen läuft die High End CPU nicht auf Volllast und verbraucht auch nicht so viel.
In CPU lastigen Spielen bringt sie mehr Leistung.

ThirdLife schrieb:
Und in Anwendungen rechnet sich das unter Garantie nicht. Selbst wenn du 20% schneller fertig wärst aber 50% mehr Strom verbrauchst ist das schlicht nicht nachhaltig. :D

Die High End CPU ist in Anwendungen aber schneller als 20%.
Ergänzung ()

nighcrawler schrieb:
Warum hast du dann den billigen 9900K gekauft und nicht den 9980XE ? Das war ne Männer CPU mit 18 Kernen 36 Threads und nicht so ein Billig I9 😂
Zu lahm in Games. Ich kaufe immer die schnellste Gaming CPU.
 
Tom_111 schrieb:
Die High End CPU ist in Anwendungen aber schneller als 20%.

Der 9980XE war in Anwendungen um 45-50% schneller (OC noch mehr) als der 9900K und mit schnellem Ram in 4 Kanal und dezentem OC gleich schnell im Gaming. Das ist nicht umsonst die Enthusiasten Plattform gewesen.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Der 9980XE war in Anwendungen um 45-50% schneller (OC noch mehr) als der 9900K und mit schnellem Ram in 4 Kanal und dezentem OC gleich schnell im Gaming. Das ist nicht umsonst die Enthusiasten Plattform gewesen.
Ja, der war nicht schlecht.
Aber mein i9-9900K ist auch übertaktet auf 5 GHz all Core.
Wegen dieser Hybrid-Krücken werde ich aber zu AMD wechseln.
 
Zuletzt bearbeitet:
gibts schon irgendwo Infos über die neuen z790er? ist da Überhaupt was dolles zu erwarten ? möcht endlich mal Upgraden und irgendwas kaufen.
 
Zurück
Oben