Test i9-14900K, i7-14700K & i5-14600K im Test: Die letzten Core-CPUs ihrer Art gegen AMD Ryzen 7000

Legalev schrieb:
Lies mal das bitte und bilde dir selber eine Meinung über den 14700K
Allein der YT-Thumbnail vom PCGH Video spricht ja Bände. :D
gen14.jpg
 
  • Gefällt mir
Reaktionen: Öcher Tivoli, NerdmitHerz, Veitograf und 2 andere
Naja. Gab's auch schon mal andersrum, also AMD und Intel. Stromfresser und dabei langsamer.

Mein letzter Intel 2500k war aus der Zeit. Aber das Blatt hat sich gedreht und hab 7800X3D. Wird vermutlich auch solange halten 😀

Intel ist seit längerem bis I5 14600 empfehlenswert. Drüber ist Heatoverkill. Ich kann auch diese Idle Diskussion nicht mehr hören. Welcher User gibt 500 , 600 Euro und mehr für CPUs aus und macht dich wegen der Stromrechnung wegen 10,20,30 Watt Idle Verbrauch Gedanken?

Solange es nicht zu heiss wird und leichte kuehlbar ist
 
Schon fast etwas gewagt, anzunehmen, dass beim Launch der nächsten Generation in den Desktop alles klappen wird. Ich sehe da ne 50% Chance, dass es nicht die letzten ihrer Art bleiben :D
 
  • Gefällt mir
Reaktionen: Rockstar85
Flossen_Gaming schrieb:
"Die drei neuen CPUs Core i9-14900K, i7-14700K und i5-14600K bringen keine neuen Kerne, keine neue Fertigung, ja nicht einmal ein neues Stepping mit sich. Alle drei bieten leicht höhere Single- und Multi-Core-Turbotaktraten"

Wahnsinn...
Also eigentlich alles wie bis vor 6-7 Jahren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Coeckchen, danyundsahne, Smartbomb und eine weitere Person
Ich glaube, hier wurde schon alles gesagt...

Eine unnötige 14. Generation, die Intel sich hätte sparen können.

Einzig den i5 14600K/KF würde ich noch interessant finden, wenn der Preis stimmt.

Aber leider habe ich schon einen 13600KF... ;)
 
  • Gefällt mir
Reaktionen: Laphonso und Rockstar85
Supie schrieb:
Jup. Insbesondere bei Intel wird das tatsächlich nach langer Zeit mal wieder richtig spannend. Arrow Lake soll ja in Q4/2024 kommen. Wir springen im Desktop also direkt von "Intel 7" (10nm) auf "Intel 20A" (~2nm).

Rein nominell ist das ja erst mal ein Riesensatz nach vorne. Da darf man wirklich sehr gespannt sein, wie sich das auf die Effizienz und Performance auswirken wird.
Laut den letzten Gerüchten scheint auch Arrow lake ein Rohrkrepierer (+5% single-thread) zu werden.
Die Effizienz scheint sich, laut den letzten Informationen beim Umstieg auf 20A (wie vielen nm dies im Richtigen Leben auch immer entsprechen mag) um ca. 30% zu verbessern.
Das würde bedeuten, dass sie anstatt 3-4 Mal so Ineffizient wie AMD nur noch 2-3 Mal so Ineffizient wären.
Aber AMD bleibt ja, was die Effizienz anbelangt mit Zen 5 und 6 ja auch nicht stehen. So das es voraussichtlich am Ende wohl wieder auf den selben, relativen Abstand hinauslaufen wird.
Aber wenigstens wird er dadurch nicht noch größer.

Aber jede größere Verzögerung, könnte gravierende Auswirkung auf Intel haben und punkto Verzögerungen
ist Intel bekanntlich Weltmeister.
 
Wenn man eine RTX 4080 / 4090 oder AMD 7900 XT/X hat spielt es eigentlich keine Rolle ob die CPU 60 Watt oder 150 Watt verbraucht oder? ich finde den i7 14700K interessant und werde aufrüsten.
 
Mein nächstes Waffeleisen wird ein Intel.
 
  • Gefällt mir
Reaktionen: Sc0ut3r
Wow wie unnötig ist diese neue CPU Gen bitte... Gleicher Preis und gleiche Leistung....das hätte man auch einfach auslassen können.
 
  • Gefällt mir
Reaktionen: Laphonso
RogueSix schrieb:
Jup. Insbesondere bei Intel wird das tatsächlich nach langer Zeit mal wieder richtig spannend. Arrow Lake soll ja in Q4/2024 kommen. Wir springen im Desktop also direkt von "Intel 7" (10nm) auf "Intel 20A" (~2nm).
Weck mich, wenn 20A als CPU Tile kommt.. derzeit sagen die Spatzen eher, dass es bei Intel 7 für die CPU bleibt..
 
@Jiddis wenn man mit v-sync/frame limiter spielt, hat die 4080/90 die höchste effizients bei performance/watt

da macht es sehr wohl einen unterschied ob die gaming cpu nur 60w oder 200w verballert...

die 14er gen von intel in mein augen ein absoluter flopp und kein kauf grund
 
  • Gefällt mir
Reaktionen: danyundsahne
Jiddis schrieb:
Wenn man eine RTX 4080 / 4090 oder AMD 7900 XT/X hat spielt es eigentlich keine Rolle ob die CPU 60 Watt oder 150 Watt verbraucht oder? ich finde den i7 14700K interessant und werde aufrüsten.

Die 150W sind ja nur der Durchschnitt, in der Spitze kann das auch mal deutlich mehr werden.
Und wieso sollte man sich die langsamere, ineffizientere CPU kaufen, wenn man für einen ähnlichen Preis die deutlich bessere und schnellere bekommen kann.
Vom Kühlaufwand im Gehäuse/Prozessor + >=1000W Netzteil (besser mehr) erst gar nicht zu reden.
Lärm, Hitze und schlussendlich wenn es ums Gaming geht, auch nur ein 8 Kerner mit nutzlosen fake e-cores.
Da lieber gleich, wenn man sich schon eine 4090 leisten kann einen effizienten 7950X3D mit richtigen 16 Kernen samt SMT) damit man auch bis zu einem gewissen Grad für die Zukunft gewappnet ist.
 
Jiddis schrieb:
Wenn man eine RTX 4080 / 4090 oder AMD 7900 XT/X hat spielt es eigentlich keine Rolle ob die CPU 60 Watt oder 150 Watt verbraucht oder?
Das kommt ganz auf die Kühlung des ganzen Systems an. Jeder mit MIDI Tower oder kleiner dürfte über 100W weniger bei gleicher Leistung glücklich sein.

Insgesamt sind die Parallelen zu FX9000 damals erstaunlich. Fast schon poetisch.
 
  • Gefällt mir
Reaktionen: NerdmitHerz, iron_monkey, danyundsahne und eine weitere Person
bisher hatte ich einen i7 9700k und wollte aufrüsten - dabei hatte ich keine Lust auf ein AMD System, darum hab ich mir den i7 14700k bestellt zusammen mit DDR5 6400 RAM , die Preise sind günstiger als bei der 13er Gen. Die 14er Gen ist nur ein Refresh wie damals beim Hasswell.
 
gustlegga schrieb:
Allein der YT-Thumbnail vom PCGH Video spricht ja Bände. :D
das von Hardware Unboxed ist aber auch ein "neu vertonter" Klassiker
1697569556644.png


und dann sollte auch noch das Intro von Gamers Nexus genannt werden... ich liebe Steves Humor einfach ;)
 
  • Gefällt mir
Reaktionen: Captain Mumpitz, NerdmitHerz, iron_monkey und 9 andere
Also es mag ja sein, dass das bei High-End-CPU´s der Fall ist, aber bis auf die Abwärme interessiert mich der Verbrauch eigentlich nicht primär... nutze aber auch immer nur Mittelklasse-Komponenten und meine Stromrechnung ist noch nie explodiert 😁
 
@catch 22 Dann heissts ja nur noch auf den Rant von Jay zu warten. :D
 
ArrakisSand schrieb:
Da lieber gleich, wenn man sich schon eine 4090 leisten kann einen effizienten 7950X3D mit richtigen 16 Kernen samt SMT) damit man auch bis zu einem gewissen Grad für die Zukunft gewappnet ist.

Diese CPU-,,Generation" ist doch eher was für ein Sidegrade auf einem Board, wenn man dieses bereits hat. Vielleicht reichen ja 200€ dafür, weil dann in meinem Fall für den 12700K noch Erlös kommt. Zudem scheint ja ein 13900K die bessere Wahl als ein 14700K zu sein, wenn man ihn billiger bekommt.

Ich denke, AM5, X3D und 32GB DDR5 könnten so um die 1000 Taler sein, dann für die Leute, die eine noch ältere Plattform haben wie Intel bis 11. Generation oder AM4, wo das Board evl. zu schlecht für einen 5800X3D ist.

Persönlich habe ich noch ,,Angst", dass Java einfach ein Intel-Programm ist und Minecraft auf einem Ryzen schlechter läuft und der Java-Krüppel hängt sowieso mit 2 Kernen im CPU-Limit, selbst mit heftigen Shadern. Der Shader Seus HRR3 ist ziemlich anspruchsvoll. Bei einer RTX2080S sind 60FPS oder weniger durchaus normal, während eine 4080 da über 100FPS schafft. Theoretisch, vorher kickt das CPU-Limit rein.

Für ein großes Upgrade ohne Sidegrade dann eher 15700K auf Z890 oder 8800XD3 auf B750 oder X770 (angenommene Namen).
 
@RogueSix

Auch der Stromverbrauch würde anders aussehen, zumal Jeder mit etwas Ahnung die Dinger eh UV würde und die Differenz so nochmals schrumpfen würde. Dann noch schnelleren Ram draufschnallen und schon sieht die Sache ganz anders aus wie man es aus dem CB Test entnimmt bzw. es sich darstellt. Klar, ein reiner CPU Test hat so auszusehen wie beim CB Test, aber etwas Realitätsnähe wie man so ein System vermutlich betreiben würde könnte uns wirklich viele dämliche Diskussionen ersparen. Da finde ich den Test z.B. bei Igors Lab und TechPowerUp nützlicher aufgrund zusätzlicher und realitätsbezogener Infos, die der Verbraucher daraus ziehen kann; muss man so sagen, zumal Das oft genug angesprochen wurde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RogueSix
ArrakisSand schrieb:
Die 150W sind ja nur der Durchschnitt, in der Spitze kann das auch mal deutlich mehr werden.
Da lieber gleich, wenn man sich schon eine 4090 leisten kann einen effizienten 7950X3D mit richtigen 16 Kernen samt SMT) damit man auch bis zu einem gewissen Grad für die Zukunft gewappnet ist.
naja der 7950x3D hat leider eine schlechtere Gaming Performance weil hier nicht alle Kerne 3D Cache haben und die threads ungünstig verteilt werden können, das Problem hat auch der Intel mit seinen e-cores, der bauer hat dazu ein Video gemacht. Wenn man den i9 14900k auf 6GHz übertaktet und die e-cores abstellt geht die Leistung durch die Decke, Ich habe echt lang überlegt aber mich dann gegen den 7800x3D entschieden. Stromverbrauch ist mir egal!
 
Zurück
Oben