Test i9-14900K, i7-14700K & i5-14600K im Test: Die letzten Core-CPUs ihrer Art gegen AMD Ryzen 7000

mojomojo schrieb:
Das ist reine Ansichtssache - wen man den Spieß umdreht, verbraucht der 7800X3D zu viel bzw. ist zu langsam in anderen Anwendungen für den Preis und lässt sich dann auch noch schwerer Kühlen durch hohe Hotspot und geringere Tmax.
Mir ging es um, die Meisten zocken, da bringt ein Cinebench 50 Watt Score nix.

Zumal man dann so konsequent sein sollte und die E Cores deaktiviert. Dann beide 50 Watt verbrauchen lassen und gucken wo die Punkte stehen. Ist doch klar dass ein 20 Kerner da schneller als ein 8 Kerner ist. Sofern die nicht 10 Jahre auseinander liegen.

Niemand hat behauptet der 7800X3D ist ein King in Anwendungen und dort viel besser als Intel.
Außerdem verbraucht der nie viel, die CPU läuft auf Grund der niedrigen Spannung quasi immer im Sweet Spot.

Das eine andere CPU mit viel mehr Kernen effizienter in Benchmarks sein kann, liegt schlicht an den vielen Kernen.

Aber ich wollte im Grunde auf das gleiche raus wie du. Jeder legt es sich zurecht wie es ihm passt, so dass AMD oder Intel gewinnt.

So wie bei till69 der hauptsächlich Anwendungen nutzt und dort dann Intels Kern und Verbrauchsmonster dann mit dem reinen Gamingprozessor eines 7800X3D vergleicht.

Fürs Gaming zählt Leistung mit Verbrauch. Da ist kaum eine Chance gegen die 3D Cache CPUs.
Für Anwendungen kann man den Verbrauch weniger wichtig sehen, da will man schnell und viel auf einmal schaffen.

Es ist doch Quatsch beim Gaming Test zu sagen, AMD ist schlecht weil Intel mehr Punkte in Cinebench schafft.

Man muss einfach einen Fokus setzen und da nehmen was sinnvoller ist.

Intel ist im Moment nun mal nicht die Nr.1 im Gaming was manche Fans anscheinend nicht vertragen.

Aber selbst wenn ich produktiv schaffen würde, selbst dann wäre ein 7950X in der engeren Auswahl oder ich würde einen 14900K nehmen und auf max. 200 Watt limitieren.
Intels P Cores saufen unter starker Belastung einfach zu viel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne, bugmum, Slipknot79 und eine weitere Person
mojomojo schrieb:
7800X3D zu viel bzw. ist zu langsam in anderen Anwendungen für den Preis und lässt sich dann auch noch schwerer Kühlen durch hohe Hotspot und geringere Tmax.
Ich will an Deinem Fazit gar nicht rütteln, der 14700k ist ein richtig guter und runder Prozessor mit toller Multicoreleistung zum fairen Preis.

Aber dieser Quatsch mit dem schwer kühlbaren x3d ist einfach nicht (mehr) wahr. Der Prozessor kann ganz easy 24/7 voll belastet werden und das mit einem 30Euro Luftkühler. Dabei erreicht er gemütliche 70 grad und alles ist ganz ruhig und der Raum bleibt kühl.
Auch die 100 grad der Intel K-CPUs sind technisch kein Problem für die CPUs - Intel sieht das ja so vor - aber die Anforderungen an die Kühlung sind massiv höher - schon wegen der grössereb Abwärme - und bringen natürlich auch einen Mehrpreis mit. Das ist auch Teil der Wahrheit, die CPUs bringen selbst Standard-Waküs an ihr Limit, wenn man sie ausfährt

Meinen 10900er lasse ich auf billo-Luftkühler laufen, weil er untervoltet läuft. Voll ausfahren ginge mit einfachen Luftkühlern aber auch nicht. Da pendelt er zwischen 2,9 und 3,2 GHz.
 
  • Gefällt mir
Reaktionen: Rockstar85
till69 schrieb:
Mich interessiert die Rohleistung.
Und bei 4K Gaming ist die CPU sowas von egal.
Ah. die Rohleistung also in Spielen vermute ich warum sonst solltest du ne 4090 haben. Du meinst aber schon richtige Spiele also nicht dieses komische CB23 Game?

Schau mal hier:
Unbenannt.png


Das ist im CPU - Limit der schnitt von 41 Spielen was kann man daran falsch interpretieren?
Die 14000er Cpu´s haben weniger "Rohleistung" in Spielen egal ob im CPU oder GPU Limit.

Schau auch mal hier.

Unbenannt1.png


Mag ja sein das die CPU beim 4K Gaming keinen großen Ausschlag mehr gibt was die FPS angeht.
Sicher auch saufen die 14000er Cpu´s im GPU Limit weniger, die AMD´s aber eben auch.

Am Ende hast du im GPU Limit bei beiden die Selben FPS aber der AMD zieht dabei einfach weniger Saft.

Die 14000er CPU´s mögen alles mögliche sein aber sie sind keine guten Gaming CPU´s.
Selbst ihre direkten Vorgänger die 13000er sind Effizienter u. auch schon recht bald günstiger am Markt verfügbar.

Mag sein das dein 14700K gut abliefert im CB23 Game aber wer zockt sowas schon über nen längeren Zeitraum :D

Schau dir einfach mal diesen Artikel an.
https://www.pcgameshardware.de/Core...5-14600K-UVP-Release-Benchmark-Specs-1431342/

In meinen Augen Taugen die 14th Gen CPU´s nur als Sammler Objekt insbesondere der 14900K.
Ähnlich wie der Pentium III 1400S vor vielen Jahren wird der 14900K als letzter seiner Art in die Geschichte eingehen. Wobei ich hab den 14900KS vergessen der kommt ja sicher auch noch :D
Ob die auch den Kult Status des P-III 1400S erlangen werden, ich weiß ja nicht wohl eher den des Pentium 4 Prescott Nachfolgers. Der hatte 2004 schon 3,8GHz . süffelte damals schon beachtliche 115 Watt.
Genau wie damals Dominierte AMD den Gaming CPU Markt was Leistung u. Verbrauch anging.

Erstaunlich wie sich die Zeiten doch immer wiederholen.

Auf den Pentium 4 folgte ja damals die Core Duo Architektur die AMD damals beinahe in den Ruin getrieben hat. Erst mit der Ersten Ryzen Generation konnte sich AMD wieder fangen.
Hoffen wir mal das die Neue Intel Architektur die Ende 2024 erscheinen soll auch wieder solch einen Impakt auf den Markt haben wird wie der Core Duo damals :)
 
  • Gefällt mir
Reaktionen: ComputerBase101
4BitDitherBayer schrieb:
Selbst ihre direkten Vorgänger die 13000er sind Effizienter
Und genau deswegen geht mein 14700K wieder zurück. Im Gegensatz zu Dir verlasse ich mich nicht auf irgendwelche Tests (vor allem nicht die Computerbase-Tests, die praxisferner gar nicht sein können). Im messe meine Interessen lieber selbst.

Ist Dir langweilig, oder warum soviel überflüssiges BlaBla?

4BitDitherBayer schrieb:
Du meinst aber schon richtige Spiele also nicht dieses komische CB23 Game?
Mit Dir erübrigt sich jedes weitere Wort.
 
till69 schrieb:
Im messe meine Interessen lieber selbst.
Das ist ja grundsätzlich auch cool, mache ich am Liebsten auch. Aber faktisch ist das ja gar nicht möglich für Leute, die nicht wie ich aus beruflichen Gründen auf 100+ GPUs / CPUs sitzen

Das würde ja bedeuten, dass ich mir alle Dinge, die potentiell interessant sein könnten, bestelle, probiere und dann 9/10 zurückschicken.
Allein schon die passende Peripherie verhindert das doch für 99,2 Prozent der Leute in in 99,2 Prozent der Fälle - Um den 14700k umfassend zu testen brauche ich ja schon eine wakü, passendes super Premiummainboard und 8000er-Speicher. Das hat doch kaum jemand einfach so rumliegen um es dann mit einem 7900x3d zu vergleichen?

Daher eben Tests und natürlich gibt es immer für die eigenen Anforderungen passendere Tests, aber nach Igor - dessen Detailtiefe schon viele abhängt - kommt imho nicht so viel deutschsprachiges, was nachvollziehbarer und transparenter tester als CB, oder?
 
  • Gefällt mir
Reaktionen: ComputerBase101
DerRico schrieb:
Um den 14700k umfassend zu testen brauche ich ja schon eine wakü
Mein U12A war vollkommen ausreichend. 13700K raus, 14700K rein.
DerRico schrieb:
die potentiell interessant sein könnten, bestelle, probiere und dann 9/10 zurückschicken
So habe ich 6 kleine Soundbars probiert, und alle gingen zurück.
DerRico schrieb:
umfassend zu testen brauche ich ja schon eine wakü, passendes super Premiummainboard und 8000er-Speicher
6000er mit Z690 geht nicht? :confused_alt:
 
Intel ist leicht zu kühlen, da kann ich zustimmen. Die 200 Watt des 13700K waren fast einfacher, als die 80 Watt auf dem 7800X3D zu kühlen.
 
  • Gefällt mir
Reaktionen: mojomojo
Ich hab mir jetzt doch mal den 14700k als kleines Upgrade zum 12700k geholt. Wenn man schon Z690 hat und nicht gleich alles aufrüsten will ist es echt ok. Da kann man die Zeit bis zu Arrow Lake oder dessen Refresh oder was neues von AMD locker überbrücken. Wirklich nötig wäre es ja auch nicht aber die Wirtschaft muss unterstützt werden😂🙈😂. Falls ich auf DDR5 umgerüstet hätte, dann wäre ich auf AMD gegangen...
 
Zuletzt bearbeitet:
till69 schrieb:
Entscheidend ist der Jahresverbrauch, nicht irgendwelche Spitzenwerte.
Dieser ist pro Jahr mit Intel bei einem User Case von 4h Spielen, dann auch 3 mal höher als bei AMD. Physik ist schon eine böse Socke, und kann nicht einfach mal umgedeutet werden, egal wie sehr du es hoffst.

Was bin ich froh, dass manche keinen technischen Beruf haben und physikalische Grundlagen kann man notfalls auch via Bibliothek lernen ;)

Der Laie wundert sich, und der Fachmann lächelt amüsiert. Du machst den klassischen Äpfel und Birnen Vergleich

Ich sagte es ja schon, demnächst testen wir einfach alle CPU bei 30FPS ;)
 
Ich finde die CPU Serie echt spannend. Fühlt sich nach der sanftesten Steigerung an die es jemals zwischen 2 Generation gab.

Ich finde den alleinigen Fokus auf den Stromvergleich immer etwas bescheiden. Dieser lässt vieles ausser acht.
Eine Cpu die im Peak nur 50% oder weniger der Leistung einer anderen braucht hat z.B. auch auf die Größe des Netzteils und die Größe des Cpu Kühlers einen Einfluss.

Grundsätzlich muss jeder seine CPU für seinen Einsatzzweck suchen. Nicht jedem ist Strom und Hitze wirklich wichtig.

Ich denke diese CPU Generation von Intel wird perfekt als Mahnmal für die etwaige neue(zukünftige ) CPU Generation von Intel herhalten.
 
  • Gefällt mir
Reaktionen: mojomojo und Jiddis
bugmum schrieb:
Grundsätzlich muss jeder seine CPU für seinen Einsatzzweck suchen. Nicht jedem ist Strom und Hitze wirklich wichtig.
Damit hast Du natürlich zu 100% recht.

Es ist aber natürlich auch so, dass gerade in D und in dieser Zeit, der Energieverbrauch ein sehr entscheidender Faktor ist. Es geht ja natürlich nicht um die 10 Watt, die die EINZELNE Heim-CPU mehr oder weniger braucht.

Es geht um die riesigen Serverparks, die 24/7 laufen und die Millionen von beruflich genutzten Rechnern. Der Energieverbrauch "alles Digitalen" ist massiv und den zu verringern ist wohl unbestritten richtig. Da ist AMD (und natürlich auch Apple) meilenweit voraus, das ist anzuerkennen und einfach aufzuschliessen. Es gibt keinen vernünftigen Grund für dieselbe Leistung mehr Energie zu verbrauchen. Das wird bei Intel aber ja spätestens mit dem Wechsel zu TSMC auch passieren, auf dem ollen 10nm-Prozess ist die Effizienz von RL ja eigentlich schon ein Wunder.

Ganz allgemein ist natürlich auch der Energieverbrauch eines Produkts, soweit er relevant ist (Stromverbrauch von Kopfhörern interessiert z.B. wohl weniger), auch ein Kriterium für die Qualität des Produkts. Natürlich ist die Leistung am Wichtigsten, aber der dafür notwendige Energieeinsatz kommt vielleicht schon an Platz zwei. Insbesondere deswegen, weil die Kühlung immer schwieriger wird und es ein Kostenfaktor ist: Beim Kauf der Kühllösung und des Gehäuses und die Energie auf Nutzungsdauer der CPU natürlich auch. Die ist imho auch höher als hier oft angenommen.

Bei uns im Betrieb laufen reichlich 10-jährige CPUs rund um die Uhr produktiv. Viele i5er der Generation 4xxx und 6xxx, in der Buchhaltung sogar noch Phenom. Auf die Lebensdauer einer CPU ist das eben dann doch relevant, für den Zocker, der nach 1,5 Jahren austauscht und alleine 20W für RGB / Wasserpumpe braucht und die GPU auf 400+ Watt laufen hat, ggf. weniger. Den nervt im Zweifel nur die Wärme (so wie mich).
 
  • Gefällt mir
Reaktionen: mojomojo und Melmoth
Hi Leute, kann mir mal bitte jemand mit nem i7 14700K und nem Luftkühler (z.B. U12A) die Temps posten, am besten bei PL2_253W und 150W und 125W. Würde mir die CPU gern holen. Ich kodiere sehr oft Videos auf der CPU.
 
Chiller_50 schrieb:
Hi Leute, kann mir mal bitte jemand mit nem i7 14700K und nem Luftkühler (z.B. U12A)
Mein Eindruck: der 14700K ist besser zu kühlen als der 13700K
Nur 3 Grad mehr mit dem U12A bei CB23 (77°->80°, PL 253W)
 
Chiller_50 schrieb:
Hi Leute, kann mir mal bitte jemand mit nem i7 14700K und nem Luftkühler (z.B. U12A) die Temps posten, am besten bei PL2_253W und 150W und 125W. Würde mir die CPU gern holen. Ich kodiere sehr oft Videos auf der CPU.
Hello, I did the whole serie with 14700K from 200W down to 50W with Cinebench R24 and small Freezer 34 air cooler, if I remember correctly at 150W the temperature was around 75°C. I can post the complete results in the evening, if you are interested.

Enschuldige dass ich spreche Deutsch nicht, aber es ist nich einfach sprechen mit 50 vokabeln ich kenne....

EDIT:

Here it is, BTW the temps are very realistic, they are from a closed case and with automatic fan speed regulation, no artificial test bench fixed speed data.

14700K power limits.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mextli und Artanis90
Rockstar85 schrieb:
Dieser ist pro Jahr mit Intel bei einem User Case von 4h Spielen, dann auch 3 mal höher als bei AMD. Physik ist schon eine böse Socke, und kann nicht einfach mal umgedeutet werden, egal wie sehr du es hoffst.

Und was macht das monitär aus?

Ich bin mal so frei 40W vs. 120W ...
80W x 4h x 365TAGE x 0,29EUR/kWh = 33EUR -> 22EUR mehr als mit AMD im Jahre, naja das sind gute 3 Döner... 😅

Ja er verbraucht mehr, das kann man nicht wegreden, aber ich glaube das bringt jetzt keinen an den Rand des Ruins, wenn man eben mal schon 500EUR für eine CPU bezahlt hat ... wenn man den Rest des Tages die CPU im IDLE lässt, spart man Strom 🤣

Immer eine Frage des Geschmacks - persönlich würde ich sie mir auch nicht nur zum Zocken kaufen wenn ich die Platform wechseln müsste dazu. So ist das vielleicht ein super "upgrade". Der 7800X3D eher ein Platformwechsel.

DerRico schrieb:
Bei uns im Betrieb laufen reichlich 10-jährige CPUs rund um die Uhr produktiv. Viele i5er der Generation 4xxx und 6xxx, in der Buchhaltung sogar noch Phenom. Auf die Lebensdauer einer CPU ist das eben dann doch relevant, für den Zocker, der nach 1,5 Jahren austauscht und alleine 20W für RGB / Wasserpumpe braucht und die GPU auf 400+ Watt laufen hat, ggf. weniger. Den nervt im Zweifel nur die Wärme (so wie mich).

Mit Absicht mal ganz ketzerisch gefragt: Wenn das so relevant ist, wieso laufen sie dann noch?

Ökologisch gesehen, ist ein erhöhter Stromverbrauch nicht so relevant wie die Herstellung/Vertrieb/.../Entsorgung von PCs - je länger ein PC läuft, auch wenn er mehr verbraucht - desto besser für die Umwelt - nur nicht für die Marktwirtschaft und Abschreibungen.

Wer noch ein IBM 5155 im Büro hat, sollte mal upgraden.
 
Zuletzt bearbeitet:
mojomojo schrieb:
Und was macht das monitär aus?

Ich bin mal so frei 40W vs. 120W ...
80W x 4h x 365TAGE x 0,29EUR/kWh = 33EUR -> 22EUR mehr als mit AMD im Jahre, naja das sind gute 3 Döner... 😅

Ja er verbraucht mehr, das kann man nicht wegreden, aber ich glaube das bringt jetzt keinen an den Rand des Ruins, wenn man eben mal schon 500EUR für eine CPU bezahlt hat ... wenn man den Rest des Tages die CPU im IDLE lässt, spart man Strom 🤣
Ich gratuliere, dass du ein stärkeres NT, mehr Kühlung etc brauchst, ignorierst du dann natürlich ;)
Ey ohne Scheiß.. Es macht sehr wohl einen Unterschied, ob ich ne 360Er AIO brauche, oder eben nicht. Und ja, 22€ pro Jahr sind dann ne Summe, also wenn man überlegt, dass der 7800X3D dann 390€ kostet ;)
Und nein DDR5 und Z790 ist auch nicht billiger als AM5 und DDR5..

Warum eig immer solche Milchmädchenrechnungen? Bei AMDs GPUs wird sich quasi im Tagesrythmus drüber aufgeregt, und bei Intel isses egal.. Ich danke dir, dass du dein Grundverständnis von Physik hier mit uns allen geteilt hast. :)
 
  • Gefällt mir
Reaktionen: Verak Drezzt
Klar ist das ne Milchmädchen Rechnung, genauso wie der so hohe böse Mehrverbrauch ...

Mein Antworten könnten sein:

  • NT mehr belasten ist es 1. effizienter und 2. sollte es eigentlich schon dafür ausgelegt
  • Kühler für 120W, wenn dafür ne AIO 360 brauchst, machst was falsch
  • der 7800x3D hat 163W in den Specs stehen, also nen Kühler braucht der auch
  • man brauch kein DDR5 und Z790 - Sockel 1700 tuts noch auch mit DDR4

Aber das ist glaub nicht was du hören willst - NTs sind mittlerweile wohl Stark genug mit entsprechenden Reserven, da die TDP nicht gestiegen ist. Anständige Luftkühler sind Leistungsstark genug, wenn man sich an PL1 und PL2 hält. Neuanschaffung, kann man, muss man aber nicht - das der größte Vorteil für mich, für eine Klasse Allround CPU, bezogen auf den 1400K, der Rest ist Mäh 😅.

Der Mehrverbrauch/Minderverbrauch kratzt nur am Ego der Leute, in der Realität merken es wohl die wenigsten. Den Mehrverbrauch anzugeben ist völlig ok, aber daran eine CPU festzumachen ist lächerlich,
dann sollte man sich hier auch nur noch aufs Gaming beschränken - ich glaub die meisten denken immer das alle nur Zocken mit ihren Rechnern 8h am Tag - kein IDLE - kein Videoschnitt - kein Youtube.


Würde gern mal Wissen wie groß der Unterschied ist ohne Milchmädchenrechnungen, 24h Scenario, identische Hardware soweit wie geht - 4h Spielen, 4h Video Rendern, 4h Youtube, 4h Idle, 4h surfen, 4h Excel. Oder was auch immer fürn ein Mix. ABER:

Das ganzer Verbrauchsthema nervt nur noch - ist doch nur noch ClickBait.
 
  • Gefällt mir
Reaktionen: Jiddis
mojomojo schrieb:
Mit Absicht mal ganz ketzerisch gefragt: Wenn das so relevant ist, wieso laufen sie dann noch
Genau aus dem Grund, den Du darunter nennst ;).

Neu gekauft wird aber bei uns immer das, was mit dem niedrigsten Verbrauch die Anforderungen erfüllt. In unseren produktiven Systemen sind das aktuell AMDs, dort wo nur Überwachung stattfindet oder background Tasks sind es die genannten oder auch gerne mal ein Pentium Gold
 
  • Gefällt mir
Reaktionen: Rockstar85
Zurück
Oben