Test Intel Core i5-13400F im Test: Beim Core i5 ohne „K“ ist in 13. Generation vieles anders

Ja, das steht außer Frage. Aber das ist irgendwie ein verbreiteter Irrglaube, die E-Cores seien keine"richtigen" Kerne. Vielleicht hat Intel auch den Namen falsch gewählt. Zumindest kenne ich diese negative Wertung vom Apple M1 oder Snapdragon SoCs nicht.

Am Ende zählt die Gesamtleistung. Ob die nun aus 16 "richtigen" oder 8+8 oder 2+10 oder whatever generiert wird, ist doch völlig egal.
 
Das 3DCenter hat dazu letztens auf Twitter ein köstliches Meme. Musste echt lachen... :D

1674746991282.png
 
  • Gefällt mir
Reaktionen: Dome87
Ich spreche hier natürlich über Gaming, das hatte ich vergessen zu erwähnen. Entschuldigung.

Es ist eigentlich auch sehr ersichtlich das ich nicht damit ausdrücken wollte das es keine richtigen Kerne sind, sondern das sie ja Effizienzkerne heißen und damit sehr effizient sein sollten. Was sie meiner Meinung nach im Kontext zum 7600, ja nicht wirklich sind.

Das der 13600k in fast allen anderen Scenarios besser als der 7600 ist, ist offensichtlich.

dieses Video hier, ist denke ich sehr deutlich

Hier verbraucht der 13600k, gemessen am 12v Kabel, sogar über 160watt.

Mit Ausnahme von FF14 und FarCry6, welche schon immer "Intel-speziell" waren, ist der 7600 hier sogar vor dem, oder gleichwertig mit dem 13600k und hat dabei halb so viel Verbrauch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dome87
Pisaro schrieb:
Du meinst die einzigen objektiven Benchmarks? Interessant, wieder jemand der nicht weiß wie man Prozessoren testet. Berätst du Leute anders ist deine Beratung nicht objektiv und faktisch falsch.

Ich hole mal ein Beispiel von mir aus einem anderen Thread raus:

"Bestes Beispiel ein Kollege: Zockt auch in 3440x1440 und hat sich einen 3700X geholt weil er gesagt hat: "Guck, in 4k bzw 3440x1440 sind die alle so ziemlich gleich schnell"!. Zocken wir jetzt ARK auf der Map Aberration wundert er sich warum er FPS mäßig weit hinter meinem 5900X ist, obwohl beide ja ziemlich gleich schnell in 4k sein sollen."

Der Kollege hat eine 3080 verbaut... die pennt dann bei rund 75% und durch den Prozessor kann er auf der oben genannten Map keine 60 FPS halten.

Hätte ich mich immer nach 4K Benchmarks gerichtet (mache ich logischerweise nicht!) hätte ich in einigen Games die A-Karte gezogen.

In JEDEM Game was CPU Power braucht. Anno, Ark, Planet Coaster etc, auch in 4K.
Ist mir schon bewusst, dass es 4k Games gibt, welche auch CPU Leistung benötigen.
Die zock ich allerdings nicht, daher ist es FÜR MICH irrelevant.
Und ich würde sogar behaupten, es gibt weniger Spiele am Markt, die durch die CPU in 4k gebremst werden.

Ich kann deiner Argumentation aber voll und ganz folgen und stimme dieser natürlich auch zu.

Empfiehl deinem Kumpel lieber mal auf den 5800X3D umzusteigen :daumen:
 
  • Gefällt mir
Reaktionen: Pisaro
lalanunu schrieb:
es gibt weniger Spiele am Markt, die durch die CPU in 4k gebremst werden.
Da hast du definitiv Recht. Klar, wer nur im GPU Limit unterwegs ist, dem bringen 720p nicht viel. Aber nur so sieht man halt wie stark CPU XY ist.

Ich würde halt dennoch immer 720p Benchmarks ranziehen wenn ich einen Prozessor kaufe. Man weiß ja nicht welche Spiele noch so kommen :)
 
  • Gefällt mir
Reaktionen: lalanunu
danyundsahne schrieb:
Lässt du den Rechner 365 Tage im Jahr im IDLE laufen? Oder startest du den PC, sursft im Netz, zockst, schaust Videos, etc, etc.... wann ist der Rechner groß im IDLE?
[…]
Aber am Ende jucken die 7W nicht die Bohne...
Das ist die Grundlast, d.h. das, was der Prozzi immer schluckt, auch wenn er unter (Voll-)Last ist. Außerdem: wenn du surfst, ist der Prozessor trotzdem die meiste Zeit im Idle. Und wenn du bei Youtube – sagen wir mal – 20 % Last hast, hast du folglich auch 80 % Idle. Von daher ist der Idle-Verbrauch sehr wohl relevant.

Nixdorf schrieb:
"zur Standart". Es heißt die Standart.
Ich kannte bisher nur die Standarte. Aber jetzt, da du es sagst, leuchtet es ein.
 
Donnerkind schrieb:
Aber jetzt, da du es sagst, leuchtet es ein.
Na klar, man kann zum Beispiel stramm oder entspannt stehen. 😉
Ergänzung ()

Donnerkind schrieb:
Und wenn du bei Youtube – sagen wir mal – 20 % Last hast, hast du folglich auch 80 % Idle. Von daher ist der Idle-Verbrauch sehr wohl relevant.
Das ist nicht das, was mit Idle gemeint ist. Wird die CPU zu 20% ausgelastet, sind die 80% nicht Idle, sondern ungenutzt. Die verbrauchen gar nichts. Da war die Formulierung mit der Grundlast passender, die natürlich immer mit drin ist.

Donnerkind schrieb:
Außerdem: wenn du surfst, ist der Prozessor trotzdem die meiste Zeit im Idle.
Das ist hingegen richtig. Beim Surfen wird der Prozessor immer nur für kurze Momente belastet und tut in den Zeitabschnitten dazwischen fast nichts. Es ist nur in Grundzügen richtig, weil...

danyundsahne schrieb:
wann ist der Rechner groß im IDLE?
...wirklich im Idle sind Rechner heutzutage tatsächlich so gut wie nie. Zwischen wirklichem Idle und nur 0,5% Auslastung liegen gerade bei den Ryzen-Prozessoren schon große Unterschiede bei der Leistungsaufnahme. Echten Idle gibt es fast nur dann, wenn man ihn im Testbericht einmal misst. Relevant wären Schwachlastmessungen, aber die führt die Presse nie durch.
 
Zuletzt bearbeitet:
Maximilian.1 schrieb:
Ich fände einen Vergleich bei Anwendungen interessant zwischen:
Den Großteil findest du in den diversen CPU-Tests (z.B. hier oder hier oder hier, der 13600K mit 65W nur hier) schon, teilweise erst nach Klick auf "+XX Einträge", auch Werte mit 65W. Der 7600 ist bei 65W nicht anders als der 7600X, der 13500 wird erst noch getestet (liegt logischerweise zwischen 13600K und 13400F), der 5700G wurde nur bei 88W getestet. DDR4 vs DDR5 ergibt in den bei ComputerBase getesteten Anwendungen keinen großen Unterschied, wie man hier im Alder-Lake-Test sehen kann.
 
Zuletzt bearbeitet:
Zurück
Oben