Test i9-14900K, i7-14700K & i5-14600K im Test: Die letzten Core-CPUs ihrer Art gegen AMD Ryzen 7000

SVΞN schrieb:
Ob sich Intel mit dem Refresh einen Gefallen getan hat? In weiß es ja nicht.
Für den Nutzer bleibt es ein eher sinnloses, neues Produkt.

Aber da Intel ein börsennotiertes Unternehmen ist, muss es auf Gedeih und Verderb neue Produkte liefern...damit die Aktionäre bei Laune bleiben und zufrieden sind.

Und ein Aktionär mit Intel oder AMD Aktien muss nicht immer ein Technik-Nerd sein. Vielleicht geht der lieber Wandern oder Fischen.
 
Enttäuschend. Leider aber war das ja bereits Monate im Voraus abzusehen.

Die nächste Iteration, sowohl von AMD wie auch von Intel, verspricht da wesentlich spannender und im Gegensatz zu den jetzt vorgestellten Core-i auch interessant zu werden.
 
Kenjiii schrieb:
Yup hat schon sehr viel mit der Realität zu tun, in 720p mit einer 4090 zu datteln.
Und der dreifache Stromverbrauch war auch schon beim 13900k gegeben Mr. Nostradamus. 😆
720P ist für CPU Intensive Tests, um die GPU zu egalisieren (besser wäre hier noch niedriger)

4K Tests sind GPU Tests, da die CPU da durch die GPU Limitiert wird. Ergo haben alle Modelle die gleiche Leistung.. Ja selbst der 11400F ist in 4k nicht wirklich schneller

Ach ja, ich habe Igors Messungen hier gepostet..
Aber extra nochmal für dich:

1697563660965.png

https://www.pcgameshardware.de/CPU-CPU-154106/News/Prozessor-Benchmarks-Aufloesung-1295967/

Und ja, wenn man seit 2014 hier ist, sollte man so langsam den Unterschied zwischen CPU und GPU Test kennen :)
 
  • Gefällt mir
Reaktionen: alkaAdeluxx, NerdmitHerz, Veitograf und 3 andere
Banger schrieb:
Ich mache mal eben HT aus und gucke nochmal, ob RE4 wirklich 6 Kerne benutzt und Titanic HG 7. Ich mache da jetzt aber bei den Spielen nur DLSS/FSR rein, um Grafikkartenlimit zu entfernen.

@Jan:

Also Titanic HG - Demo 401 und RE4 hatten um die 50% +-3 im AB, wenn ich das Grafikkartenlimit entferne. Bei Titanic DLSS Ultra Performance rein, bei RE4 FSR Ultra Performance und 720P, Rest quasi Maximum bei beiden. Daher die nutzten umgerechnet beide 6 Kerne. Dazu kamen im Ressourcenmonitor nochmals jeweils ca. 10% vom anderen Kram, welcher beim geschlossenen Spiel nur 3% CPU-Auslastung braucht, keine Ahnung warum. Ausgehend von den 6 Kernen müsste der 12700K etwa mittig zwischen 12600K und 13600K sein?! Daher müsste ich ja tatsächlich um die 15-20% Merhleistung rausbekommen!? Das ist abhängig, ob ein 14700K billiger ist oder ein 13900K vom Gebrauchtmarkt billiger ist. 13900K bei Kleinanzeigen ab 450€, keine Ahnung, ob das Abzocker sind. 14700K ist neu ähnlich.
 
  • Gefällt mir
Reaktionen: Jan
Intel! Das ist ein lupenrein dokumentierter Verstoß gegen das Mooresche Gesetz.
 
  • Gefällt mir
Reaktionen: danyundsahne
Das ist ein Skandal für Intel.
Wer einen Prozessor sucht der wenig Verbraucht sollte sich den Intel N305 der verbraucht nur 25 Watt auf Höchstleistung, ist in den Mini PCs verbaut mehr braucht man nicht um zu surfen und für office.
 
Rockstar85 schrieb:
720P ist für CPU Intensive Tests, um die GPU zu egalisieren (besser wäre hier noch niedriger)

4K Tests sind GPU Tests, da die CPU da durch die GPU Limitiert wird. Ergo haben alle Modelle die gleiche Leistung.. Ja selbst der 11400F ist in 4k nicht wirklich schneller

Und ja, wenn man seit 2014 hier ist, sollte man so langsam den Unterschied zwischen CPU und GPU Test kennen :)
No shit, das weiß doch inzwischen jedes Kind. Nur war das überhaupt nicht mein Punkt Sherlock, es ging lediglich um die "Realitätsaussage" mit dem Stromverbrauch, vor allem in Betracht, dass der 13900k bereits fast das Gleiche Ergebnis geliefert hat und er so getan hatte, als hätte er hier was Krasses prophezeit was nun eingetroffen ist.
Mensch, du bist doch seit 2004 hier im Forum, da sollte man doch so langsam lesen & verstehen können.

Und warum hast du Igors Test hier nochmal extra für mich gepostet? Habe ich danach gefragt? Nö, das zeigt ja nur nochmal mein Argument umso mehr auf, wie realitätsfern diese Stromvergleiche sind, von wegen 3x mehr beim Gamen.
 
  • Gefällt mir
Reaktionen: H6-Mobs
@Volker @Jan danke für euren ausführlichen Test mal wieder, dann warte ich mal bis nächstes Jahr das die 13. Generation entsprechend im Preis fällt und werde mir dann noch nen 13600K mit meinem vorhandenen DDR4 Speicher holen und rüste dann irgendwann mit AM6 auf
 
Zuletzt bearbeitet:
Schon irgendwie surreal, nach Jahren der Intel Dominanz jetzt solche Benches zu sehen!

Tut dem Markt so verdammt gut, hoffen wir auf Großes im GPU Sektor von AMD, wäre schön 4k mit RT in naher Zukunft für 700€ max zu bekommen 😅
 
Gott, wenn man die Intels mit dem 7800X3D in Vergleich setzt bei Leistung und Stromverbrauch, kriegt Intel da inzwischen so volle Breitseite. Mein 13700K läuft nahezu 24/7, das einzige was mich bei der stange hält ist, das er die meiste Zeit nen bisschen rum idled, Dinge hoch und runterlädt und als Netzwerkvideospeicher für unseren TV dient xD

Würde ich jetzt neu kaufen, würd ich definitiv den 7800X3D nehmen, ohne mit der Wimper zu zucken. Alleine schon wegen dem Temperaturunterschied unter Last.

Ich verstehe den Sinn hinter diesem Launch so gar nicht. Wollte man unbedingt dieses Jahr was releasen? Wo ist die Logik? Was passiert mit den 13000ern? Man bekämpft ja seine eigenen Produkte. Sowas von unnötig.
 
  • Gefällt mir
Reaktionen: NerdmitHerz, Verak Drezzt und Rockstar85
"Kein Wunder: Die 10-nm-Fertigung von Intel wird zwar als Intel 7 vermarktet, unter der Haube ist hier jedoch wirklich alles beim Alten geblieben."

Ist wieder mal dieser EINE vollkommen ausreichende Satz, den Intel after den CoreDuo's immer wieder vollkommen Uninteressant und durch diese Markettinglügerei "unangenehm" macht.
 
  • Gefällt mir
Reaktionen: Rockstar85
Irgendwie krass, dass beim Gaming 7800X3D vs. 14700K so ungleich ist: Mehr FPS, weniger Stromverbrauch UND günstiger.. 🤔
 
  • Gefällt mir
Reaktionen: danyundsahne und TigerNationDE
Kenjiii schrieb:
Und warum hast du Igors Test hier nochmal extra für mich gepostet? Habe ich danach gefragt? Nö, das zeigt ja nur nochmal mein Argument umso mehr auf, wie realitätsfern diese Stromvergleiche sind, von wegen 3x mehr beim Gamen.
Ich könnte sagen, du hast den Test nicht verstanden..
Aber lassen wir es einfach dabei.. Du hast deine Meinung und ich meine Ruhe.
Protipp:
Nicht Igors Test lesen, der bestätigt die Aussage mit 3 mal mehr Strom ;), denn es geht ja darum, was die GPU unter Teillast verbraucht, ohne das die GPU limitiert...
Sonst kannste demnächst auch nen Test für alle bei 65W machen... Könnte böse enden für Intel :D

Und ja, Intels 7 zeigt Eindrucksvoll, dass es alter Wein in alten Schläuchen ist.
 
@Rockstar85 ich habe früher selber schon Leuten das Testverfahren erklärt, wenn es nötig war.
Und ich bin auch kein Intel-Fanboy (habe übrigens selber einen AMD), es ging lediglich um diese "Realitätsaussage" im Bezug auf 3x mehr Strom.
Keiner hat angezweifelt dass es in DIESEM Szenario nicht so ist, dafür brauch ich jetzt nicht noch einen weiteren Test. Ich glaube du hattest meinen Einwand immer noch nicht verstanden. Naja whatever 🤣
 
Otsy schrieb:
Die nächste Iteration, sowohl von AMD wie auch von Intel, verspricht da wesentlich spannender und im Gegensatz zu den jetzt vorgestellten Core-i auch interessant zu werden.

Jup. Insbesondere bei Intel wird das tatsächlich nach langer Zeit mal wieder richtig spannend. Arrow Lake soll ja in Q4/2024 kommen. Wir springen im Desktop also direkt von "Intel 7" (10nm) auf "Intel 20A" (~2nm).

Rein nominell ist das ja erst mal ein Riesensatz nach vorne. Da darf man wirklich sehr gespannt sein, wie sich das auf die Effizienz und Performance auswirken wird.

Und auch ob Intel wirklich den Termin halten können. Sie machten bei ihren Events einen recht selbstbewussten Eindruck und der 20A Tape-Out soll ja bereits im März 2023 stattgefunden haben. Mit den bisherigen Test-Samples ist man angeblich sehr zufrieden. Nun ja...

Trotzdem glaube ich das erst, wenn ich es in Aktion sehe, inklusive grüne Lämpchen auf Geizhals bei der Verfügbarkeit.
Das wäre schon der Hammer, wenn Intel das wirklich so durchziehen können. Von 10nm direkt auf ~2nm ist ja ein echter Quantensprung.

Ich hoffe das wird keine Riesenenttäuschung am Ende. Wenn sich abzeichnen sollte, dass es trotz nominellen Quantensprungs doch eher nur ein Hüpfer wird, dann sollte das Intel-Marketing frühzeitig mit dem Erwartungsmanagement beginnen.
 
  • Gefällt mir
Reaktionen: TechFunk
Zurück
Oben