Test i9-14900K, i7-14700K & i5-14600K im Test: Die letzten Core-CPUs ihrer Art gegen AMD Ryzen 7000

till69 schrieb:
Im Gegensatz zu Dir habe viele den Test sogar verstanden: Teillast im CB Test ist Volllast auf einem Kern.

Entscheidend ist der Jahresverbrauch, nicht irgendwelche Spitzenwerte.
Mess einfach mal sckickbateelbst (wie ich, siehe #402) oder @t3chn0 (#403)

Hier wird es Dir auch erklärt:

Das ist doch nur dummes clickbait von irgendeinem dahergelaufenen Youtuber.
In seinem Test sind weder der 5800X3d noch der 7800X3d oder der 7950X3d aufgeführt.
Anhand der reißerischen Überschrift, könnte am Ende wirklich jemand Glauben, dass AMD generell
so viel Strom bei niedriger Last verbraucht und dies sogar auf einen 7800X3D 7950X3D zutreffen würde.
Von wo soll die den kommen?
Ein 7800X3d zieht bei Games im Durchschnitt 48W! (Das ist so wenig das man es kaum glauben mag.)

Sieh es ein, ein 3D Prozessor lässt sich mit nichts vergleichen, da ist von dir eine ganz andere Herangehensweise erforderlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne
ArrakisSand schrieb:
Von wo soll die den kommen? Sie es ein ...
Und Du willst andere ernsthaft als "dumm" bezeichnen? Lächerlich ;)

ArrakisSand schrieb:
Das ist doch nur dummes clickbait von irgendeinem dahergelaufenen Youtuber
Tech Notice hat jedenfalls deutlich mehr Sachverstand als viele dahergelaufene CB-User, die nicht mal die einfachsten Zusammenhänge verstehen.

ArrakisSand schrieb:
dass AMD generell
so viel Strom bei niedriger Last verbraucht und dies sogar auf einen 7800X3D 7950X3D zutreffen würde
Du weißt nicht mal, dass die X3D den höchsten Idle Verbrauch haben, deshalb auch bei Office/Alltag nicht sonderlich toll abschneiden:

Idle.jpg

(Quelle)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Eidgenosse, RogueSix und Jiddis
Welche CPUs sollte die Redaktion per Update noch in den Parcours aufnehmen?
9900K
 
  • Gefällt mir
Reaktionen: mojomojo und Slipknot79
till69 schrieb:
Tech Notice hat jedenfalls deutlich mehr Sachverstand als viele dahergelaufene CB-User, die nicht mal die einfachsten Zusammenhänge verstehen.


Du weißt nicht mal, dass die X3D den höchsten Idle Verbrauch haben, deshalb auch bei Office/Alltag nicht sonderlich toll abschneiden:

Anhang anzeigen 1410389
(Quelle)
Da muss wohl wo anders der Hund begraben sein: Mainboard, Bios, Einstellungen etc.
Es ist einfach nicht logisch, Wenn ein 7800X3D im Durchschnitt bei Spielen nur 48W verbraucht, wo er sichelich deutlich mehr gefordert wird als in einer anspruchslosen Office Anwendung.
In Factorio z.B. nur 25W.
Kannst du mir beantworten wie dies möglich sein soll?
 
Zuletzt bearbeitet:
IBISXI schrieb:
musst schon fertig lesen ;) es geht hier um die roadmaps für kommende prozesse und da haben sich intel 7 sowie 20A bisher als äußerst yieldstabil erwiesen, besser als die der konkurenz.

wie ich schrieb. bei jedem node muss elementar alles neu passieren da werdne die karten neu gemischt. es wird auch parallel entwickelt sodass fehlschläge an einer seite sich nicht auf einen anderen prozess auswirken. im gegenteil, CIP und lernkurve wird dadurch sogar verbessert
 
ArrakisSand schrieb:
Die Effizienz scheint sich, laut den letzten Informationen beim Umstieg auf 20A (wie vielen nm dies im Richtigen Leben auch immer entsprechen mag) um ca. 30% zu verbessern.
Hä? Intel muß mal ihren Intel4 Prozess umsteigen... 20A ist ja nochj ganz weit wech ...
Ergänzung ()

Arbed schrieb:
Antwort: Nein, obwohl es auf das Einsatzszenario ankommt. Ich selber hatte den 12700k - dieser werkelt in Sohnemanns Rechner und bin zum 13700k. Der Sprung war ja lt. Tests bei 25% mehr an Leistung. Im Endeffekt ist das Plus messbar, aber im Alltag nicht wirklich spürbar.
Geld sparen und warten, was die richtig neuen Generationen alias Arrow Lake und Ryzen 8000 bringen.
Jein, es kommt drauf an in welcher Auflösung man spielt... bei 1080p ist das was anderes als bei 1440p oder 4K... Und Single-Threaded ist das vom 12700 auf 13 oder 14700 doch ein satter Sprung rein vom Takt her. Aber natürlich kann man auch Kohle sparen und die Generation einfach skippen.
 
Eli0t schrieb:
Hä? Intel muß mal ihren Intel4 Prozess umsteigen... 20A ist ja nochj ganz weit wech ...
Ergänzung ()

Definiere "ganz weit wech".

Die nächste Desktop CPU, also das Pendant zum Core i7/i9 wird eine Arrow Lake Core Ultra CPU sein, die in 20A gefertigt und Ende 2024 auf den Markt kommen wird.
Daher ja jetzt auch der RPL Refresh, damit man die ca. 12 bis 15 Monate noch mit "neuen" Produkten überbrücken kann.
Im Desktop werden wir also tatsächlich vom Spitzenmodell Core i9-14900K in "Intel 7" zu einem in "Intel 20A" gefertigten Core Ultra (wegen des neuen Namensschemas ohne "i") Modell hüpfen.

Im Intel 4 Prozess wird es für den Mainstream-/HighEnd-Desktop gar nichts geben. Intel 4 ist nur für Meteor Lake für mobile CPUs und AiO Systeme. Und da kommt jetzt im Dezember schon etwas auf den Markt, nämlich die ersten Laptops mit MTL CPUs, allerdings so kurz vor Weihnachten (Rede ist AFAIK vom 14.12.), dass man von echter Verfügbarkeit vermutlich erst ab Januar/Februar 2024 wird sprechen können.
 
RogueSix schrieb:
Definiere "ganz weit wech".
Soweit weg, daß das zwar schöne Pläne von Intel sind, die aber seit Intel 10nm nie eingehalten worden sind... Ich kann mir eher vorstellen, daß das meiste von TSMC in 3nm gefertigt wird, irgendwelche I/O oder anderer Klumperatsch kommt von Intel4 und das Ganze wird dann auf nem Interposer "zusammengeklebt"...
Ergänzung ()

justFAME schrieb:
Also klare Kaufempfehlung für Intel, deutlich schneller als jeder AMD vorallem nach OC was die 3D ja leider nicht können.

Die 2,50 Euro für mehr Strom im Jahr wären mir egal.
Also 2,50 sind schon mal sehr optimistisch, die andere Frage ist eher, wie kühle ich das...
Ergänzung ()

SLIPY050491 schrieb:
Ich frag mich ehrlich gesagt warum Intel sich überhaupt die Mühe gemacht hat dem ganzen einen neuen Namen bzw Nummer zu geben. Damit Media Markt mit "brandneuer Intel CPU" werben kann?
Eher Dell, Acer. Lenovo und wie sie alle heißen...
 
Ben_computer_Ba schrieb:
An sich auch wieder ein schöner Test, aber schämt euch solchen RAM zu nutzen!!!! Intel läuft mit erheblich schnelleren RAM, nutzt wenigstens 7200mhz RAM oder noch mehr, dann sieht man auch die tatsächlich maximale Leistung, auch wenn diese trotz schnellen RAM schlecht ist. So ist euer Test witzlos und unnötig, da ist man eine höhere Qualität von euch gewohn
Seit Ewigkeiten testet CB ohne OC in seinen CPU Benchmarks, dh die RAM Geschwindigkeit die von Hersteller deklariert ist, alles andere ist OC... Mr dabei seit 12. September 2021
 
  • Gefällt mir
Reaktionen: iron_monkey und Cerebral_Amoebe
till69 schrieb:
Nicht unter realen Bedingungen (WQHD,4K, Gsync/Vsync).
Dann bin ich mit meinem 24" Full HD wie wahrscheinlich 75% außerhalb dieser Blase nicht real?
WQHD und 4K macht nicht das gros der PC-Nutzer aus.
Selbst bei uns im Büro hat jeder zwei 24" mit Full HD anstatt einen WQHD.

Wenn vier deutsche PC-Seiten auf die gleichen Ergebnisse kommen (CB, PCGH, Igors Lab, HWLuxx) und die eingesetzte Peripherie angeben, wird das wohl aussagekräftiger als ein YT-Video sein.
Soweit ich weiß, macht schon das eingesetzte Motherboard einen Unterschied im Stromverbrauch aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne
.Sentinel. schrieb:

Es ist sehr schon sehr viel OT und am Thema vorbei. ich antworte ein letztes Mal auf diese thematik

denn es geht nicht darum wie User Ihre PCs bedienen, sondern eher darum was von Intel 14 Gen (Refresh) gehalten wird:

wozu soll mir krams kaufen, den ich dann auf den tisch legen muss wenn ich alexa habe? und mich morgens von ihr sowieso wecken lasse? zudem müsste ich das produkt von dir intern (bin froh, wenn es darin schick aussieht und man wenig kabel sieht) mit meinem PC verbinden, anstatts nur 1 Einstellung im Bios und eine mehrfachsteckdose zu haben welche WLAN-fähig ist.

zudem würde ich alexa nicht als "für die ganz faulen" deklarieren. denn ich starte damit nur PCs bzw. lasse mich von alexa wecke/stelle erinnerungen. ich bin digitalisiert und ein nerd, wozu dann nicht nutzen. Freunde von mir lassen ihre lampen von alexa steuern und anderen kram.


Cerebral_Amoebe schrieb:
WQHD und 4K macht nicht das gros der PC-Nutzer aus.
Selbst bei uns im Büro hat jeder zwei 24" mit Full HD anstatt einen WQHD.

Büro-User sollte man nicht mit dem Gamer gleichsetzen. Denn die Monitore in den Büros sind ja nicht zum Gamen ausgelegt im Vergleich zu der Hardware die man zu Hause hat.

ich hab zu hause an meinem Arbeits-Laptop einen 24" 1080p IPS angeschlossen, jedoch nur weil der Laptop nicht so modern ist, dass ich meinen beiden 27" Monitore anschließen kann. Mein 27" WQHD Monitor "beschwert" sich sogar, dass er nur in 1080p laufen muss weil der Laptop das als maximale Auflösung ausgeben kann.

in den letzten Jahrzehnten war 24" 1080p Mainstream, jedoch ist ein Wandel in Sicht in Richtung WQHD (27"). Ich hab hier zwar noch einen 27" FHD (240Hz) hier stehen, jedoch nur weil es damals für mich keinen Sinn ergab diesen als WQHD 240Hz zu kaufen. Jetzt wo ich seit 2 Wochen auf meinem 27" WQHD 165 Hz (OC 180hz) unterwegs bin und gemerkt habe, welchen Unterschied es gerade bei 27" macht, ob FHD oder gar WQHD weiß ich dass der 27" FHD 240Hz nächstes Jahr durch den WQHD 165Hz ersetzt wird und als neuer Haupt-Monitor ein OLED 27" WQHD 240Hz kommen wird. Zwischendrin werde ich noch die frische 4070ti durch eine 4080ti oder 4090 ersetzen und die dann mit einem FPS-Limit arbeiten lassen.

ich wollt mit dem Text nicht angeben oder dergleichen, sondern nur aufzeigen dass 24" FHD selbst bei einem Gamer (min 20 Jahre) wie mir zum Umdenken auf 27" bzw. WQHD mich bewegt haben. Dazu kenne ich inzwischen mehr User die 1440p+ unterwegs sind oder wie ich geupgradet haben als <1440p User
 
Zuletzt bearbeitet:
So viel zu DDR5 8000Mhz und Intel 14th Gen:


Sind bei digitec.ch übrigens gleich mal im Angebot:

1697802582017.png
 
Zuletzt bearbeitet:
Das dient nur dazu in der heilen Intel Welt den Intel Jüngern das Geld aus der Tasche zu ziehen....
Wers braucht
 
Ich habe mir heute Tests von vielen Portalen zu Gemüte gezogen und die Resonanz war durchweg schlecht. Vor allem die Teilweise katastrophale Effizienz war häufig ein Thema... Was gibt es an einer CPU zu loben wenn sie für minimal mehr Leistung teilweise das doppelte aus der Steckdose zieht. Ich bin auf jeden Fall nicht beeindruckt.
 
Zurück
Oben