Test i9-14900K, i7-14700K & i5-14600K im Test: Die letzten Core-CPUs ihrer Art gegen AMD Ryzen 7000

Jiddis schrieb:
da man in der Regel nicht 24/7 "zockt" ist der Vorteil der 7800x3D CPU im Verbrauch dahin wenn diese in der restlichen Zeit über 20 Watt mehr verbraucht. Am Jahresende wird sich der Verbrauch beider CPUs vermutlich nicht viel geben, es sei denn man ist verrückt und zockt 24/7...
Hast du den Test gelesen?
Zwischen einem 7800X3D und den Intel ist im Idle ein Verbrauchsunterschied von 6W. Den Leistungsunterschied hast du allein schon durch die Ineffizenz im Niedriglastbereich von 250 W stärkeren Netzteilen die du für die Intel benötigst wieder drin...
 
  • Gefällt mir
Reaktionen: Rockstar85, iron_monkey, McTheRipper und eine weitere Person
Basshinzu schrieb:
Zwischen einem 7800X3D und den Intel ist im Idle ein Verbrauchsunterschied von 6W
Ich habe mal selbst gemessen (alles Steckdose, nur mit iGPU):
13700K/Z690/6000CL32: 26W Idle (Youtube: 30W)
7800X3D/B650/6000CL32: 51W Idle (Youtube 65-70W)

Mit Intel kannst Du den ganzen Tag HomeOffice machen und liegst unter dem Idle Wert des AMD.

Deine 6W Unterschied sind reines Wunschdenken.
Und wenn man gar nicht misst, kann auch sowas passieren (und merkt es nicht mal):
https://www.computerbase.de/forum/threads/hoher-idle-strom-verbrauch-7800x3d-4090.2159365/
 
  • Gefällt mir
Reaktionen: mscn, Jiddis und t3chn0
Das ist korrekt. Mein Gesamtsystem hat laut Strommesser mit dem 12900K ca. 65W im Idle benötigt. Mit dem 7800X3D sind es ca. 100W.
 
  • Gefällt mir
Reaktionen: Jiddis
Es steht natürlich jedem Frei eine x hundert Euro CPU wie einem I7 oder I9 zu bevorzugen weil man damit idlen möchte. Das holt dann die 120W+ in Cyberpunk wieder rein.
Und nicht das größere Netzteil vergessen bei Intel mit zu bestellen, so 100W mehr sollten es mal schon sein wenn man 5+ Jahre Ruhe will. 100W+ mehr mit der Luftkühlung abzuführen stell ich mir auch immer ideal beim Gaming im Gehäuse vor, auch wegen Lautstärke.

Wie man dazu kommt das in jedem sonstigen Belang technisch schwächere Produkt zu kaufen verstehe ich zwar nicht aber das kann ja jeder selber entscheiden.
Aber nicht meckern wenn dann Intel auch Cache (L4 bei Intel) verbaut und ohne Cache genau nichts mehr vernünftig laufen wird.

Ich Orakel ja schon was die nächsten Konsolen haben werden. Ein unified L3 CPU/GPU Cache? Das wäre krass und ich halte es für wahrscheinlich. Gerade Microsoft war ja immer ein Cache Freund (eSRAM).
 
  • Gefällt mir
Reaktionen: danyundsahne und Wilfriede
@t3chn0
Das ist so. Aber was heißt eigentlich "idle"? Nichts tun, keine aktiven Fenster, Monitor(e) an oder aus? Sind im Vergleich auch identische Mainboard-Komponenten aktiv? Also bspw. WLAN, BT etc.?

Bräuchte es schon für gute Vergleichbarkeit.

Gegen zu viel Idle-Verbrauch gibt es die Energieverwaltung: Monitor nach 5 Minuten in den Stand by, Rechner 15 Minuten später. Weitere 20 Minuten Rechner off. Beispielsweise.

Würde man beide Systeme mit identischen Einstellungen fürs "Nichtstun" vergleichen, relativiert sich das Ganze wieder.

Aber nett wäre in der Tat, wenn die AMD-Systeme ihren Idle-Verbrauch perspektivisch weiter senken könnten.
 
gustlegga schrieb:
Ansonsten ists doch egal ob ich am Case einen Knopf drücke oder auf dem Keyboard.


bei mir startet alexa + wlan-steckdose den pc und abends trennt diese wieder die verbindung.

würde mich gar nicht mehr unter den Tisch bewegen wollen ;)
 
...was aber auch nicht wirklich "idle" ist, oder?
 
  • Gefällt mir
Reaktionen: iron_monkey
@Draco Nobilis
Aber trotzdem muss man in dem Punkt Fair sein, auch wenn es nicht dem eigenen Alltag betrifft.
Wenn man den hohen Verbrauch bei Intel anprangert, muss man auch AMD in die Kritik nehmen.
Die Boards sind ähnlich ausgestattet, bis auf CPU und Chipsatz unterscheidet sich nix und trotzdem zieht AMD 10/20/30 Watt mehr. Da fragt man sich zurecht wo das alles herkommt.

Ich hab mit dem Asus Board leider ein verschwenderisches erwischt. Mit dem Aorus Master hätte ich allein 9 Watt weniger.

Intel, so krass Sie auch saufen, haben für den leichten Lastbereich definitv einen Vorteil.
Selbst mit den Granaten der 14. Gen.
Bei mir konnte ich es drücken, nur 10 Watt mehr für kleine Sachen für 7800X3D vs 13700KF System.

@Vigilant
Für idle kann man auch leichte Last wie Office und Videos nehmen, das geht ähnlich hoch.
Auch da hat AMD in vielen Fällen deutlich mehr. Wie erwähnt hat das Board ein großen Einfluss.
 
  • Gefällt mir
Reaktionen: mscn, Jiddis und Vigilant
@Vigilant
Richtig, und genau bei dieser Alltags-Nutzung ist ein X3D unfassbar schlecht, da bei jeder Mausbewegung die CPU aus ihrem "Idle-Schlaf" gerissen wird (bedeutet +15W an der Steckdose). Da brilliert Intel durch seine E-Kerne.

Bei einer 50:50 Nutzung (Gaming/Alltag) nehmen sich Intel/AMD auf der Stromrechung nix.
 
  • Gefällt mir
Reaktionen: H6-Mobs, Eidgenosse, Jiddis und eine weitere Person
@Pizza! @till69
Absolut, würde da dennoch gerne differenzieren zwischen "idle" (Nichtstun) und entsprechender Aktivität wie Browsen, Video/Audio-Wiedergabe, Office.

Wobei Office ja auch eine etwas größere Bandbreite wie Texte schreiben, E-Mails, Tabellenkalkulation mit PowerQuery/-Pivot, Teams, Video-Kon etc. hat. Von Spezialanwendungen wie Cognos, SAP etc. gar nicht zu reden. Lokale und Server-Anwendungen sind dann auch noch mal anders zu bewerten.

Mir geht es nur darum, etwas genauer zu definieren, worüber man bei den Begriffen Idle und Office genau spricht.
 
  • Gefällt mir
Reaktionen: iron_monkey
Vigilant schrieb:
Absolut, würde da dennoch gerne differenzieren zwischen "idle" (Nichtstun) und entsprechender Aktivität wie Browsen, Video/Audio-Wiedergabe, Office
Dann kannst Du auf die Idle Differenz noch mal 10-15W drauf rechnen. Siehe #402
 
  • Gefällt mir
Reaktionen: Vigilant
.Sentinel. schrieb:
Es geht aber auch in 4K in modernen Spielen nicht mehr darum XY max FPS zu erreichen (exzessive max. FPS in Relation zu den Schnitt FPS werden als störend wahrgenommen), sondern die extrem störenden und wirklich das Spielgefühl beeinträchtigenden CPU-Bedingten Ausreisser, Stutter, Dips nach unten zu vermeiden.

Und das schaffen bei den modernen Engines nur die schnellsten CPUs, fast egal welche Grafikkarte dahintersteckt.
Genau DAS.

Ich wundere mich immer, dass sich manche wundern, dass nach CPU Wechsel in Ihren 1000+ Euro GPU 4K Systemen auf einmal im unteresten Korridor 20-30mehr Minimum fps haben.

Mein Lieblingsbeispiel ist immer noch ein Gamingkumpel, der seine 4090 mit einem 9900K angeschoben hat, denn "unter 4K ist die CPU ja eher irrelevant."

Er hat seine fps Korridore mit dem 13900K um rund 50% verbessert.

Können wir die Fehlinformation, dass unter 4K bei einer 4080, 4090 oder 7900XTX (insbesondere im CPU lastigen Raytracing!!!) die CPU auch 5 oder 6 Jahre alt sein kann, denn die GPU limitiert ja, bitte endlich beerdigen?

Gestern las ich einen reddit Beitrag, warum jemand so miese fps+Schwankungen und ein unrundes Spielgefühl trotz/mit einer neuen 4090 hat.
Die Ursache war schnell klar: Die (in diesem usecase) CPU Krücke namens 3700x...

"Yes, it's an older CPu but I play 4K?"
lol
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85, Edzard, iron_monkey und 3 andere
NerdmitHerz schrieb:
würde mich gar nicht mehr unter den Tisch bewegen wollen
Brauch ich auch nicht.
Einschaltknopf ist nur knapp 15cm unter der Tischplatte, Corsair Bigtower sei Dank :D

PXL_20221122_222838721.jpg
 
  • Gefällt mir
Reaktionen: Laphonso
catch 22 schrieb:
@.Sentinel.
Wunderschön ausführlich und einfach (leicht verständlich) erklärt. Gäbe es für solche Postings hier einen Award, abgesehen vom Beifall Umherstehender in Form des "Gefällt mir", wärst du in meinen Augen mit diesem Beitrag für dieses Jahr ein ganz heißer Kandidat,
Ich hatte mal den Vorshclag gemacht, dass man hier wahlweise und monatsweise ComputerBase Pro Monate verschenken kann, um die User mit vielen inhaltlich hochwertigen Beiträgen zu wertschätzen innerhalb der community.
 
  • Gefällt mir
Reaktionen: Rockstar85, iron_monkey und Wintermute
Jiddis schrieb:
naja, nach etwa 10 Sekunden Googlen ist hier mal die Antwort direkt von der Support Seite von Asus :

für die Gen 14. wird zum booten min BIOS Version 2603 benötigt, aktuell ist die BIOS Version 2801

Danke, auf der Produktseite von Asus steht nichts davon, auch nicht unter Support oder Spezifikation.
Selbst in den notes zum 2603 steht nur
"1. Improve system stability and compatibility for the next-gen processors.". Das lese ich nicht als "muss sein".

Bei anderen boards scheint man kein bios update haben zu müssen, zb
https://www.asrock.com/mb/Intel/B760M-HDVM.2/#CPU
 
Pizza! schrieb:
Aber trotzdem muss man in dem Punkt Fair sein
Natürlich, ich sehe aber halt das es immer etwas übertrieben ist.
Finde es auch Blöd mit dem AMD Idle Verbrauch. Würde deswegen aber persönlich keinen Intel empfehlen.
Es ist eben schlicht so, das man einen Rechner mit solch starken CPUs nicht des Idle Verbrauchs wegen kauft.
Wer das möchte kauft ARM/Notebook/APUs. Es sind eben hochgezüchtete PCIe5 DDR5 Plattformen.

Bei Intel muss ja dann halt von der PSU über Kühler bis hin zum Spawa und Mosfetts alles anders dimensioniert sein. Wäre mir irgendwann zu blöd. Wir reden hier halt über gigantische Spannen Richtung eines Bulldozers, auch wenn wenigstens die Geschwindigkeit bei Intel noch passt. Wenn man Leistungsaufnahme als Metrik nimmt, hat intel die letzten Jahre ein größeres Debakel als AMD mit Bulldozer hingelegt. Meiner Meinung jedenfalls.

Pizza! schrieb:
Da fragt man sich zurecht wo das alles herkommt.
Zum einen vom Chiplet Design, zum anderen von Mainboard Herstellern.
Mann muss beachten das Intel ja mehr integrierte Synergien wie Ethernet und WiFi nutzt, welche AMD nicht aus eigenen Haus anbietet.

Dazu kam auch schon die Vermutung auf, das alle aktuellen Chiplet Ryzen ja eigentlich für die Enterprise EPYC Sparte entwickelt wurden, bei denen eher nicht ge-idlet wird. Also es da einfach vielleicht weniger Funktionen oder Druck in der Richtung gibt. Man sieht ja die Unterschiede zu den APUs doch recht deutlich.

Pizza! schrieb:
Intel, so krass Sie auch saufen, haben für den leichten Lastbereich definitv einen Vorteil.
Darüber gab es schon verschiedene Ansichten in diesem langen Thread.
Es hängt halt auch maßgeblich davon ab ob der Cache einen nutzen hat.
 
  • Gefällt mir
Reaktionen: iron_monkey
Pizza! schrieb:
@Draco Nobilis
Aber trotzdem muss man in dem Punkt Fair sein, auch wenn es nicht dem eigenen Alltag betrifft.
Wenn man den hohen Verbrauch bei Intel anprangert, muss man auch AMD in die Kritik nehmen.
Die Boards sind ähnlich ausgestattet, bis auf CPU und Chipsatz unterscheidet sich nix und trotzdem zieht AMD 10/20/30 Watt mehr. Da fragt man sich zurecht wo das alles herkommt.

Yep. Ich bin zwar von einem Intel-8700k auf einen AMD 7700X, insofern kein Generationenvergleich. Aber der Sprung nach oben im Idle-Verbrauch liegt schon unangenehm im Magen. Von knapp unter 60W mit dem 8700 (Gesamtsystem, Steckdosenmessgerät) auf knapp über 90W beim 7700X, das tut schon ein bisschen weh. Vor allem da ich schon Spannungen dezent unter stock reduziert habe. Das sind etwa 50% mehr Verbrauch, "für nix" am Desktop. Zurück will ich natürlich trotzdem nicht. ;)

Bei mir ists ein Asrock X670E Steel Legend. Angeblich ist die Dual-Promontory-Konfiguration auf den X670 leider recht durstig, auch im Niedriglastbereich.
 
gustlegga schrieb:
Einschaltknopf ist nur knapp 15cm unter der Tischplatte, Corsair Bigtower sei Dank :D


ich hab 2 Bigtower bei mir zustehen. beide haben externe Wasserkühlungen. Nur steht der eine links und der andere rechts vor meinen Füßen.

dazu würde ich persönlich nie auf die idee kommen, meinen pcs so wenig platz einzuräumen. unabhängig davon, dass beide mit Wasser gekühlt werden und entsprechend aussehen. Das beide ein Fenster haben war am Anfang gewollt und jetzt ist es einfach nur noch da ;)
 
Zurück
Oben