News 7800X3D vs. 13700K: Wie groß ist der Unterschied beim Verbrauch in Watt wirklich?

Atma schrieb:
Stimmt eben doch. Raptor Lake ist verglichen mit Zen 4 + X3D ein richtiger Säufer. Das muss man sich nicht schönreden, das sollte man sich eingestehen. Sobald die CPU in Games gefordert wird, fängt der 13900K so richtig das Saufen an während ein 7800X3D bei 60-70 Watt bleibt.
Du widersprichst konsequent im ersten Satz, nur um dann im Zweiten mit "Sobald..." ne Bedingung aufzustellen :daumen:

@Pizza!
Toll gemacht 👍
 
  • Gefällt mir
Reaktionen: Innocience und MalWiederIch
Nova eXelon schrieb:
Du widersprichst konsequent im ersten Satz, nur um dann im Zweiten mit "Sobald..." ne Bedingung aufzustellen :daumen:
Wo ist der Widerspruch? Selbst wenn die CPU weniger gefordert wird, gewinnt der X3D ...
 
  • Gefällt mir
Reaktionen: dergraf1
"Aber! Wer auch mal kleine Titel spielt, hat an der Steckdose kaum einen Unterschied zu befürchten."

Für kleine Titel werde ich mir nicht so einen Hobel zulegen. Das ist so ein Kommentar, der dem Intel noch ein wenig Existenzberechtigung in dem Test geben soll. Unnötig. 😜
 
  • Gefällt mir
Reaktionen: dergraf1
Tanzmusikus schrieb:
Die Antworten findest Du auf dieser Seite und fügst deine eigene hinzu, wenn du magst. 😉
Erneut, es ist Unsinn eine CPU nach Idle Maßstab zu wählen.
Um es mal ganz klar zu sagen, dafür wurden Desktop CPUs nicht gebaut, wer das will kauft ne AMD APU oder Notebook.

Für mich gilt:
Sobald man damit spielt > AMD (Plattform-Zukunft, PSU Betrachtung, Cache-Zukunft)
Sobald man produktiv was macht > Intel (die kleinen Kerne machen da durchaus was)
Sobald man Idle als Zweck sieht > ARM/APU/NUC

Wer "alles" davon macht schaut nach Gaming oder produktiv. Fertig.
Idle ist einfach kein "Anwendungszweck".

Wenn wirklich ernsthaft sich jemand hinstellt und den PC nach Idle Effizienz baut, geht auf ARM/APU/NUC, man schleppt einfach zu viel Ballast am Gaming PC herum-.-
Ja, solche Leute gibt es wirklich, die haben dann diesen entsprechenden Zweit-Rechner am Fernseher etc hängen.
 
  • Gefällt mir
Reaktionen: dergraf1, Slayn, Chr1s603 und 3 andere
@Pizza! Danke für den Test! Bestätigt meinen Kauf.
Gaming, geköpft, Undervolting.
X3D (Factorio 💓), Prime95 Stresstest < 80° = leise und das ist mir wichtig, dazu die 16 kWp PV Anlage.

Ob 13xxx oder 7xxx, je nach Gebrauch die richtige CPU verwenden und gut ist.

Popcorn 🍿 steht bereit!

Für Multimedia tut es in vielen Fällen auch ein Smartphone, Tablet oder Laptop.
 
  • Gefällt mir
Reaktionen: fullnewb
Syrato schrieb:
X3D (Factorio 💓)
Nun... da gibt es bei +50% Leistung zu Intel auch gar keine andere vernünftige Wahl.
Sowas passiert bei hochoptimierten Simulationsspielen eben. Die nutzen den Cache massiv.
Intel wird ja in wenigen Jahren auch Cache verbauen, auch wenn das (erstmal?) "nur" L4 ist.

Persönlich würd ich halt auch jeden raten da aber auch den 5800X3D nicht zu vergessen wenn man eine AMD Plattform fährt. Das sollte meist viel sinniger sein, je nach Upgradewunsch.
 
  • Gefällt mir
Reaktionen: dergraf1
Draco Nobilis schrieb:
nach dem System zu gehen das beim nichtstun effizienter ist
HomeOffice und Video ist nicht "nichtstun":

Idle.png

(Quelle)
 
  • Gefällt mir
Reaktionen: Quidproquo77, Munkman, KlaasKersting und 2 andere
Atma schrieb:
Stimmt eben doch. Raptor Lake ist verglichen mit Zen 4 + X3D ein richtiger Säufer. Das muss man sich nicht schönreden, das sollte man sich eingestehen. Sobald die CPU in Games gefordert wird, fängt der 13900K so richtig das Saufen an während ein 7800X3D bei 60-70 Watt bleibt.

Das sind unerreichbare Werte für Raptor Lake.
Im Test war doch die Rede von 30W.

Das sind 0,0084€ (!!!) pro Stunde - ein Witz sich darüber Gedanken zu machen :p

Wer nicht 24/7 zockt wird hier wohl kaum auf einen relevanten Betrag kommen.
Die Abwärme von 30W wird auch nicht weiter auffallen neben einer entsprechenden 450W GPU.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beefsupreme, Razorex, Bright0001 und eine weitere Person
Grundsätzlich ziehen Intel-Systeme weniger im Idle und Teillast als AMD. Das hängt auch vom Board ab, aber gefühlt zieht jedes AMD-Board wesentlich mehr aus der Dose als es bei Intel der Fall ist.

Der 13900K kann auch ein Schluckspecht sein, wenn man ihn lässt. In Spielen macht das aber keinen Sinn.
Ich habe meinen 13900K einfach auf 125W TDP im BIOS festgenagelt und das hält er auch ein. Die CPU bleibt dabei sehr kühl. In Cyberpunk 2.0 bewegt sich die CPU bei 50°C. Die 4090 zieht da wesentlich mehr aus der Dose.

Das System verbraucht aber weniger als mein altes Setup 5950X + 570X MB bei Teillast.
Der 7800X3D hat definitiv die Effizientkrone beim Gaming, wenn der Cache wirkt.
Aber bei Teillast und Idle zieht AMD einfach den Kürzeren.

Entscheidend ist am Ende nur, was unterm Strich steht. Und da konnte ich mit dem Intel-System sogar weniger Strom "verbrauchen" als mit dem AMD-System zuvor. Ob der Intel dann seine 125W für 1-2 Stunden bei einem Game zieht (macht er ja auch nur bei anspruchsvollen Games, sonst dümpelt der irgendwo bei 60-70 Watt herum), ist da völlig unerheblich. Der zieht ja nicht einfach 125W die ganze Zeit, wenn er nichts zu tun hat.

Und wenn ich ganz effizient sein will, dann schalte ich einfach mein MacBook mit M1 Pro an. :)
 
  • Gefällt mir
Reaktionen: Innocience und MalWiederIch
Ich habe mich bewusst für ein 13900k und ne RTX 4090 entschieden.

Ich wollte aus Prinzip nicht weniger als die besten Teile (Ego halt).

Ich hatte vorher 5950x und 6900XT und war von den IDLE werten abgeschreckt.
Für mein G9 NEO 5120x1440 Pixel @240herz lag die Grafikkarte immer im Desktop bei 80 bis 100 Watt, bei Youtube auf HDR sogar um die 140 Watt!
Die CPU an die 40 bis 60 Watt je nach Fenster und Maus Bewegung.

Das neue System schafft CPU, 20 bis 35 Watt und Grafikkarte 30 Watt im Desktop.
Bei Youtube und HDR verbraucht die Grafikkarte nie mehr als 40 Watt.

Da ich nur 2 Stunden maximal am Tag spiele und mehr Office und Youtube mit dem PC mache brauche ich maximale Leistung bei Bedarf und wenig Leistungsaufnahme beim Office.

Da die neuen AMD CPU und GPUs im Office immer noch Schlucken, je nach Auflösung und Szenario spare ich so für mich Strom und habe bei Bedarf z.b Cyberpunk trotzdem maximale Performance.

Aktuell ist der 13900k auf 220 Watt gedeckelt und die 4090 auf 300 Watt und fahre sehr gut damit.

Ich messe natürlich mit na AVM Steckdose den Verbrauch und bete das ich wenigstens 1 Euro im Monat spare 😉
Ich weiss, das ist nur meine subjektive Meinung, aber ich kann somit besser schlafen
 
till69 schrieb:
HomeOffice und Video ist nicht "nichtstun":
Das sind nicht die Zahlen des User-Tests.
Noch nicht mal die selben CPUs.
Dazu ist Notebooksbilliger inzwischen nicht mehr das was es früher mal war.

Zud en Zahlen:
6x mehr AMD Idle als Intel, ist klar xD
Da sind keinerlei Einstellungen des Testsystems im BIOS etc aufgeführt, dabei spielen die eine wesentliche Rolle. Was du auch weg lässt, sind die dort gemessenen 180W Intel vs 77W AMD in Cyberpunk.

Wenn du wirklich die Büchse der Pandora auf machen willst und von irgendwoher eine Grafik ziehst, mach ich das auch.
Computerbase Test 7900X3D
Und wehe jemand schaltet den Eco Modus an, dann wird der Unteschied noch kleiner.

TLDR:
Ich kann mir auch irgendwoher genau den einen Bench einer beliebigen Seite rauspicken der genau meinen Punkt stützt, aber ansonsten Humbug ist.

Fliffi schrieb:
Ich wollte aus Prinzip nicht weniger als die besten Teile (Ego halt).
Zumindest bei CPU in Gaming ist AMD schneller und effizienter.
Es gibt kein "in allen Punkten" überlegenes Produkt mehr.
Intel ist bsp. besser für Workload, da bringt der Cache nämlich (normal) nichts.

Fliffi schrieb:
z.b Cyberpunk trotzdem maximale Performance.
Auch hier ist AMD schneller und mal eben 120W sparsamer.
 
  • Gefällt mir
Reaktionen: Lamaan, MiroPoch, Chr1s603 und eine weitere Person
SKu schrieb:
Entscheidend ist am Ende nur, was unterm Strich steht
Genau so ist es. Hier ein Video dazu:

 
Draco Nobilis schrieb:
Erneut, es ist Unsinn eine CPU nach Idle Maßstab zu wählen.
Um es mal ganz klar zu sagen, dafür wurden Desktop CPUs nicht gebaut, wer das will kauft ne AMD APU oder Notebook.

Für mich gilt:
Sobald man damit spielt > AMD (Plattform-Zukunft, PSU Betrachtung, Cache-Zukunft)
Sobald man produktiv was macht > Intel (die kleinen Kerne machen da durchaus was)
Sobald man Idle als Zweck sieht > ARM/APU/NUC

Wer "alles" davon macht schaut nach Gaming oder produktiv. Fertig.
Idle ist einfach kein "Anwendungszweck".
Wer bei einer 400-500€ CPU so viel auf eine Differenz im Stromverbrauch beim Gaming von gerade einmal 0,0084€ je Stunde gibt hat mMn sowieso keine Hobbies.

Man zockt ja auch nicht 24/7, sofern man einem Arbeitsverhältnis nachgeht. Das was über den Monat da zusammenkommt wird kaum nennenswert sein.

Viel geben die beiden (7800X3D und 13700K) sich sowieso nicht in Spielen (3% laut CB Gesamtrating).
Die Rohleistung liegt aber gleich ganze 49% auseinander laut CB (8 vs 16 Kerne).

Da interessieren mich Unterschiede die nicht einmal im Centbereich liegen wenig :rolleyes:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: _Flattermann_, H6-Mobs, Tanzmusikus und 2 andere
Draco Nobilis schrieb:
Noch nicht mal die selben CPUs
Und Du glaubst der 7800X3D macht zum 7900X3D einen großen Unterschied? Die LowLoad Probleme liegen in der Architektur:

Idle.jpg

(Quelle)
 
  • Gefällt mir
Reaktionen: Quidproquo77, NHP, Innocience und 2 andere
till69 schrieb:
Und Du glaubst der 7800X3D macht zum 7900X3D einen großen Unterschied? Die LowLoad Probleme liegen in der Architektur:
Ah die nächste Webseite mit genau einem einzelnen Benchmark herausgeschnitten, selbstverständlich ohne System-Gesamtverbrauch oder BIOS Settings. Und bei deinem neuem Benchmarklink hat der AMD plötzlich 7W weniger Idle Verbrauch, was mal eben ein Drittel des Gesamtverbrauches sind. Damit stützt du mein Argument das die Hauptplatine einen wesentlichen Beitrag des Idle Verbrauchs beiträgt.

Natürlich gehst du auch nur auf einen winzigen Teil meines Posts ein.
Es war aber nie die Frage ob Intel im Idle effizienter ist. Sondern ob es Sinn ergibt Idle als reales zugrundeliegendes Kaufkriterium anstatt den Lesertest als akademisches "nice2know" zu betrachten.

Aber meinetwegen kannst du den Rechner 8h am Tag im Idle im Desktop ohne Browser / Youtube etc. betreiben (Grafikkarte sollte abschalten wenn du Monitor aus machst). Ist dein gutes Recht.
Und dafür solltest du dann tatsächlich den I9-13900K kaufen.
Das wäre völlig logisch.

Dann empfehle den I9-13900K für Idle, der unter Last immer gegen den AMD in Leistung und Effizienz verliert. Muss ich zu dem Satz wirklich noch was schreiben?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lamaan, MiroPoch, Slayn und 2 andere
Super Artikel, doch ich würde das ganze trotzdem nicht nur im Teillastbetrieb oder mit FPS Limit testen.

Denn wenn die CPU älter wird, die Spiele fordernder und die nächste Grafikkarte stärker, wird man logischerweise irgendwann an einen Punkt kommen, an dem man häufiger ins CPU Limit kommt oder die CPU zumindest deutlich stärker ausgelastet wird.

Und hier ist dann sehr wohl relevant, wie viel Strom die CPU braucht.

Deswegen würde ich solche Tests auch im vollen CPU Limit machen. (Was ja noch lange nicht heißt dass alle Kerne voll ausgelastet werden) und dann schauen, welche CPU mehr verbraucht und wie hoch der Performanceunterschied ist.

Dann kann man auch die Messreihen nochmal mit unterschiedlichen Powerlimits testen.

Letztendlich kann man viel testen, wichtig ist dass man die richtigen Schlüsse zieht.
Zu sagen, die CPUs brauchen beim Gaming viel weniger als gedacht ist jedenfalls ein Trugschluss, da das nur eine Momentanaufnahme eine bestimmten Konfiguration ist.

Speziell das Cyberpunk Beispiel, wo PCGH deutlich mehr gemessen hat ist eben aus meiner Sicht schon sehr relevant wenn man wissen will, wie sich die CPU bei fordernderen Spielen in den nächsten Jahren tendenziell verhält.
 
  • Gefällt mir
Reaktionen: suessi22, iron_monkey und LamaMitHut
Draco Nobilis schrieb:
Computerbase Test 7900X3D
Dann aber bitte einen halbwegs brauchbaren Test.
Die Idle Zahlen sind komplett für die Tonne, da mit unterschiedlichen GPUs (Intel mit 3090ti, AMD mit 4090) und wahrscheinlich auch unterschiedlichen Netzteilen "gemessen" (bzw. eher geschätzt) wurde.

Und da hier in jeder Kaufberatung 6000er DDR5 zum X3D empfohlen wird, sollte man wissen, dass EXPO gleich mal ca. +13W bedeutet:

pho schrieb:
Während mit EXPO die Package Power im Idle bei 23-24W lag, bzw an der Dose um die 55W, habe ich ohne EXPO nur 14-15W Package Power und das Messgerät zeigt um die 42W an der Steckdose
 
  • Gefällt mir
Reaktionen: Tanzmusikus
NOTaNerd schrieb:
Oder einfach Energieprofil: Energie sparen nutzen im 2D Betrieb. Kommt aufs selbe raus.
Profilswitcher gibt es wie Sand am Meer.
Nein, das hat mit Profilen nichts zu tun. Bei Zen 1 hat das bei mir teilweise noch 10W im Idle gebracht. Bei Zen 3 ist es im Idle völlig egal, welches Energieprofil ich wähle. Der hohe Idle-Verbrauch kommt nicht von den Kernen, da die bereits bei 1-2W oder so sind. Da lässt sich nichts mehr einsparen. Der IO-Die scheint zu saufen und eventuell der Chipsatz bzw. das Board.
BloodGod schrieb:
Nein, dass heißt man hat eh komplett die falsche CPU im Rechner…

SUV nur zum Bäcker zu fahren fällt da einem sofort ein.
Um mal in dem Bild zu bleiben: Wenn ich bereits einen SUV habe, z.B. weil ich ihn für irgendwas brauche, dann will ich damit auch Brötchen holen fahren und mir nicht für diesen Zweck extra einen Zweitwagen holen. So ist es auch beim PC: Ich habe ihn, weil ich ihn für Hobby und Arbeit brauche, aber ich habe keine Lust nur zum Surfen, Programmiere oder Videos gucken extra ein zweites System zu kaufen, weil das (neben den Anschaffungskosten) zusätzliche Arbeit macht (Updates, Datensynchronisation, Browser-Verlauf, etc.). Ich bin immer froh, wenn ich alles in einer Kiste habe.
meisterkatzen schrieb:
Verstehe manche Beiträge hier überhaupt nicht. Nur weil man nicht die ganze Zeit zockt oder rendert soll auch eine Mini-CPU ausreichen? Ich bin zum Beispiel Programmierer und die meiste Zeit hat mein PC wenig zu tun, wenn er dann kompilieren darf hab ich aber lieber mehr Leistung als zu wenig.
So ist es. Für viele Zwecke muss der Rechner halt "an" sein ohne dass er durchgehend gefordert ist. Wer seinen PC ausschließlich zum Zocken nutzt und ihn wie eine Konsole nur zum Spielen anmacht und sofort danach wieder aus, dem ist der Idle-Verbrauch natürlich egal.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Slayn, Simonsworld und 2 andere
Draco Nobilis schrieb:
Sowas passiert bei hochoptimierten Simulationsspielen eben. Die nutzen den Cache massiv.

Der Cache wird nicht „ausgenutzt“, sondern gebraucht.

Alles was nicht in den L1 passt, verlangsamt die rechenoperation, weil auf den L2 zugegriffen werden muss. Alles was nicht in den L2 passt, wird aus dem L3 geholt, alles was nicht in den L3 passt, muss aus den RAM geholt werden.

Wenn ein Spiel also sehr stark von einem größeren L3 Cache profitiert, dann heißt das, dass das Spiel auf CPUs mit weniger Cache sehr häufig auf den RAM zugreifen muss. Das ist langsam und grundsätzlich eher schlecht. Idealerweise sollten RAM Zugriffe minimiert werden, damit dieser nicht zum Bottleneck wird und die ALUs immer voll ausgelastet werden können.

Eigentlich sind also die Spiele, die am wenigsten von größerem Cache profitieren, die Spiele die am besten optimiert sind und am wenigsten von RAM Zugriffen ausgebremst werden.

Allerdings ist natürlich auch zu erwarten, dass der Bedarf von immer komplexeren Anwendungen immer weiter steigt. Deswegen muss das nicht unbedingt auf schlechte Optimierung zurückzuführen sein. Aber man muss sich eben auch im klaren sein, dass ein Spiel das nicht vom größeren Cache profitiert eigentlich das best Case Szenario aus programmiertechnischer Sicht ist. Mit je weniger L3Cache und RAM Zugriffen eine Anwendung auskommt, desto besser.

Sich zu wünschen, dass Spiele besonders Stark vom 3D Cache profitieren ist also eigentlich genau das was man sich NICHT wünschen sollte, weil es eben keinen Sinn ergibt.

Das wäre so, als würde man sich wünschen, dass Spiele für die gleiche Optik mehr VRAM brauchen. Dann würden sie auf Karten mit genug VRAM genauso gut wie vorher laufen, nur auf Karten mit weniger Speicher umso schlechter. Man würde nichts gewinnen sondern nur verlieren.
Mit dem Cache verhält es sich genauso.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron_monkey
Zurück
Oben