13700k vs 7800x3D

Quilch99

Cadet 4th Year
Registriert
Nov. 2013
Beiträge
122
Hallo Leute,

ein Neubau steht bei mir an und ich schwanke im Moment zwischen dem 13700k und 7800x3D. Wenn es nur um's Gaming gehen würde, wäre klar der 7800x3D vorne. Bei mir wird jedoch Streaming und etwas Videoschnitt auch noch eine Rolle spielen. Der Intel hat den Vorteil von Quicksync und mehr Kerne beim Rendern. Andererseits schreckt mich der deutlich höhere Stromverbrauch etwas ab. Selbst in Spielen ist er je nach Game doppelt so hoch wie der Ryzen. Der Ryzen wiederum hat mit Kinderkrankheiten und RAM Kompatibilität zu kämpfen.
Was ist bei dem Intel denn an Undervolting an Stromreduzierung im Gaming rauszuholen? Hat da jemand Erfahrungswerte?
 
Quilch99 schrieb:
Was ist bei dem Intel denn an Undervolting an Stromreduzierung im Gaming rauszuholen?
Kommt halt auch darauf an was so gezockt wird und wie viele FPS anliegen sollen, aber wenn du max. 165 FPS anstrebst solltest du im Schnitt bei unter 80W bleiben.

Ich nehme an es kommt keine dedizierte Grafikkarte zum Einsatz?
 
Welche GPU hast du denn? Ich glaube nicht, dass der höhere Stromverbrauch des i7 wirklich ins Gewicht fallen würde. Undervolting ist auch immer eine Option. Ich bin aber inzwischen sowieso der Meinung, dass ein paar Euro höhere Stromkosten niemanden abschrecken sollten, der Gaming als Hobby hat.
 
  • Gefällt mir
Reaktionen: Intruder
Quicksync ist dann ein Grund, wenn du die davon beschleunigten - und nicht von CUDA/NVENC abgedeckten - Codecs/Bitraten auch wirklich nutzt. Wenn du über die GPU renderst, entlastest du die CPU ohnehin.
 
Wieviel spielst du den überhaupt Pro tag das der Stromverbrauch eine wirkliche Relevanz hat?
Und wieviel Videobearbeitung machst du?
Rein Leistungstechnisch ist es wohl egal ob du den i7 oder den Ryzen, die CPUs nehmen sich praktisch nichts, bzw. nichts was einen großen unterscheid aus macht.
 
Vielleicht hilft dir das Video bei dieser Entscheidung:

 
Eine überraschend unemotionale Beratung heute hier. :D
Effektiv ist es recht egal, mit beiden wirst du vermutlich ziemlich happy werden.
Der Stromverbrauch beim Gaming ist außerhalb von Benchmarks meist recht irrelevant.
Du wirst in der Regel weit weg von den gezeigten Werten wie im CB Benchmark liegen da du zu 99% im GPU oder SingleCore Limit beim Gaming hängst.

Daher würde ich nach Preis, Lust und Laune oder Quicksync Relevanz entscheiden.
Machst mit beiden nicht viel falsch.

Mit welcher GPU gehst du ins Rennen? Eventuell wird die CPU dann noch irrelevanter.
 
  • Gefällt mir
Reaktionen: Intruder
Vorab: Hier wäre die richtige Adresse gewesen.
https://www.computerbase.de/forum/forums/desktop-computer-kaufberatung.65/post-thread

Zum Thema:

Prozessor:
Es gibt auch noch den 7950x3D. Mit 430€ ist der 13700k nicht gerade günstig. Da stellt sich die Frage, ob man gleich noch mehr ausgeben wollen würde.

Grafikkarte:
Aktuelle Grafikkarten bekommen einen Codec, der Streaming unterstützt.

Quilch99 schrieb:
etwas Videoschnitt
Der 7800x3D hat immerhin etwas mehr als die Anwendungsleistung eines Ryzen 5800x. Oder liegt auf dem Ryzen 3900x mit 12 Kernen. Also "für mal eben etwas" reicht das mehr als aus. Selbst wenn manche Tests ihn als Spiele-Wunderkind ins Licht rücken.

https://www.computerbase.de/2023-04/amd-ryzen-7-7800x3d-test/#abschnitt_anwendungsbenchmarks
 
  • Gefällt mir
Reaktionen: iron_monkey und Cyberbernd
Zwirbelkatz schrieb:
Grafikkarte:
Aktuelle Grafikkarten bekommen einen Codec, der Streaming unterstützt.
GPU-Streaming gibt es nicht erst seit den aktuellen Karten. Über H-264 ist das geradezu ein alter Hut. Die Frage ist: Welche Codecs, welche Bitraten? Bestimmte H.265 Bitraten beschleunigt Quicksync recht exklusiv, sowas wie AV1 dagegen können alle aktuellen Karten, also nVidia 4000, AMD 7000 und Intel Arc.
 
Games@3440x1440 + 4090

13700K@5,7 Allcore
+ 4,5 E-Core + DDR5-7600CL32 (Watercooling)
130 Watt Stromverbrauch

7800X3D
6400CL28
60 Watt Stromverbrauch

Anmerkung:
Keine RAM-Instabilitäten (M-DIE) feststellbar bei AM5.
Bei RL sind hohen DDR5-Taktraten + Tight Timings nur mit aktiver Kühlung möglich.
DDR5 7600 (CL32; TREFI 130000) + RAM-Standardkühlkörper & TM5 Extreme Test
-> Temperaturen über 75 Grad.

1.jpg
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Intruder und Cyberbernd
Schon so viele Antworten. Es wird wahrscheinlich eine 4070ti oder wenn die Preise noch etwas sinken 4080 zum Einsatz kommen. AMD hat einfach einen zu hohe Stromverbrauch und kein nvenc. Ja AV1 gibt's schon, wird aber noch nicht von Twitch unterstützt.
Monitor wird ein wqhd mit 120-144 Hz werden. Das gepostete Video zum Vergleich kenne ich, auch andere unzählige Benchmarkvideos. Leider laufen dort die Prozessoren alle im Stock mit meist einer 4090 in Full HD.
Für mich ist ein effizienter Betrieb einfach wichtig, egal ob ich viel oder wenig Spiele. Wahrscheinlich bin ich im falschen Unterforum und muss das nochmal im UV posten.
Eigentlich möchte ich nur wissen, ob beim 13700k durch UV noch Stromersparnisse im Gaming zu erreichen sind. Denn ein Gesamtsystemmehrverbrauch von z.B. 158 Watt in Cyberpunk oder 196W in The Last of Us sind einfach zu viel des Guten.
 
  • Gefällt mir
Reaktionen: wtfNow
Quilch99 schrieb:
wahrscheinlich eine 4070ti oder wenn die Preise noch etwas sinken 4080
Entweder gleich die RTX 4080 oder eine RX 7900 XTX.

Der (mittlerweile) zu kleine der VRAM der RTX 4070 Ti überwiegt hier einfach.

Quilch99 schrieb:
Eigentlich möchte ich nur wissen, ob beim 13700k durch UV noch Stromersparnisse im Gaming zu erreichen sind.
Ja natürlich, gerade weil es ein K-Modell ist.
 
Zuletzt bearbeitet:
Quilch99 schrieb:
Denn ein Gesamtsystemmehrverbrauch von z.B. 158 Watt in Cyberpunk oder 196W in The Last of Us sind einfach zu viel des Guten.
Mehrverbrauch zwischen AMD und Intel?
Wenn ja was sind das denn für Zahlen bitte?
Soviel braucht der 13700k nicht mal Gesamt.
Aus welchem 720p 500FPS Benchmark stammen die denn bitte?

CP77 ab 3:30min -> WQHD ~144FPS -> CPU only 120-130W
(Wobei 144FPS in CP77 eh schwer zu erreichen sind, gerade mit RT, das Game ist eher so eine <100FPS Nummer, selbst mit einer 4090)

TLOU -> WQHD ~144FPS -> CPU only 130-150W

Bin jetzt zu faul die Gegenbeispiele von der AMD CPU zu suchen aber gehe mal davon aus dass die nicht bei 0W oder weniger liegt. ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Intruder und Drewkev
eRacoon schrieb:
Mehrverbrauch zwischen AMD und Intel?
Wenn ja was sind das denn für Zahlen bitte?
Soviel braucht der 13700k nicht mal Gesamt.
Aus welchem 720p 500FPS Benchmark stammen die denn bitte?

Aus dem geposteten Video von Hardware Unboxed. Ab Minute 11:35. Wahrscheinlich spielen da noch andere Komponenten mit rein. Der Wert kommt mir auch sehr hoch vor. Ich poste nochmal ein anderes Video, aber gerade bei Cyberpunk sieht man schon einen starken Unterschied. Benchmarks zum UV im Vergleich zum Stock wären halt mal interessant.

 
Zuletzt bearbeitet:
Quilch99 schrieb:
Aus dem geposteten Video von Hardware Unboxed. Ab Minute 11:35.
es fällt mir äußerst schwer die dort genannten werte zu Cyberpunk 2077 und TLoU nachzuvollziehen. 196W mehr in letzterem? da müsste der i7 ja deutlich über 200W fressen. kaum weniger als CB mit prime95 durch den geprügelt bekommen hat.

dass der 13700K beim zocken deutlich mehr schluckt als der 7800X3D steht außer frage, aber da kann irgendwas nicht gestimmt haben.

Intel Raptor Lake im Test - Leistungsaufnahme in Spielen ab Werk
AMD Ryzen 7 7800X3D im Test - Leistungsaufnahme in Spielen
 
Quilch99 schrieb:
Eigentlich möchte ich nur wissen, ob beim 13700k durch UV noch Stromersparnisse im Gaming zu erreichen sind.
es kommt darauf an wie gut die Qualität der CPU ist. Bei einigen kann man den Verbrauch massiv senken, bei anderen nicht so viel aber drin ist immer was.

Wenn ich das richtig bis jetzt verfolgen konnte, sind bei allen Mainboards die Powerlimits (PL1 und PL2) der CPUs in den Werkseinstellungen alle auf 4095 Watt gesetzt obwohl diese eigentlich laut Intels Vorgaben deutlich geringer sind. Sofern man die CPU gekühlt bekommt, würde diese unter maximaler Auslastung unter Prime95 so Richtung 350Watt+ gehen - was im normalen Alltag mit Gaming oder Videobearbeitung mit Sicherheit niemals eintreten würde! Nun setzen viele das Powerlimit nach Intels Vorgaben auf 250 Watt bei PL2 herunter. Man kann allerdings auch andere Wege gehen die deutlich mehr Zeit in Anspruch nehmen aber auch ohne das Reduzieren des Powerlimits den Stromverbrauch deutlich senken.

Das Ergebnis kann man hier sehr schön sehen. Ich bin durch ein paar Settings im Bios - offenes PL1/PL2 runter auf 272 Watt bei maximaler Auslastung gekommen. Das ganze könnte man noch weiter optimieren und sogar noch ein Stück weiter herunter kommen.
1688163789065.png

Leider ist es mit der Qualität der CPUs ein kleines Glücksspiel. Es gibt I7-13700K die von der Güte her deutlich besser sind und noch mal locker 20Watt weniger unter maximal Last brauchen aber es gibt auch schlechtere... meine ist eher nicht so gutes Mittelfeld.

Habe bisher noch nicht großartig herum getestet wieviel die CPU in diversen Games verbraucht und ich nutze nur FHD... weiß ja nicht in wie weit das auch noch für eure Beurteilung wichtig ist 🙂

aber für Diablo 4 kann ich ein paar Infos zum Stromverbrauch der CPU liefern.
Schwankend zwischen knapp unter 40 Watt bis hoch zu max 60 Watt im Game.
1688165164763.png

je nachdem wieviel auf der Map los ist...
mit besserer CPU, bessere Optimierung im Bios, ist da sicherlich noch mehr Einsparpotential vorhanden.

Leider habe ich null Infos wie es mit AMD ausschaut. Aber ich denke hier wird es sicherlich genügend geben die da gerne was beisteuern könnten damit du einen kleinen Vergleich hast.
 
Quilch99 schrieb:
Aus dem geposteten Video von Hardware Unboxed.
Die Ergebnisse würde ich anzweifeln, das passt vorne und hinten nicht.
Vermute dass die Game Settings eventuell nicht gepasst haben und die GPU da deutlich mehr gezogen hat.
Eventuell bei einem Test RT On/Off oder DLSS aktiviert etc....
Wundert mich dass man den simplen Logikfehler selbst nicht bemerkt hat.

Ich würde mich eher auf UV/OC bei der GPU konzentrieren, da holst du schnell mal 50-100W raus und hast danach meist noch mehr Performance. Die CPUs laufen schon recht gut am Limit und takten sich selbst ganz gut, aber ja wenn du im Gaming die letzten vermutlich 10-20W rausholen willst kann man das auch angehen.

Kannst aber auch einfach zum Ryzen greifen wenn dir max Effizienz beim Gaming wichtig ist.
Wobei der im idle/Office Workload dann wieder mehr braucht... am Ende ist das je nach Usecase gehüpft wie gesprungen. Relevante andere Zahlen am Stromzähler wirst du wohl kaum sehen egal was du kaufst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Intruder
eRacoon schrieb:
Ich würde mich eher auf UV/OC bei der GPU konzentrieren, da holst du schnell mal 50-100W raus und hast danach meist noch mehr Performance.
ohh ja... und das deutlich!! Alleine schon wenn man nicht ins Powerlimit rennt, die Karte nicht mehr unnötig heiß wird und dann auch nicht mehr runter takten muss. Ich war auch positiv überrascht wie einfach das geht, schnell umgesetzt war und auch verdammt großes Einsparpotential vorhanden war!

sehr guter Hinweis 🙂
 
Die Frage die ich mir noch stelle ist, wie wichtig ist Quicksync beim Streamen und der Videobearbeitung wenn es darum geht Gameplay zu Rendern? Kann Quicksync mittlerweile von der Quali mit nvenc mithalten? Ist das überhaupt relevant für mich, wenn ich nur Gameplay Rendern möchte? Wie schaut es aus wenn ich mit ner Cam was aufnehme und das Rendern will?
 
Zurück
Oben