News 7800X3D vs. 13700K: Wie groß ist der Unterschied beim Verbrauch in Watt wirklich?

founti schrieb:
Natürlich ist der X3D eine wahnsinnig gute CPU … aber so schlecht wie oft dargestellt ist der Intel halt einfach nicht
Einverstanden, für mich würde es trotzdem ein AMD. Ich habe compiling Tasks und da ist die CPU voll ausgelastet. Ich würde aber nicht wegen dem Energieverbrauch AMD kaufen, mit den besseren Idle werten, wäre es vermutlich relativ egal, sondern einfach weil bei den Max-Auslastungs-Werten der PC mit der AMD CPU leiser arbeiten kann.
 
Tatsächlich finde ich den Max-Verbrauch hier mal wichtiger, da ich ja sowohl Kühlleistung und Stromversorgung in meinem System darauf auslegen muss. Wie die Lage bei AM5 ist, kann ich nicht genau sagen, aber bei AM4 konnte man einen 5800X3D auf einem Billigboard betreiben. Die Idee gefällt mir, dass ich nicht in die Materialschlacht einsteigen muss. Kleineres Gehäuse und leiser PC inklusive. Für mich persönlich das wichtigste. Bei Intel bekommt man dann halt mit einfacheren Boards nicht die volle versprochene Leistung. Das find ich Schade.

Klar, die Lösung wäre gewesen, einfach auf 5% Leistung zu verzichten, aber dann wären die aktuellen AMD Lösungen ja auch (noch) schneller. AMD hätte das natürlich bei der aktuellen Generation (bis auf X3D) auch machen sollen.
 
  • Gefällt mir
Reaktionen: MiroPoch, jotecklen, Bright0001 und eine weitere Person
Da die meisten CPUs die meiste Zeit eh im Idle rumdümpeln sind die Intel leider attraktiver.
Ich weiß nicht warum es AMD mit dem AM5 CPUs nicht schafft. Der 5x00G war doch relativ sparsam. Auch im Idle.
 
Mimir schrieb:
Bis auf wenige Ausnahmen wird vermutlich kaum ein Entwickler den Aufwand betreiben.
Das wird nur passieren, wenn es notwendig ist. Allerdings sind einfache Optimierungen wie erstell und ließ Arrays in der richtige Reihenfolge aus, um Cachezugriffe zu begünstigen, gang und gebe.
 
Bei mir läuft der Rechner zu 95% nur zum zocken. Für alles andere gibt es den Laptop auf dem Sofa.

Von daher habe ich mich persönlich glaube ich schon richtig entschieden mit AMD.
 
Finde die Messung bei einem fixen FPS Limit zum Vergleich viel besser.
Ansonsten müsste man wieder umständlicher die FPS / Watt berechnen. Allerdings braucht man wohl auch immer eine Messung mit maximaler Leistung, vorallem Grakas, weil gewisse Architekturen evtl. effektiver werden, wenn mehr Last anliegt.

MPQ schrieb:
Tatsächlich finde ich den Max-Verbrauch hier mal wichtiger, da ich ja sowohl Kühlleistung und Stromversorgung in meinem System darauf auslegen muss.
Aber auch nur für einen geringen Teil der User, denn 100% Last ist selten .Selbst wenn ein Game 100% der CPU nutzt, bedeutet das noch nicht, dass 100% der Einheiten perfekt genutzt werden. Für mich erzeugt Handbrake die meiste Last mit nahezu 100% denselben Temps und Auslastung wie prime ohne AVX und kommt damit dem worst Case als Privater wohl am nächsten. Die Temps sind dabei an die 20° höher, als bei Gaminglast . Läuft allerdings nicht Stundenlang.
Aber Ansprüche der User sind halt unterschiedlich. Deshalb reicht vielen auch der boxed Lüfter.

Axxid schrieb:
Ja das ist eben wenn man Leistung im wenig gefordertem Bereich betrachtet. Ich bin mir sicher auf der Autobahn bei 120km/h braucht der Porsche auch relativ wenig Sprit.
sowas oder :D


whigga schrieb:
GPU Limit kannste mittlerweile aber echt gut mit DLSS und Freesync/Gsync abfedern. Wenn die CPU Bottlenecked ist das nicht so ansehnlich…
Also für mich sorgen die Techniken dafür, dass die FPS höher ausfallen bzw. die Grafiksettings höher liegen können. ändert am vorhandenen GPU Limit kaum was. Und selbst für einen 4090 User ist die Technik nur als support , damit man RT nutzen kann aktuell, da hier noch immer viel zu wenig Leistung vorhanden ist.
CPU Limit in Games ist wohl eher die Ausnahme .
Glaube MS - FS ist hier ganz anspruchsvoll oder auch Starfield, aber ansonsten ?
 
Zuletzt bearbeitet:
Der Intel ist und bleibt ein Hitzopf und ein Fanboy Produkt. Objektiv ist der AMD überlegen.
 
  • Gefällt mir
Reaktionen: MiroPoch und ArrakisSand
Philste schrieb:
Wieso? Du spielst permanent im CPU Limit? Bei mindestens 90% der Spieler sollte eigentlich eher die GPU limitieren.
GPU Limit kannste mittlerweile aber echt gut mit DLSS und Freesync/Gsync abfedern. Wenn die CPU bottlenecked ist das nicht so ansehnlich…
 
R O G E R schrieb:
Da die meisten CPUs die meiste Zeit eh im Idle rumdümpeln sind die Intel leider attraktiver.
Ich weiß nicht warum es AMD mit dem AM5 CPUs nicht schafft. Der 5x00G war doch relativ sparsam. Auch im Idle.
Kommt halt auf die Ansicht an. Wenn du alle PCs nimmst, vermutlich ja, obwohl wir in der Firma keine PCs rumstehen haben.
Zuhause ist das bei mir und der Familie anders. Da laufen die Kisten fast nur zum zocken, für die kleinen Aufgaben gibts den Laptop oder das Smartphone. Die Kinder haben ehe einen für die Schule und ist auch praktisch für Unterwegs. Aber dss muss man halt lernen, dass man den Computer runterfährt, wenn man mal kurz zum Sport geht oder so. 1 Minute hochfahren ist ja nichts...
 
  • Gefällt mir
Reaktionen: Javeran und Vitec
whigga schrieb:
GPU Limit kannste mittlerweile aber echt gut mit DLSS und Freesync/Gsync abfedern. Wenn die CPU bottlenecked ist das nicht so ansehnlich…
Ja, ich wünschte ich hätte mal wieder ein GPU Limit. Wenn ich an meine letzten Spiele denke bin ich immer am CPU Limit, z. B. Hogwarts Legacy, Jedi Survivor, Starfield, Immortals of Aveum, Total War Warhammer 3, Forspoken, Darktide oder Gotham Knights.
 
DavidG schrieb:
Der Core ist die rundere CPU, die in den meisten Fällen schneller und sparsamer ist. Obwohl die Fertigung schlechter ist, kann Intel durch bessere Architektur AMD wieder übertrumpfen. Nur im Marketing bleibt Goliath AMD spitze.
Niemand hindert Intel daran, was alle (großen) Unternehmen haben: Gründung einer Marketing Abteilung.

Das Intel, laut deiner Aussage, darau verzichtet,kann man AMD nicht zur Last legen ;)


Ansonsten schöner Test. Für mich persönlich hat sich das Thema Idle, Youtube und Co relativ erledigt, da am Gaming Rechner zu 99% gzockt wird und 1% für (Windows)Updates drauf gehen. Für alles andere gabe ich ein aktuelles Macbook Pro mit Apple Silicon. Extrem schnell, flüssig und absurd sparsam.

Noch etwas Intel hätte die CPUs statt mit drölfzillionen Watt auf z.B. 140W beschränken können. Aber dann würde man halt den ein oder anderen Benchmark möglicherweise knapp verlieren und weltweit gilt immer noch Performance / Balken > Effizienz. Und das sogar sehr deutlich.
 
...oder man nimmt den i5 13600K, der bei vielen Games auch noch schneller als der 7800X3D ist, aber generell sparsamer und somit den großen Energiehunger des i7 nicht hat.
Aber Achtung, warm wird er schon um nicht zu sagen heiß........
 
Warum muss ich jetzt automatisch an #MassiveHochfrequenzkerne denken? 👀
 
  • Gefällt mir
Reaktionen: Zhan
Mimir schrieb:
Sich zu wünschen, dass Spiele besonders Stark vom 3D Cache profitieren ist also eigentlich genau das was man sich NICHT wünschen sollte, weil es eben keinen Sinn ergibt.
Das hängt vom Spiel ab.
Es existieren eben Spiele und Anwendungen die brauchen den Cache (Simulationen), weil eben mehr vorzuhalten ist als ein "Shooter Schlauchlevel mit 10 Gegnern".
Manche Spiele müssen hunderttausende Variablen vorhalten da diese trotz Optimierung eben laufend gebraucht werden.

Warum sollte der Cache da also schlecht sein? Warum sollte man Hardware die da ist nicht nutzen und stattdessen Daten aus dem langsamen RAM transportieren, was vielfach mehr Energie benötigt?
Das ergibt keinen Sinn.
Selbst Spiele ohne expliziten Cache Hunger sollten effizienter laufen, wenn diese den Cache nutzen würden.

Flaimbot schrieb:
ich glaube ich weiß jetzt wer der autor für ULoserbenchmark ist. oder war das ne copypasta von da? poe's law.
Ich blocke ja nur sehr selten jemanden, da es in einem Diskusionsforum sonst den geblockten erlaubt weiterhin Quatsch zu verbreiten.
Aber bei diesem Member habe ich eine Ausnahme gemacht.
Selbst komplett uninformierte sollten hier aber erkennen das er einfach nur Unsinn schreibt und daher ist jeglicher Kontakt mit Ihm unnötig. Man muss niemanden vor Ihm mehr warnen.
 
@Pizza!
Danke für den tollen Test! Darf ich ein wenig Kritik üben? Geht mir rein um Formalien und mache ich auch nur, wenn du magst.

Ansonsten zur Diskussion:
Deimonos schrieb:
Heißt das wer mehr Multimedia am PC schaut als zockt, sprich Youtube / Filme / Office-Desktop ist mit Intel besser beraten ?
Ganz ehrlich, wenn es dir primär um Multimedia geht - YouTube, Filme, Office, Browsen - dann solltest du allgemein überlegen, ob ein ausgewachsener Desktop-PC für dich die richtige Wahl ist. Hier bring hier immer als Beispiel mein iPad Pro an, dass an der Steckdose die meisten Aufgaben mit 4 - 5 W erledigt und in den seltensten Fällen auf über 10 W geht.
Deimonos schrieb:
Oder gleich einen Laptop/Tablet nehmen um Strom zu sparen.
Das ist in diesem Fall oft die klügere Wahl, vor allem wenn man bedenkt, dass auch im Web quasi der Mobile-First-Ansatz vorherrscht.

Natürlich macht man das nicht immer - ich schreibe ja auch am Hauptrechner. Es ist aber oft die bessere Alternative.
Intenso84 schrieb:
Der höhere Idle-Verbrauch bei AMD liegt doch wahrscheinlich daran das der Mainboard-Chipsatz mehr säuft als der von INTEL und nicht unbedingt an der CPU?
Der höhere Verbrauch von AMD liegt in dem Fall an vielen Stellen. AMD ist diese Probleme bei den APUs (Zen3+) angegangen, aber nicht im Desktop-Bereich.

Zen4 kann bei den "großen" Ryzen nicht so fein granuliert gesteuert werden, was die Spannungen und Co angeht, wie die APUs. Dazu kommt, dass man mit verschiedenen Einstellungen von RAM-OC und Co sehr viel "falsch" machen kann an den Mainboards und der IF zum Beispiel ab gewissen Punkten vollständig und dauerhaft den maximalen Takt fährt.

AMD benötigt immer noch sehr viel Feintuning in den Mainboards, dazu kommt, dass aktuell die meisten Mainboards für die AMD-CPUs sehr "gut" ausgestattet sind. Dazu muss man auch in Windows Hand anlegen, das macht Linux teilweise deutlich besser.
Ben_computer_Ba schrieb:
Beispiel beim Bäcker, wenn man schon einen suv hat, soll man sich dann noch einen Kleinwagen (z.b. Golf, Fiat 500 etc) kaufen, nur um zum bäcker zu fahren? Ich denke nicht.
Man sollte sich bei dem Bäcker ohnehin eher die Frage stellen, warum man überhaupt zu ihm fährt und nicht mal die 5 - 10 Minuten zu Fuß geht.

Denn die teilweise maximal 500 m zum Bäcker, Supermarkt und Co tun weder dem Kleinwagen - und Golf ist kein Kleinwagen - noch dem SUV gut und sorgen dafür, dass das Gerät wesentlich schneller altert, als einem lieb ist.
Draco Nobilis schrieb:
Ergibt wegen der Chiplets auch Sinn. Vgl. Richtung Monolithen aus AMDs Notebooksegment machen es noch deutlicher.
Ja und Nein. Der Chiplet-Ansatz und auch der VCache sind natürlich nicht ganz "unschuldig". Allgemein hat aber AMD im Bereich Teillast und Idle im Bereich der Desktop-Prozessoren nicht so viel getan:

https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/6/
https://www.computerbase.de/2018-04/amd-ryzen-2000-test/5/#abschnitt_leistungsaufnahme
https://www.computerbase.de/2019-07..._leistungsaufnahme_im_leerlauf_und_unter_last

AMD ist das Problem bei Zen3+ angegangen bei der APU, im Desktop-Segment merkt man aber sehr deutlich, dass AMD hier auch die "Server-Plattform" verwertet. Im Serverbereich ist "Idle" quasi kein wirkliches Wort, weil man immer relativ konstante Grundlasten hat. Entsprechend kann man sich "Schaltungen" für bestimmte Aktionen im Bereich der Spannungsverwaltung und Co auch sparen und die Komplexität runter schrauben und das merkt man bei Ryzen für den Desktop stark.

Es ist keine Unmöglichkeit sowohl die CCD als auch den IOD auch so zu designen, dass man weitere Stromsparmechanismen und Co implementiert und feiner granuliert. Das kostet alles aber Transistoren.
Tanzmusikus schrieb:
Lies den Beitrag über dir ... und #21 (unterer Teil). 😉
Ist aber nur bedingt ein gutes Beispiel. Allgemein sind "Autovergleiche" in so einem Fall massiv angreifbar und lassen können schnell in alle Richtungen gedreht werden. ;)
till69 schrieb:
Weil es Menschen gibt, die mit einem PC alles abdecken möchten.
Was man durchaus auch verstehen kann. Gleichzeitig muss man sich dann aber auch die Frage stellen, wo man auch bereit ist Abstriche zu machen. Eine Desktopplattform kann - weder von Intel und noch etwas weniger von AMD - YouTube, Netflix und viele Homeoffice-Aufgaben wirklich so effizient angehen, wie es ein Laptop kann, den man an einen Monitor anschließt.

Zumal in Haushalten, in denen man einen ausgewachsenen Desktop-PC sitzen hat, heute auch oft entsprechende Laptops und Co vorhanden sind, weil die Menschen auch mobil sein wollen.
Caramelito schrieb:
Das Game muss 3D Cache mögen, dann geht's ab wie ne Rakete. Ansonsten immer Vorteil Intel.
Jaein, das Spiel muss den 3D-Cache nicht mögen, das Spiel muss eher die richtigen Arbeitslasten erzeugen. Es müssen viele Daten ausgetauscht werden zwischen den Threads und ebenso auch zwischen dem RAM, dann kann der 3D-Cache ausgespielt werden.

Sobald man aber mit wenigen Threads auskommt und Co, kann der Vorteil des Caches verpuffen, weil man mit intelligentem Prefetching und Co quasi alles abfangen kann.
till69 schrieb:
HomeOffice und Video ist nicht "nichtstun":
Jain, in dem Fall muss man eher aus der Sicht des Computeres auf diese Aufgaben blicken: Video - also YouTube, Netflix und Co - als auch SoHo sind heute für einen Computer keine wirklichen Aufgaben mehr und benötigen auch nicht viele Ressourcen. Man befindet sich heute in diesen Bereichen also wirklich - für den Rechner - nahe dem Bereich des Nichtstuns.

Im SoHo-Bereich ist der entscheidende Faktor der Mensch: Du kannst im SoHo-Bereich heute keinen Rechner wirklich an das Limit treiben, da du als Mensch viel zu langsam bist.
ArrakisSand schrieb:
Intel user sind momentan anscheinend dazu verdammt, nichts oder sehr wenig zu machen weil sonst brennt es in der Bude, aber so richtig, wenn einmal aus versehen doch alle Kerne anspringen.
UEFI auf machen, Power-Limit auf 125 W festnageln, und schon läuft jeder RaptorLake sehr effizient und steht einem Zen 4 nicht wirklich nach.

Hier wird RaptorLake eher zum Verhängnis, dass die Board-Hersteller die 125 W aushebeln und quasi nur PL2 als Dauerlast ansetzten.
 
  • Gefällt mir
Reaktionen: ComputerJunge und Atnam
Klasse Beitrag. Vielen Dank.
 
  • Gefällt mir
Reaktionen: Atnam
DevPandi schrieb:
AMD hier auch die "Server-Plattform" verwertet. Im Serverbereich ist "Idle" quasi kein wirkliches Wort, weil man immer relativ konstante Grundlasten hat. Entsprechend kann man sich "Schaltungen" für bestimmte Aktionen im Bereich der Spannungsverwaltung und Co auch sparen und die Komplexität runter schrauben und das merkt man bei Ryzen für den Desktop stark.
Das ist natürlich auch ein Punkt, danke.
AMD CPUs im Desktop sind prinzipiell von "oben herab" designt, also Serverbereich.
Habe nur den Punkt der Chiplets betrachtet, das man sich aber womöglich dann auch die eine oder andere Funktion in Hardware erspart, ist vorstellbar.

Nicht außer Acht lassen darf man aber auch nicht die gesamte Plattform.
Da hat Intel manchmal Vorteile.
Wenn man Intel Ethernet und Wifi Hardware nutzt sowie Thunderbolt und XMP Profile ja dann spart Intel noch einige Watt mehr vgl zu AMD.
 
DavidG schrieb:
Der Core ist die rundere CPU, die in den meisten Fällen schneller und sparsamer ist. Obwohl die Fertigung schlechter ist, kann Intel durch bessere Architektur AMD wieder übertrumpfen. Nur im Marketing bleibt Goliath AMD spitze.
Ist das Ironie oder Ignoranz? 🤔
 
  • Gefällt mir
Reaktionen: MiroPoch, KurzGedacht und andi_sco
Vitec schrieb:
Also für mich sorgen die Techniken dafür, dass die FPS höher ausfallen bzw. die Grafiksettings höher liegen können. ändert am vorhandenen GPU Limit kaum was. Und selbst für einen 4090 User ist die Technik nur als support , damit man RT nutzen kann aktuell, da hier noch immer viel zu wenig Leistung vorhanden ist.
CPU Limit in Games ist wohl eher die Ausnahme .
Glaube MS - FS ist hier ganz anspruchsvoll oder auch Starfield, aber ansonsten ?

Starfield ist auch bei mir klar im GPU Limit. Braucht man sich ja nur mal die Auslastung anschauen, GPU 99%, CPU 20-30%. Wobei das für die CPU schon viel ist, die dreht durchaus ganz schön auf. Bei den meisten anderen Spielen ist die CPU Last bei mir um 10%. Andere ähnliche Beispiele: Phantom Liberty und Jedi Survivor.

Klassisches CPU Limit eher bei grafisch weniger aufwändigen Spielen mit vielen OPS für KI etc. Skylines 2 könnte so ein Kandidat werden. Oder Anno mit einer sehr großen Population.
 
Klar bist du im GPU Limit mit nem 13900k - Habe den nun auch hier, vormals ein 13600k - Da ging die GPU gerne auf 80-85% Last in New Atlantis runter zB.
Und der 13600k ist eine der schnellsten CPUs in Starfield.
 
Zurück
Oben