Einverstanden, für mich würde es trotzdem ein AMD. Ich habe compiling Tasks und da ist die CPU voll ausgelastet. Ich würde aber nicht wegen dem Energieverbrauch AMD kaufen, mit den besseren Idle werten, wäre es vermutlich relativ egal, sondern einfach weil bei den Max-Auslastungs-Werten der PC mit der AMD CPU leiser arbeiten kann.founti schrieb:Natürlich ist der X3D eine wahnsinnig gute CPU … aber so schlecht wie oft dargestellt ist der Intel halt einfach nicht
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News 7800X3D vs. 13700K: Wie groß ist der Unterschied beim Verbrauch in Watt wirklich?
- Registriert
- Juli 2008
- Beiträge
- 1.127
Tatsächlich finde ich den Max-Verbrauch hier mal wichtiger, da ich ja sowohl Kühlleistung und Stromversorgung in meinem System darauf auslegen muss. Wie die Lage bei AM5 ist, kann ich nicht genau sagen, aber bei AM4 konnte man einen 5800X3D auf einem Billigboard betreiben. Die Idee gefällt mir, dass ich nicht in die Materialschlacht einsteigen muss. Kleineres Gehäuse und leiser PC inklusive. Für mich persönlich das wichtigste. Bei Intel bekommt man dann halt mit einfacheren Boards nicht die volle versprochene Leistung. Das find ich Schade.
Klar, die Lösung wäre gewesen, einfach auf 5% Leistung zu verzichten, aber dann wären die aktuellen AMD Lösungen ja auch (noch) schneller. AMD hätte das natürlich bei der aktuellen Generation (bis auf X3D) auch machen sollen.
Klar, die Lösung wäre gewesen, einfach auf 5% Leistung zu verzichten, aber dann wären die aktuellen AMD Lösungen ja auch (noch) schneller. AMD hätte das natürlich bei der aktuellen Generation (bis auf X3D) auch machen sollen.
Innocience
Lieutenant
- Registriert
- Okt. 2020
- Beiträge
- 626
Das wird nur passieren, wenn es notwendig ist. Allerdings sind einfache Optimierungen wie erstell und ließ Arrays in der richtige Reihenfolge aus, um Cachezugriffe zu begünstigen, gang und gebe.Mimir schrieb:Bis auf wenige Ausnahmen wird vermutlich kaum ein Entwickler den Aufwand betreiben.
Vitec
Commodore
- Registriert
- Okt. 2006
- Beiträge
- 4.920
Finde die Messung bei einem fixen FPS Limit zum Vergleich viel besser.
Ansonsten müsste man wieder umständlicher die FPS / Watt berechnen. Allerdings braucht man wohl auch immer eine Messung mit maximaler Leistung, vorallem Grakas, weil gewisse Architekturen evtl. effektiver werden, wenn mehr Last anliegt.
Aber Ansprüche der User sind halt unterschiedlich. Deshalb reicht vielen auch der boxed Lüfter.
sowas oder
CPU Limit in Games ist wohl eher die Ausnahme .
Glaube MS - FS ist hier ganz anspruchsvoll oder auch Starfield, aber ansonsten ?
Ansonsten müsste man wieder umständlicher die FPS / Watt berechnen. Allerdings braucht man wohl auch immer eine Messung mit maximaler Leistung, vorallem Grakas, weil gewisse Architekturen evtl. effektiver werden, wenn mehr Last anliegt.
Aber auch nur für einen geringen Teil der User, denn 100% Last ist selten .Selbst wenn ein Game 100% der CPU nutzt, bedeutet das noch nicht, dass 100% der Einheiten perfekt genutzt werden. Für mich erzeugt Handbrake die meiste Last mit nahezu 100% denselben Temps und Auslastung wie prime ohne AVX und kommt damit dem worst Case als Privater wohl am nächsten. Die Temps sind dabei an die 20° höher, als bei Gaminglast . Läuft allerdings nicht Stundenlang.MPQ schrieb:Tatsächlich finde ich den Max-Verbrauch hier mal wichtiger, da ich ja sowohl Kühlleistung und Stromversorgung in meinem System darauf auslegen muss.
Aber Ansprüche der User sind halt unterschiedlich. Deshalb reicht vielen auch der boxed Lüfter.
Axxid schrieb:Ja das ist eben wenn man Leistung im wenig gefordertem Bereich betrachtet. Ich bin mir sicher auf der Autobahn bei 120km/h braucht der Porsche auch relativ wenig Sprit.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Also für mich sorgen die Techniken dafür, dass die FPS höher ausfallen bzw. die Grafiksettings höher liegen können. ändert am vorhandenen GPU Limit kaum was. Und selbst für einen 4090 User ist die Technik nur als support , damit man RT nutzen kann aktuell, da hier noch immer viel zu wenig Leistung vorhanden ist.whigga schrieb:GPU Limit kannste mittlerweile aber echt gut mit DLSS und Freesync/Gsync abfedern. Wenn die CPU Bottlenecked ist das nicht so ansehnlich…
CPU Limit in Games ist wohl eher die Ausnahme .
Glaube MS - FS ist hier ganz anspruchsvoll oder auch Starfield, aber ansonsten ?
Zuletzt bearbeitet:
Twisterstift
Banned
- Registriert
- Feb. 2014
- Beiträge
- 265
Der Intel ist und bleibt ein Hitzopf und ein Fanboy Produkt. Objektiv ist der AMD überlegen.
whigga
Lt. Commander
- Registriert
- Jan. 2009
- Beiträge
- 1.451
GPU Limit kannste mittlerweile aber echt gut mit DLSS und Freesync/Gsync abfedern. Wenn die CPU bottlenecked ist das nicht so ansehnlich…Philste schrieb:Wieso? Du spielst permanent im CPU Limit? Bei mindestens 90% der Spieler sollte eigentlich eher die GPU limitieren.
Syrato
Rear Admiral
- Registriert
- Juni 2012
- Beiträge
- 5.844
Kommt halt auf die Ansicht an. Wenn du alle PCs nimmst, vermutlich ja, obwohl wir in der Firma keine PCs rumstehen haben.R O G E R schrieb:Da die meisten CPUs die meiste Zeit eh im Idle rumdümpeln sind die Intel leider attraktiver.
Ich weiß nicht warum es AMD mit dem AM5 CPUs nicht schafft. Der 5x00G war doch relativ sparsam. Auch im Idle.
Zuhause ist das bei mir und der Familie anders. Da laufen die Kisten fast nur zum zocken, für die kleinen Aufgaben gibts den Laptop oder das Smartphone. Die Kinder haben ehe einen für die Schule und ist auch praktisch für Unterwegs. Aber dss muss man halt lernen, dass man den Computer runterfährt, wenn man mal kurz zum Sport geht oder so. 1 Minute hochfahren ist ja nichts...
Aladan
Cadet 4th Year
- Registriert
- Jan. 2023
- Beiträge
- 90
Ja, ich wünschte ich hätte mal wieder ein GPU Limit. Wenn ich an meine letzten Spiele denke bin ich immer am CPU Limit, z. B. Hogwarts Legacy, Jedi Survivor, Starfield, Immortals of Aveum, Total War Warhammer 3, Forspoken, Darktide oder Gotham Knights.whigga schrieb:GPU Limit kannste mittlerweile aber echt gut mit DLSS und Freesync/Gsync abfedern. Wenn die CPU bottlenecked ist das nicht so ansehnlich…
- Registriert
- Aug. 2005
- Beiträge
- 493
Niemand hindert Intel daran, was alle (großen) Unternehmen haben: Gründung einer Marketing Abteilung.DavidG schrieb:Der Core ist die rundere CPU, die in den meisten Fällen schneller und sparsamer ist. Obwohl die Fertigung schlechter ist, kann Intel durch bessere Architektur AMD wieder übertrumpfen. Nur im Marketing bleibt Goliath AMD spitze.
Das Intel, laut deiner Aussage, darau verzichtet,kann man AMD nicht zur Last legen
Ansonsten schöner Test. Für mich persönlich hat sich das Thema Idle, Youtube und Co relativ erledigt, da am Gaming Rechner zu 99% gzockt wird und 1% für (Windows)Updates drauf gehen. Für alles andere gabe ich ein aktuelles Macbook Pro mit Apple Silicon. Extrem schnell, flüssig und absurd sparsam.
Noch etwas Intel hätte die CPUs statt mit drölfzillionen Watt auf z.B. 140W beschränken können. Aber dann würde man halt den ein oder anderen Benchmark möglicherweise knapp verlieren und weltweit gilt immer noch Performance / Balken > Effizienz. Und das sogar sehr deutlich.
- Registriert
- Sep. 2008
- Beiträge
- 15.391
...oder man nimmt den i5 13600K, der bei vielen Games auch noch schneller als der 7800X3D ist, aber generell sparsamer und somit den großen Energiehunger des i7 nicht hat.
Aber Achtung, warm wird er schon um nicht zu sagen heiß........
Aber Achtung, warm wird er schon um nicht zu sagen heiß........
St3ppenWoLF
Commander
- Registriert
- Sep. 2013
- Beiträge
- 2.921
Warum muss ich jetzt automatisch an #MassiveHochfrequenzkerne denken? 👀
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
Das hängt vom Spiel ab.Mimir schrieb:Sich zu wünschen, dass Spiele besonders Stark vom 3D Cache profitieren ist also eigentlich genau das was man sich NICHT wünschen sollte, weil es eben keinen Sinn ergibt.
Es existieren eben Spiele und Anwendungen die brauchen den Cache (Simulationen), weil eben mehr vorzuhalten ist als ein "Shooter Schlauchlevel mit 10 Gegnern".
Manche Spiele müssen hunderttausende Variablen vorhalten da diese trotz Optimierung eben laufend gebraucht werden.
Warum sollte der Cache da also schlecht sein? Warum sollte man Hardware die da ist nicht nutzen und stattdessen Daten aus dem langsamen RAM transportieren, was vielfach mehr Energie benötigt?
Das ergibt keinen Sinn.
Selbst Spiele ohne expliziten Cache Hunger sollten effizienter laufen, wenn diese den Cache nutzen würden.
Ich blocke ja nur sehr selten jemanden, da es in einem Diskusionsforum sonst den geblockten erlaubt weiterhin Quatsch zu verbreiten.Flaimbot schrieb:ich glaube ich weiß jetzt wer der autor fürULoserbenchmark ist. oder war das ne copypasta von da? poe's law.
Aber bei diesem Member habe ich eine Ausnahme gemacht.
Selbst komplett uninformierte sollten hier aber erkennen das er einfach nur Unsinn schreibt und daher ist jeglicher Kontakt mit Ihm unnötig. Man muss niemanden vor Ihm mehr warnen.
- Registriert
- Juli 2021
- Beiträge
- 2.805
@Pizza!
Danke für den tollen Test! Darf ich ein wenig Kritik üben? Geht mir rein um Formalien und mache ich auch nur, wenn du magst.
Ansonsten zur Diskussion:
Natürlich macht man das nicht immer - ich schreibe ja auch am Hauptrechner. Es ist aber oft die bessere Alternative.
Zen4 kann bei den "großen" Ryzen nicht so fein granuliert gesteuert werden, was die Spannungen und Co angeht, wie die APUs. Dazu kommt, dass man mit verschiedenen Einstellungen von RAM-OC und Co sehr viel "falsch" machen kann an den Mainboards und der IF zum Beispiel ab gewissen Punkten vollständig und dauerhaft den maximalen Takt fährt.
AMD benötigt immer noch sehr viel Feintuning in den Mainboards, dazu kommt, dass aktuell die meisten Mainboards für die AMD-CPUs sehr "gut" ausgestattet sind. Dazu muss man auch in Windows Hand anlegen, das macht Linux teilweise deutlich besser.
Denn die teilweise maximal 500 m zum Bäcker, Supermarkt und Co tun weder dem Kleinwagen - und Golf ist kein Kleinwagen - noch dem SUV gut und sorgen dafür, dass das Gerät wesentlich schneller altert, als einem lieb ist.
https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/6/
https://www.computerbase.de/2018-04/amd-ryzen-2000-test/5/#abschnitt_leistungsaufnahme
https://www.computerbase.de/2019-07..._leistungsaufnahme_im_leerlauf_und_unter_last
AMD ist das Problem bei Zen3+ angegangen bei der APU, im Desktop-Segment merkt man aber sehr deutlich, dass AMD hier auch die "Server-Plattform" verwertet. Im Serverbereich ist "Idle" quasi kein wirkliches Wort, weil man immer relativ konstante Grundlasten hat. Entsprechend kann man sich "Schaltungen" für bestimmte Aktionen im Bereich der Spannungsverwaltung und Co auch sparen und die Komplexität runter schrauben und das merkt man bei Ryzen für den Desktop stark.
Es ist keine Unmöglichkeit sowohl die CCD als auch den IOD auch so zu designen, dass man weitere Stromsparmechanismen und Co implementiert und feiner granuliert. Das kostet alles aber Transistoren.
Zumal in Haushalten, in denen man einen ausgewachsenen Desktop-PC sitzen hat, heute auch oft entsprechende Laptops und Co vorhanden sind, weil die Menschen auch mobil sein wollen.
Sobald man aber mit wenigen Threads auskommt und Co, kann der Vorteil des Caches verpuffen, weil man mit intelligentem Prefetching und Co quasi alles abfangen kann.
Im SoHo-Bereich ist der entscheidende Faktor der Mensch: Du kannst im SoHo-Bereich heute keinen Rechner wirklich an das Limit treiben, da du als Mensch viel zu langsam bist.
Hier wird RaptorLake eher zum Verhängnis, dass die Board-Hersteller die 125 W aushebeln und quasi nur PL2 als Dauerlast ansetzten.
Danke für den tollen Test! Darf ich ein wenig Kritik üben? Geht mir rein um Formalien und mache ich auch nur, wenn du magst.
Ansonsten zur Diskussion:
Ganz ehrlich, wenn es dir primär um Multimedia geht - YouTube, Filme, Office, Browsen - dann solltest du allgemein überlegen, ob ein ausgewachsener Desktop-PC für dich die richtige Wahl ist. Hier bring hier immer als Beispiel mein iPad Pro an, dass an der Steckdose die meisten Aufgaben mit 4 - 5 W erledigt und in den seltensten Fällen auf über 10 W geht.Deimonos schrieb:Heißt das wer mehr Multimedia am PC schaut als zockt, sprich Youtube / Filme / Office-Desktop ist mit Intel besser beraten ?
Das ist in diesem Fall oft die klügere Wahl, vor allem wenn man bedenkt, dass auch im Web quasi der Mobile-First-Ansatz vorherrscht.Deimonos schrieb:Oder gleich einen Laptop/Tablet nehmen um Strom zu sparen.
Natürlich macht man das nicht immer - ich schreibe ja auch am Hauptrechner. Es ist aber oft die bessere Alternative.
Der höhere Verbrauch von AMD liegt in dem Fall an vielen Stellen. AMD ist diese Probleme bei den APUs (Zen3+) angegangen, aber nicht im Desktop-Bereich.Intenso84 schrieb:Der höhere Idle-Verbrauch bei AMD liegt doch wahrscheinlich daran das der Mainboard-Chipsatz mehr säuft als der von INTEL und nicht unbedingt an der CPU?
Zen4 kann bei den "großen" Ryzen nicht so fein granuliert gesteuert werden, was die Spannungen und Co angeht, wie die APUs. Dazu kommt, dass man mit verschiedenen Einstellungen von RAM-OC und Co sehr viel "falsch" machen kann an den Mainboards und der IF zum Beispiel ab gewissen Punkten vollständig und dauerhaft den maximalen Takt fährt.
AMD benötigt immer noch sehr viel Feintuning in den Mainboards, dazu kommt, dass aktuell die meisten Mainboards für die AMD-CPUs sehr "gut" ausgestattet sind. Dazu muss man auch in Windows Hand anlegen, das macht Linux teilweise deutlich besser.
Man sollte sich bei dem Bäcker ohnehin eher die Frage stellen, warum man überhaupt zu ihm fährt und nicht mal die 5 - 10 Minuten zu Fuß geht.Ben_computer_Ba schrieb:Beispiel beim Bäcker, wenn man schon einen suv hat, soll man sich dann noch einen Kleinwagen (z.b. Golf, Fiat 500 etc) kaufen, nur um zum bäcker zu fahren? Ich denke nicht.
Denn die teilweise maximal 500 m zum Bäcker, Supermarkt und Co tun weder dem Kleinwagen - und Golf ist kein Kleinwagen - noch dem SUV gut und sorgen dafür, dass das Gerät wesentlich schneller altert, als einem lieb ist.
Ja und Nein. Der Chiplet-Ansatz und auch der VCache sind natürlich nicht ganz "unschuldig". Allgemein hat aber AMD im Bereich Teillast und Idle im Bereich der Desktop-Prozessoren nicht so viel getan:Draco Nobilis schrieb:Ergibt wegen der Chiplets auch Sinn. Vgl. Richtung Monolithen aus AMDs Notebooksegment machen es noch deutlicher.
https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/6/
https://www.computerbase.de/2018-04/amd-ryzen-2000-test/5/#abschnitt_leistungsaufnahme
https://www.computerbase.de/2019-07..._leistungsaufnahme_im_leerlauf_und_unter_last
AMD ist das Problem bei Zen3+ angegangen bei der APU, im Desktop-Segment merkt man aber sehr deutlich, dass AMD hier auch die "Server-Plattform" verwertet. Im Serverbereich ist "Idle" quasi kein wirkliches Wort, weil man immer relativ konstante Grundlasten hat. Entsprechend kann man sich "Schaltungen" für bestimmte Aktionen im Bereich der Spannungsverwaltung und Co auch sparen und die Komplexität runter schrauben und das merkt man bei Ryzen für den Desktop stark.
Es ist keine Unmöglichkeit sowohl die CCD als auch den IOD auch so zu designen, dass man weitere Stromsparmechanismen und Co implementiert und feiner granuliert. Das kostet alles aber Transistoren.
Ist aber nur bedingt ein gutes Beispiel. Allgemein sind "Autovergleiche" in so einem Fall massiv angreifbar und lassen können schnell in alle Richtungen gedreht werden.Tanzmusikus schrieb:Lies den Beitrag über dir ... und #21 (unterer Teil). 😉
Was man durchaus auch verstehen kann. Gleichzeitig muss man sich dann aber auch die Frage stellen, wo man auch bereit ist Abstriche zu machen. Eine Desktopplattform kann - weder von Intel und noch etwas weniger von AMD - YouTube, Netflix und viele Homeoffice-Aufgaben wirklich so effizient angehen, wie es ein Laptop kann, den man an einen Monitor anschließt.till69 schrieb:Weil es Menschen gibt, die mit einem PC alles abdecken möchten.
Zumal in Haushalten, in denen man einen ausgewachsenen Desktop-PC sitzen hat, heute auch oft entsprechende Laptops und Co vorhanden sind, weil die Menschen auch mobil sein wollen.
Jaein, das Spiel muss den 3D-Cache nicht mögen, das Spiel muss eher die richtigen Arbeitslasten erzeugen. Es müssen viele Daten ausgetauscht werden zwischen den Threads und ebenso auch zwischen dem RAM, dann kann der 3D-Cache ausgespielt werden.Caramelito schrieb:Das Game muss 3D Cache mögen, dann geht's ab wie ne Rakete. Ansonsten immer Vorteil Intel.
Sobald man aber mit wenigen Threads auskommt und Co, kann der Vorteil des Caches verpuffen, weil man mit intelligentem Prefetching und Co quasi alles abfangen kann.
Jain, in dem Fall muss man eher aus der Sicht des Computeres auf diese Aufgaben blicken: Video - also YouTube, Netflix und Co - als auch SoHo sind heute für einen Computer keine wirklichen Aufgaben mehr und benötigen auch nicht viele Ressourcen. Man befindet sich heute in diesen Bereichen also wirklich - für den Rechner - nahe dem Bereich des Nichtstuns.till69 schrieb:HomeOffice und Video ist nicht "nichtstun":
Im SoHo-Bereich ist der entscheidende Faktor der Mensch: Du kannst im SoHo-Bereich heute keinen Rechner wirklich an das Limit treiben, da du als Mensch viel zu langsam bist.
UEFI auf machen, Power-Limit auf 125 W festnageln, und schon läuft jeder RaptorLake sehr effizient und steht einem Zen 4 nicht wirklich nach.ArrakisSand schrieb:Intel user sind momentan anscheinend dazu verdammt, nichts oder sehr wenig zu machen weil sonst brennt es in der Bude, aber so richtig, wenn einmal aus versehen doch alle Kerne anspringen.
Hier wird RaptorLake eher zum Verhängnis, dass die Board-Hersteller die 125 W aushebeln und quasi nur PL2 als Dauerlast ansetzten.
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
Das ist natürlich auch ein Punkt, danke.DevPandi schrieb:AMD hier auch die "Server-Plattform" verwertet. Im Serverbereich ist "Idle" quasi kein wirkliches Wort, weil man immer relativ konstante Grundlasten hat. Entsprechend kann man sich "Schaltungen" für bestimmte Aktionen im Bereich der Spannungsverwaltung und Co auch sparen und die Komplexität runter schrauben und das merkt man bei Ryzen für den Desktop stark.
AMD CPUs im Desktop sind prinzipiell von "oben herab" designt, also Serverbereich.
Habe nur den Punkt der Chiplets betrachtet, das man sich aber womöglich dann auch die eine oder andere Funktion in Hardware erspart, ist vorstellbar.
Nicht außer Acht lassen darf man aber auch nicht die gesamte Plattform.
Da hat Intel manchmal Vorteile.
Wenn man Intel Ethernet und Wifi Hardware nutzt sowie Thunderbolt und XMP Profile ja dann spart Intel noch einige Watt mehr vgl zu AMD.
Ist das Ironie oder Ignoranz? 🤔DavidG schrieb:Der Core ist die rundere CPU, die in den meisten Fällen schneller und sparsamer ist. Obwohl die Fertigung schlechter ist, kann Intel durch bessere Architektur AMD wieder übertrumpfen. Nur im Marketing bleibt Goliath AMD spitze.
Chilisidian
Lt. Commander
- Registriert
- Dez. 2019
- Beiträge
- 1.721
Vitec schrieb:Also für mich sorgen die Techniken dafür, dass die FPS höher ausfallen bzw. die Grafiksettings höher liegen können. ändert am vorhandenen GPU Limit kaum was. Und selbst für einen 4090 User ist die Technik nur als support , damit man RT nutzen kann aktuell, da hier noch immer viel zu wenig Leistung vorhanden ist.
CPU Limit in Games ist wohl eher die Ausnahme .
Glaube MS - FS ist hier ganz anspruchsvoll oder auch Starfield, aber ansonsten ?
Starfield ist auch bei mir klar im GPU Limit. Braucht man sich ja nur mal die Auslastung anschauen, GPU 99%, CPU 20-30%. Wobei das für die CPU schon viel ist, die dreht durchaus ganz schön auf. Bei den meisten anderen Spielen ist die CPU Last bei mir um 10%. Andere ähnliche Beispiele: Phantom Liberty und Jedi Survivor.
Klassisches CPU Limit eher bei grafisch weniger aufwändigen Spielen mit vielen OPS für KI etc. Skylines 2 könnte so ein Kandidat werden. Oder Anno mit einer sehr großen Population.
Caramelito
Admiral
- Registriert
- Juni 2016
- Beiträge
- 8.847
Klar bist du im GPU Limit mit nem 13900k - Habe den nun auch hier, vormals ein 13600k - Da ging die GPU gerne auf 80-85% Last in New Atlantis runter zB.
Und der 13600k ist eine der schnellsten CPUs in Starfield.
Und der 13600k ist eine der schnellsten CPUs in Starfield.
Ähnliche Themen
- Antworten
- 176
- Aufrufe
- 30.948