Test AMD Ryzen vs. Intel Core im Test: Gaming-Benchmarks mit Windows 11 24H2 & BIOS-Updates

CadillacFan77 schrieb:
Mein Desktop läuft zu 95% nur dann, wenn ich zocke. Für leichte Aufgaben
Glückwunsch zu deiner Spielekonsole ...ähm.. deinem Desktop-Computer.
Ich mache mit dem Computer mehr als nur zocken, ist ja schließlich auch ein Desktop. Und das meiste davon im Teillastbereich.
Die Ineffizienz in Teillast betrifft aber sowieso nicht nur die X3Ds und Gamer, sondern generell alle Zen5 CPUs.
 
KurzGedacht schrieb:
So ganz grob geschätzt. Was glaubst du wie viel % der Nutzer eines Gaming PCs kein Smartphone haben?
Ein Smartphone kann natürlich auch im Internet surfen. Ich glaube aber die Nutzererfahrung unterscheidet sich, als wenn man vor einem ordentlichen Monitor sitzt, oder nicht?
Oder schaust du deine Filme auch am Smartphone? Nur weil man potenziell Geräte besitzt die das "auch können", bedeutet es nicht, dass das angenehm ist.

Da brauche ich dann schon einen sparsamen "Mini PC" oder Notebook um ordentlich davor zu schreiben.
Und den anzuschaffen um bisschen Strom zu sparen, rechnet sich nicht.
Ergänzung ()

thom_cat schrieb:
das eine hat mit dem anderen aber nichts zu tun.
es gibt genauso viel auf dem markt was nicht sparsam ist.
daher ist es erstmal deine anforderung.
Was heißt meine Anforderung. Es ist halt eine Metrik von mehreren.
Und ich denke doch, dass jeder ein sparsames System will und das nicht nur in Situation XY sondern generell.
Wenn es ansonsten Parität zwischen den Produkten gibt und das eine ist im Bereich Idle/Niedriglast besser, dann er eher das nehmen.
thom_cat schrieb:
halte ich für vermessen das anzunehmen.
wenn du recht hättest, würde auch der 7800x3D wie blei in den regalen liegen.
ist aber nicht so, daher haben viele andere offensichtlich nicht deine erwartungen.
Diese Verbindung sehe ich nicht. Idle/Teillast/Niedriglast ist ja nicht alles.
Man kann halt nicht alles haben, wenn man ein System zusammenstellt. Deshalb glaube ich auch nicht, dass "Gaming PCs" eingeschaltet werden um wie mit einer Konsole sofort loszuzocken, wie das manchmal von Leuten behauptet wird, die sich darüber aufregen, dass auch der Idle-Verbrauch auch als Metrik diskutiert wird.
thom_cat schrieb:
auch hier wieder: deine anforderungen!
ich finde es gut, aber ich teile es nicht.
ein gerät hat unterschiedlichste anforderungen zu erfüllen, eine davon ist natürlich auch der verbrach bzw. die effizienz.
Was hast du mit "deine Anforderung". Was ist denn deine Anforderung? Verbrauche möglichst viel bei Word, Teams und Youtube? Ich verstehe deine Intention nicht.
thom_cat schrieb:
alles gehört natürlich dort hinein und keine einzelne komponente kann hier speziell rausgegriffen werden.
Klar, du kannst die package power mit Software auslesen und die verrät dir wie sparsam die CPU als isolierte Komponente ist und da sind die aktuellen Ryzens eben nicht besonders sparsam, zumindest sehe ich das an den Messgeräten bei meiner beruflichen Tätigkeit und zwar durch die Bank. Und da ist auch nicht das Mainboard schuld oder sonst wer, sondern einfach AMD selber. Wenn dir diese Kritik nicht gefällt, dann ist das nicht mein Problem. Der 5800X3D kann es ja.
thom_cat schrieb:
sonst hätten wir in umfragen hier eine gänzlich andere verteilung der hardware.
Warum, die X3D CPUs sind gerade wegen der guten Effizienz für Gaming ganz weit vorne.
Vor allem der 5800X3D, die Verteilung der Hardware passt gut.
 
Zuletzt bearbeitet:
Ihr immer mit euren ewig gleichen unsinnigen Verbrauchsdiskussionen.....
Das Intel im Leerlauf (!) deutlich weniger aufnimmt ist ja nix neues.
idle.jpg
Die Frage ist nur, wer schaut sich stundenlang sein Desktopwallpaper an.
Alle installierten Programme dabei natürlich geschlossen, und auch nicht so Dinge wie Druckerstatusmonitor, Up/Download Geschwindigkeitsanzeige usw. in der Systray am laufen, und auch sonst keine Hintergrunddienste die von installierten Treibern/Programmen stammen die irgend eine Grundlast erzeugen könnten.
Diese Idle-Messungen kommen, und das nicht nur bei CB, durch die Bank von Systeminstallationen die es so in der Realität kaum geben dürfte, aber sind natürlich ganz nett um Banaldiskussionen in den Foren zu fördern.
Das ist alles der selbe Nonsens wie Verbrauchswerte von Fahrzeugen in Herstellerprospekten (oder Reichweitenangaben bei E-Autos)
Zudem schwanken CPUs auch schon aufgrund ihrer Chipgüte in Verbrauchswerten.
10 CPUs des selben Modells werden immer auch unterschiedliche Werte aufweisen.
Im Schnitt wirds wohl verbrauchstechnisch bei den meisten mit Internet, Office, Multimedia, Workload, Gaming auf etwa das selbe rauslaufen; egal ob Intel oder AMD.
Ein Unterschied ists halt ob ich zB beim zocken 80W wegkühlen muss oder 170; vor allem im Sommer.
Im Winter könnt man ja noch sagen: Ok, ich muss weniger heizen... :rolleyes:
Mal sehen wo sich die Core Ultra dann einorden. Sollten ja, was dringend nötig war, durchaus unter Last wesentlich effizienter werden. Wird spannend die nächsten 2 Wochen.
Auch wenn ich persönlich zwecks Aufrüsten von meiner 6700XT ja eher auf neue GPUs warte.
CPU und RAM technisch bin ich die nächsten paar Jahre noch versorgt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne, Volvo480, alkaAdeluxx und 3 andere
gustlegga schrieb:
Das Intel im Leerlauf (!) deutlich weniger aufnimmt ist ja nix neues
Bei Niedriglast wie Office/Youtube oder mit Hintergrunddiensten ist der Unterschied nochmals größer ;)

gustlegga schrieb:
Ein Unterschied ists halt ob ich zB beim zocken 80W wegkühlen muss oder 170
In der Realität/Praxis sind es selten 90W
 
TheElvis schrieb:
Beispiel Frostpunk 2:
Max 64,4 fps

Im damaligen Testbericht (mit höherer Auflösung):
102,6 fps

Ist der dort verwendete 7950X3D wirklich 50% schneller? Dann sollte der doch hier auch auftauchen
Oder gibt es woanders einen Fehler? Haben Updates das spiel so geschrottet?
nein sicherlich nicht, aber genau da liegt der fehler bei den CPU tests, es wird alle last von der GPU genommen, sprich DLSS auf Performance und eventuell gar noch die details runter geschraubt nur um zu zeigen was die CPU leisten kann.
Das interessiert aber eben nicht denn man will ein Game ja mit den best möglichen details spielen.
aber gutes beispiel was Du gefunden hast, die CPU allein packt gerade mal 64fps ohne gpu limit mit GPU limit sowie bestmöglichen details und DLSS Quality packt genau 0,1fps weniger in 4k wohlgemerkt !!!

deswegen gehören die CPUs auch in Ultra quality ohne DLSS/FSR oder TAA getestet, das man damit die Frames aufbessern kann weis wohl eh jeder nur will ich ja sehen welches die schnellste CPU in dem getestetem Game mit max details ist und nicht welche es ist wenn ich alles ausschalte und am ende dennoch 50% langsamer bin wie mit GPU limit was es nun einmal gibt in einem game früher in dem anderen später
 
LencoX2 schrieb:
Fuer Gaming führt kein Weg an X3D vorbei: Die Effizienz bei höchsten FPS ist unerreichbar fuer andere CPUs.

Mein 7800X3D wird gekühlt von einem 15€ Low Budget Kühler, den ich übergangsweise drauf geschnallt hatte. Dabei ist es dann geblieben. Leise und kühl, besser gehts nicht.

Bei 14700K oder 14900 braucht man nochmal 100€ fuer einen High End Kühler.
Und dann wahrscheinlich auch 100€ oder mehr fuer ein stärkeres Netzteil.

Dieser Aspekt kommt in den Vergleichen nie so richtig zur Sprache.
Ganz davon zu schweigen, dass die 200-250 Watt das Gehäuse stark aufheizen.
Ganz so extrem würde ich es nicht sehen. Es wird ja nur im CPU-Limit getestet.

Ich habe jetzt den 9700x gekauft, der gerade 350 Euro kostet, der 7800x3D 480 Euro. Da darf man dann schonmal nachdenken, ob im GPU Limit, die wenigen FPS, die der X3D mehr macht den Aufpreis wert sind.
 
gustlegga schrieb:
Da sagt die Tabelle hier im Artikel halt was anderes....
Die muss man halt auch verstehen, genau wie "Praxis" ;)
720p ohne FPS Limit mit einer 4090:

Mit 720p zockt (kaum) kein Mensch
Ohne FPS Limit ist bei Gsync/Freesync nicht besonders schlau.
4090 haben die wenigsten
 
@till69 die Teillastgap bei den AMD zu den Intel Prozessoren kompensieren beim zocken trotz alledem nicht den exorbitanten Stromverbrauch der Intel K-Prozessoren out of the Box mit bis zu 100W gegenüber dem 7800X3D und sogar fast 140W beim 14900K

https://www.pcgameshardware.de/Core...14600K-UVP-Release-Benchmark-Specs-1431342/3/

und selbst bei nem 65W TDP 14600 liegen da noch über 30W dazwischen, da sind die 20W im Idle oder Teillastbetrieb recht verschmerzbar und gleichen sich zumindest bei den non K CPU's wieder aus, mal schauen wie es Intel nun bei den Arrow-Lakes hinbekommt

https://www.pcgameshardware.de/Core...2400f-14500-14600-Benchmark-Review-1444317/3/

solltest langsam mal aufhören darauf rumm zu reiten Kollege, solang Intel da entsprechend weit abgeschlagen unter Volllast liegt
Ergänzung ()

und sieht übrigens bei Computerbase nicht viel anders aus: https://www.computerbase.de/artikel...89527/#abschnitt_leistungsaufnahme_in_spielen
 
  • Gefällt mir
Reaktionen: Redundanz und danyundsahne
Verak Drezzt schrieb:
solang Intel da entsprechend weit abgeschlagen unter Volllast liegt
Da wird dann der Volllast-Jahresanteil interessant, ich bezweifle dass da viele auf 50% kommen. Und wer nicht nur zockt schafft wahrscheinlich nicht mal 25% Volllast.
 
@till69 also bei mir dient der Desktop entsprechend für's zocken und läuft jeden Tag mehrere Stunden dabei, als dass ich ihn im Idle oder Office Betrieb nutze, denke dass wird hier auf dem Board beim Großteil genauso sein

aber ich bin auch nicht von dem Problem betroffen aufgrund meiner Kenntnis im IT-Bereich, wie so viele andere hier auf dem Board, die entsprechend einen Intel Prozessor dann mit geringeren Verbrauch, bei kaum Verlust der Leistung, betreiben

aber bei otto-normal Nutzer sieht es halt dann doch anders aus, hätte mir auch wieder ne Intel Plattform wie zuvor mit meinem 10700 im August gekauft gehabt, wenn es den i7 um die 350€ und mit entsprechender Aufrüstbarkeit gegeben hätte

aber du musst dir doch bitte mal eingestehen das Intel dahingehend unter Vollast einfach kein Land sieht gegenüber AMD, solang man nicht selbst Hand anlegt an der Vcore und den Powerlimits, also ich empfehle keinem hier in der Kaufberatung mehr einen Intel, solang der Fokus auf's gamen oder anderen stromhungrigen Anwendungen liegt, wenn dieser keine Ahnung davon hat diese im Verbrauch zu zügeln

und ich bezweifle auch dass es bei Arrow-Lake anders sein wird mit ihren weiterhin bis zu 250W im PL2 Betrieb, mal schauen wie sie beim zocken abschneiden werden und ein 265K ggf. mal unter 100W out oft the box kommt und selbst da isser dann noch keine Empfehlung wert
 
Verak Drezzt schrieb:
aber du musst dir doch bitte mal eingestehen das Intel dahingehend unter Vollast einfach kein Land sieht gegenüber AMD
Das ist richtig, genauso sieht Zen4 im Teillastbereich kein Land. Und der Durchschnitt ergibt das, was man am Schluss bezahlt. Je nach Usecase ein paar € in die eine oder andere Richtung.

Verak Drezzt schrieb:
wenn dieser keine Ahnung davon hat diese im Verbrauch zu zügeln
Wer XMP/EXPO aktivieren oder eine Lüfterkurve basteln kann, schafft in der Regel auch PL1/PL2 zu setzen.
 
Quidproquo77 schrieb:
Sollte man mal eine Umfrage starten, aber ich denke da bist du schon die absolute Ausnahme, denn mehrere Geräte für die gleiche Aufgabe anschaffen lohnt sich finanziell nicht. Außer man hat eh ein Tablet oder Smartphone.
Naja, ein Notebook hat man doch sehr schnell mal nebenbei. Das deckt ja andere Bedürfnisse ab, was ein PC nicht kann. Für Urlaub oder andere Reisen oder schlicht und einfach vom Arbeitgeber. So selten dürfte die Kombination nicht sein, ich würde sogar sagen, dass die meisten PC-User NUR ein Notebook haben und keinen Desktop. Zumindest kenne ich nur 2 andere Leute mit Desktop (meine Eltern, 70J+ und @ThirdLife als PC Enthusiast, wobei der auch Notebook(s) hat)

Die Desktop-only Fraktion dürfte sehr klein sein.

Quidproquo77 schrieb:
Ein Allzweckwerkzeug wie ein Gaming/Arbeitsrechner kann halt alles bzw. sollte alles halbwegs effizient können. Und gerade wenn man nicht viel macht sollte das Gerät an der Steckdose nicht mehr als 30 bis 50W ziehen.
Das stimmt natürlich trotzdem. Dennoch ist der "Idle" Verbrauch als Pro-Argument für Intel einfach hanebüchen, weil sobald etwas Last anliegt dieser Faktor um Welten grösser ist. Ob jetzt 35W oder 25W macht kaum was aus, sind 10W aber immerhin fast 50% mehr im Idle. Unter last reden wir aber von 50W+ Differenz, was locker kompensiert.

NIGHTFIL schrieb:
Glückwunsch zu deiner Spielekonsole ...ähm.. deinem Desktop-Computer.
Ich mache mit dem Computer mehr als nur zocken, ist ja schließlich auch ein Desktop.
Klar ich auch. Aber eigentlich nur Dinge, die entsprechend Leistung erfordern und auch abrufen. Für Niedriglast Aufgaben gibts eben das Notebook - nötigenfalls "gedockt" an USB-C am externen Monitor und KVM für Eingabegeräte.
Das Notebook habe ich sowieso für die Arbeit und wenn ich mal unterwegs bin.

Wie gesagt, bissl schizophren zu sagen, Intels sind soooo gut im Idle weil sie 10W weniger brauchen, gleichzeitig aber trotzdem einen vollen Desktop mit Pipapo ausfahren - am Besten noch mit nem 42" UHD 160Hz Bildschirm der alleine dann 50W säuft um bissl Word zu machen, wenn das ein Notebook mit ~10W erledigt inkl. Bildschirm.
Oder anders gesagt, es ist ein Strohmannargument.
 
  • Gefällt mir
Reaktionen: Redundanz
@till69 siehst ja am 14600 Ergebnis, selbst da liegen noch 30W Unterschied dazwischen und ich kenne kaum jemanden der ne K CPU auf 65W TDP beschränkt, davon mal ab, kannsde dir drehen wie du lusdich bist, aber Intel verbraucht unter Volllast einfach zu viel im Vergleich zur Leistung der AMD CPU's

kannst dich gern hier weiter mit den Leutz jeden Tag im Kreis drehen und entsprechend argumentieren, aber objektiv betrachtet sieht Intel einfach kein Land und werden ja morgen sehen ob sie es mit Arrow-Lake hinbekommen werden, ich bezweifle es
Ergänzung ()

@till69 und von der Leistung mal ganz abgesehen, wieso sollte man einen 265K für über 400€ empfehlen, wenn dieser nicht mal an einen 7800X3D ran kommt und man für 100€ mehr nen 20-30% schnelleren 9800X3D bekommt, wird echt schwer für Intel

edit
davon ab holt sich keiner nen 265K, 14700K oder nen 7800X3D bzw. nen 9800X3D damit er im Office Betrieb rumm idle'n kann...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne und bad_sign
Icke-ffm schrieb:
ja nur was passiert wenn man der GPU alles abnimmt sieht man an Horizon Forbidden West, das sehr gut bis 8 Kerne und Takt Skaliert, vom 3d aber nur im CPU limit Profetiert, sobald es ins GPU limit geht bringt der nichts mehr
CB test alt 9600x 15% vor dem 5800x3d neu liegt der Opa auf einmal 2% vorn, geht nur mit reduzierten details bzw DLSS
Eine CPU kann nur im CPU Limit mehr Leistung zeigen, keine Ahnung warum du hier so komisch zwischen verschiedenen Faktoren trennst, mit denen die CPUs „nur im CPU Limit profitieren“.
Wenn die GPU limitiert gibt’s keine Mehrleistung auf der CPU Seite, egal durch was. Auch mehr Kerne oder mehr Takt bringen nur was im CPU Limit.


In Forbidden West hatte man 13%+ durch das Update für den 9700X raus bekommen.

Im Test mit dem 5800X3D hat man gar nichts mit dem Update an Leistung dazu bekommen(was aber nicht am fehlenden CPU Limit lag, denn HVCI Off hat dafür in Verbindung mit dem Update auch bei ihm 10% gebracht).


Warum der 5800X3D nun so viel weiter oben steht als im vorherigen Test, obwohl sich der Vorsprung der 9000er hier mit dem 24H2 eigentlich noch um mindestens 10% hätte vergrößern müssen, ist eher eine Anomalie, die man mal überprüfen sollte, zumindest wenn die gleiche Testszene verwendet wurde.

Der 7800X3D war im Alten Test z.B. 30% vor dem 5800X3D.
Hier sind es jetzt im gleichen Spiel nur noch 19% Unterschied, irgendwas hat den 5800X3D also im Alten Test ausgebremst.
An einem GPU Limit lags auf jeden Fall nicht, denn sonst hätte der 7800X3D generell nicht schneller sein können als der 5800X3D.
 
Zuletzt bearbeitet:
Verak Drezzt schrieb:
davon ab holt sich keiner nen 265K, 14700K oder nen 7800X3D bzw. nen 9800X3D damit er im Office Betrieb rumm idle'n kann...
Soll man sich jetzt nen 2. Rechner anschaffen wenn man eine Stunde spielt und 4 Stunden Office macht?
Da hab ich doch lieber nen PC der beides gut macht.
Ich werd bei mir demnächst auch mal schauen was so mit nem 5600er RAM geht beim Verbrauch auf dem Desktop.
Der Unterschied zu den jetzigen 6000 dürfte sich im Gaming stark in Grenzen halten, aber auf dem Desktop könnten das gut und gerne 50% weniger sein
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
Verak Drezzt schrieb:
aber Intel verbraucht unter Volllast einfach zu viel im Vergleich zur Leistung der AMD CPU's
Ist genauso relevant wie ausschließlich auf den Verbrauch eines Autos bei 250km/h zu schauen.
 
CadillacFan77 schrieb:
Naja, ein Notebook hat man doch sehr schnell mal nebenbei.
Klar, aber ich wechsel ja nicht aufs Notebook wenn ich erst eine halbe Stunde zocke und danach noch eine Stunde YouTube schaue und nebenher surfe oder was schreibe. Jedes Gerät hat halt seine Vor und Nachteile und wenn das Desktop System auch für kleine Arbeiten effizient ist, wozu dann etwas anderes anschaffen.
CadillacFan77 schrieb:
Dennoch ist der "Idle" Verbrauch als Pro-Argument für Intel einfach hanebüchen...
Was heißt Pro-Argument für Intel, wäre ja auch ein Pro Argument für den 5800X3D, bzw. das System. Sieht man ja hier deutlich. 58 vs 81, bzw 88 Watt in der Spitze. Das sind 50% mehr.

Wie viel Unterschied da besteht merke ich jedes mal wenn ich mehrere Systeme parallel aufsetze. Ryzen 7000 und 9000 Systeme schlucken in Relation in dieser Metrik deutlich mehr, ob da kurz die Last (Installation) beim 5800X3D/13900F hochgeht oder nicht, spielt in the long term keine Rolle. Systeme mit Einsteiger Intel 1700 Board und F CPU boosten auch bei Last nicht besonders hoch. Wirklich ineffizient sind die nur bei Gaminglast.
CadillacFan77 schrieb:
weil sobald etwas Last anliegt dieser Faktor um Welten grösser ist.
Kommt drauf an. Spiele ja, Anwendungen nicht unbedingt.
IMG_20241023_190528.jpg



Der 5800X3D bleibt auch bei starker Last auf einem Kern gut dabei. Intel ist nicht abgeschlagen. Andere Messungen gibt's nicht, also muss man damit arbeiten.
CadillacFan77 schrieb:
Unter last reden wir aber von 50W+ Differenz, was locker kompensiert.
Natürlich wird das kompensiert, wenn Prozessoren dann 150 Watt in Spielen und nicht 70 Watt schlucken, selbst dann noch, wenn man man 80% der Zeit surft.
Aber wenn ich mir ne Workstation hole und dann alles dran erledige, ist der Verbrauch halt nicht höher bei den alten Ryzens bzw. Intel.

Beim 5800X3D sowieso selbst wenn gezockt wird nicht. Der bleibt auf AM4 einfach sparsamer.
CadillacFan77 schrieb:
Für Niedriglast Aufgaben gibts eben das Notebook - nötigenfalls "gedockt" an USB-C am externen Monitor und KVM für Eingabegeräte.
Ich kann auch sagen, dafür reicht das Smartphone. Also E-Mails checken, Surfen, Forum, usw. Nur bringt das dem Desktop User dann auch nix, wenn er am Desktop sitzen will, wenn er die Leistung braucht, die muss ja nicht lange dauern.
CadillacFan77 schrieb:
Wie gesagt, bissl schizophren zu sagen, Intels sind soooo gut im Idle weil sie 10W weniger brauchen, gleichzeitig aber trotzdem einen vollen Desktop mit Pipapo ausfahren - am Besten noch mit nem 42" UHD 160Hz Bildschirm der alleine dann 50W säuft um bissl Word zu machen, wenn das ein Notebook mit ~10W erledigt inkl. Bildschirm.
Du strickst dir halt immer ein recht absurdes Szenario bzw. Strohmannargument und Whataboutism zurecht, um diese Nachteile nicht einräumen zu müssen.
Ich könnte genauso sagen, wozu auf einem Desktop zocken, geht doch auch auf dem Steam Deck, mit 9 Watt. Und jeder der das nicht tut ist nicht berechtigt über Strombedarf in Metrik XY überhaupt zu sprechen.^^

Wozu auf einem 55 Zoll Fernseher das perfekte Dinner sehen, wenn es auch am Smartphone geht.
CadillacFan77 schrieb:
Oder anders gesagt, es ist ein Strohmannargument.
Das Strohmannargument ist in dem Fall dein Argument jemanden seien andere Verbraucher wie Monitor und Co nicht wichtig, weil man den Verbrauch im Idle kritisiert. Das nennt man Strohmann.
 
Zuletzt bearbeitet:
Zurück
Oben