Test AMD Ryzen vs. Intel Core im Test: Gaming-Benchmarks mit Windows 11 24H2 & BIOS-Updates

//differentRob schrieb:
Dennoch sind heutige Boards mit ein Teil des Problems.

Ja, das sieht man bei AMD auch gut an den Chipsätzen. Der B550 ist noch recht genügsam, X470,X570 hauen richtig sein. Nicht ohne Grund gab es Letzteren erst mit aktiver Kühlung (so wie davor glaube ich X79 zuletzt).

Ich fand ja diesen Ansatz (es war u.U. mehr ein Gerücht), zwei CPU-Kerne in den Chipsatz zu integrieren und die eigentliche CPU dadurch bei Niedriglast komplett rauszunehmen, ganz interessant, schade dass bei Arrow Lake nichts draus geworden ist.

Selbst wenn man dafür ne Taste drücken müsste (es nicht automatisch läuft/erkannt wird), fände ich's noch interessant. Denn wenn ich halt so Sachen mache, wie ein Office-Dokument oder Code zu schreiben, dann weiß ich einfach, dass das quasi nichts an Leistung braucht.
 
Zuletzt bearbeitet:
Banned schrieb:
Ich fand ja diesen Ansatz (es war u.U. mehr ein Gerücht), zwei CPU-Kerne in den Chipsatz zu integrieren und die eigentliche CPU dadurch bei Niedriglast komplett rauszunehmen, ganz interessant, schade dass bei Arrow Lake nichts draus geworden ist.
Das wurde bei Meteor Lake umgesetzt. Da gibt es P-Cores und E-Cores im CPU-Chiplet und zwei LPE-Cores im SoC-Chiplet.
 
  • Gefällt mir
Reaktionen: Banned
Banned schrieb:
12600K und 13600K liegen hier bei 54 bzw. 56W im Idle
Ist Dir aufgefallen, dass in diesem Test eine 3090 TI benutzt wurde, die allein 30W zieht?

Banned schrieb:
Der 5800X3D ist da sogar besser im Idle als 12600K und 13600K
Die 46W stammen aus diesem Test. Da wurde wohl eine 3080 FE benutzt.

Hier siehst Du, was mein 13700K (Z690 + DDR5@6000, ohne dGPU) idle so macht:
 

Anhänge

  • 13700K Idle.jpg
    13700K Idle.jpg
    71,8 KB · Aufrufe: 69
GraziT schrieb:
Niemand fährt nen Ryzen oder Intel mit den 0815 Ram Takten.

Da wirst du aber entäuscht sein, wieviele Oem pc so ausgestattet und verkauft werden. Ich würde eher behaupten das, die meissten pcs so betrieben werden.
 
  • Gefällt mir
Reaktionen: LukS
Banned schrieb:
Der 5800X3D ist doch da auch dabei und verbraucht weniger:
Und Du glaubst das System braucht 46W, egal ob mit 3080 oder 3090 Ti?
Banned schrieb:
ist der 5800X3D aus meiner Sicht die bessere Alltags-CPU
Ja, solange Du nicht selbst misst und mal siehst, was ein X3D so bei Office/Youtube braucht.

Banned schrieb:
Auch bei Teillast sind 12600K und 13600K nicht gut
Teillast bei CB heißt Volllast auf einem Kern. Hat mit Alltag auch wenig zu tun.
 
  • Gefällt mir
Reaktionen: scryed
thom_cat schrieb:
und es wäre mal sehr interessant wie die differenzen monetär am ende des jahres wirklich sind, sprich ob es überhaupt sinn macht sich ständig darüber zu streiten.
Quidproquo77 schrieb:
Mich würde es massiv stören, wenn das System beim nichts tun permanent 100W aus der Dose nuckelt, dann macht es wirklich mehr Sinn ans Handy zu gehen. Mit der eingeschränkten Nutzererfahrung dann.

"massiv stören" ist eben noch keine monetäre Bewertung. Und ich denke, dass genau das @thom_cat damit meint. Es wird hier echt viel "Wind" gemacht um idle Verbauch.
 
puh, mehr zerstückeln ging nicht? :D
Quidproquo77 schrieb:
Warum persönlicher Wunsch? Es gibt ja verfügbare Hardware die das kann, insofern finde ich es halt schwach wenn dieser wichtige Teillastbereich seit Jahren am Desktop so vernachlässigt wird.
das eine hat mit dem anderen aber nichts zu tun.
es gibt genauso viel auf dem markt was nicht sparsam ist.
daher ist es erstmal deine anforderung.

Quidproquo77 schrieb:
Ich glaube die Anforderungen sind was die Masse betrifft ziemlich identisch.
halte ich für vermessen das anzunehmen.
wenn du recht hättest, würde auch der 7800x3D wie blei in den regalen liegen.
ist aber nicht so, daher haben viele andere offensichtlich nicht deine erwartungen.

Quidproquo77 schrieb:
Das muss man denke ich eher im Gesamtkontext sehen. Als 3 Personen Haushalt benötigen nur 1400KW/h pro Jahr. Das liegt zum einen an modernen Geräten und zum anderen daran, dass alle Anschaffungen, egal ob Spülmaschine, Lampe, Handy, PC und Monitore sehr energieeffizient sind.
Mich würde es massiv stören, wenn das System beim nichts tun permanent 100W aus der Dose nuckelt, dann macht es wirklich mehr Sinn ans Handy zu gehen. Mit der eingeschränkten Nutzererfahrung dann.
auch hier wieder: deine anforderungen!
ich finde es gut, aber ich teile es nicht.
ein gerät hat unterschiedlichste anforderungen zu erfüllen, eine davon ist natürlich auch der verbrach bzw. die effizienz.

Quidproquo77 schrieb:
Ja Mainboards machen schon etwas aus, sicher. Aber die CPUs und deren Powerstates halt auch
alles gehört natürlich dort hinein und keine einzelne komponente kann hier speziell rausgegriffen werden.

Quidproquo77 schrieb:
Mit dem sparsamten Board und einer APU ja, mit einer CPU halt eher nicht.
Die Tests müssten nur mehr auf Teillast eingehen, dann würde man das auch sehen. Früher hat man auch keine CPU Leistungsaufnahme in Spielen vermessen, man nahm immer Prime 95/Cinebench als gegeben an.
nein, es braucht keine apu damit auch an am5 system sparsam ist.
da aber natürlich nie ein breites spektrum betrachtet werden kann und die hersteller interessiert sind die fetten teile oben aus dem regal zu bewerben, gibt es oft ein verzerrtes bild.

das kann man gerne machen, würde aber meiner meinung nach nichts ändern am verhalten der mehrheit.
die kauft das was die mehrzahl der ansprüche abdeckt.

Quidproquo77 schrieb:
Wäre doch ganz einfach. Idle, Browser, Youtube, Word, Photoshop starten, und dabei package power und Systemverbrauch über eine gewisse Zeit mitloggen. Klar das ist wieder zeitlicher Aufwand, aber die Menschen interessieren sich heute viel mehr für die Effzienz.
halte ich für nicht haltbar die these.
sonst hätten wir in umfragen hier eine gänzlich andere verteilung der hardware.

und oem ist dabei noch nicht mal betrachtet.
 
till69 schrieb:
Und Du glaubst das System braucht 46W, egal ob mit 3080 oder 3090 Ti?

Dann hat CB da bei einem Test unsauber gearbeitet.

Hier ein anderer Test:

https://www.pcgameshardware.de/Ryze...Benchmark-Preis-Release-vs-12900KS-1392948/3/

5800X3D ist dort sparsamer im Idle, sparsamer im Durchschnitt bei sechs Anwendungen und bringt deutlich mehr FPS pro Watt als der 12600K:
https://www.pcgameshardware.de/Ryze...Benchmark-Preis-Release-vs-12900KS-1392948/3/

Und das Ganze auch noch gemessen "CPU only".

Wie wäre es, wenn du mir zur Abwechslung mal einen Test suchst, wo die von dir genannten CPUs sparsamer sind?

Und Raptor Lake (Refresh) würde ich mir schon alleine wegen eventuell entstandener Vorschäden beim Betrieb nicht an's Bein binden wollen.
 
SavageSkull schrieb:
Und diese (pseudo)Maßnahmen kann ich mit einer neuen CPU dann nicht machen? Der Abstand bleibt doch dann derselbe....
Wer vergleicht denn eine OC CPU mit einer @stock CPU? Wenn dann OC vs OC oder Stock vs Stock.
DU hast doch geschrieben, dass dein 5800X3D nicht mehr ausreicht... was hat da mit Vergleichen ggü. anderen CPUs zu tun?
 
Banned schrieb:
Wie wäre es, wenn du mir zur Abwechslung mal einen Test suchst
Ich habe Dir weiter oben gezeigt, was mein 13700K an der Steckdose braucht. Glaub Du nur weiter an irgendwelche Tests.

Der Idle Verbrauch hängt an zu vielen Dingen: Mainboard, BIOS(einstellungen), RAM(geschwindigkeit/Menge), Bildschirmauflösung/-frequenz, Netzteil.

Und was Dir kein Idle Test sagt: Um wie viel steigt der Verbrauch bei einem simplen Youtube Video. Da schneidet Intel (vor allem mit E-Cores) um Längen besser ab.

Banned schrieb:
5800X3D ist dort sparsamer im Idle
Und hier ist man Idle wieder ganz anderer Meinung:
https://www.hardwareluxx.de/index.p...-der-amd-ryzen-7-7800x3d-im-test.html?start=8

Ganz irre Idee: Einfach mal selbst messen?
 
  • Gefällt mir
Reaktionen: bad_sign
till69 schrieb:
Der Idle Verbrauch hängt an zu vielen Dingen: Mainboard, BIOS(einstellungen), RAM(geschwindigkeit/Menge), Bildschirmauflösung/-frequenz, Netzteil.
Oder ich schließe mein DAC an, der 4W per USB zieht, aber irgendein Powerstate funktioniert nicht mehr und der Idle geht von 7W auf 21W rauf. (Deskmini X300 von 6W auf 10W auf Win10, X600 von 7W auf 21W auf Manjaro; gemessen an der Steckdose)

Guter Idle muss optimiert werden, bzw. muss man sich bewusst sein, was man anschließt
 
  • Gefällt mir
Reaktionen: xXDariusXx
Gortha schrieb:
DU hast doch geschrieben, dass dein 5800X3D nicht mehr ausreicht... was hat da mit Vergleichen ggü. anderen CPUs zu tun?
Der 5800X3D wird auch mit 10% extra Tuning noch bremsen. Ich habe deinen Post so verstanden dass man die aufrüst kosten spart und auf die Leistung der aktuellen CPUs kommt.
 
DiGiTaL schrieb:
Bitte testet doch zukünftig auch den durchschnittlichen IDLE Stromverbrauch und bei geringer Last wie z.B. bei einem YouTube 4K Video (oder so). So viele Computer sind häufig in solchen Situationen und nicht ständig in einem Spiel oder gar Volllast.
Das ist zu vernachlässigen:
https://www.computerbase.de/artikel...gsaufnahme_mit_rtx_4090_und_uhd_in_windows_11
Bei 25 Watt höherem Verbrauch sind das bei 24 Stunden am Tag und 365 Tage im Jahr 219 kWh (0,025 * 24 * 365). Im Worst Case von 24/7 Idle mit 30 Cent die kWh sind das 65,7€ mehr im Jahr.
Nehmen wir für private Personen im Durchschnitt 3h Idle am Tag an, dann sind das nur 0,025 * 3 * 365 * 0,30 = 8,21€ mehr im Jahr.
Würde man mit einem mix wie 1-2h Idle/Browsen und 2-3h Gaming rechnen, dann wird es für Intel und AMD eher auf Gleichstand rauslaufen. Eventuell bist im Mix mit einem AMD Prozessor sogar sparsamer unterwegs.
Da bin ich aber jetzt zu Faul zum Daten raussuchen und rechnen.

Fazit: Als Konsumer kann man den etwas höheren Idle Verbrauch getrost ignorieren.
 
  • Gefällt mir
Reaktionen: Volvo480, mibbio, alkaAdeluxx und eine weitere Person
till69 schrieb:
Ganz irre Idee: Einfach mal selbst messen?

Ja, das ist wirklich ne irre Idee. Ich kaufe mir einfach mal 13600K und 5800X3D und messe das nach. Von was träumst du nachts?

Wir brauchen uns jetzt auch nicht am Idle-Verbrauch aufhängen. Mir ist das alles zu hoch (ich dachte, das sollte bisher rübergekommen sein). Selbst wenn Intel im Idle leicht vorne liegt, verbrauchen die Dinger (im Vergleich zu AMD) beim Gaming teilweise jenseits von Gut und Böse. Für mich alles CPUs, die ich nicht kaufen würde!

Ich kaufe erst wieder ne neue Plattform als Desktop-PC für alles, wenn es eine CPU gibt, die mich in allen Belangen bei Leistung und Verbrauch überzeugt. So lange es die nicht gibt, wird der 8700K weiter durchhalten müssen. Ich bin da auch echt lange aus dem Alter raus bzw. war Gaming nie so ein großes Hobby von mir, dass ich damit nicht klarkommen würde.

Und du kannst mir noch X Beiträge schreiben und Y mal deine Mühle messen; wenn ich nicht überzeugt bin bzw. eine andere Meinung habe, dann ist das so und dann akzeptiere das einfach (finde deine knapp 25W im Idle ohne dGPU halt auch nicht weltbewegend). :)
 
  • Gefällt mir
Reaktionen: danyundsahne
Quidproquo77 schrieb:
denn mehrere Geräte für die gleiche Aufgabe anschaffen lohnt sich finanziell nicht. Außer man hat eh ein Tablet oder Smartphone.
So ganz grob geschätzt. Was glaubst du wie viel % der Nutzer eines Gaming PCs kein Smartphone haben?
 
  • Gefällt mir
Reaktionen: thom_cat
Jan schrieb:
Damals DLSS aus, jetzt Ultra-Performance an.
und ergebnis ist das laut neuem Test in Avatar der 7800x3d bei den 1% =17%vorn dem 9600x liegt
und im Durchschnitt gleich ganze 27% vor dem neuen
im alten der ja auch schon mit 720p und 4090 sah das noch realistischer aus da war der neue 6Kerner in den low gleichschnell und im Schnitt sogar 1% schneller ! der 9700x ganze 3% schneller nun ganze 19% langsamer, weil das GPU limit der RTX4090 bei 720p !! fehlt?

ich verstehe ja das der CPU test die CPU testen soll, aber es ist einfach unrealistisch selbst wenn die CPU 19% schneller sein könnte, aber schon jetzt in 720p mit Flackship GPU effektiv eben 3% Langsamer ist sofern man alle Grafik details aufdreht. es soll Zeigen welches ist die schnellte Gaming CPU und nicht könnte es sein wenn die GPU nicht wäre.

CP2077 ist im neuem Test warscheinlich auch DLSS und eventuell auch noch RT ganz aus ist der 5800x3d nur noch 6% Langsamer wie der 9700x, das Game ist zur Zeit eines Zen3 und Tuning gekommen, wenn selbst eine ADA in 720p noch limmitiert liegt das am Game nicht an der CPU/GPU Kombi
in eurem alten test wo schon nur mit RT low und nicht max getestet wurde war der 9700x und auch 14700k
bereits 26/28% schneller. was beide auch sicherlich noch heute sind, denn das Game limitiert und nicht die GPU/CPU kombi.
und am schlimmstem im neuem Test es macht keinen unterschied ob ein 6 oder 8 Kerner verbaut ist sind beide gleich schnell ?!?!? CP profetiert aber von den 2 zusätzlichen Kernen.

es ist ja schön und gut das ein 9600x und 9700x bzw. dann wohl auch 7600x/7700x gleich schnell sein könnten, wenn es keine GPU gäbe, nur sind sie es einfach nicht das wird sich auch mit künftigen GPUs nicht ändern, selbst wenn irgendwann in 720p mal kein GPU limit mehr sein sollte wird der 8Kerner weiterhin vor dem 6er liegen.
 
Banned schrieb:
Ich fand ja diesen Ansatz (es war u.U. mehr ein Gerücht), zwei CPU-Kerne in den Chipsatz zu integrieren und die eigentliche CPU dadurch bei Niedriglast komplett rauszunehmen, ganz interessant, schade dass bei Arrow Lake nichts draus geworden ist.
So wie im IO Die bei AMD ne kleine GPU ist, könnten da auch zwei c Kerne mit wenig Takt und kaum Cache rein. Dann könnten sich die großen CCDs komplett schlafen legen im Idle.
Müssten die Betriebssysteme aber auch wieder mit umgehen können.
 
till69 schrieb:
Dann messe (ohne dGPU) einen 5800x3d oder gar 7800x3d und staune.

Was soll ich da staunen? Dass die noch mehr verbrauchen? Herzlichen Glückwunsch. Irgendwie ist die Intention meines letzten Beitrags scheinbar nicht rübergekommen.

till69 schrieb:
Du kannst "meinen" was immer Du willst. Und da Du so auf Tests stehst, hier ist ein netter Vergleich bei Idle/Youtube/Netflix drin.

Hat hier jemand von Zen4 gesprochen?
Ergänzung ()

KurzGedacht schrieb:
Müssten die Betriebssysteme aber auch wieder mit umgehen können.

Ja, das ist immer so ne Sache. Wobei wenn man das in großem Stil machen würde, die OS-Anbieter sicher mitziehen würden. Sowohl Intel als auch AMD haben doch mittlerweile beide wieder ein großes Gewicht auf dem Markt.

Btw. gibt es sehr sparsame CPUs mit hoher Leistung natürlich eigentlich schon - in Form von bestimmten ARM-CPUs. Nur leider kann man Gaming damit ziemlich vergessen (und die Anwendungskompatibilität ist auch recht eingeschränkt). Mal schauen, wie lange man noch meint, x86 am Leben lassen zu müssen.
 
Zuletzt bearbeitet:
Zurück
Oben