Test AMD Ryzen vs. Intel Core im Test: Gaming-Benchmarks mit Windows 11 24H2 & BIOS-Updates

Lutscher schrieb:
Schade das MS das Update so verzögert an einige ausgibt.
Mein Hauptrechner hat es bis heute nicht angeboten bekommen und viele meiner Freunde mit aktueller Hardware haben es auch noch nicht.

Das ist mit Absicht. Es kann auch sein das du ein Stopper drin hast, weil etwas inkompatibel ist.

Abgesehen davon, kam das Update für mehr Performance auch für die 23H2 raus im August.

Wenn du unbedingt das (teils noch verbuggte) 24H2 haben willst, lade dir die ISO, mounte sie und starte setup.exe - damit umgehst du alle möglichen Update Stops, wunder dich dann aber nicht, dass hinterher was nicht geht.
 
  • Gefällt mir
Reaktionen: Volvo480, LukS, Quidproquo77 und eine weitere Person
RogueSix schrieb:
Das rememberst Du glaube ich wrong :D .

Erstens wurde mit 142W getestet (wie beim 7700X) und das Ergebnis war, dass das für Gaming im Grunde komplett uninteressant ist.
Erstens hatte ich nicht nur die Gaming-Leistung im Sinn, bei Anwendungen macht das durchaus mehr aus, zweitens empfinde ich aber 1-3% Mehrleistung ja nach Titel schon als nicht unerheblich, wenn man sich hier ansieht, dass die gesamten anderen Maßnahmen auch nur 7-10% für Ryzen 9000 bringen, sogar nur 4% für den 7800X3D.
Stimmt aber, dass das in Games insgesamt nicht so der Hit ist und den 9700X weniger effizient erscheinen lässt. Da bringt ein PBO-Offset bei 88W wahrscheinlich mehr.
Übrigens auch nett, dass 3DC die Veränderungen zwischen euren beiden Benchmarks für Euch in Zahlen fasst @Jan .
 
Kommando schrieb:
Warum sollte der 16-Kerner auf einmal doppelt soviel verbrauchen wie der 8-Kerner, bei gleich viel FPS?
Einfach weil das zweite CCD an ist.
Rimworld mit nur einem Thread machte beim 5950X 1CCD = 46W, 2CCD 54W
Obwohl der nicht verwendet wurde. Landet auch noch Last auf dem CCD, dann biste schnell bei 2stelligen Watt zusätzlich (ohne Mehrwert).
 
till69 schrieb:
Die gab und gibt es in Form des 12600K, 13600K und 14600(K)

Nö, 12600K und 13600K liegen hier bei 54 bzw. 56W im Idle für das System:

https://www.computerbase.de/2022-10/intel-core-i9-13900k-i7-13700-i5-13600k-test/2/

Mein 8700K liegt da bei unter 40W. Und so bis maximal 50W stelle ich mir für die neue Generation vor, ansonsten ist es ne Enttäuschung in meinen Augen.

Der 5800X3D ist da sogar besser im Idle als 12600K und 13600K - bei höherer Gaming- und niedrigerer Anwendungsleitung.

Also, nein, sind für mich keine guten Allround-CPUs.

Du kannst da gerne eine andere Meinung haben. ;)
 
  • Gefällt mir
Reaktionen: conglom-o
NIGHTFIL schrieb:
Weil jedes System hauptsächlich in Teillast unterwegs ist?!
Nur weil es bei Dir so ist, heisst das noch lange nicht, dass es bei "jedem" so ist.
NIGHTFIL schrieb:
Wer kennt es nicht, mit einer gaming CPU nichts anderes machen außer Zocken.
Mein Desktop läuft zu 95% nur dann, wenn ich zocke. Für leichte Aufgaben - wie z.Bsp auch das Schreiben dieses Beitrages - nutze ich immer mein Notebook (15W inkl. Bildschirm).

NIGHTFIL schrieb:
Da wird der gaming Rechner selbstverständlich heruntergefahren um mit dem Zweitrechner in teillast im Computerbase Forum zu kommentieren. Man möchte schließlich keinerlei Teillast auf einer X3D CPU weil ineffizient.
Genau so, nur macht man das nicht wegen "ineffizient" sondern weil einfach sinnlos. Man geht ja auch nicht mit nem Ford F-250 beim Bäcker in 300m Brötchen holen....
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
@Banned
Das ist ein Problem der Plattform und nicht der CPU. Mainboards sind heute alle aufwändiger im Design. Selbst die Billa Boards heute haben mehr Phasen und Layer als damalige highend Boards. Daher ist das nicht ganz vergleichbar.
 
Banned schrieb:
Der 5800X3D ist da sogar besser im Idle als 12600K und 13600K - bei höherer Gaming- und niedrigerer Anwendungsleitung.
Bei den Systemen die wir zusammenstellen nimmt sich das nicht viel. Meistens sind die Intels einen Ticken sparsamer, aber der 5800X3D ist noch gut dabei.

Ryzen 7000 und 9000 sind hingegen wirklich schwach was das angeht und Arrow Lake schlägt vermutlich in die gleiche Kerbe. Solange ich nicht im 30er Watt Bereich im Idle bin, sehe ich auch keinen Grund aufzurüsten.
Banned schrieb:
Also, nein, sind für mich keine guten Allround-CPUs.
Eine CPU die in allen Bereichen effizient und schnell ist wäre interessant. Aber das wird wohl Wunschdenken bleiben.
 
  • Gefällt mir
Reaktionen: Banned
stefan92x schrieb:
Aber war der 2600K auch effizienter als z.B. dein 2500K?
Schneller und effizienter als die Konkurrenz ist klar, aber wie sah es innerhalb des Intel-Portfolios aus?
Nein, muss er ja auch nicht sein. Der 7800 X3D ist ja auch nicht der schnellste Prozessor in Spielen, das dürfte doch aktuell noch der 7950 X3D sein. Ebenfalls mit höherer Leistungsaufnahme.

Zen 4 X3D als Prozessorfamilie stellt in Spielen die effizientesten und schnellsten Modelle.

Und das war damals bei Sandy Bridge genauso der Fall.

Sogar mit größerem Abstand zu AMD.

Ich kaufe, was zum jeweiligen Zeitpunkt das beste Produkt ist, welcher Hersteller draufsteht ist mir vollkommen egal.
 
CadillacFan77 schrieb:
Nur weil es bei Dir so ist, heisst das noch lange nicht, dass es bei "jedem" so ist.
YouTube, Word/Excel, Video/Bildbearbeitung, surfen, hier tippen, CAD für kleine Projekte, mein 3D Druck-Hobby usw. betreibe ich alles auf dem "Gaming PC". Und da bin ich zu etwa 74% Teillast und zu 25% Gaminglast und 1% mal was rendern. Da sollte ein System schon bei 30 bis 40 Watt beim Tippen hier liegen und nicht auf 80 oder 90 Watt hochgehen und minutenlang so verharren. Das klappt auf Intel und einigen Ryzen Systemen gut, mit Ausnahme der 7000 und 9000, natürlich mit Ausnahme der Mobilen Chips.

Ich würde mal sagen, dass das etwa 50:50. Also 50% Teillast/Idle, 45% Gaming und 5% vielleicht mal längere, intensive CPU workloads.
CadillacFan77 schrieb:
Mein Desktop läuft zu 95% nur dann, wenn ich zocke. Für leichte Aufgaben - wie z.Bsp auch das Schreiben dieses Beitrages - nutze ich immer mein Notebook (15W inkl. Bildschirm).
Sollte man mal eine Umfrage starten, aber ich denke da bist du schon die absolute Ausnahme, denn mehrere Geräte für die gleiche Aufgabe anschaffen lohnt sich finanziell nicht. Außer man hat eh ein Tablet oder Smartphone.
CadillacFan77 schrieb:
Man geht ja auch nicht mit nem Ford F-250 beim Bäcker in 300m Brötchen holen....
Ein Allzweckwerkzeug wie ein Gaming/Arbeitsrechner kann halt alles bzw. sollte alles halbwegs effizient können. Und gerade wenn man nicht viel macht sollte das Gerät an der Steckdose nicht mehr als 30 bis 50W ziehen.
 
stefan92x schrieb:
Der würde überhaupt keinen Sinn machen in einem CPU-Vergleich. Denn je mehr FPS die CPU liefert, umso mehr muss die genutzte Grafikkarte arbeiten und umso mehr muss sie verbrauchen. Das würde uns über die CPU aber nichts verraten.
Bei (richtigen) Steckdosen-Tests für die CPU wird die GPU im Stromverbrauch limitiert, damit man die Watt der GPU entsprechend abziehen kann. Man würde dann nur CPU- / Mainboard- / RAM-Verbrauch sehen. PS: Ein richtiger Intel-User setzt sich eine Wattgrenze für seine CPU. Ich habe mit meinem 13700K mit 125Watt keine FPS-Verluste in Games.
 
//differentRob schrieb:
Das ist ein Problem der Plattform und nicht der CPU.

Bei AM4 z.B. ist es ganz klar ein Problem der CPU bzw. das hängt ganz stark mit dem jeweiligen Design zusammen. So sind die APUs z.B. sehr sparsam, siehe z.B.:
https://www.computerbase.de/forum/threads/renoir-und-b550-die-idle-kuenstler.1967755/

Auch auf AM5 sind die APUs sparsamer (wenn auch nicht im gleichen Maße). Es liegt also am Chiplet-Design bzw. der Anbindung der unterschiedlichen Dies.

Ich weiß nicht, wie es bei Intel ist. Aber zu Innovation gehört für mich einfach, dass die Leistungsaufnahme nicht gleichzeitig stark steigt. Du hast heute auch Autos mit 200PS, die deutlich sparsamer sind als welche mit 100PS von vor 20 Jahren oder so.

Das kann also mMn kein Argument sein.

@Quidproquo77 Die Sache bei AMD ist auch, dass die Leistungsaufnahme mit RAM-OC deutlich zunimmt. Die CPUs, die standardmäßig 3200er unterstützen, sind da gut dabei. Will man mehr, wird's teuer (beim Verbrauch), bei AM5 (wo wohl kaum jemand den RAM nach Standard betreibt) unweigerlich. Somit sind die Tests hier dann auch nur bedingt aussagekräftig.
 
Taxxor schrieb:
Der gesonderte Test von CB zeigte dass der 9700X 6% gewinnt durch das 24H2 Update.
ja nur was passiert wenn man der GPU alles abnimmt sieht man an Horizon Forbidden West, das sehr gut bis 8 Kerne und Takt Skaliert, vom 3d aber nur im CPU limit Profetiert, sobald es ins GPU limit geht bringt der nichts mehr
CB test alt 9600x 15% vor dem 5800x3d neu liegt der Opa auf einmal 2% vorn, geht nur mit reduzierten details bzw DLSS. ich unterstelle mal das im aktuellem setup unter 1080p max details ohne upscalling
9700x selbst den 7800x3d hinter sich lässt.
Gerade dieses Game profetiert von einer schnellen CPU mehr wie vom cache im GPU Limit, sieht man daran das selbst ein 6Kerner einen 8 mit cache im GPU limit überholt, somit das CPU limit eben gar keine Rolle mehr spielt, wenn man spielt zu 90% im GPU limit
27% CPU vorsprung wandeln sich so mal schnell in 4% Rückstand, siehe anlage
 

Anhänge

  • IMG_0505.png
    IMG_0505.png
    4,4 MB · Aufrufe: 45
  • IMG_0506.png
    IMG_0506.png
    4,7 MB · Aufrufe: 49
Quidproquo77 schrieb:
Da sollte ein System schon bei 30 bis 40 Watt beim Tippen hier liegen und nicht auf 80 oder 90 Watt hochgehen und minutenlang so verharren.
gibt's dazu eine verordnung?
ansonsten ist es erstmal ein persönlicher wunsch und nichts weiter.

nicht falsch verstehen, sparsame hardware ist sinnvoll und sollte durchaus im blick sein, aber die nutzung und anforderungen sind so verschieden wie der mensch selbst.

und es wäre mal sehr interessant wie die differenzen monetär am ende des jahres wirklich sind, sprich ob es überhaupt sinn macht sich ständig darüber zu streiten.

und noch dazu bilden diese tests hier nur einen ausschnitt ab da die verwendete hardware, besonders das mainboard wahnsinnig unterschiedliche ergebnisse bringen.

auch auf am5 kann man sparsame system in dem bereich realisieren, genauso wie auch ein intel system nicht per se immer sparsam ist.
über die masse kann dir das eben kein test abbilden. so bleibt nur eine tendenz und viel stammtisch.
 
  • Gefällt mir
Reaktionen: Casillas
Kommando schrieb:
Achso, Du meinst den ohne X3D

Ne ich meine nicht mehr verbrauchen , habe ja nur Mal rumgerechnet was bei angegebenen Werten ein CPU a. AMD 8kern und b. Intel 24 Kern im Jahr verbraucht , ohne Frage der Intel wesentlich mehr nur sind jetzt 20 zu 50 Euro nicht die Welt

Und weiter die Annahme wenn man bei Intel die 16 e Kerne abschaltet und nur 8 p Kerne laufen lässt ob der Intel dann weniger Verbraucht und ob die spiele Performance dann auf dem gleichen lvl bleibt
 
@Banned
D'accord. Das SoC Design trägt sicher auch bei. Dem sollte jedoch die Fertigungstechnik auch entgegenwirken. Aber ja, Chiplet ist elektrisch aufwändiger. Der nächste Sprung kommt wohl erst mit BacksidePowerdelivery (Intel 18A, TSMC a16)

Dennoch sind heutige Boards mit ein Teil des Problems.
 
  • Gefällt mir
Reaktionen: thom_cat
Schöne Übersicht, da ist mein Powerlimit 2 mit 188 Watt ja ausreichend eingestellt.

Kann mir jemand sagen welches der Spiele die UE5 verwendet?
 
thom_cat schrieb:
ansonsten ist es erstmal ein persönlicher wunsch und nichts weiter.
Warum persönlicher Wunsch? Es gibt ja verfügbare Hardware die das kann, insofern finde ich es halt schwach wenn dieser wichtige Teillastbereich seit Jahren am Desktop so vernachlässigt wird.
thom_cat schrieb:
nicht falsch verstehen, sparsame hardware ist sinnvoll und sollte durchaus im blick sein, aber die nutzung und anforderungen sind so verschieden wie der mensch selbst.
Ich glaube die Anforderungen sind was die Masse betrifft ziemlich identisch.
thom_cat schrieb:
und es wäre mal sehr interessant wie die differenzen monetär am ende des jahres wirklich sind, sprich ob es überhaupt sinn macht sich ständig darüber zu streiten.
Das muss man denke ich eher im Gesamtkontext sehen. Als 3 Personen Haushalt benötigen nur 1400KW/h pro Jahr. Das liegt zum einen an modernen Geräten und zum anderen daran, dass alle Anschaffungen, egal ob Spülmaschine, Lampe, Handy, PC und Monitore sehr energieeffizient sind.
Mich würde es massiv stören, wenn das System beim nichts tun permanent 100W aus der Dose nuckelt, dann macht es wirklich mehr Sinn ans Handy zu gehen. Mit der eingeschränkten Nutzererfahrung dann.
thom_cat schrieb:
und noch dazu bilden diese tests hier nur einen ausschnitt ab da die verwendete hardware, besonders das mainboard wahnsinnig unterschiedliche ergebnisse bringen.
Ja Mainboards machen schon etwas aus, sicher. Aber die CPUs und deren Powerstates halt auch
thom_cat schrieb:
auch auf am5 kann man sparsame system in dem bereich realisieren, genauso wie auch ein intel system nicht per se immer sparsam ist.
Mit dem sparsamten Board und einer APU ja, mit einer CPU halt eher nicht.
Die Tests müssten nur mehr auf Teillast eingehen, dann würde man das auch sehen. Früher hat man auch keine CPU Leistungsaufnahme in Spielen vermessen, man nahm immer Prime 95/Cinebench als gegeben an.
thom_cat schrieb:
über die masse kann dir das eben kein test abbilden. so bleibt nur eine tendenz und viel stammtisch.
Wäre doch ganz einfach. Idle, Browser, Youtube, Word, Photoshop starten, und dabei package power und Systemverbrauch über eine gewisse Zeit mitloggen. Klar das ist wieder zeitlicher Aufwand, aber die Menschen interessieren sich heute viel mehr für die Effzienz.
 
Interessant wäre es auch mal mit Max. OC einzubeziehen. Niemand fährt nen Ryzen oder Intel mit den 0815 Ram Takten..
 
Für die kommenden Mittelklasse-GPUs wird der 5800 x3d nicht der limitierende Faktor sein.
 
Zurück
Oben