Test AMD Ryzen vs. Intel Core im Test: Gaming-Benchmarks mit Windows 11 24H2 & BIOS-Updates

Schade das MS das Update so verzögert an einige ausgibt.
Mein Hauptrechner hat es bis heute nicht angeboten bekommen und viele meiner Freunde mit aktueller Hardware haben es auch noch nicht.
 
till69 schrieb:
Wenn eine 4090 (oder bald 5090) im System ist, variiert da nicht mehr ganz so viel.
Na eben doch, besonders da bei diesen Tests ja in der Regel im CPU-Limit gebencht wird, um die Leistungsfähigkeit der CPU zu ermitteln.

Wenn ich mit einer langsamen CPU A schon bei 60 fps im CPU-Limit bin, wird auch die 4090 nur 60 fps rendern und vielleicht bei 100W rumgammeln. Nehme ich dann eine schnelle CPU B, die erst bei 120 fps limitiert, kann eben auch die 4090 bis 120 fps liefern, wird also mehr ausgelastet und verbraucht dabei dann vielleich 250W.

Beim Verbrauch des gesamten Systems spielt also auch immer die Effizienz der Grafikkarte eine Rolle und die Werte des Tests gelten im Prinzip nur für die Kombination mit einer 4090. Denn mti einer anderen Grafikkarte mit anderer Effizienz ist der Gesamtverbrauch unabhängig von der CPU potentiell ein ganz anderer.

Daher ist es sinnvoller, in CPU-Tests nur den Verbauch der CPUs im CPU-Limit anzugeben und jeder kann dann selber den Verbrauch seiner genutzten Grafikkarte draufrechnen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TR2013
Interessant finde ich (eher Team AMD) auch, wie gut sich ein "schnöder" i5 im Feld schlägt. Vermutlich Spiele, die nicht oder nur wenig von mehr Kernen profitieren. Dass mein "Neuer" 5800X3D da nur als Nostalgiereferenz mitspielt ist klar. Aber im Prinzip hab ichs richtig gemacht, denn für 30% mehr Leistung hätte ich tatsächlich ca. 50% mehr Ausgaben gehabt. Die Preise bei Boards und CPUs sind ja izwischen sehr "selbstbewußt".
 
mibbio schrieb:
Daher ist es sinnvoller, in CPU-Tests nur den Verbauch der CPUs im CPU-Limit anzugeben und jeder kann dann selber den Verbrauch seiner genutzten Grafikkarte draufrechnen.
Die Rechnung funktioniert bloß so nicht, weil mit WQHD/4K das GPU Limit ins Spiel kommt. Oder ein FPS Limit von 120 (TV) oder 144(Monitor).
 
person unknown schrieb:
Dass mein "Neuer" 5800X3D da nur als Nostalgiereferenz mitspielt ist klar.
Heh wieso? Im FPS/Leistungsaufnahme schlägt er sich doch wunderbar. :D
Intels Brechstange wunderbar visualisiert. Mit teilweise 100W mehr Leistungsaufnahme und dann nicht mal die Spitze. Das ist schon ein ziemliches Tief.
 
  • Gefällt mir
Reaktionen: person unknown und Dittsche
till69 schrieb:
Die Rechnung funktioniert bloß so nicht, weil mit WQHD/4K das GPU Limit ins Spiel kommt. Oder ein FPS Limit von 120 (TV) oder 144(Monitor).
Sicherlich werden die Meisten mit Grafiksettings spielen, welche die GPU-Leistung optimal ausnutzt und damit eher im GPU-Limit sein. Nur wäre es eben Schwachsinn, in einem reinen CPU-Test im GPU-Limit zu benchen. Entprechend wird ja bei jedem CPU-Test erklärt und diskutiert, warum da die schnellste GPU mit niedrigen Settings gefahren wird.

Bei einem CPU-Test will ich aber die CPUs an sich untereinander vergleichen, also welche CPU bei wie viel FPS limitiert und wie viel Watt die dabei dann verbraucht. Wenn da dann der Verbrauch der GPU mit reingenommen wird, verwässert es den direkten Vergleich der CPUs, weil eben der Verbrauch der GPU mit dem jeweiligen CPU-Limit variiert.
 
Ich wundere mich dass in der niedrigen Auflösung trotz dieser Höllenmaschinen teils so wenige fps rauskommen.

Beispiel Frostpunk 2:
Max 64,4 fps

Im damaligen Testbericht (mit höherer Auflösung):
102,6 fps

Ist der dort verwendete 7950X3D wirklich 50% schneller? Dann sollte der doch hier auch auftauchen
Oder gibt es woanders einen Fehler? Haben Updates das spiel so geschrottet?

In die anderen Tests hab ich jetzt nicht reingeschaut, aber sollten die schnellsten CPUs + RTX4090 in 720p nicht immer >100fps schaffen?
 
  • Gefällt mir
Reaktionen: Icke-ffm
An sich währe es trotzdem mal interessant wieviel die cpu‘s mit einem Cpu limit verbrauchen. Was würde man so als gängiges limit nehmen 60/72 fps? oder eher 100? muss ja nicht jedes exemplar getestet werden. Aber x3d vs nonx3d und intel währe schon nett.
@Jan
 
till69 schrieb:
Die Rechnung funktioniert bloß so nicht, weil mit WQHD/4K das GPU Limit ins Spiel kommt. Oder ein FPS Limit von 120 (TV) oder 144(Monitor).
Sehe ich auch eher so. Ehe man im Alltag ins CPU Limit kommt, ist man im GPU Limit.
Es sei denn man spiel Echtzeitsims siehe ANNO.
Dann kann es schonmal einen Bottelneck in der CPU geben.
 
Danke für den Test, es ist ja sehr deutlich wie viel effizienter die AMD CPUs ggü. Intel sind. Das sind ja praktisch mehrere Generationen.

Da der 5800X3D wohl ein Auslaufmodell ist und nicht mehr nachproduziert wird, wäre natürlich noch die Ergänzung der Überischt mit dem 5700X3D sinnvoll.

@Jan Ist eine Ergänzung der Übersicht mit dem 5700X3D geplant?
 
  • Gefällt mir
Reaktionen: -equal-
Danke für den Test.

Da habe ich ja mit meinem noch bis 2030 Ruhe, und brauche nicht zu wechseln.
 
Es ist einfach nicht mehr feierlich WIE GUT DER 7800X3D IST !!!
 
scryed schrieb:
Edit
Wollte nur damit sagen weil ja immer so getan wird als brauche man ein akw bei Intel , sicher er verbraucht das dreifache eines 7800x3d dann aber nicht mehr so viel im Vergleich zu einem 16kerner AMD
Warum sollte der 16-Kerner auf einmal doppelt soviel verbrauchen wie der 8-Kerner, bei gleich viel FPS?

Achso, Du meinst den ohne X3D?
Der sollte doch eigentlich nicht mehr verbrauchen. Vielleicth etwas mehr, weil er höher takten darf.
 
NIGHTFIL schrieb:
Wer kennt es nicht, mit einer gaming CPU nichts anderes machen außer Zocken. Da wird der gaming Rechner selbstverständlich heruntergefahren um mit dem Zweitrechner in teillast im Computerbase Forum zu kommentieren.
Das zwar nicht, aber es wird DEUTLICH mehr gezockt als im Idle zu chillen.

Und: 30% von (irgendeine Zahl jetzt) 30 Watt im idle sind deutlich entspannter als 30% von 150 Watt im Gaming.
Ergänzung ()

till69 schrieb:
, weil mit WQHD/4K das GPU Limit ins Spiel kommt.
Oder ein hartes CPU Limit. Kommt stark auf die Spiele an!!
 
  • Gefällt mir
Reaktionen: Volvo480
SVΞN schrieb:
Tolle Arbeit @Volker und @Jan.

Darauf haben viele Spieler gewartet. Insbesondere hier im deutschsprachigen Raum solltet ihr damit die Ersten und Einzigen sein. Hut ab.

Liebe Grüße Sven
Weil es ja auch so schwierig ist, Diagramme in einer anderen Sprache zu deuten bzw. zu "lesen"... :rolleyes:

98% aller Nutzer schauen eh nur auf die Balken, 1% liest dann einen Teil des Textes und das restliche 1% liest alles.
 
TheElvis schrieb:
aber sollten die schnellsten CPUs + RTX4090 in 720p nicht immer >100fps schaffen?
Warum? Auch hier, es kommt auf das Game an!
Ergänzung ()

BDR529 schrieb:
Weil es ja auch so schwierig ist, Diagramme in einer anderen Sprache zu deuten bzw. zu "lesen"..
Das hat was damit zu tun das CB im deutschsprachigen Raum die Ersten sind?

Manche Menschen wollen wohl einfach etwas "negatives" schreiben, so komplett ohne Sinn.
 
  • Gefällt mir
Reaktionen: Dittsche
NIGHTFIL schrieb:
Da wird der gaming Rechner selbstverständlich heruntergefahren um mit dem Zweitrechner in teillast im Computerbase Forum zu kommentieren. Man möchte schließlich keinerlei Teillast auf einer X3D CPU weil ineffizient.

Genau da sehe ich eigentlich Intels Markt-Chance mit der neuen Generation. Dass Intel im Gaming an AMD (besonders am 9800X3D) vorbeiziehen wird, ist wohl quasi ausgeschlossen (wenn man sich die bisherigen Leaks so anschaut). Intel könnte aber eine gute Allround-CPU bringen, mit der man dann sparsam auf hohem Leistungsniveau zocken und gleichzeitig Office, Surfen etc. sparsam durchführen kann.
Ob ihnen das gelingt, mal sehen. Ich bin gespannt. Denn irgendwie gibt es so eine Allround-Desktop-CPU mMn schon ganz lange nicht mehr.
 
  • Gefällt mir
Reaktionen: NIGHTFIL
DevPandi schrieb:
Und das soll jetzt kein Miesmachen der 285K sein, das gilt auch für den 9950X und den 9900X. Alles gute CPUs, nur der Nutzen vieler Kerne ist durchaus überschaubar, auch im Workstation-Bereich.
Ich sehe das schon immer so, deswegen war der Beitrag auch ironisch gemeint. Die Anwendungsleistung auch eines 7800X3D ist für 90% der Nutzer völlig ausreichend und dort geht es eh immer mehr in Richtung GPGPU.
DevPandi schrieb:
Solange hier keine wissenschaftlichen Berechnungen und Co gemacht werden, ist die GPU-Leistung in vielen Szenarien einfach wichtiger geworden.
Ja, 100% Zustimmung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SVΞN
Zurück
Oben