Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test AMD Ryzen vs. Intel Core im Test: Gaming-Benchmarks mit Windows 11 24H2 & BIOS-Updates
Na eben doch, besonders da bei diesen Tests ja in der Regel im CPU-Limit gebencht wird, um die Leistungsfähigkeit der CPU zu ermitteln.till69 schrieb:Wenn eine 4090 (oder bald 5090) im System ist, variiert da nicht mehr ganz so viel.
Wenn ich mit einer langsamen CPU A schon bei 60 fps im CPU-Limit bin, wird auch die 4090 nur 60 fps rendern und vielleicht bei 100W rumgammeln. Nehme ich dann eine schnelle CPU B, die erst bei 120 fps limitiert, kann eben auch die 4090 bis 120 fps liefern, wird also mehr ausgelastet und verbraucht dabei dann vielleich 250W.
Beim Verbrauch des gesamten Systems spielt also auch immer die Effizienz der Grafikkarte eine Rolle und die Werte des Tests gelten im Prinzip nur für die Kombination mit einer 4090. Denn mti einer anderen Grafikkarte mit anderer Effizienz ist der Gesamtverbrauch unabhängig von der CPU potentiell ein ganz anderer.
Daher ist es sinnvoller, in CPU-Tests nur den Verbauch der CPUs im CPU-Limit anzugeben und jeder kann dann selber den Verbrauch seiner genutzten Grafikkarte draufrechnen.
Zuletzt bearbeitet:
person unknown
Lt. Junior Grade
- Registriert
- März 2019
- Beiträge
- 475
Interessant finde ich (eher Team AMD) auch, wie gut sich ein "schnöder" i5 im Feld schlägt. Vermutlich Spiele, die nicht oder nur wenig von mehr Kernen profitieren. Dass mein "Neuer" 5800X3D da nur als Nostalgiereferenz mitspielt ist klar. Aber im Prinzip hab ichs richtig gemacht, denn für 30% mehr Leistung hätte ich tatsächlich ca. 50% mehr Ausgaben gehabt. Die Preise bei Boards und CPUs sind ja izwischen sehr "selbstbewußt".
Die Rechnung funktioniert bloß so nicht, weil mit WQHD/4K das GPU Limit ins Spiel kommt. Oder ein FPS Limit von 120 (TV) oder 144(Monitor).mibbio schrieb:Daher ist es sinnvoller, in CPU-Tests nur den Verbauch der CPUs im CPU-Limit anzugeben und jeder kann dann selber den Verbrauch seiner genutzten Grafikkarte draufrechnen.
- Registriert
- Feb. 2009
- Beiträge
- 832
Heh wieso? Im FPS/Leistungsaufnahme schlägt er sich doch wunderbar.person unknown schrieb:Dass mein "Neuer" 5800X3D da nur als Nostalgiereferenz mitspielt ist klar.
Intels Brechstange wunderbar visualisiert. Mit teilweise 100W mehr Leistungsaufnahme und dann nicht mal die Spitze. Das ist schon ein ziemliches Tief.
Sicherlich werden die Meisten mit Grafiksettings spielen, welche die GPU-Leistung optimal ausnutzt und damit eher im GPU-Limit sein. Nur wäre es eben Schwachsinn, in einem reinen CPU-Test im GPU-Limit zu benchen. Entprechend wird ja bei jedem CPU-Test erklärt und diskutiert, warum da die schnellste GPU mit niedrigen Settings gefahren wird.till69 schrieb:Die Rechnung funktioniert bloß so nicht, weil mit WQHD/4K das GPU Limit ins Spiel kommt. Oder ein FPS Limit von 120 (TV) oder 144(Monitor).
Bei einem CPU-Test will ich aber die CPUs an sich untereinander vergleichen, also welche CPU bei wie viel FPS limitiert und wie viel Watt die dabei dann verbraucht. Wenn da dann der Verbrauch der GPU mit reingenommen wird, verwässert es den direkten Vergleich der CPUs, weil eben der Verbrauch der GPU mit dem jeweiligen CPU-Limit variiert.
TheElvis
Cadet 4th Year
- Registriert
- Juli 2008
- Beiträge
- 102
Ich wundere mich dass in der niedrigen Auflösung trotz dieser Höllenmaschinen teils so wenige fps rauskommen.
Beispiel Frostpunk 2:
Max 64,4 fps
Im damaligen Testbericht (mit höherer Auflösung):
102,6 fps
Ist der dort verwendete 7950X3D wirklich 50% schneller? Dann sollte der doch hier auch auftauchen
Oder gibt es woanders einen Fehler? Haben Updates das spiel so geschrottet?
In die anderen Tests hab ich jetzt nicht reingeschaut, aber sollten die schnellsten CPUs + RTX4090 in 720p nicht immer >100fps schaffen?
Beispiel Frostpunk 2:
Max 64,4 fps
Im damaligen Testbericht (mit höherer Auflösung):
102,6 fps
Ist der dort verwendete 7950X3D wirklich 50% schneller? Dann sollte der doch hier auch auftauchen
Oder gibt es woanders einen Fehler? Haben Updates das spiel so geschrottet?
In die anderen Tests hab ich jetzt nicht reingeschaut, aber sollten die schnellsten CPUs + RTX4090 in 720p nicht immer >100fps schaffen?
Das gehört dann aber gemessen und nicht ausgelesenmibbio schrieb:und wie viel Watt die dabei dann verbraucht
Northstar2710
Admiral
- Registriert
- Aug. 2019
- Beiträge
- 7.506
Sehe ich auch eher so. Ehe man im Alltag ins CPU Limit kommt, ist man im GPU Limit.till69 schrieb:Die Rechnung funktioniert bloß so nicht, weil mit WQHD/4K das GPU Limit ins Spiel kommt. Oder ein FPS Limit von 120 (TV) oder 144(Monitor).
Es sei denn man spiel Echtzeitsims siehe ANNO.
Dann kann es schonmal einen Bottelneck in der CPU geben.
Batigol040
Cadet 3rd Year
- Registriert
- Feb. 2010
- Beiträge
- 45
Danke für den Test, es ist ja sehr deutlich wie viel effizienter die AMD CPUs ggü. Intel sind. Das sind ja praktisch mehrere Generationen.
Da der 5800X3D wohl ein Auslaufmodell ist und nicht mehr nachproduziert wird, wäre natürlich noch die Ergänzung der Überischt mit dem 5700X3D sinnvoll.
@Jan Ist eine Ergänzung der Übersicht mit dem 5700X3D geplant?
Da der 5800X3D wohl ein Auslaufmodell ist und nicht mehr nachproduziert wird, wäre natürlich noch die Ergänzung der Überischt mit dem 5700X3D sinnvoll.
@Jan Ist eine Ergänzung der Übersicht mit dem 5700X3D geplant?
Dass hier wird irgendwo ein Fehler sein, ich glaube nicht, dass der KS so schnell ist.bad_sign schrieb:Hat jemand Lust die teils sehr merkwürdigen Ergebnisse zu diskutieren?
Anhang anzeigen 1535499
Warum sollte der 16-Kerner auf einmal doppelt soviel verbrauchen wie der 8-Kerner, bei gleich viel FPS?scryed schrieb:Edit
Wollte nur damit sagen weil ja immer so getan wird als brauche man ein akw bei Intel , sicher er verbraucht das dreifache eines 7800x3d dann aber nicht mehr so viel im Vergleich zu einem 16kerner AMD
Achso, Du meinst den ohne X3D?
Der sollte doch eigentlich nicht mehr verbrauchen. Vielleicth etwas mehr, weil er höher takten darf.
Pisaro
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 15.530
Das zwar nicht, aber es wird DEUTLICH mehr gezockt als im Idle zu chillen.NIGHTFIL schrieb:Wer kennt es nicht, mit einer gaming CPU nichts anderes machen außer Zocken. Da wird der gaming Rechner selbstverständlich heruntergefahren um mit dem Zweitrechner in teillast im Computerbase Forum zu kommentieren.
Und: 30% von (irgendeine Zahl jetzt) 30 Watt im idle sind deutlich entspannter als 30% von 150 Watt im Gaming.
Ergänzung ()
Oder ein hartes CPU Limit. Kommt stark auf die Spiele an!!till69 schrieb:, weil mit WQHD/4K das GPU Limit ins Spiel kommt.
Weil es ja auch so schwierig ist, Diagramme in einer anderen Sprache zu deuten bzw. zu "lesen"...SVΞN schrieb:
98% aller Nutzer schauen eh nur auf die Balken, 1% liest dann einen Teil des Textes und das restliche 1% liest alles.
Pisaro
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 15.530
Warum? Auch hier, es kommt auf das Game an!TheElvis schrieb:aber sollten die schnellsten CPUs + RTX4090 in 720p nicht immer >100fps schaffen?
Ergänzung ()
Das hat was damit zu tun das CB im deutschsprachigen Raum die Ersten sind?BDR529 schrieb:Weil es ja auch so schwierig ist, Diagramme in einer anderen Sprache zu deuten bzw. zu "lesen"..
Manche Menschen wollen wohl einfach etwas "negatives" schreiben, so komplett ohne Sinn.
Banned
Admiral
- Registriert
- Sep. 2014
- Beiträge
- 9.905
NIGHTFIL schrieb:Da wird der gaming Rechner selbstverständlich heruntergefahren um mit dem Zweitrechner in teillast im Computerbase Forum zu kommentieren. Man möchte schließlich keinerlei Teillast auf einer X3D CPU weil ineffizient.
Genau da sehe ich eigentlich Intels Markt-Chance mit der neuen Generation. Dass Intel im Gaming an AMD (besonders am 9800X3D) vorbeiziehen wird, ist wohl quasi ausgeschlossen (wenn man sich die bisherigen Leaks so anschaut). Intel könnte aber eine gute Allround-CPU bringen, mit der man dann sparsam auf hohem Leistungsniveau zocken und gleichzeitig Office, Surfen etc. sparsam durchführen kann.
Ob ihnen das gelingt, mal sehen. Ich bin gespannt. Denn irgendwie gibt es so eine Allround-Desktop-CPU mMn schon ganz lange nicht mehr.
- Registriert
- Okt. 2023
- Beiträge
- 2.181
Ich sehe das schon immer so, deswegen war der Beitrag auch ironisch gemeint. Die Anwendungsleistung auch eines 7800X3D ist für 90% der Nutzer völlig ausreichend und dort geht es eh immer mehr in Richtung GPGPU.DevPandi schrieb:Und das soll jetzt kein Miesmachen der 285K sein, das gilt auch für den 9950X und den 9900X. Alles gute CPUs, nur der Nutzen vieler Kerne ist durchaus überschaubar, auch im Workstation-Bereich.
Ja, 100% Zustimmung.DevPandi schrieb:Solange hier keine wissenschaftlichen Berechnungen und Co gemacht werden, ist die GPU-Leistung in vielen Szenarien einfach wichtiger geworden.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 295
- Aufrufe
- 26.224