Test Monster Hunter Wilds: Benchmarks zu über 275 Community-PCs – mit GeForce RTX 50

System: RTX 2080 Ti, 3900X
2.560 × 1.440, „Ultra“, Raytracing „Hoch“, Upscaling Quality – AVG-FPS: 44,62

1739008855828.png
 
System: RTX 5080, 7700
3.840 × 2.160, „Ultra“, Raytracing „Hoch“, Upscaling Quality – AVG-FPS: 74,43

1739009154965.png

Ergänzung ()

System: RTX 5080 (OC), 7700
3.840 × 2.160, „Ultra“, Raytracing „Hoch“, Upscaling Quality – AVG-FPS: 81,03

1739009185820.png

Ergänzung ()

System: RTX 5080 (UV), 7700
3.840 × 2.160, „Ultra“, Raytracing „Hoch“, Upscaling Quality – AVG-FPS: 80

1739009234430.png
 
Esenel schrieb:
@Tronado magst du mal ne CapFrameX Aufnahme machen.
Mich würde die Auslastung der Komponenten interessieren :-)

Danke :-)
Sorry, aber muss mein cleanes Windows11 24H2 möglichst sauber halten.
CPU Auslastung max 46%/178W, GPU durchgehend 99-100% bei 2,82 GHz max. und 347W.
 
  • Gefällt mir
Reaktionen: Esenel
Kein einizger 5080/590-User mit Intel CPU. Hoffe ich bekomme Ende Februar/Anfang März eine 5090, dann gebe ich hier auch nochmal eine Rückmeldung (ggf. mit vorher/nachher Benchmark)...
Tronado schrieb:
Sorry, aber muss mein cleanes Windows11 24H2 möglichst sauber halten.
So habe ich bei Windows 95 auch noch gedacht... ;-)
 
System: RX 7800 XT, 7800X3D
2.560 × 1.440, „Ultra“, Raytracing „Hoch“, Upscaling Quality – AVG-FPS: 82,00

Manjaro Linux, GE-Proton 9-23
 
System: RTX 3070 (M) 115W+15W, 5800H
1.920 × 1.080, „Mittel“, Raytracing „Aus“, Upscaling Nativ – AVG-FPS: 52,22

Notebook XMG Apex 17 (M21) mit Ryzen 7 5800H und RTX 3070 115W+15W Dynamic Boost.

Windows 11 23H2 Build 22631.4830
 

Anhänge

  • Screenshot 2025-02-08 111707.png
    Screenshot 2025-02-08 111707.png
    3,7 MB · Aufrufe: 4
andi_sco schrieb:
Edit: den Absturz mit veralteten Treibern kann ich so unterschreiben
Läuft bei mir auch mit älteren Treibern
 
Raytracing hoch auf UHD als einzige Option macht ja nicht viel Sinn wenn selbst eine 4070 Super nicht spielbare 60fps schafft und man dann eh zwingend selbst bei der Karte die ja schon Mittelklasse ist vom Preis her, RT zumindest reduzieren wenn nicht ganz abschalten muss.

Und da im obersten Benchmark 7900XTX dank Linux selbst Overclocked 4090 teilweise im Raster besiegen, wäre es extrem interessant davon auch 4k zu sehen. Das würde sowohl Leuten mal zeigen was Linux so alles kann als auch was AMD kann wenn sie nicht von nem Minderwertigen OS ausgebremst werden.

Besonders krass das man mit Proton/Linux ne 7900XTX ohne OC mit den OC 4090 gleich zieht...
 
  • Gefällt mir
Reaktionen: Matthauser
System: RTX 4070 Ti S, 5700X3D
1.920 × 1.080, „Mittel“, Raytracing „Aus“, Upscaling Nativ – AVG-FPS: 99,54

Monster.jpg
 
System: GTX 1080, 7800X3D, Linux + Proton Experimental
1.920 × 1.080, „Mittel“, Raytracing „Aus“, Upscaling Nativ – AVG-FPS: 21,5

Screenshot_20250208_113835.png
 
Hey Leute, ich hoffe ich darf dies im Thread hier fragen:

Ich habe starke Schwierigkeiten einzuschätzen, in wie weit ich im CPU oder GPU bottleneck bin.
Auf hohen Einstellungen habe ich ungefähr 45 FPS in der neuen Beta. Auf mittleren ca. 50.
Gemäß Afterburner liegt die Auslastung der GPU ca. bei 95%.

Ich würde mich stark wundern wenn nicht die RTX 3080 10GB der limitierende Faktor ist sondern die CPU Ryzen 7600.

Ich spiele auf 3.840 × 2.160.

Ich würde gerne mal wieder ein Upgrade machen und frage mich halt, ob es wirklich die GPU hier ist oder doch die humane CPU...
 

Anhänge

  • Screenshot (51).png
    Screenshot (51).png
    7,9 MB · Aufrufe: 7
ToaStarr schrieb:
Kein einziger 5080/5090-User mit Intel CPU.

Naja, ist ja auch kein Wunder. Zum Release der 4080/4090 Karten war Intel noch ganz vorne, was die Leistung beim Gaming betrifft.

Heute sieht das anders aus, wer eine 5080/5090 kauft und dazu die optimale Gaming-CPU will, kommt an den X3D von AMD nicht vorbei.

Wenn ich mir hier ansehe, welche Mehrleistung ein 9800X3D gegenüber meinem 14600K bringt bei identischer Grafikkarte, könnte ich auch schon wieder schwach werden.

Aber eben nur fast, für einen Plattformwechsel inkl. 9800X3D dürften schon ca. 1000,- Euro zu veranschlagen sein. Das ist es mir aktuell (noch) nicht wert...
 
Zuletzt bearbeitet:
System: RTX 4090, 9800X3D (UV CO -30)
1.920 × 1.080, „Mittel“, Raytracing „Aus“, Upscaling Nativ – AVG-FPS: 147,73
1739013163311.png


Seltsam, im FullHD will die Grafikkarte gar nicht ihr Powerbudget auslasten, blieb konstant unter 180W und die GPU Auslastung ging nicht über 60%, ausser im Menü. Da auch bis ~180W aber Auslastung 98% bei 131 FPS.
 
  • Gefällt mir
Reaktionen: JeanLegi
Ich bin bis heute Abend nicht zuhause und am Handy ist das eintragen extrem fummelig, daher bleiben alle seit gestern Abend eingereichten Ergebnisse gerade etwas länger liegen. Aber keine Sorge, morgen sind sie dann drin. :)
 
  • Gefällt mir
Reaktionen: daknoll
System: RTX 3070 (M) 115W+15W, 5800H
1.920 × 1.080, „Mittel“, Raytracing „Aus“, Upscaling Nativ – AVG-FPS: 44,73

Notebook XMG Apex 17 (M21) mit Ryzen 7 5800H und RTX 3070 115W+15W Dynamic Boost.

Statt Windows 11(Beitrag) allerdings diesmal Linux Mint 22.1 Kernel: 6.8.0-52-generic mit Proton Experimental (Build 17227023).
 

Anhänge

  • Bildschirmfoto vom 2025-02-08 12-25-28.png
    Bildschirmfoto vom 2025-02-08 12-25-28.png
    3 MB · Aufrufe: 3
playlord18 schrieb:
Naja, ist ja auch kein Wunder. Zum Release der 4080/4090 Karten war Intel noch ganz vorne, was die Leistung beim Gaming betrifft.

Heute sieht das anders aus, wer eine 5080/5090 kauft und dazu die optimale Gaming-CPU will, kommt an den X3D von AMD nicht vorbei.

Wenn ich mir hier ansehe, welche Mehrleistung ein 9800X3D gegenüber meinem 14600K bringt bei identischer Grafikkarte, könnte ich auch schon wieder schwach werden.

Aber eben nur fast, für einen Plattformwechsel inkl. 9800X3D dürften schon ca. 1000,- Euro zu veranschlagen sein. Das ist es mir aktuell (noch) nicht wert...
Das Thema wurde hier doch letztens seitesn CB behandelt als man die "beste Gaming-CPU" gesucht hat...

In 720p ist AMD hier mitunter die beste Wahl. In den für die Praxis maßgeblichen Auflösungen ist ein Vorspung dann kaum noch gegeben.

Zeigt sich auch hier ansatzweise eine 13900KS System mit 4090 liegt in 1080p bei 148,3 FPS. Ein vergleichbares System mit 9800X3D liegt bei 142,1 bzw. 141,3 FPS.

In 2160p liegt ein 13900KS System mit 4090 in 1080p bei 96,9 FPS. Ein vergleichbares System mit 9800X3D liegt bei 93,5 FPS.

Den 9800X3D - der zweifelsohen eine extrem gute CPU ist - als optimale oder beste Gaming-CPU zu bezeichnen ist also zumindest mit Blick auf die Praxis Unsinn. Dabei lasse ich Preise für das System, deren "Haltbarkeit", etc. mal außer Betracht...
 
System: RTX 4090 7950X
2.560 × 1.440, „Ultra“, Raytracing „Hoch“, Upscaling Quality – AVG-FPS: 89,65

89 FPS.png
 
Kenobi schrieb:
System: RX 7900 XTX, 9800X3D
2.560 × 1.440, „Ultra“, Raytracing „Hoch“, Upscaling Quality – AVG-FPS: 106,78
Danke, ich glaube echt ich schramme am CPU Limit ^^
 
Tronx schrieb:
Wird Denuvo beim Benchmark mit installiert? Dann kann man die Performance eh in die Tonne kloppen.
Ich frag mich wie Spiele eigentlich mir Denuvo immer so vielfältig getestet werden können?
Das muss doch richtig auf die Eier gehen wenn immer wieder der Kopierschutz bei geänderter Hardware nervt.
 
System: Arc Graphics, Ultra 7 H155H (AI Modus mit angeschlossenen Strom)
1.920 × 1.080, „Mittel“, Raytracing „Aus“, Upscaling Nativ – AVG-FPS: 8,95
Screenshot 2025_02_08_12_59_01.png


Im Batterie Modus bekomme ich den Benchmark nicht gestartet, wird das dann als 0,0 FPS gewertet und ich bin wengistens in der Rubrik vorne? :D:D
 
Zurück
Oben