• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Starfield im Test: 24 Grafikkarten und 12 Prozessoren im Benchmark

Normalerweise reduzieren die Games mit der Auflösung die Objektdetails und Texturgrößen im Hintergrund, weil eeh nicht mehr zu erkennen.

Objekte brauchen Drawcalls von der CPU
Texturen werden von der CPU ausgepackt und im Ram eingelagert, später an der Vram geschickt

In Immortals zeigt das Tool im Menü wie stark welcher Regler auf die CPU Einfluss hat.
WatchDogsLegion ist auch gut in der Hinsicht im Menü.
 
  • Gefällt mir
Reaktionen: NMA
mylight schrieb:
ich finde selbst 1440p sieht angenehm pixelfrei aus und spielt sich mit 3080 und 5900 völlig ohne probleme, klar shader sind nur auf hoch, aber das macht gar nichts, es ist mit die beste grafik die ich je gespielt habe, bisher keine bugs zu sehen, kein vergleich zum wirklich grässligen cyberpunk

ich glaub, da muss mal einer zum Optiker :hammer_alt:
 
  • Gefällt mir
Reaktionen: Sandman2000, Slvr, Darken00 und eine weitere Person
domian schrieb:
ob man diesem Faktor in Tests noch diesen hohen Stellenwert beimisst.
Ja. So kann ich sehen ob meine CPU mit einem Upgrade auf GPU X klarkommt. Das würde sonst nur gehen, wenn man jede CPU plus GPU einzeln testet.
 
  • Gefällt mir
Reaktionen: NMA und .Sentinel.
GerryB schrieb:
Normalerweise reduzieren die Games mit der Auflösung die Objektdetails und Texturgrößen im Hintergrund, weil eeh nicht mehr zu erkennen.
Das Culling passiert im Normalfall auf der GPU. Die macht das deutlich schneller als die CPU.
GerryB schrieb:
Objekte brauchen Drawcalls von der CPU
Aber das steht nicht im direkten Zusammenhang mit einer Ausgabeauflösung. Es kann zwar scalability- Groups geben, die dann ein LOD bzw. die Szenengeometrie verhältnismäßig anpassen, sowie es auch third party Software gibt, die das Culling auf der CPU durchführen (Umbra), aber das ist alles nicht der Normalfall.
GerryB schrieb:
Texturen werden von der CPU ausgepackt und im Ram eingelagert, später an der Vram geschickt
Evtl. notwendige Komprimierung/Dekomprimierung laufen nicht auf den Render- Threads.
 
  • Gefällt mir
Reaktionen: RogueSix und Wintermute
Raucherdackel! schrieb:
Die Frage ist: kann ich es spielen, ohne irgendwelche Nachteile zu haben
Was, wenn ich mir das Video ansehe, klar mit Ja zu beantworten ist, es sei denn man sieht es nicht als Nachteil an wenn man fast nichts erkennen kann.

Und welche 500€+?
Um es deutlich besser als das spielen zu können würde ja schon eine 6500XT für 160€ ausreichen, damit bekommst du 30fps in 1080p Medium(sogar fast 40 mit 80% FSR) statt 20FPS in 540p low
 
  • Gefällt mir
Reaktionen: Wintermute und McFritte
Wintermute schrieb:
Oder lernen Grafikstil von technischer Qualität zu unterscheiden.

Starfield hat wie Fallout 4 einfach so nen komischen reduzieren "Comic Look". Ich find es auch furchtbar hässlich.
 
  • Gefällt mir
Reaktionen: bttn und eyefinity87
Starfield hat jetzt sicherlich nicht die Hammer-Grafik, aber ich kann nur jedem empfehlen (ausgenommen von bildverbessernden Mods natürlich), folgende Einstellungen zu prüfen oder zu ändern:

  • Dynamic Resolution Off (wenn man borderless fullscreen wählt, sollte das automatisch off sein)
  • Render Resolution Scale = 100%
  • Motion Blur Off
  • Upscaling Off
  • Enable VRS Off
  • Film Grain Intensity nach persönlichem Geschmack, aber mit "0.00" anfangen und ggf. hoch arbeiten!
  • Enable Depth of Field Off

Darüber hinaus bietet es sich an, die StarfieldPrefs.ini unter C:\Users\[Username]\Documents\My Games\Starfield zu editieren.

Hier:

Screenshot 2023-09-06 220759.png


^ Wie man sieht, gibt es sowohl unter '[Quality]', als auch unter '[MotionBlur]' Einträge zu eben jenem motion blur.

Man sollte prüfen, dass beide Werte, also 'uMotionBlur' UND 'bEnableMotionBlur' auf '0' stehen. Wenn man im Spiel motion blur auf 'off' stellt, dann ist einer der Werte noch auf '1' und somit ist motion blur nicht komplett aus. Dies kann und sollte man per *ini editing beheben.

Ohne Mods, sondern einfach 'vanilla', sieht Starfield bei diesen Änderungen eigentlich schon ganz anständig aus. Ich vermute, dass die Leute, die meckern, vor allem Dynamic Resolution und VRS noch eingeschaltet haben und deutlich unter 100% render scale rumgurken. Das sollte man korrigieren und erst dann über die Grafik meckern :D .
 
  • Gefällt mir
Reaktionen: Darken00
Taxxor schrieb:
Und welche 500€+?
Um es deutlich besser als das spielen zu können würde ja schon eine 6500XT für 160€ ausreichen, damit bekommst du 30fps in 1080p Medium(sogar fast 40 mit 80% FSR) statt 20FPS in 540p low
Es hapert ja nicht nur an der integrierten Grafik.
Der 2400G ist eine 4C/8T CPU und erreicht etwa 60% vom 2600X, der kleinsten hier auf CB getesteten CPU. Und die lag bei 35-36 FPS. Also übern Daumen 36 FPS*0.6 = 21.6 FPS (also genau wie in dem Video, mit Einbrüchen der 1% Perzentil auf ca. 15 FPS)
Er kann ja gerne für seine Maxed-Out-Settings noch jeweils 1-2 Frames draufschlagen. Ne Ruckelorgie bleibt das trotzdem. Im Gefecht mit mehreren Gegnern dürfte das echt "spaßig" werden. Da kann man sich auch die 160€ für die 6500XT sparen. Sieht zwar besser aus, läuft aber genauso lahm, da die CPU nicht hinterher kommt.
 
McFritte schrieb:
[...] Da kann man sich auch die 160€ für die 6500XT sparen. Sieht zwar besser aus, läuft aber genauso lahm, da die CPU nicht hinterher kommt.

Ähem... ich hoffe nicht, ich werd's aber mittelfristig dann mitkriegen. Oder vielleicht auch nicht. Ich hoffe auf das Beste mit dieser GPU.
 
@Melmoth
Du hast ja auch laut deiner Beschreibung einen 5600X, mein Antwort war auf den 2400G bezogen und das diese CPU selbst für die 6500XT bei Starfield zu lahm ist. Deine CPU ist mehr als doppelt so schnell.
 
So so ein Spiel mit 80 FPS ist also heutzutage schon unspielbar. Werde wohl alt.
Ehrlich die ganze Leistungsdebatte lässt mich recht kalt, weil Starfield so richtig "mid" ist. Wer Bethesda mag bekommt mehr Bethesda. Aber wer aufhört sich zu verbessern hat aufgehört gut zu sein trifft auch zu.
Für den einen mögen die archaischen Designentscheidungen zur DNA von Bethesda gehören aber ich finds nur noch altbacken. Die Menüführung war schon damals in Oblivion (2006) bescheiden sie jetzt in Starfield immer noch anzutreffen ist einfach nur noch traurig. Schießen funktioniert recht gut aber hat echt jemand von Bethesda Starfields Gunplay mit Destiny verglichen? LoL. Destiny ist zwar auch Softwaremüll aber Gunplay kann Bungie im Gegensatz zu so ziemlich allem anderen noch. Ansonsten kommt einfach keine Begeisterung auf. Die bisher mangelnde Präsentation, zu der auch mal wieder mal gehört das 3rd Person wohl eher so eine art Kästchen zum abhaken war, machen den Weltraumepos ziemlich öde.
Die Objekte wurde ja schön gestaltet, dieser "NASA-Punk" weiß zu gefallen, aber technisch bewegt man sich eher so am unteren Ende für AAA. Das fehlen von Subsurface Scattering hilft nicht gerade die eh schon hölzernen NPCs realistischer erscheinen zu lassen. Und loben wir echt noch Cube Maps wenn es RT gibt?
Upscaler hin oder her, wenn es nur einer sein kann bin ich durchaus für FSR damit es jeder nutzen kann, aber kein DLAA ist irgendwie dann doch doof. Die Gamebyro Engine gehört einfach endlich ins Museum.
Das Elders Scroll VI weiter darauf aufbaut und das gesamte veraltete Spieldesign von Starfield stimmen mich demgegenüber sehr skeptisch. Wird wohl doch nur Skyrim 2.0 aber jetzt mit Burgenbau...
Mit der Optik ist Bethesda vielleicht in ca. 2017 angekommen aber beim Spieldesign stecken sie IMO zu oft in 2006 fest... 7/10 full on mid.
 
  • Gefällt mir
Reaktionen: retrozerky, mibbio, No Escape und 4 andere
McFritte schrieb:
@Melmoth
Du hast ja auch laut deiner Beschreibung einen 5600X, mein Antwort war auf den 2400G bezogen und das diese CPU selbst für die 6500XT bei Starfield zu lahm ist. Deine CPU ist mehr als doppelt so schnell.

Jepp, bei über 1600 Beiträgen hab ich den Überblick verloren, sorry.
 
Serphiel schrieb:
So so ein Spiel mit 80 FPS ist also heutzutage schon unspielbar. Werde wohl alt.
Ich kann das auch nicht verstehen.
 
  • Gefällt mir
Reaktionen: Blackland, Ardadamarda, rosenholz und eine weitere Person
Wenn es denn überall 80FPS währen...
Es gibt Stellen im Spiel, da ist eine 7900XTX oder 4090 selbst in 4K mit maximalen settings im CPU Limit (je nach CPU).
Genauso gibt es Szenen, die auf den beiden schnellsten zu kaufenden Karten im GPU Limit in 720p sind...

Das ist einfach, technisch gesehen, totaler Müll (bezogen auf die Optik).

Da bedarf es noch Patches und fixes, sowohl seitens der GPU als auch der CPU (egal ob NV, AMD oder Intel).
 
Zuletzt bearbeitet:
McFritte schrieb:
Es hapert ja nicht nur an der integrierten Grafik.
Der 2400G ist eine 4C/8T CPU und erreicht etwa 60% vom 2600X, der kleinsten hier auf CB getesteten CPU. Und die lag bei 35-36 FPS. Also übern Daumen 36 FPS*0.6 = 21.6 FPS (also genau wie in dem Video, mit Einbrüchen der 1% Perzentil auf ca. 15 FPS)
Er kann ja gerne für seine Maxed-Out-Settings noch jeweils 1-2 Frames draufschlagen. Ne Ruckelorgie bleibt das trotzdem. Im Gefecht mit mehreren Gegnern dürfte das echt "spaßig" werden. Da kann man sich auch die 160€ für die 6500XT sparen. Sieht zwar besser aus, läuft aber genauso lahm, da die CPU nicht hinterher kommt.
Irgendwas limitiert immer. Aber auf diversen screens mit den 2400g`s haben diese mit der igpu ca 50% Auslastung. Ja vermutlich limitiert dann die cpu, aber immerhin dann 25-30fps und man könnte die Grafiksettings dabei auch höher stellen bis man im gpu limit ist. Wären nur mit der gpu auch immerhin ca 100% mehr fps als jetzt und das bei einer GRafikqualität, wo man etwas erkennt.

PS.: Habe aber selbst mal eine Zeitlang The Division auf einer HD530 gezockt mit nur 40fps und einer sehr "gewöhnungsbedürftigen" Grafik, war aber ok, man gewöhnt sich daran.

Manchmal gibt es halt keine option, auch nur 160€ zu investieren und man lässt es oder lebt mit abstrichen, thats life ^^.
Gebraucht würde ich eher einen 40€ 2600 und eine RX5700xt für ebenfalls schon unter 200€ empfehlen. 2700x gibt es gebraucht gefühlt keine und 3600+ sind dann wieder zu hoch für kleines budget. Evtl würde ja auch eine 100€ GTX 1660 auch reichen bei den minimalen Ansprüchen, bei trotzdem sichbar besser Qualität und FPS um nicht zu viel investieren zu müssen.
 
Zuletzt bearbeitet:
Danke erstmal, dass die RX 5700 XT niemals grossartig bei euch erscheint. Dafür aber immer 80 verschiedene RTX Karten. Nicht explizit hier aber ganz grundsätzlich. Ist mir die Jahre bestimmt höchstens 3-4x hier begegnet. Jetzt ist es langsam eh zu spät.

Habs selbst getestet. 5800X ohne 3D in FHD & FSR mit leicht angepassten high Setting ohne vSync und variabler Auflösung lässt 60 - 80 FPS springen laut Adrenalin FPS Counter.
Also viel heisse Luft für nix ohne Frühstück. Läuft soweit gut für meine 40+ Augen und Ohren.
 
OSx86 schrieb:
Danke erstmal, dass die RX 5700 XT niemals grossartig bei euch erscheint. Dafür aber immer 80 verschiedene RTX Karten. Nicht explizit hier aber ganz grundsätzlich. Ist mir die Jahre bestimmt höchstens 3-4x hier begegnet. Jetzt ist es langsam eh zu spät.
Nicht 1:1, aber die RX5700XT lässt sich gut mit einer 2070s oder 2080 vergleichen je nach Game und welchem Hersteller es besser liegt. Mache ich bei meiner 5700xt auch so;). Natürlich unverständlich , da die 5700 sicher eine nicht so geringe Verbreitung geniest.
 
Der ideale Zustand wäre eine Upscaling API in DirectX und Vulkan.

Der Treiber liefert dann die Hardware spezifische Implementierung. Die kann DLSS, FSR, XESS oder sonst was sein.
 
  • Gefällt mir
Reaktionen: pietcux, up.whatever, Foxel und 2 andere
Zurück
Oben