• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Starfield im Test: 24 Grafikkarten und 12 Prozessoren im Benchmark

Vigilant schrieb:
Möglich, aber dynamisches und einstellbares LoD wäre absolut wünschenswert, um die Performance zu verbessern. Der Gewinn für Optik und Gameplay ist zudem auch vom eigenen Anspruch anhängig. Von daher sind Individualisierungs-Optionen auch Komfortgewinn.
Sehe ich genau so! Ein Sichtweiten-Regler wäre auch perfekt um die CPU etwas zu entlasten.
Zumindest einen Regler mit 3 Einstellmöglichkeiten Niedrig, Mittel, Hoch muss nicht "fließend" sein.
 
  • Gefällt mir
Reaktionen: Vitec, Gesualdo und Vigilant
mylight schrieb:
on/off macht bei mir kein unterschied bei dir etwa?
Oh. Du hast Recht. Macht bei mir auch keinen Unterschied.
Meine Auflösungsauswahl im Spiel ist auch ausgegraut.
Könnte es daran liegen, dass es nicht geht, wenn FSR (oder bei mir DLSS per mod) aktiv ist?
 
Schokolade schrieb:
Es gibt auch schon neue Hinweise woher die Performance Probleme kommen https://www.reddit.com/r/Starfield/..._programming_faults_discovered_in_starfields/

Auszug:
  1. Starfield allocates its memory incorrectly where it doesn't align to the CPU page size. If your GPU drivers are not robust against this, your game is going to crash at random times.
  2. Starfield abuses a dx12 feature called ExecuteIndirect. One of the things that this wants is some hints from the game so that the graphics driver knows what to expect. Since Starfield sends in bogus hints, the graphics drivers get caught off gaurd trying to process the data and end up making bubbles in the command queue. These bubbles mean the GPU has to stop what it's doing, double check the assumptions it made about the indirect execute and start over again.
  3. Starfield creates multiple ExecuteIndirect calls back to back instead of batching them meaning the problem above is compounded multiple times.
Gibt dazu ein pull request im vkd3d-proton project. Das hier sagt eigentlich schon alles.
NOTE: The meaning of this PR, potential perf impact and the problem it tries to solve is being grossly misrepresented on other sites.
https://github.com/HansKristian-Work/vkd3d-proton/pull/1694
 
Gesualdo schrieb:
Meine Auflösungsauswahl im Spiel ist auch ausgegraut.
Könnte es daran liegen, dass es nicht geht, wenn FSR (oder bei mir DLSS per mod) aktiv ist?
Die ist generell ausgegraut weil das Spiel im randlosen fenstermodus läuft und somit immer die Desktopauflösung nutzt
 
  • Gefällt mir
Reaktionen: iron_monkey, Maxminator, drunken.panda und eine weitere Person
Tannenzapfen schrieb:
Das erste Mal, dass sich meine RTX 4090 "minderwertig" anfühlt 😉
Schon krass, dass die 7900XTX an der 4090 vorbeiziehen konnte. Aber wenn ein Spiel derart auf AMD zugeschnitten ist, auch irgendwie nachvollziehbar.
Gab es ja auch schon anders herum, von daher zu verschmerzen, oder?
Mir ist es egal, meine olle Hardware reicht für das Spiel nicht mehr aus, also bleib ich bei Tomb Raider 🤣
 
Ich habe Starfield gestern Abend das erste mal gespielt und ich muss sagen ...WOW! Das Spiel hat mich absolut abgeholt.
Grafisch finde ich es durchaus gelungen. Bis auf die Charakteranimationen, die jetzt aber auch nicht komplett unterirdisch sind, wirkt alles sehr detailliert und stimmig.
Das Spiel muss sich vor einem Cyberpunk nicht verstecken. In der Summe gefällt mir Starfields Grafik so gar besser.
Ja kein RT,aber ich vermisse es null.

Die Performance ist auch okay. Ich spiele nativ 1440p mit FSR2 als Kantenglättung und bis auf die Schatten alles auf Ultra.
Ich hab so meistens um die 60 FPS. Das minimum waren bisher mal 48 FPS. Aber alles fühlt sich sehr fluffig an und sehr gut spielbar.
 
  • Gefällt mir
Reaktionen: iron_monkey, Apo, Grundgütiger und eine weitere Person
halbtuer2 schrieb:
Gab es ja auch schon anders herum, von daher zu verschmerzen, oder?
Mir ist es egal, meine olle Hardware reicht für das Spiel nicht mehr aus, also bleib ich bei Tomb Raider 🤣
Dachte ich auch , naja nun hab ich ein mini upgrade gemacht, damit das game zumindest einigermassen läuft.
3400g raus und 3600 rein, sowie die 5700xt , die eigentlich noch gut war, heute durch ne 6700xt ersetzt. Dürfte dann hoffentlich so viel mehr Leistung bringen, dass die 60fps stabiler gehalten werden und schatten, die ja nur auf Graka gehen, leicht anheben ;) .
Allerdings muss ich dazu sagen, das ich sowiso auf dem Markt schon länger schaue nach gebrauchten 6700xt oder 6800, von daher nicht nur für das Game aufgerüstet.
Und der 3400g war auch schon grenzwertig ^^.
Werde nach dem 1 Monat Gamepass, aber auch nicht weiterspielen, hab soweit alles vom Game gesehen .
NG+ evtl. mal später, aber nur für ein paar "kleine" Änderungen bei der Logencrew, zock ich nicht alles nochmal durch. Für 10€ war das gebotene aber ok.
 
Müsste ich nachsehen, aber auf jeden Fall mehr als 2 Stunden 🤪.
Level 45 und noch läuft der Gamepass. Kino interessiert mich sowiso nicht.
 
Das Spiel ist so dermaßen schlecht optimiert das ich dafür keine Worte finde. Mit welcher Berechtigung brauch das Spiel so hohe Anforderungen bei Grafikkarten bei der miserablen altbackenden Optik? Und der Müll wird hier auch noch gefeiert ... unglaublich.

Gott sei Dank war das Spiel im Gamepass enthalten. Ich hätte mich zu Tode geärgert wenn ich für den Schrott den Vollpreis bezahlt hätte
 
Ich finde die Grafik nicht schlecht. Cyberpunk sieht in der Summe auch nicht viel besser aus.
Gerade die Details und das LOD sind ziemlich krass in dem Spiel.
 
  • Gefällt mir
Reaktionen: Melmoth
Besitze eine rtx 3090, ryzen 2600 und 2x8 gb 3000 mhz rams.

In 4k habe ich sehr starke Leistungseinbuße auch in 4k hoch preset. Erreiche zum grössten Teil zwar die 60 fps(vysnc) aber oftmals je nach Ort schwankt die Bildwidergabe zwischen 40 und 60 fps. Ab und an mal gibt es Ausreißer weiter nach unten. Gpu Auslastung meist zwischen 70 und 99%.
Solch eine Erfahrung hatte ich in 4k noch nie.

Ist das erste Mal, dass ich meine CPU für ein Spiel hochtakten musste. Dabei festgestellt, dass ich eine miese Lotterie erwischt habe. kann aber auch am günstigen Mainboard liegen.

Mit 4GHz an meinem Ryzen 2600 habe ich nun etwa 9% mehr Leistung rauskitzeln können. Dafür läuft sie aber deutlich wärmer mit etwa 80 Grad Celsius. Im Standardtakt waren es meist etwa 55 Grad C. Gekühlt wird er mit einem Alpenföhn Brocken Eco.
Aktueller Strombedarf der CPU stieg hoch auf 100 Watt, von etwa 70 Watt.

Noch ist aber kein Wechsel der CPU in Planung. Werde das Geschehen weiter beobachten.
 
Zuletzt bearbeitet:
Habe gestern nach über 3 Wochen Pause mal damit getestet, fällt jetzt nix besonderes auf. Wahrscheinlich nur in den speziellen Situationen. Wird später bei ordentlicher Patchgröße sicher anders. ;)
 
Ein Patch hat die Leistung von Nvidia Karten um etwa 30% gesteigert, bei AMD bringts 5%.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tornavida
Ist ja egal. Der kommt noch Final. Sind die AMDs auch peformanter?
 
Zurück
Oben