• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Starfield auf dem PC: Bethesda schiebt schlechte Leistung auf alte Hardware

Otsy schrieb:
Zumal natives 4K ironischerweise auch das ist, was laut (gefühlter) Mehrheitsmeinung hier im Forum seit DLSS, FSR und XeSS nicht mehr relevant wäre.
Schrecklich oder!? Wir entwickeln uns zurück beim Voranschreiten...

Zur Aussage:
Sie zocken wohl schon auf RTX 5k oder AMD RX8000er?! :D
oder: er hat einfach gar keine Ahunung wovon er redet und seine Devs haben ihm eine Vorschau auf mittleren Settings vorgesetzt, damit er sie nicht ständig nervt, wann das Game fertig sei :D
 
abduladarula schrieb:
und du denkst wirklich, dass der Preis für Starfield nicht schon in dem Preis deiner 7900 XT kalkuliert wurde?

Aber ist ja schön, dass du dich um ein "kostenloses" Spiel freust :freak:
Sowas wird unter Werbung verbucht und von der Steuer abgezogen.

Oder als die Aktion mit Star Wars Jedi: Survivor endete: Sind da etwa die Preise der Grafikkarten um den Preis des Spiels gesunken?

Und auch ohne Spiel hätte ich mir die Grafikkarte gekauft, nur weil ein Spiel im Bundle ist, kaufe ich keine Grafikkarte, solange es die alte noch tut. ;)
 
  • Gefällt mir
Reaktionen: fox40phil
DriveByFM schrieb:
Also keine Ahnung was ein meinen 7800X3D und 4090 alt sein soll, denn was wirklich schnelleres oder neueres gibt es ja nicht. Das Game läuft wirklich Grütze wenn man die Optik dafür sieht.
deswegen finde ich, dass auch rein fürs Gaming keine TOP-End GPU Sinn macht. Die Entwickler machen sowieso was sie wollen und am Ende Gamer wie du eben auch vor einer schlechten Grafik und Performance ;). (Nicht falsch verstehen, ist ne geile GPU - vor allem für Rendering und AI etc. und Gaming natürlich)
 
  • Gefällt mir
Reaktionen: DriveByFM
Also ich mag so einen Humor.
Vielleicht noch ein kleiner Satire Hinweis, falls man das auf die schnelle nicht gleich bemerkt?
 
158 Personen schrieb:
Ich könnte einfach nur kotzen nwenn ich Leute sehe wo meinen mit ihrer veralteten Low End Hardware Next Gen Games zocken zu müssen anstatt einzusehen, daß die Zeit ihrer Gammelhardware längst abgelaufen ist. Mit einer 3070 läuft das Game rund. Alles darunter ist old Gen.

Er hat 3070 gesagt, süß.


Zum Thema: Das Spiel hat keine NextGen Grafik weil einfach auch keine NextGen Engine und die Performance ist somit unter Erwartung. Da kann der gute Todd noch so viel jammern.

CD Projekt hätte solch eine Aussage bei Cyberpunk machen dürfen.
 
Wie dreist kann man eigentlich sein? Die denken bei Bethesda glaub ich wirklich, dass das Spiel gut ist? Die ganzen 10/10 fake reviews helfen da auch nicht weiter. Das wie bei Donald Trump oder Mr Burns, wenn man nur von Ja Sagern umgeben ist. Scheinbar hatte niemand den Mut mal Todd zu sagen wie schlecht das Game ist. Kein Wunder, wenn es eine 20 Jahre alte Engine nutzt, dass es dann so mies läuft, voller bugs ist und aussieht wie ein xbox 360 game. 6/10 nicht mehr und nicht weniger.
 
Schlecht programmiertes Spiel, und dann solch eine Aussage? So macht man sich unbeliebt.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
cmok schrieb:
Aber was machen die Leute, die keinen DeLorean in der Garage haben
Die nehmen den Whirlpool :evillol:

Mal im Ernst, gemessen an den bisher verfügbaren Bildern und Videos im Netz, ist das Spiel rein grafisch schon ziemlich altbacken, dafür ist der GPU Hunger zu groß.
Den CPU Verschleiß lasse ich noch aufgrund der Größe des Spiels gelten, aber auch hier hätte man viel mehr rausholen können (Mehrkern Optimierung).

Die Aussage ist schon ziemlich realitätsfern.
 
bttn schrieb:
Es erfüllt mich mit ehrlich großer Freude, dass das bei dir so ist. Und ich bin neidisch.
Ich kann das leider nicht so teilen. Es ist eher NICHT der Fall in meinem Setup.

Das Spiel läuft bei mir unrund, hakelig und unruhig, trotz 80FPS und Freesync.

Dann solltest du tatsächlich auf Ursachenforschung gehen, denn auch abseits von meiner Person bestätigt das Gros der Reviews glatte Frametimes und ein 'sauberes' Spielgefühl.

Läuft Freesync bei dir womöglich nicht richtig?
 
  • Gefällt mir
Reaktionen: bttn
Also wieder ein typischer Fall von "Kaufe nie zum Release!"

Ich spare mir hier mein Geld und springe nicht auf den Hypetrain mit auf. Zu Weihnachten nach 9 Patches oder tollen MODs wird das Spiel interessant.
Dann noch auf den ersten Sale warten und 20% günstiger kaufen.

Aktuell habe ich mit BG3 noch genug zu tun und draussen ist noch Sommer. Starfield ist was für lauschige Regentage im Herbst/Winter. 🚀
 
<- ich habe ein 5800x3d und eine 4090 in Star Citizen habe ich (bei Gutem Server) 40-80 FPS in städte, im ALL sind es 70-175FPS (1440p mit max setting´s). Und das ohne FSR oder DLSS mit im Vergleich zu Starfield ist das wirklich Aktuelle Grafik und nicht von 2017. Spiel ansich ist ok.
 
  • Gefällt mir
Reaktionen: Ice_Dundee
abduladarula schrieb:
ut, das beruhigt mich jetzt dann doch, wobei ich mir doch schäbig vorkomme mit meiner 3070.
Das ist Käse. In WQHD läuft es auch hier (inkl. DLSS-Mod) sehr geschmeidig. Je nach Ort, Szene etc. zwischen 45 - 80+, teilweise über 100 FPS. Mit Ausprobieren der Settings und den INI-Tweaks sollte man sich aber schon etwas anfreunden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ice_Dundee, Blackland und abduladarula
158 Personen schrieb:
Ich könnte einfach nur kotzen nwenn ich Leute sehe wo meinen mit ihrer veralteten Low End Hardware Next Gen Games zocken zu müssen anstatt einzusehen, daß die Zeit ihrer Gammelhardware längst abgelaufen ist. Mit einer 3070 läuft das Game rund. Alles darunter ist old Gen.

Laut CB bench. kriegst du nichtmal 40FPS in WQHD. Und zwar mit Grafik runtergestellt auf High. Ohne Raytracing.

Mit so einer Performance wär ich ja mal nicht so laut damit andere Hardware als Gammel zu bezeichnen.
 
  • Gefällt mir
Reaktionen: DaLexy, Innocience, Araska und 3 andere
fox40phil schrieb:
deswegen finde ich, dass auch rein fürs Gaming keine TOP-End GPU Sinn macht.
Mit seiner 4090 ständig ins CPU-Limit zu laufen, finde ich jetzt andererseits aber auch nicht so geil.
 
spiele nativ in 4k auf ultra, und es läuft bombastisch gut. keine ahnung ob meine 4090 von starfield gefordert wird 😝

was aber garnicht geht ist mangelnde optimierung auf zu alte hardware zu schieben, so geil das spiel auch ist. das ist ein no-go. immer schön den schwarzen peter an andere geben... fällt aber als neue volkskrankheit auf, dass spiele immer schlechter optimiert erscheinen. war in den letzten beiden jahren im grunde eine katastrophe was die spieleschmieden in der hinsicht abgeliefert haben.

bugs konnte ich bis jetzt keine feststellen. bin lvl 15 und in der story ca. so 5-6 artefaktstücke nach der neon-quest.
 
Ich habe mit dem Spiel keine Problem bisher, auf der XSX, aber das hätte er sich sparen können. Es sei denn, er hat das "Die Neuerscheinung laufe „großartig“ und sei ein „Next-Gen“-Spiel." ganz anders gemeint. Eventuell wollte er damit ausdrücken, dass es auf dem PC mit der "NextGen", also Nvidia 5090, dann großartig laufen wird?!? :D

Tenferenzu schrieb:
Gerade die Erde müsste man doch gut nachbauen können aber ..

Haben Sie doch. Das ist das, was wir wahrscheinlich dank der Klimakatastrophe und Überbevölkerung im Jahre 2330 erwarten können oder zumindest die Entwickler prognostizieren. 🤷‍♂️
 
  • Gefällt mir
Reaktionen: Blackland
Genau welchen solchen unfertigen Spielen wird man quasi in die Warez Szene genötigt.
Und nein 3 Jahr alte Hardware ist nicht alt. Das Spiel ist technisch einfach großer Mist.
 
  • Gefällt mir
Reaktionen: DaLexy
M@tze schrieb:
Haben Sie doch. Das ist das, was wir wahrscheinlich dank der Klimakatastrophe und Überbevölkerung im Jahre 2330 erwarten können oder zumindest die Entwickler prognostizieren. 🤷‍♂️
Also zumindest die Pyramiden die jetzt schon 3000 Jahre alt sind müssten doch locker noch 300 Jahre überdauern können... Ein Haufen Steine bleibt halt ein Haufen Steine. Da rostet auch nichts.
 
  • Gefällt mir
Reaktionen: Lord B. und M@tze
Exit666 schrieb:
Geht man auf eine schwach ausgeleuchtete Ecke zu, liegt sie auf ein Mal, wenn man in der Ecke steht, voll im Schatten und das schwarz säuft komplett ab. Dunkle Stellen sind so dunkel, dass gar keine Zeichnung mehr drin ist (hallo Eye Adaption?).

Zumal man eine Mod braucht, um schwarzes Schwarz zu bekommen, dieser Schleier in Vanilla, puh.

Es ist klar, dass die Mod nicht mehr Details rausholen kann und du dann clipping beim schwarz hast.

Denn schon das normale Color grading arbeitet mit einem reduzierten Farbraum, wo eben Schwarz meist eher grau wirkt. Auch weiß wird übrigens reduziert.
Ist halt Stilmittel. Gewöhnungsbedürftig ja, aber ich finde, es erfüllt seinen Zweck gewissermaßen, vor allem weil es auch ziemlich dynamisch arbeitet und ein wenig mit den Farbtönen gespielt wird.
Ich sehe da schon, dass das nen ziemlich filmischen Look erzeugt. Bin jetzt auch kein Fan davon, aber ganz ohne würde das Spiel wahrscheinlich noch älter wirken.

Ich würde zwar eine andere Lösung bevorzugen, würde persönlich jetzt aber auch keine Mods nutzen, die das nur noch verschlimmbessern.
Wenn dann müsste eine Mod das Colorgrading komplett aus dem Spiel nehmen oder ersetzen und nicht nur on-top korrekturen versuchen.
 
Man müsste dazu mal simulieren, was der Verlust der Magnetosphäre und der kompletten Atmosphäre bedeuten würde und welche Auswirkungen über Zeit das auf Strukturen hat.
 
Zurück
Oben