• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Starfield auf dem PC: Bethesda schiebt schlechte Leistung auf alte Hardware

Auf was soll ich denn bitte aufrüsten? Es ist nichts zum Aufrüsten da.

Wenn nicht mal eine 4090 ausreicht.

ich mein. Klar, wenn ich mit einer 1080 Ti oder 5700 XT ankomme, dann ja, dann hat er recht.

Ist er jetzt so größenwahnsinnig, dass er denkt, dass sich die Leute jetzt für Starfield eine 4090 kaufen? Für ein 0815 typisches Bethesda-Spiel?
 
  • Gefällt mir
Reaktionen: martman, Malaclypse17 und BassCatBall
Habe einen 5800x3D und eine RTX 4090 und es läuft wirklich nicht besonders toll. Wenn ich dann noch sehe, dass es kein 5120x1440 unterstützt und dann auf 3440x1440 cuttet..
Mit dem DLSS Mod flimmert es tatsächlich deutlich weniger als nativ, das kann doch alles nicht deren Ernst sein.

Zum Glück habe ich für dieses Spiel keinen Cent bezahlt..
 
  • Gefällt mir
Reaktionen: martman
An alle, die wieder mal auf ein Hype reingefallen sind und dieses Elend auch noch bezahlt haben tun mir Leid :)
 
  • Gefällt mir
Reaktionen: murchad und _roman_
Ich denke der Mann ist einfach stolz auf sein bzw. das Werk seines Teams der letzten 5-10 Jahre und fühlt sich durch die Kritik an der Performance angegriffen. Ich kann das durchaus verstehen, aber er müsste gerade als Führungsperson eigentlich die Zähne zusammenbeißen und sich mit solchen Aussagen zurückhalten. Kann nur negativ für ihn und seine Mitarbeitenden laufen. Ich glaube kaum, dass irgendjemand diese Äußerungen toll findet.

Bzgl. Performance/Optik-Verhältnis - ich finde das ziemlich schwankend in Starfield. Die Innenräume sehen häufig wirklich fantastisch aus, aber gerade die Vegetation und die Gesichtsanimationen sind nicht auf der Höhe der Zeit. Ich habe die Grafik bisher allerdings auch nur in Videos anschauen können. Kaufen und spielen werde ich das Spiel erst, wenn auch Nvidia Grafikkarten erkennbar unterstützt werden. Dass die 4090 schlechter performt als die 7900 XTX, macht angesichts der relativ großen technischen Überlegenheit der 4090 kaum Sinn. Ob es jetzt an fehlender Optimierung im Nvidia Treiber oder im Spiel liegt, weiß ich nicht. Aber unter 60 FPS in 4K ohne Möglichkeit zur Nutzung von nativ implementiertem DLSS tue ich mir vorerst nicht an. Gleiches gilt für die merkwürdig schlechte Performance der AMD Prozessoren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bttn
Starfield hat bei Steam ein neues Hoch erreicht. 264k gleichzeitige Spieler. Sorry für die Jammerlappen, die das als Fail bezeichnen und an alle ranter.
Ich spiele über Xbox auf dem PC und habe wirklich Spaß. Keine Ahnung wie da die Zahlen sind, aber da das Spiel über XBox gepuscht wird .... nope. Läuft.
 
heroesgaming schrieb:
Das würde ich so nicht unterschreiben. Dual-GPU-Systeme waren weit extremere Exoten als einzelne High-End-GPUs es heute sind.

Wäre interessant, ob jemand das mit zahlen unterlegen kann ...
Im Gamingbereich sicherlich Exoten.

Im professionellen Einsatz (Medien/Veranstaltungstechnik - einfach mal dicke Videowände am Messestand pixelgenau anfahren)
war der Kram absolut nicht exotisch.

Andere Massstäbe ;)

Ich sag mal nur 128x Dual-GPU.
1h lang für die einschlägige Presse.
Automobilbereich.
Und dann fliegt das Zeug auf den Müll.
Vorher mit dem Hammer drauf.
Den A8 und den Roboterarm, an den man das Auto drangehängt hatte gleich mit.
60 Minuten - 60 Millionen Taler.

Und bei Euch ruckeln die Games.

*shrug

Edith:

Schaut dann so aus ;)
 
Zuletzt bearbeitet:
UhrenPeter schrieb:
Also unterdurchschnittlich!

Das ist einzig und alleine deine persönliche Sicht. Vielleicht solltest Du akzeptieren, dass ein sehr sehr großer Teil an Spielern mit Bethesda Spielen (TES und Fallout ohne das grauenvolle 76) absolut zufrieden sind und diese gerne spielen. Wenn Dir das nicht passt, ist das ja in Ordnung. Aber Du bist halt die Ausnahme und nicht die Regel und deine Ansicht besitzt hier keine Allgemeingültigkeit.

UhrenPeter schrieb:
Es ist einfach nur ein grobes Gerüst und es liegt an den Moddern daraus das zu machen

Wenn das Basisspiel nichts taugen würde, würde es keiner spielen. Auch schon bei TES und Fallout nicht. Dann gäbe es erst gar keine so große Modding-Community um die Spiele.

Vitec schrieb:
Letztlich muss man sich wohl damit abfinden, dass da nicht mehr viel Optimierung kommen wird, sondern man mit Bruteforce und der next gen cpu/gpu dagegen arbeiten muss.

Mal davon abgesehen, dass man sich mit der Creation Engine sicherlich keinen Gefallen getan hat, aber ich denke die Leute sollten langsam akzeptieren, dass die Zeit vorbei ist, in denen man bei neuen Titeln hohe Auflösungen nativ fahren kann. FSR und DLSS existieren ja nicht ohne Grund. Und ich sehe kein Problem darin, diese standardmäßig zu aktivieren, denn das Ergebnis kann durchaus in den meisten Fällen überzeugen.

Almalexia schrieb:
dass sich die Leute jetzt für Starfield eine 4090 kaufen? Für ein 0815 typisches Bethesda-Spiel?

Warum sollte man dafür nicht aufrüsten? Für was denn sonst? Starfield ist, soweit ich den Überblick habe, das erste AAA-Spiel in diesem Jahr welches bei Erscheinen keine Total-Katastrophe ist. Es ist ein gutes Spiel mit (gemessen am Spielumfang) wenigen Problemen.
 
mibbio schrieb:
Wenn ich mich nicht irre, braucht die aktuelle DLSS-Generation doch gar keine vortrainierten KI-Daten, sondern macht alles komplett zur Laufzeit. Trainingsdaten im Voraus brauchte doch eigentlich nur DLSS 1.
Ich meine, das es auch so läuft, aber trotzdem trainiert werden kann, um bessere Resultate zu geben, aber sicher bin ich da nicht, sondern das war der Anschein, der sich mir ergab.
 
MaverickM schrieb:
Das ist einzig und alleine deine persönliche Sicht. Vielleicht solltest Du akzeptieren, dass ein sehr sehr großer Teil an Spielern mit Bethesda Spielen (TES und Fallout ohne das grauenvolle 76) absolut zufrieden sind und diese gerne spielen. Wenn Dir das nicht passt, ist das ja in Ordnung. Aber Du bist halt die Ausnahme und nicht die Regel und deine Ansicht besitzt hier keine Allgemeingültigkeit.



Wenn das Basisspiel nichts taugen würde, würde es keiner spielen. Auch schon bei TES und Fallout nicht. Dann gäbe es erst gar keine so große Modding-Community um die Spiele.



Mal davon abgesehen, dass man sich mit der Creation Engine sicherlich keinen Gefallen getan hat, aber ich denke die Leute sollten langsam akzeptieren, dass die Zeit vorbei ist, in denen man bei neuen Titeln hohe Auflösungen nativ fahren kann. FSR und DLSS existieren ja nicht ohne Grund. Und ich sehe kein Problem darin, diese standardmäßig zu aktivieren, denn das Ergebnis kann durchaus in den meisten Fällen überzeugen.



Warum sollte man dafür nicht aufrüsten? Für was denn sonst? Starfield ist, soweit ich den Überblick habe, das erste AAA-Spiel in diesem Jahr welches bei Erscheinen keine Total-Katastrophe ist. Es ist ein gutes Spiel mit (gemessen am Spielumfang) wenigen Problemen.

Baldurs Gate?
 
MrHeisenberg schrieb:
Grundsätzlich hast du ja nicht unrecht, aber selbst eine 4090 ist fast zu schwach und wird dabei nicht mal ausgelastet. Bethesda hat sich hier nicht wirklich die Mühe gemacht die gebotene Leistung effizient zu nutzen.
Naja- Die Entwickler zielen mit High- End Systemen auf 4K60.

Das passt. Man kann ja bei Bedarf noch FSR oder DLSS+FG zuschalten. Dann kommt man auch auf 120 oder 144FPS....

Und den Tod, dass man bei einer relativ großen persistenten open world leider an einem Thread hängt und man dadurch sehr schnell im Limit landet, muss man aus Synchronisationsgründen sterben.

Deswegen rattere ich ja gebetsmühlenartig runter, dass hohe Singlecore- Leistung und I/O dahinter deutlich wichtiger fürs Zocken ist, als der 30te Kern...
 
@JensG, MaverickM lässt keine Kritik, an seinem guten Spiel, zu.

Technisch ist Starfield keine Glanzleistung und bessere/gleichgute Grafik gibt es in Star Citizen und CP 2077. Entscheidungsfreiheit ist so lala, aber wenn man von Baldurs Gate 3 kommt, ist das kein Wunder.
 
UhrenPeter schrieb:
YouTube, Reddit, Twitter,
Sind jetzt keine guten Bespiele, vorallem die letzten Beiden, als seriöse Informationenquellen um sich eine eigene Meinung zu bilden oder ein seriöses Meinungsbild abzuleiten.
Auch bei YT kommt es stark darauf an wen/was man sich anschaut, welche Qualität die Informationen haben.

Meine Meinung.
Ergänzung ()

Syrato schrieb:
gibt es in Star Citizen und CP 2077
Grafik vielleicht. Gameplay und Gameplay Mechaniken ist dann nochmal was Anderes.
 
Genau ! Liegt alles an den Loser Usern die keine 96 Kern 79xx Threadripper CPU, voll genutzte RAM Bandbreite und eine Radeon W7900 Pro als GPU haben. Denn damit würde Starfield wahrscheinlich problemlos flüssig laufen.
Oder, vielleicht liegt es an der lahmen Engine, fehlender Optimierung und großer Überheblichkeit bei Bethesda. Nur so als zweite Möglichkeit.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Naja- Die Entwickler zielen mit High- End Systemen auf 4K60.

Ziel waren 30 FPS auf der SeriesX.
Die Anforderungen am PC für 4K60 ergeben sich damit dann automatisch.

Wie Digital Foundry heute auf Youtube gezeigt hat, braucht man am PC auch nur eine RX6700, welche nach Spezifikationen einer PS5 am nächsten kommt.
Damit läuft es mit konstant 30 FPS in 1440p, wie auf der Xbox auch bzw. 30-40 FPS ohne FPS lock.

Ich glaube Todd Howard ist sich da auch der Ansprüche der PC Spieler nicht bewusst. Ich meine, wenn es auf der SeriesX mit 30 FPS läuft, was er wahrscheinlich als gute Baseline sieht und das bereits mit einer RX 6700 am PC genauso läuft, dann hat er jedes Recht, zu sagen, dass man seinen PC mal aufrüsten könnte, wenn man diese Leistung nicht erreicht.

Das Problem ist eben, wie ich schon oft gesagt habe, dass sich aktuelle Mittelklasse Hardware nicht stark genug von den Konsolen absetzen kann. Man bekommt hier fast 3 Jahre nach Konsolenrelease noch immer keine doppelte Performance zum gleichen Preis. Noch immer muss man sich in der Mittelklasse mit 30-80% mehr Leistung im Vergleich zu den Konsolen zufrieden geben. Erst wenn man zu den High End Karten greift, bekommt man 2-3 fache Leistung und erst damit wird dann der Anspruch von vielen PC spielern wirklich bedient. Vor allem, wenns auf Konsole eben nur 30 FPS gibt.

Früher hat das die Mittelklasse tatsächlich geleistet. Da hat man 2-3 Fache Konsolenleistung ziemlich günstig bekommen. Heute braucht es High End. High End das im Vergleich zu damals doppelt so teuer ist. Das ist das Problem.

Man kann Bethesda dafür kritisieren, dass die Grafik hätte besser aussehen können und dass das Spiel allgemein auf jeder Plattform mit 60 FPS hätte laufen sollen.
Aber dass wir am PC nicht genug Leistung zu akzeptablen Preisen haben, um ein 30 FPS konsolenspiel auf 60 oder 90 FPS zu Beschleunigen ist alleine Nvidias und AMDs problem.

Denn ganz ehrlich, unabhängig von Starfield muss man jederzeit damit rechnen, dass 1440p30 Spiele auf Konsole kommen. Es wird wahrscheinlich irgendwann auch 1080p30 genutzt werden. FSR sei „dank“. Dann steigen die Anforderungen am PC nochmal.
Damit muss man eben rechnen.

Wenn dann PC spieler Grafikkarten kaufen, die nicht entsprechend schneller sind, dann sind sie doch selber schuld. Die aktuell gebotene Performance und Preise sind inakzeptabel.
Aber wenn dann Leute bereit waren für Karten wie eine RTX 3070 über 1000€ hinzulegen, obwohl sie viel zu langsam ist, um ein Konsolenspiel von 30 auf 60 FPS zu bringen, dann haben sie es jetzt wohl nicht anders verdient…
 
Zuletzt bearbeitet:
NOTaNerd schrieb:
Grafik vielleicht. Gameplay und Gameplay Mechaniken ist dann nochmal was Anderes.
Mir geht es gerade nur um die Optik.
 
  • Gefällt mir
Reaktionen: NOTaNerd
was die letzten Jahre hinsichtlich Grafik abgeht ist der größte Schwachsinn seit es Gaming gibt.

Seid doch nicht dumm, lasst euch nicht melken!

Man konnte ALLES mit ner 290-350€ untere Oberklasse GPUs zB gtx 1070 und 2070 auf 24" in 1080p auf high quality mehr als flüssig spielen.

Alles sah top aus, alle waren happy.

Jetzt drücken sie uns 2k und 4k auf, am besten morgen 8k.
Natürlich muss es jetzt auch ein 4k 30" 144Hz Gaming Monitor für 500€ sein.
Raytracing, Bildqualiverbesserungs-Technik 1 bis 100 Version 1 bis 200.
Hyper Quantum Nirvana Universum Giga Preset Level 2000

So ein Schwachsinn!

90% der Standard-Gamer würden 2k Highquali 60Hz von 8k Hyper-Preset 144Hz nicht mal mit der Lupe unterscheiden können aber hauptsache die FPS-Anzeige öffnen und weinen weil es statt 144 nur 52 FPS sind und die GPU auf 90% load läuft und der PC 400W+ aus der Dose zieht

Und das am besten auch noch fürn single-Player Spiel für 69€ mit 20 Spielstunden.

Kauft euch ne gebrauchte 6800 oder 3070, spielt auf 2k mit high settings statt ultra, setzt den FPS limiter auf 60 und freut euch an den games

sogar Low-Req Spiele wie Diablo 4 bringen auf 4k nur 70fps mit ner 500€ GPU
Finde den Fehler

ignoriert diese "wir haben jetzt noch mehr features die noch mehr Leistung fressen und jetzt reicht eure Leistung nicht mehr und ihr müsst upgraden und unsere völlig überteuerten Rotz-GPUs kaufen" Masche
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: -=[CrysiS]=- und ZacHarT
engine ist ein Witz.
Story im Scheisshaus erstellt.
Gewinnmaximierung des todes für den Markt, nach dem Motto: wenn du couch potato mehr fps willst kauf dir eine Grafikkarte im Wert einer Console oder Kleinwagens xD
 
1994 schrieb:
Habe einen 5800x3D

Das ist ein Museumsstück - Einstiegssegement Prozessor für 2024.

Die 300€ hätte man besser in einen Ryzen 7600X gesteckt.

War ja nicht so, dass mir das selbst im Februar bis April 2023 schon bewusst geworden ist. Ich hatte alles sehr guten RAM, mittelmässiges B550 Gaming EDGE Wifi Mainboard.

Die Tests mittlerweile sprechen auch schon eine deutlichere Sprache.

--

Spiele kauft man im Abverkauf nach 3 Jahre. Dann sind sie halbwegs Preis Leistung bzw. halbwegs Spielbar wegen den Patches
 
Zurück
Oben