• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Starfield auf dem PC: Bethesda schiebt schlechte Leistung auf alte Hardware

demoin schrieb:
also ich kann mich nicht beklagen läuft auf der Box
Das läuft auf der Xbox mit 30fps. Was ist daran "gut"? Für das Gebotene ist das schlicht albern.
 
  • Gefällt mir
Reaktionen: Bügelbernd, bad_sign, scuba2k3 und eine weitere Person
shaboo schrieb:
Dazu hat Howard sich auch bereits geäußert: Noch vorhandene Bugs sind nicht Bethesdas Fehler, sondern liegen daran, dass die Modder so ein faules Pack sind! Die haben doch früher auch alles gefixt! Der Mann hat's aber auch echt schwer mit der Welt ...
Das Spiel ist jetzt am Ende! :o Ich schwinge heute wieder auf No Mans Sky um :D
 
Und wie immer bei Bethesda Spielen wird es nach ein paar Monaten oder Jahren die Community richten 😁😁😁

Ich rege mich über solche Aussagen nicht mehr auf. Spiele und Hardwareindustrie sind so eng miteinander verzahnt, ist doch logisch das Ihr euch neue Hardware kaufen sollt, nur um dann zu merken wie schlecht optimiert jeder Bethesda Titel bei Release eigentlich ist.

Schon faszinierend, wie sehr sich Käufer von High End Hardware seit Jahren immer wieder über die gleichen Dinge aufregen können.

Wer einfach nicht abwarten kann und gleich bei Release zuschlagen muss, der hat eben mit den Unstimmigkeiten und schlechten Optimierungen zu leben.

Die Zeit wird es regeln ☺️
 
  • Gefällt mir
Reaktionen: HageBen und -=[CrysiS]=-
Gortha schrieb:
Warum muss eine heutige Grafikarte das NATIV IN 4K schaffen?
Na vielleicht weil die 2.000 € gekostet hat und das der Anspruch und das Versprechen der Karte ist?
Gortha schrieb:
hier und da ein Detail verringern und hat auf einmal 60 FPS, mehr als 60 FPS oder sogar wesentlich mehr FPS.
Also, wenn du hier mal schaust:
https://www.computerbase.de/2023-09...rks_mit_einer_rtx_4090_und_rx_7900_xtx_update
sind mit einem AMD Prozessor nicht mehr als knapp 80 FPS drin. Mit dem fettesten Intel auf dem Markt, sind es knapp 100, aber auch NUR mit dem und in 720p. Also von nur mal ein paar Settings ändern würde ich da nicht reden.
 
  • Gefällt mir
Reaktionen: EntelodonX, pblcprvrt und Kitsune-Senpai
Habs gestern mal angespielt, sieht gut aus, aber gerade im allerersten Part in der Mine fällt das fehlende Raytracing schon enorm auf. Mich stört das sonst nicht so, RT ist für mich kein Muss, meistens bemerke ich den Unterschied gar nicht.
Aber dass die eigene Spielfigur keinen Schatten wirft, ist schon schwach. Man stellt sich zwischen einen hellen Scheinwerfer und eine Höhlenwand, und es passiert rein gar nichts, mit Schatten auf Ultra! :D
 
  • Gefällt mir
Reaktionen: CMDCake und Kitsune-Senpai
  • Gefällt mir
Reaktionen: habla2k und aklaa
Tenferenzu schrieb:
Und auf was schieben sie die leeren Welten? Auf zu hohe Erwartungen?
Gerade die Erde müsste man doch gut nachbauen können aber ..
It just works, truly Next Gen.
Sorry Todd, mehr die Augen verschließen kann man offensichtlich nicht.
scootiewolff22 schrieb:
Hat Microsoft aus Redfall denn gar nix gelernt??
Did I ever tell you what the definition of insanity is? ;)
Gortha schrieb:
"Der Technik-Test von ComputerBase und anderen Publikationen widerspricht dieser Aussage von Howard jedoch: Selbst die stärksten Grafikkarten auf dem Markt schaffen etwa nur knapp 60 FPS in nativem 4K, auf dem Flaggschiff von Nvidia müssen dafür sogar die grafischen Einstellungen reduziert werden."

Keine Ahnung wie man auf so halbgare Einschätzungen kommt.
Warum muss eine heutige Grafikarte das NATIV IN 4K schaffen? Warum sollte man nicht FSR2 nutzen und hier und da ein Detail verringern und hat auf einmal 60 FPS, mehr als 60 FPS oder sogar wesentlich mehr FPS.

Gerade wenn man nicht nur FSR2 nutzt, sondern auch noch DLSS2 Quality oder Balanced (mehr FPS auf RTX), DLSS3.5 oder gar DLSS 3.5 + FG.

Solche Wertungen einer Redaktion zeigen eine gewisse weltfremdheit auf. Das Game ist eben Next-Gen und wird mit kommenden Grakas besser laufen und Patches bringen sicher auch nochmal etwas.

Aber warum kommt man immer auf diese "NATIV"-Aussagen wenn diese einfach nicht mehr State-of-the-Art sind. Das ist einfach veraltetes Denken, wenn man meint das "müssten" betimmte Grakas einfach schaffen, ohne zu bedenken wieviele Transitoren einfach im nativen Modus BRACH LIEGEN in modernen Chips - genau diese Transitoren/Rechenwerke die eben für AI-Upscaling etc zuständig sind...
Herzlichen Glückwunsch, du wurdest erfolgreich von der Industrie indoktriniert.

Der ursprüngliche Gedanke bei Upscaling Technologie war bzw. ist, dass damit ältere Karten noch eine gute Performance liefern können, man dafür aber Bildqualitätseinbußen in Kauf nimmt. Man könnte auch noch sagen, dass Upscaling Technologie in Verbindung mit Raytracing spielbare FPS ermöglichen sollen.
Soweit alles cool.

Leider ist das eingetreten, was mehr und mehr befürchtet wurde. Upscaling Technologien sind der einfache Weg für Entwickler geworden, Optimierung wird nicht mehr vorgenommen. Ergebnis sind Spiele und PC Ports mit hochgradig technischen Mängeln die nur mit Hilfe von Upsacling Technologie überhaupt erst fluffige FPS liefern wenn überhaupt... shader compilation stutter usw... kennen wir.
Wenn eine 4090, Preis ~1700-2000€, eine 4K Karte, es nicht mal schafft stabile 60 FPS in nativer 4K Auflösung zu liefern, und das in einem Spiel, welches grafisch nicht das neue state of the art ist und auch technisch nichts bahnbrechendes macht, dann ist das ohne wenn und aber einfach unfug. Dass von vornherein FSR bzw. Resolution Scaling eingestellt ist, ist mehr oder weniger ein Eingeständnis seitens Bethesda. Aber es geht ja nicht nur um eine 4090. Z.B. sind heute noch anständige Karten wie eine 6700 XT nicht in der Lage in nativ 1080p (!) stabile 60 FPS zu liefern, selbst wenn nicht ultra eingestellt ist sondern lediglich High. Das ist einfach ein Armutszeugnis seitens Bethesda. Und Upscaling Technologie mit 1080 p sieht auf einem 22-24" nicht schön aus. Noch dazu sind Upsacling Technologien nicht 100% fehlerfrei. Bei nativ hast du dieses Problem eben nicht.

Upscaling Technologie ist schön und gut, aber wenn es eine Lösung für schlechte Optimierung und technische Mängel wird, ist das absolut die falsche Richtung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: EntelodonX, bluna, mvidia und 15 andere
Ein klassischer Todd Howard, das man den noch frei vor einer Kamera sprechen lässt wundert mich immer wieder.
 
  • Gefällt mir
Reaktionen: latexdoll
Ich wollte wegen der miesen Performance (vorerst noch) keine negative Steam Bewertung geben, weil ich das Spiel abseits davon echt genial finde. Die z.T. eher leeren Welten sind in solchen Games meiner Erfahrung nichts ungewöhnliches und bis zu einem gewissen Punkt sogar recht realistisch (+ es gibt enorm viel Platz für Mods in Zukunft :D).

Nachdem ich aber diese Aussage von Howard gesehen habe, habe ich fürs erste doch noch eine negative Bewertung platziert. Das Spiel kann noch so gut sein, wenn ich mit einer RTX 3070 und einem i7 12700K auf 1440p noch nicht mal auf mittleren Einstellungen stabile 60 FPS hinkriege (crashes mal ausgenommen), ist das für 80 tacken einfach inakzeptabel, vor allem wenn man dann echt nichts dagegen unternimmt.
Bethesda soll sich liebend gerne die nötige Zeit nehmen, um die Probleme anzugehen. Dann aber derart dreist zu behaupten die Leute sollen halt eben aufrüsten... was hat Howard vor dem Interview bloss zu sich genommen? Völlig realitätsfern dieser Typ.
 
  • Gefällt mir
Reaktionen: hadtoreg1st3r
Clayman79 schrieb:
Die Aussage ist eine absolute Frechheit.
Irgendwie schon, taugt aber auch gut für Spaß-Zitate.

Vielleicht konnte er auch nichts anderes von sich geben, wenn der MS-Gaming-Chef ebenfalls anwesend ist und das Interview eine große Reichweite hat.

Wichtiger als die Antwort ist da beinahe die Frage selbst: "Warum wurde SF nicht für den PC optimiert?"

Schon nicht schlecht, weil sie einerseits eine korrekte Feststellung enthält und die Frage auf genau diesen Aspekt fokussiert. Deutlich besser als bspw. "Werden noch Optimierungen erfolgen?"

Schade ist, dass nicht weiter nachgebohrt wurde.
 
  • Gefällt mir
Reaktionen: hadtoreg1st3r
Gortha schrieb:
Keine Ahnung wie man auf so halbgare Einschätzungen kommt.
Warum muss eine heutige Grafikarte das NATIV IN 4K schaffen? Warum sollte man nicht FSR2 nutzen und hier und da ein Detail verringern und hat auf einmal 60 FPS, mehr als 60 FPS oder sogar wesentlich mehr FPS.

...

Solche Wertungen einer Redaktion zeigen eine gewisse weltfremdheit auf. Das Game ist eben Next-Gen und wird mit kommenden Grakas besser laufen und Patches bringen sicher auch nochmal etwas.
Beim Lesen des Artikels kam mir das gleiche in den Sinn - woher kommt die überzogene Erwartung, dass ein Spiel zu Release in UHD@deutlich über 60 FPS überall und immer laufen muss?
Dann noch so ein Spiel? Wir reden hier nicht über nen Shooter mit Ranked Mode. Sondern um ein Rollenspiel - ja es wäre wenn und schön wenn das so wäre, aber ist halt jetzt nicht.

Das Leistungstarget wird ca. 60 FPS gewesen sein - das erreicht man, wie die Tests belegen. Also ist doch alles im Lot?
Gortha schrieb:
Aber warum kommt man immer auf diese "NATIV"-Aussagen wenn diese einfach nicht mehr State-of-the-Art sind. Das ist einfach veraltetes Denken, wenn man meint das "müssten" betimmte Grakas einfach schaffen, ohne zu bedenken wieviele Transitoren einfach im nativen Modus BRACH LIEGEN in modernen Chips - genau diese Transitoren/Rechenwerke die eben für AI-Upscaling etc zuständig sind...
Auch das unterschreibe ich - zudem gerade CB in der Redaktion sowas ja doch eigentlich positiv heißen müsste. Die Konsolen nutzen Upscaling Techniken seit sonstwann und da stört sich auch nicht wirklich wer dran.

Kritisieren kann und darf man die DLSS Politik für/bei Starfield mMn. Aber es ist halt aktuell nur FSR2 drin. Und es ist sogar so drin, dass man als Nutzer die Wahl hat, welche Renderauflösung native verwendet wird.



Ich werd mir Starfield bestimmt auch besorgen, früher oder später. Für den Vollpreis ist es mir zu teuer und ich hab nicht die Zeit das durchzusuchten atm. Im Sale für die Hälfte oder weniger und wenn etwaige Erweiterungen dann draußen sind usw. bin ich bestimmt dabei. Gespielt wird es wahrscheinlich dann in Low auf nem Steamdeck. Vllt gibts auch irgendwann ein Deck2 oder so, wo es besser läuft.
 
  • Gefällt mir
Reaktionen: rosenholz und Gortha
Ich habe mir gerade mal ein paar Videos auf Youtube angesehen, wie das Spiel auf meiner 1070 laufen würde, was mir aufgefallen ist, trotz angeblicher 99% Auslastung verbrauchen die Karten in den Videos nur 90 - 115 W. Bei der Auslastung sollte selbst mit Stock oder UV Karten der Verbrauch an der 150 W Marke kleben, da stimmt was nicht mit dem Spiel / Engine, auch wenn ich das mit FO4 und F76 vergleiche, je nachdem ob ich da ein UV oder OC Profil wähle bin ich da immer bei mindestens 150 - 180 W, bei gleicher Auslastung.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, xXBobbyXx und aklaa
demoin schrieb:
also ich kann mich nicht beklagen läuft auf der Box gut macht nur Spaß und wird es sicher weiterhin auch.

Bugs ja, 2 Abstürze in ca 40 Stunden Spielzeit aber sonst nix wildes passiert.
Auf der Xbox ? Das hab ich auf meiner xsx auch versucht und fand die 30 FPS hakelig ohne Ende.
 
  • Gefällt mir
Reaktionen: ultrAslan
xexex schrieb:
Wen jucken die? Ich denke Metacritic bringt es aktuell gut auf den Punkt.
Anhang anzeigen 1395384

Wen jucken die Userbewertungen?

Wenn jemand ältere Hardware hat und mit der performance unzufrieden ist, wird er schlecht bewerten.
Welche Aussagekraft hat das jetzt für jemanden mit besserer Hardware? Keine!

Vor allem läuft das Spiel ja ganz sauber. Kaum bis keine Nachladeruckler, keine Ruckler durch Shader Kompilierung noch nichtmal der VRAM ist ein Problem. Auch sonst keine Performanceeinbrüche.
Es gibt auch technisch keine Bugs wie nicht ladende Texturen oder sowas. Da hatten wir in den letzten Monaten schon viel schlimmeres.

Das einzige Problem sind eben relativ hohe Anforderungen bzw. niedrige Frameraten.

Mir ist sowas 1000x lieber, als ein Spiel, das mit doppelter Framerate total unrund und hakelig läuft.

Zwischen "Technisch unsauber" und "nicht performant" gibt es einen großen Unterschied.
Ersteres ist meist sehr problematisch und ruiniert jedem Spieler die Spielerfahrung. Letzteres ist nicht schön, damit lässt es sich aber meistens gut leben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: up.whatever und Vigilant
Americanguy schrieb:
Auch raffen die leute nicht das 1080 zu 4k fast keine Leistung kostet warum auch immer. Ich habe nicht viel weniger fps in 4k als in 1080p, normalerweise hast weit über das doppelte in 1080p.
Naja, das ist das halt einfach ein Limit von irgendwas. Dem CB Test zur Folge, limitiert auch die CPU sehr stark und zeitig. Was man durchaus auf das technische Backend der Engine schieben kann und sollte. Sprich mit nem schnelleren Unterbau wird das auch in FHD entsprechend besser skalieren - aber ist die CPU zu lahm, verpufft halt der geringere Aufwand der Grafikkarte im CPU Limit.
 
  • Gefällt mir
Reaktionen: Geckoo
HyperSnap schrieb:
Also bei mir startet Starfield erst garnicht.
Aber was wil ich mit solch alter Hardware wie nen 13900KF und ner 4090 schon erwarten...
Bei 6 Mio Spielern scheint das Problem aber vor der Tastatur zu liegen.
 
  • Gefällt mir
Reaktionen: Ice_Dundee, Snoop7676, CMDCake und 2 andere
Gortha schrieb:
Keine Ahnung wie man auf so halbgare Einschätzungen kommt.
Warum muss eine heutige Grafikarte das NATIV IN 4K schaffen?
Das ist ja keine absolute Forderung, sondern steht immer in Relation zu der gezeigten Qualität der Grafik einerseits und zu dem, wie andere Spiele mit gleicher oder besserer Grafik performen, andererseits, und da sieht's halt nun mal ziemlich düster aus. Kontext bitte nicht einfach komplett ignorieren.
 
  • Gefällt mir
Reaktionen: ZeusTheGod, Kitsune-Senpai und Headphonejack
Gortha schrieb:
Keine Ahnung wie man auf so halbgare Einschätzungen kommt.
Warum muss eine heutige Grafikarte das NATIV IN 4K schaffen? Warum sollte man nicht FSR2 nutzen und hier und da ein Detail verringern und hat auf einmal 60 FPS, mehr als 60 FPS oder sogar wesentlich mehr FPS.
Weil die Grafik das nicht rechtfertigt. Es sagt keiner was, wenn man um in Cyberpunk 60FPS zu bekommen, mit Raytracing etc. DLSS braucht.
Gortha schrieb:
Solche Wertungen einer Redaktion zeigen eine gewisse weltfremdheit auf. Das Game ist eben Next-Gen und wird mit kommenden Grakas besser laufen und Patches bringen sicher auch nochmal etwas.
Gratulation, Marketing hat bei dir anscheinend richtig gefruchtet. Was ist denn an dem Spiel besonders Next Gen?

Ich würde ja nichts sagen, wenn Starfield das neue Crysis wäre. Wirklich die Grafikmesslatte hochsetzen, wie eben damals Crysis und man dann sagt ja das Spiel ist einfach noch zu krass für die aktuelle Hardware.
 
  • Gefällt mir
Reaktionen: Innocience, ZeusTheGod, latexdoll und 10 andere
Finde die Grafik echt nicht so beeindruckend für die Leistung die das Spiel braucht. Da finde ich Cyberpunk irgendwie hübscher (subjektiv). Könnte aber auch dran liegen, dass die Umgebung bisschen langweilig designt wurde.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und xXBobbyXx
Zurück
Oben