• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Starfield im Test: 24 Grafikkarten und 12 Prozessoren im Benchmark

Finde die Grafik und das Spiel gar nicht mal so schlecht und würde es mir irgendwann mal gönnen aber erstmal muss es vernünftig optimiert sein und über 80 FPS mit einer 4090 laufen sonst fasse ich das Spiel nicht an!
 
  • Gefällt mir
Reaktionen: _NeXuz_
Ich frag mich ja, ob den ganzen Verschwörungstheoretikern hier bewusst ist, dass ein "aktives Ausbremsen bei Erkennen der Konkurrenz" hier in vielen Märkten der Welt sehr hohe Millionenstrafen nach sich ziehen würde und mit Reverse Engineering recht einfach nachweisbar wäre.


Und das alles, zwei Threads mit zusammen 1-2k Kommentaren über ein Spiel, das offiziell noch nicht mal erschienen ist.
 
  • Gefällt mir
Reaktionen: simosh
_NeXuz_ schrieb:
Die Argumente sind für dich abstrus weil du eine andere Meinungen/Ansichten hast aber eben keine anderen Sichtweisen tolleriren kannst.
Das hat mit Sichtweise nichts zutun. Als Gegenargument für die schlechte Performance dieses Titels und von Star Wars kommst du mit RT und CoD. Blöd nur, dass Starfield und Star Wars von AMD gesponsort wurden, also AMD da die Hand drauf hat, und CoD unabhängig entwickelt wurde. Dort war weder AMD, noch Nvidia der Sponsor. Was genau hast du hier also bewiesen? Rein gar nichts.
 
Zuletzt bearbeitet:
Also bei einer 4070 Ti 50-70 FPS finde ich nicht so schlimm auf 3440x1440 und Ultra ohne FSR.
Was ich schlimm finde sind die ganzen CTDs.(crash to desktop)
 
alberts2 schrieb:
Da hat aber AMD vergessen den Betrag zu überweisen ansonsten wären die Intel cpu's nicht den AMD cpu's überlegen.
Wenn Bethesdas Engine so scheiße ist, dass man da eine grundlegend andere bräuchte um mit der CPU noch was zu reißen zu können bei dem Code Disaster, kann AMDs Geld daran halt nix mehr ändern. Wenn eine 4090 die easy 1-1,5 Generationen besser performt als AMD aber plötzlich von dem eigentlichen 4080 Pedaten, XTX, überholt wird, konnte man wenigstens da mit dem Geldsack die Optimierung zurückhalten. 😉
 
Können wir bitte mal aufhören zu fordern das 3-4 Jahre alte Spiele weiterhin für neue Hardware optimiert werden sollten? Die Leute die an den Spielen gearbeitet haben sind mitlerweile mit ganz anderen Dingen beschäftigt. Und wenn dann mal ein Patch kommt weil irgendetwas durch Updates von Windows etc nicht mehr so funktioniert wie es sollte dann ist das goodwill von 1-2 Devs im Studio die sowas oftmals in ihrer Freizeit machen weil sie in ihrer bezahlten Zeit mit neuen Titeln beschäftigt sind.
Wenn ein 3-4 Jahre altes Spiel aufeinmal FSR oder DLSS bekommt aber nicht den Counterpart fragt euch mal warum. Devs nutzen ältere Spiele die auf der selben Engine laufen gerne mal als Testumgebung um die Implementierung von neuen Features zu testen und pushen das dann halt live wenn ihnen das Ergebnis gefällt.

Control ist ein schönes Beispiel. Das Spiel ist 4 Jahre alt. Das Studio ist mit Alan Wake 2 und Control 2 beschäftigt.
Die haben besseres zu tun als jetzt noch einem Spiel rumzuwerkeln und jegliches verfügbares Featureset einzubauen das ihnen nur noch einen Bruchteil der Einnahmen bringt.
 
  • Gefällt mir
Reaktionen: bluna, Grestorn, 9t3ndo und 2 andere
MrHeisenberg schrieb:
Das hat mit Sichtweise nichts zutun.
Für mich hat es das.

Sonst hättest du nicht versucht mich als AMD Fanboy abzustempeln.

Du machst genau da weiter, was ich gerade angekreidet habe.

Aber sei es drum. Du bist wie du bist, mit deinen extremen Ansichten zu bestimmten Themen hier im Forum.

Ich wünsche dir trotzdem noch einen angenehmen Sonntag. :)
 
  • Gefällt mir
Reaktionen: eXe777 und Alesis
_NeXuz_ schrieb:
Sonst hättest du nicht versucht mich als AMD Fanboy abzustempeln.
Du beweißt es selbst, weil du Sachen kritisierst, von denen du offensichtlich keine Ahnung hast (DLSS/FSR) und deine Kritik irgendwie nur eine Richtung kennt: "Nvidia böse".
 
  • Gefällt mir
Reaktionen: Grestorn und xXBobbyXx
Tiimati schrieb:
Also bei einer 4070 Ti 50-70 FPS finde ich nicht so schlimm auf 3440x1440 und Ultra ohne FSR.
Was ich schlimm finde sind die ganzen CTDs.(crash to desktop)
CTD hatte ich bisher noch keinen einzigen und ich verwende noch nicht mal den aktuellen Treiber (>10h Spielstunden; Nvidia Graka+ AMD CPU Combo)
 
eRacoon schrieb:
Allein der erste Screenshot beim Test bei den Preset zeigt doch ein extrem negativ Beispiel wie schlecht das Game aussehen kann wenn die Szene grad "stinknormal" ist?
https://pics.computerbase.de/1/0/9/1/1/4-74a41b58493d4f14/3-2160.ee31d39f.jpg
Hier ist es sicher nicht sonderlich hilfreich, dass die Preset-Screenshots vermutlich bei dem blödesten Wetter gemacht worden sind, was in in Starfield gibt. Das sieht daher alles etwas trostlos aus. mit mehr Sonne wirkt die Szene auch deutlich hübscher.
 
  • Gefällt mir
Reaktionen: Grestorn, xXBobbyXx, _Cassini_ und 2 andere
Auch wenn ich mir jetzt den "Hate" dafür anhören muss.

Genau das hier passiert, wenn man mit einem Unternehmen kooperiert (in dem Fall AMD) und somit keinen Zugriff auf modernste Technologien hat, im Vergleich zu Nvidia.

Wenn zumindest FSR3 auf der Liste stehen würde, wäre das für mich noch ok.

Hätte man mit Nvidia kooperiert hätte man mit Sicherheit DLSS3+FG+Reflex ab Start gehabt und somit den ganzen Struggle des CPU Limits umgangen.

Da AMD nicht aus dem Quark gekommen ist mit FSR3, musste hier FSR2 hin halten.

Das Ergebnis ist ein crazy CPU Bottleneck, vor allem auch noch bei AMD CPUs, obwohl das Spiel ein AMD sponsored Title ist.

Mit FSR3 wäre es noch nicht einmal so sehr schlimm gewesen, dass die ganzen AMD CPUs fast durch die Bank Totalausfälle sind.

FSR3 für so einen Titel nicht einmal anzukündigen, oder auf der Liste zu haben, ist für mich kompletter Fail.

Es ist ja schön, wenn hier Leute glücklich sind mit 40FPS flüssig spielen zu können. Ich finde das Spiel deutlich geschmeidiger und direkter wenn > 80 FPS konstant anliegen. Ich merke es sofort, wenn sich die Refresh Rate der 60er Marke nähert.

Es ruckelt zwar nicht, aber man merkt immer höheren Inputlag und dass alles eben nicht mehr so geschmeidig läuft.

Von einem AAA Title erwarte ich auch AAA Technik Features.

Und nein, ich freue mich nicht wenn AMD Besitzer vor den Kopf gestoßen werden, sondern ich suche die technisch beste Lösung für dieses scheinbar wirklich große Problem der Performance.

Die Lösung hat Nvidia auf dem Tisch liegen, aber man kooperiert mit AMD (was ich im übrigen gut finde), wobei diese keinen Lösungsansatz haben der technisch marktreif ist.

Es spielt am Ende keine Rolle ob die 7900XTX warum auch immer, hier jetzt 3-5 FPS schneller ist als eine 4090.

Beide Karten sind noch immer zu langsam und verbraten unnötig viel Strom, weil dieses Spiel unerhört viele Ressourcen frisst.
Ergänzung ()

Tiimati schrieb:
Also bei einer 4070 Ti 50-70 FPS finde ich nicht so schlimm auf 3440x1440 und Ultra ohne FSR.
Was ich schlimm finde sind die ganzen CTDs.(crash to desktop)
Du solltest Dein System vielleicht noch einmal neu aufsetzen. Irgendwas passt da nicht. Ich kenne jetzt einige mit den unterschiedlichsten Systemen und keiner von denen hat irgendwelche CTDs, ich auch nicht. Bisher keinen einzigen.
 
  • Gefällt mir
Reaktionen: el_zoido, Grestorn, xXBobbyXx und eine weitere Person
Ich habe mir gestern doch die Deluxe-Edition geholt, nach dem ich ein Review gesehen habe und mir dachte, so schlimm kann es ja nicht sein und vielleicht ist es Spiel mit Dauerspielcharakter.

Mein erster Eindruck: WOW!

Grafik gut, hier und da könnte man definitiv noch etwas an den Texturen arbeiten.
Performance: Ohne Probleme - 60 - 90 FPS, je nach Szene... Settings... Alles nach rechts, FSR2 disabled...

Es gibt definitiv noch ein Grund für den einen oder anderen Patch. Aber so schlimm ist es nicht und auch die FPS gehen meiner Meinung nach vollkommen in Ordnung.
 
  • Gefällt mir
Reaktionen: Ice_Dundee, Fersy, cyberpirate und 2 andere
t3chn0 schrieb:
Hätte man mit Nvidia kooperiert hätte man mit Sicherheit DLSS3+FG+Reflex ab Start gehabt und somit den ganzen Struggle des CPU Limits umgangen.
Aber nur für die paar wenigen Besitzer der Nvidia RTX 4000er Reihe. Und alle anderen hätten in die Röhre geschaut.
 
  • Gefällt mir
Reaktionen: ReVan1199, eXe777, Corpus Delicti und eine weitere Person
MrHeisenberg schrieb:
Du beweißt es selbst, weil du Sachen kritisierst, von denen du offensichtlich keine Ahnung hast (DLSS/FSR) und deine Kritik irgendwie nur eine Richtung kennt: "Nvidia böse".
So versuchst du es halt darzustellen.

Wie bereits gesagt, deine Argumentation ist hinfällig.
Wenn du es genau wissen möchtest, spiele ich Starfield mit einem 12700k und einer 3080 mit DLSS2 Mod. ;)
Wieviel Wert hat dein Vorwurf also noch? Richtig Keinen!

Das du immer weiter machst mit dem gleichen Verhalten, Aussagen usw. bestätigt halt meine Meinung über dich.

Du glaubst ich habe von FSR/DLSS offensichtlich keine Ahnung. Okay.

Ich bin der Meinung, du hast nicht mehr Ahnung als Ich und überspielst das nur mit deiner aggressiven, unsachlichen und immer gleichen Art der Diskussion.

Aber so bist du halt. Man liest sich beim nächsten Mal. :)
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Captain Mumpitz, bluna, Lindar und 7 andere
Shinigami1 schrieb:
Da wurden NVIDIA Karten offensichtlich beschnitten. Da fließt Geld über die Theke, das ist glasklar. Bei diesem Interview mit AMDs Gaming Chef hat er dies im Bezug auf Starfield durch die Blume ja selber zugegeben als er auf DLSS angesprochen wurde. Eine 4090 die im Schnitt 30% schneller wie die 7900 XTX ist, soll dann wie durch Geisterhand auf einmal, vor allem in 4K, langsamer sein? Ja ne ist klar
Und dir kommt dabei nicht in den Sinn das wenn sie es schon durch die "Blume" gesagt haben, dass die 4090 30 % schneller ist, hmm wenn unsere 7900XTX jetzt schneller ist als die 4090 fällt das auf.

Das ist lächerlich diese Behauptungen. Dass das rauskommen würde bei Tests, also das NV Karten absichtlich ausgebremst werden, kommt euch da nicht in den Sinn oder? Sowas fällt halt auf. Das ergibt null Sinn wenn dem so wäre.

Das schadet mehr als wenn die Rangliste normal ausfallen würde. Also 4090 an erster Stelle usw.

Hier in dem Thread gehts doch schon gar nicht mehr um die Technik sondern nur noch um AMD betrügt, lässt NV Karten absichtlich ausbremsen und CB ist gekauft usw.

Wäre vielleicht besser das hier zu schließen. Kommt eh nix bei rum´.
 
  • Gefällt mir
Reaktionen: bluna, Nihil Baxxter und Alesis
JahJah192 schrieb:
Wenn Bethesdas Engine so scheiße ist, dass man da eine grundlegend andere bräuchte um mit der CPU noch was zu reißen zu können bei dem Code Disaster, kann AMDs Geld daran halt nix mehr ändern.
Natürlich könnte Geld daran was ändern, dann wird halt ne Bremse extra eingebaut.
Wenn AMD schon Geld springen lässt dann könnte man erwarten das sie das komplett Paket erwerben.
 
Painkiller72 schrieb:
Eine RX 5700XT gehört noch lange nicht zu so einem alten Eisen, das du Settings so weit nach unten reduzieren musst. Ich denke das es dann eher an dem Rest deiner Hardware liegt ?

Anhang anzeigen 1392896

Laut deiner Hardware Signatur sollte Starfield mit High Settings möglich sein, oder deiner Graka geht bei 5120 x 1440 Pixel einfach mit 8GB VRAM die Puste aus.

Du sprichst allerdings von WQHD Auflösung und das sind für mich immer noch die klassischen 2560x1440 Bildpunkte.

Kannst du das auf deinem Super Ultra Wide Curved Monitor von Dual WQHD auf die gesamte Länge strecken ?

Oder musst du dann zwangsläufig auf 5120x1440 Bildpunkte stellen ?

Alles entscheidende Merkmale und nicht nur abhängig von der Grafikkarte.

Anhang anzeigen 1392907

Der Ryzen 5 5600X sollte eigentlich das Spiel stemmen. Schon mal über die Anschaffung des Ryzen 7 5800X3D nachgedacht ?


Bei deiner aktuellen Hardware sollte eine Grafikkarte mit 16GB VRAM eigentlich vorerst als Aufrüstungsoption ausreichen. Die RX 6800(XT) ist preislich gerade sehr atrraktiv, wenn man nicht immer auf die neueste Hardware scharf ist.

Das Spiel gibt es auch für die aktuelle X Box Konsole, welche Grafikeinheit ist dort verbaut ? 😉😉😉

Das Spiel läuft hier aktuell aber auch nur auf 30FPS begrenzt. Da wird wohl auch noch gehörig nachgebessert werden müssen.
Wenn laut Benchmarks hier im CB Test eine 6700XT in WQHD und High Settings im Bereich von ca. 40FPS hängt, dann hab ich meiner doch langsameren 5700XT halt grob überschlagen und niedrige bis ab und an mitlere Settings angenommen um ähnlich spielbare FPS zu erreichen. Alles was über niedrig ist, sehe ich als Bonus an, nur möglichst über 40 FPS will ich bleiben.
Mehr als ein grobes Abschätzen, ob Starfield auf meiner Hardware in min. WQHD spielbar ist, ist das für mich auch nicht.

Zu meiner Hardware:
Der DualWQHD wird von mir meist im Splitscreen verwendet, sprich als 2 einzelne WQHD Monitore angesprochen. Ich spiele daher meist in WQHD, nicht in nativer 5120x1440er Auflösung. Bei eher immersiven Spielen, wie Starfield eines ist, natürlich lieber in voller Auflösung, aber da hab ich wenig Hoffnung auf ein brauchbares Spielerlebnis. das war mit Cyberpunk bereits nicht drin, da hab ich bei neueren Titeln lieber keine zu große Erwartungshaltung.
Teilaufrüsten auf einen 5800X3D oder eine schnellere GPU hab ich bereits seit längerem im Hinterkopf, mich bisher aber dagegen entschieden, da ich außer fürs Spielen keinen Mehrwert davon hätte. Und außerdem reicht meine Hardware aktuell noch aus um zumindest in WQHD und reduzierten Settings spielen zu können. Da bin ich sowieso nicht gar so emfindlich.
Und eine größere Investition in meinen Gaming-PC vor mir selbst zu rechtfertigen ist durch mein Steamdeck, auf dem ich mitlerweile fast ausschließlich spiele, nicht einfacher geworden. Auch wenn ich es gerade für solche Titel wie Starfield machen sollte.
 
  • Gefällt mir
Reaktionen: Painkiller72
Enyo79 schrieb:
Hier in dem Thread gehts doch schon gar nicht mehr um die Technik sondern nur noch um AMD betrügt, lässt NV Karten absichtlich ausbremsen und CB ist gekauft usw.
Sicherlich auch verletzte Eitelkeit, wenn man mit der obszön teuren Grafikkarte plötzlich nur die Nummer 2 ist.
Anstatt die Leute ihre Motivation (Wut) bei Nvidia abladen, die keinen Starfield Treiber gebracht haben, arbeiten eben einige hier ihre Wut (Motivation) ab.
 
  • Gefällt mir
Reaktionen: Lindar, eXe777, Corpus Delicti und 9 andere
Serandi schrieb:
Finde die Grafik und das Spiel gar nicht mal so schlecht und würde es mir irgendwann mal gönnen aber erstmal muss es vernünftig optimiert sein und über 80 FPS mit einer 4090 laufen sonst fasse ich das Spiel nicht an!
Das hängt nicht an Deiner 4090, sondern Deine CPU schafft das nicht.
 
Enyo79 schrieb:
Und dir kommt dabei nicht in den Sinn das wenn sie es schon durch die "Blume" gesagt haben, dass die 4090 30 % schneller ist, hmm wenn unsere 7900XTX jetzt schneller ist als die 4090 fällt das auf.
Zeig mir mal ein anderes Spiel wo die 4090 so klar hinter der 7900XTX liegt.
Ich kann mich da an keinen Titel erinnern, auch keine AMD sponsored Titel.

Ich glaub aber persönlich nicht das das Absicht ist sondern einfach die Creation Engine 2 für die Tonne ist.
 
  • Gefällt mir
Reaktionen: Grestorn, H6-Mobs und _NeXuz_
Zurück
Oben