• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Starfield im Test: 24 Grafikkarten und 12 Prozessoren im Benchmark

Shinigami1 schrieb:
Bei diesem Interview mit AMDs Gaming Chef hat er dies im Bezug auf Starfield durch die Blume ja selber zugegeben als er auf DLSS angesprochen wurde
Das legst du oder Andere so für Euch aus. Kann man machen, kann man aber auch lassen und sich auf das konzentrieren was tatsächlich gesagt wurde.

Zudem wurde die Geschichte laut Aussage von MLID Quellen von Nvidia sogar selbst gestreut. Muss halt jeder für sich wissen ob er das glaubt.
Shinigami1 schrieb:
Da fließt Geld über die Theke, das ist glasklar.
Galubst du tatsächlich das ist/war bei Nvidia anders?
Shinigami1 schrieb:
Ist in COD MW2 2022/WZ 2 ähnlich und das ist kein AMD exklusiv Titel. Zu Release gab es grad mal FSR1 usw. Trotzdem performen Radeon GPUs hier in der selben Leistungsklasse besser.

Zudem ändert es nichts an meiner Meinung.
Es gibt scheinbar keine größeren Probleme für Manchen.
Auch ein Nvidia User kann COD, Jedi Survivor, Starfield spielen.

Der Aufruhr ist aber eher so, als ob das Spiel mit Nvidia GPUs gleich abstürzen würde, mit einem einer Fehlermeldung, wo man von Lisa Sue ausgelacht wird.

Völlig überzogen.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz, Phobsen, graysson und 2 andere
Syrato schrieb:
Die 4090 ist einfach die aktuell beste Karte und auch dass Intel so weit voraus ist zeigt, dass es richtig schlecht optimiert ist. Egal in welcher Richtung.
Alles gehört zum Start implementiert:

Allgemein ist die RTX 4090 das sicherlich, nur in diesem (nicht wenig wichtigem) Einzelfall Starfield bisher noch nicht, aber natürlich reicht diese Grafikkarte aus um das Spiel relativ kompromisslos spielen zu können.

Die bessere Leistung der Intel Prozessoren als der AMD CPUs zeigt für mich doch ganz klar, dass das AMD Sponsoring weniger eine starke, angeblich verzerrende Rolle bei der Spieleentwicklung einninmt als hier von einigen propagiert.
Intel ist eben nach wie vor mit den CPUs (und Big Little Absatz) besser an Windows 11 angepasst bei den CPUs als AMD.

Mit schwacher Optimierung/Programmierung hat das m.E. nichts zu tun, dass Intel z.Z. da (noch) vorne liegt, zumal Starfield erstaunlich stabil/bugarm zum Marktstart sich präsentiert hat (verglichen mit anderen AAA Titeln dieses Jahr und Bethesda Vorgängerspielen).

Das sehe ich komplett anders, offene Standards in Spielen gerne immer, proprietäre nur dann, wenn es an offenen Alternativen komplett mangelt und man es meint (für einen Teil der Spielerschaft marketingtechnisch) zu brauchen, denn sonst zahlen alle anderen mit für die Arbeit dieser Implementierung, die sich nur an einen Teil der Kundschaft richtet.

Soll entweder nVidia das (DLSS Implementierung) komplett eigenständig übernehmen (nicht Entwicklern aufhalsen), was bei Starfield bisher nicht geschehen ist oder eben Modder (die das auch alleine geschaftt haben), die für diese Sonderwünsche natürlich entlohnt gehören.

Für DLSS und andere Implementierung proprietärer nVidia Features sollten aber nicht Besitzer von AMD oder Intel Grafikkarten oder APUs/iGPUs, die von nVidia systematisch (bei DLSS und anderer proprietärer Technik) ausgeschlossen werden, an den damit verbundenen Spielentwicklungs-/Implementierungskosten beteiligt werden.

Deswegen ist die Vorgehensweise von Bethesda/Starfield absolut fair und richtig, nur auf FSR2 als offenen Standard (der alle begünstigt) zu setzen und Sonderwünsche Moddern oder nVidia zu überlassen ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Epistolarius, 9t3ndo, graysson und eine weitere Person
Leider kein CPU Benchmark mit dabei man weiß nicht wie gut es daher skaliert..
 
_NeXuz_ schrieb:
Ist in COD MW2 2022/WZ 2 ähnlich und das ist kein AMD exklusiv Titel. Zu Release gab es grad mal FSR1 usw. Trotzdem performen Radeon GPUs hier in der selben Leistungsklasse besser.
Nur in der gebenchten Releaseversion..
Wo mittlerweile 5 seasons und gefühlt 100 Patches drüber gelaufen sind.. was im Laufe der Zeit etwa 25-35% FPS auf allen Systemen gekostet hat.

In Season 1 hab ich in Warzone mit nem 5950x + RTX4080 noch im Bereich 200-220fps auf al Mazrah gespielt..
Jetzt bin ich froh wenn's 140-160fps sind..
 
Grestorn schrieb:
die Aspect-Ratio in irgendeiner Weise zu begrenzen. Genauso wenig wie die Auflösung.

Das ist absolut richtig. Daher bin ich auch verwundert, dass es nicht funktioniert (wurde mir gesagt), die Dateien von dem Game einfach eigenhändig zu verändern.

Ich habe aber gerade echt keinen Bock, mich damit zu beschäftigen, wie man das Game "moddet".

Wenn die Jungs bei Bethesda gefragt hätten, wäre es eine andere Sache. So, chatte ich lieber am WE, als die Stümperarbeit von der "Auflösungsabteilung" zu beheben.

Wenn ich aber schon von selbsternannten "Experten" höre, das wäre "fest verdrahtet", ist das immer sehr lustig, wenn man über Software redet.

Die nächste Mod wird kommen und jemand anders wird es erledigt haben. Alles eine Frage der Zeit.

mfg
 
  • Gefällt mir
Reaktionen: cyberpirate
Skynet1982 schrieb:
Gibt es dafür eine Quelle? Weil im August lag der Anteil bei 0,85 %, die Monate davor noch niedriger.
Seine Quelle ist: Trust me bro!

Steam-Hard- & Softwareumfrage: August 2023

Unbenannt.jpg


 
  • Gefällt mir
Reaktionen: Ice_Dundee, eXe777, Anon-525334 und 2 andere
Taxxor schrieb:
@Wolfgang kann es sein, dass ihr hier für die x Achse einfach für beide Metriken jeweils die einzelnen Zeitwerte aufaddiert habt?
Das funktioniert aber nicht mit den busy Werten weil sie ja nicht der realen Zeit pro Frame entsprechen, deshalb ist der Graph hier früher fertig und, was noch wichtiger ist, nicht deckungsgleich mit den frametimes.
Ihr müsst schon die reale Zeit mit nehmen für den Bau der Graphen. Die gibt PM ja auch aus.
Oder eben einfach CapFrameX für den Export nutzen, da bekommst du in jeder Zeile Zeit, frametime und GPU-Busy time ^^
Ja, gestern musste es schnell gehen. Das ist mir aufgefallen, aber ich habe es schlussendlich ignoriert, weil es einfach schnell gehen musste gestern.
Aber danke schonmal für den Tipp, ich hatte mir die Werte einfach aus dem CSV-File herauskopiert. Jetzt weiß ich aber ja Bescheid :)
catch 22 schrieb:
kleine Anmerkung zu den GPU Benchmarks bei Starfield @Wolfgang
es wäre schön, wenn anstelle der GRE weiterhin die 6900xt / 6950xt gebencht wird, auch wenn bisherige Benches der GRE derzeit eine sehr ähnliche Performance zur 6950xt bescheinigen. Immerhin ist die GRE "einfach nur" eine (bisher) kaum am Markt stattfindende Systemintegrator / OEM Karte (deren Basisrechner / "Upgradebundles" auf den zweiten Blick nicht sooo toll sind), die natürlich auch von RDNA3 typischen Treiberverbesserungen mit der Zeit profitieren wird, wo eine RDNA2 6900xt / 6950xt sich eher weniger bewegen wird, so dass die Vergleichbarkeit in dieser Leistungsklasse weiter schwinden wird.
Die RX 6950 XT wird weiterhin Teil unserer Standard-Grafikkarten bleiben, die RX 7900 GRE werden wir schätze ich eh nicht mehr lange haben.

Und für Morgen ist ein Update mit weiteren Grafikkarten-Benchmarks geplant. Dann auch mit der RX 6950 XT :)
Northstar2710 schrieb:
@Wolfgang kommen noch CPU benches? Oder wie sich schneller RAM auswirkt?
Für Dienstag sind Stand jetzt ein paar CPU-Benchmarks geplant (aber wirklich auch nur das). Die werden aber mit den Standard-Taktraten beim Speicher durchgeführt, das machen wir immer so. Ich kann dir aber sagen, dass auf dem 7800X3D DDR5-6000 mit etwas aggressiveren Primär-Timing gegenüber DDR-5200 so gut wie nichts bringt.
RogueSix schrieb:
Die meisten Webseiten (inklusive CB) sind halt stark pro-AMD. Da das Benennen der Wahrheit AMD als negativ ausgelegt werden könnte, wird eben lieber das Deckmäntelchen des Schweigens darüber ausgebreitet, dass mit Starfield erneut (nach Jedi Survivor) ein AMD-sponsored Titel offenbar mit voller Absicht beim Erkennen von nVidia-Hardware ausgebremst wird.
Wirklich jetzt? Ist es mal wieder so weit?:freak:

RogueSix schrieb:
Das ist in der Tat mal wieder ein eindeutiges Zeichen, dass die Redaktion hier nicht mal im Ansatz objektiv ist.
Bei so gut wie allen anderen Spieletests wird mit hanebüchenen Ausreden die Abwesenheit der RTX 4090 "begründet" (lol).
Hast du dir die Diagramme schonmal angeguckt? Dann sollte dir aufgefallen sein, dass außer der RTX 4090 auch noch andere Grafikkarten mit dabei sind, die in unserem Minimal-Programm (4080, 3080, 3060 Ti, 7900 XTX, 6800 XT, 6700 XT) sonst auch nicht dabei sind. Aber du wolltest vermutlich wieder nur das sehen, was du sehen willst.

Davon abgesehen, denke mal nach. Die RTX 4080 ist schon viel schneller als die RX 7900 XTX. Damit interessiert einen die RTX 4090 automatisch weniger, wenn es um neue Erkenntnisse geht. In Starfield ist aber die RX 7900 XTX viel schneller als die RTX 4080. Findest du dann nicht, dass es dann viel interessanter ist zu sehen, wie die RTX 4090 abschneidet?

Weniger Alu-Hut, mehr Nachdenken bitte.
domian schrieb:
Was spielt das denn für eine Rolle? Viele möchten gern wissen, wie die 4090 performed. Andererseits ist die 4090er mit mehr als 5% unter den Lesern gem. Umfrage von CB vertreten und gleichzeitig würde das Topmodell von AMD in Tests auch berücksichtigt werden, wenn dieses deutlich schneller wäre als die schnellste GPU von NV.

Btw.: RTX 4090 Nutzer auf Steam 17,1% (Stand Januar 2023)
Selbst hier auf CB haben nicht einmal im Ansatz 17,1 Prozent eine RTX 4090 und wir haben hier viele Enthusiasten. Auf Steam sind es viel, viiieeelll weniger als das.
DERLanky schrieb:
Das jetzt auch CB davon spricht das 50-60 FPS ausreichend sind und gar nicht drauf eingeht das sich 60 FPS ab 120Hz oder mehr, durch den smoothness Verlust auch wie eine Ruckelorgie anfühlt, ist leider sehr traurig.
Natürlich fühlen sich 120 FPS auf einem entsprechenden Monitor viel besser als 60 FPS an, darum geht es da aber ja nicht. Ich sage ja nur, dass man Starfield auch noch ordentlich mit 50 FPS spielen kann. Natürlich geht es aber noch viel besser.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz, bluna, Creidiki und 19 andere
Corpus Delicti schrieb:
64-bit-Version, und damit Speicherlimit aufgehoben ==> mehr Mods möglich.
Die Mods, sind reine Verschlimmbesserungen der Gemeinschaft. Wann wurde es nachgeliefert und warum hat überhaupt so viele Mods gebraucht, wenn das Spiel ansonsten so perfekt war? Die kündigen doch niemals an, dass das Spiel tatsächlich 3 oder mehr Jahre weiter entwickelt wird. Des Weiteren interessiert es einen nicht, ob das Spiel 2-3 Jahre später nachgebessert wurde. Man hat es schon durch. Schon Jahre zuvor ist es gespielt und schon lange vergessen.

Der Logik nach, müsste man jedem Spiel 5+ geben, damit die Entwickler das eigene Produkt, zum Ende entwickeln. So zu sagen, als dass es vollkommen normal sei, noch während der Entwicklung, Geld zu verlangen. Die Rechtfertigung ist: " Man bessert es mit der Zeit an." Also kann, x-belibiges nicht Studio, einen Scheiss rausbringen, mit derselben Rechtfertigung. Läuft!
 
Ship schrieb:
Zum Spiel: Mir ist das ein bisschen too much von allem, dass ich gar nicht richtig von der Welt aufgesogen werde.
Ich war gestern in einer Anlage. Vergleichbar mit ner besetzten Anlage aus Fallout.
Bis ich aus der Anlage raus war ist bestimmt ne Stunde vergangen. Das war sehr komplex aufgebaut. Man hat auch irgendwann keine Orientierung mehr.
Kann man als Nachteil ansehen
 
Chismon schrieb:
Die bessere Leistung der Intel Prozrssoren als der AMD CPUs zeigt für mich doch ganz klar, dass das AMD Sponsoring weniger eine starke, angeblich verzerrende Rolle bei der Spieleentwicklung einninmt als hier von einigen propagiert.
Intel ist eben nach wie vor mit den CPUs (und Big Little Absatz) besser an Windows 11 angepasst bei den CPUs als AMD.

Im SpecialK Discord berichtet ein Anwender, dass er Starfield dekompiliert hat und er meint, die Ursache für das schlechte Verhalten auf AMD gefunden zu haben, insbesondere warum das Spiel offenbar keinen Vorteil aus einem großen CPU Cache ziehen kann.

Es sieht so aus, als würden auch sehr große Subroutinen als "inline" markiert worden sein. Das bedeutet, dass sie nicht - wie normale Subroutinen - nur einmal im Code vorhanden sind und immer über einen Sprung aufegerufen werden, sondern dass sie an jeder Stelle, an der sie verwendet werden, neu als Kopie 1:1 einkopiert werden.

Das macht man besonders bei sehr kleinen und extrem häufig aufgerufenen Funktionen, um den doppelten Sprung (in die Routine und zurück) zu vermeiden. Schon ein wenig größeren Routinen macht es aber keinen Sinn mehr, und bei ganz großen ist es nur noch bescheuert, da man damit jeden CPU Cache aushebelt.

Aus meiner Sicht schlicht eine bodenlose Schlamperei der Starfield Engine Programmierer. Und extrem einfach zu beheben, wenn man den Quellcode zur Hand hat und neu kompilieren kann.
 
  • Gefällt mir
Reaktionen: Syrian, Volvo480, Qyxes und eine weitere Person
_NeXuz_ schrieb:
Ob das "juckt" ist persönliche Präferenz. Technisch besteht schon ein Unterschied zwischen nativ gerenderten Frames und Interpolierter Frames.
Nein, ist es nicht. Du fährst hier nur ne Anti-Nvidia Schiene und versuchst dein heißgeliebtes AMD zu verteidigen und das teils mit völlig abstrusen Argumenten (AMD gesponsorte Spiele vs unabhängige Studios, unreale Frames, schwache RT Leistung...).
Du beweißt in diesem Thread, dass du offensichtlich keine Ahnung hast, wie FSR oder DLSS funktionieren, aber willst über die Techniken urteilen können.
 
Ich habe mal eine Frage zu den Grafikeinstellungen bei Starfield.

Bei mir wird die Auflösung ausgegraut angezeigt. Erst wenn ich die Darstellung auf Fenster ändere kann ich die Auflösung runter stellen. Wenn ich nun von 1440p auf 1080p stelle ist das Fenster nicht mehr über dem gesamten Bildschirm. Habe ich etwas übersehen oder ist es möglich 1080p auf einem 1440p Monitor über die gesamte Fläche zu nutzen?
 
[wege]mini schrieb:
Das ist absolut richtig. Daher bin ich auch verwundert, dass es nicht funktioniert (wurde mir gesagt), die Dateien von dem Game einfach eigenhändig zu verändern.

Das Spiel rendert tatsächlich auch in 32:9, aber es legt dann manuell einen schwarzen Rahmen ("Pillarbox") über die äußeren Bereiche, so dass man nur 24:9 zu sehen bekommt. Das hat richtig Aufwand gemacht, und man muss sich schon fragen, wozu bitte.

Der Community Patch entfernt nur die Pillarbox.
 
  • Gefällt mir
Reaktionen: [wege]mini, 9t3ndo und cyberpirate
Grestorn schrieb:
Darum geht es. Nicht um Butt-Hurtedness von NVidia Anwendern

Doch darum geht es auch (große Egos), aber natürlich nicht nur.
Grestorn schrieb:
sondern darum, dass man sich seit Jahren anhören muss, wie scheiße NVidia und damit auch deren Kunden (also wir) sind und wie toll, offen und freundlich AMD doch ist.

Das ist ja auch leider oft genug zutreffend und so gibt man sich dort leider auch oft genug, ohne Grund geniesst den schlechten Ruf nVidia bei vielen sicherlich nicht (auch wenn viele Kritiker trotzdem deren Produkte aus dem ein oder anderen Grund kaufen, sonst wären diese wohl kaum klarer Marktführer).

Ich denke AMD(/RTG) ist schon oft genug (selbst-)entlarvt worden, kein richtiger Retter und Ritter in glänzender Rüstung zu sein und auch viel Mist zu bauen (das ist nichts neues und nur HardCore Fans eines Firmen/Marken-Lagers oder Ewiggestrige hängen sich bei Gelegenheit immer wieder daran auf).

Bei Starfield haben Sie das bisher z.T. nachweislich aber nicht getan (siehe auch mein vorheriger Beitrag hier, wo ich auf die CPUs im gesponsorten Spiel eingehe, bei denen man hinter Intel trotz Sponsoring zurück liegt ;) ).

Letztendlich hat das Spiel jahrelang Bethesda und nicht AMD entwickelt, die mit dem Sponsoring erst deutlich später sich beteiligt haben dürften, zumal davor auch Microsoft die notwendige finanzielle Stabilität und Spielumfang mitgeprägt haben dürften nach der Zenimaxx Übernahme.
 
Floppy5885 schrieb:
Ich habe mal eine Frage zu den Grafikeinstellungen bei Starfield.

Bei mir wird die Auflösung ausgegraut angezeigt. Erst wenn ich die Darstellung auf Fenster ändere kann ich die Auflösung runter stellen. Wenn ich nun von 1440p auf 1080p stelle ist das Fenster nicht mehr über dem gesamten Bildschirm. Habe ich etwas übersehen oder ist es möglich 1080p auf einem 1440p Monitor über die gesamte Fläche zu nutzen?

Bei Borderless Fullscreen hat das Spiel immer die Auflösung Deines Desktops.
 
  • Gefällt mir
Reaktionen: Floppy5885
Floppy5885 schrieb:
Ich habe mal eine Frage zu den Grafikeinstellungen bei Starfield.

Bei mir wird die Auflösung ausgegraut angezeigt. Erst wenn ich die Darstellung auf Fenster ändere kann ich die Auflösung runter stellen. Wenn ich nun von 1440p auf 1080p stelle ist das Fenster nicht mehr über dem gesamten Bildschirm. Habe ich etwas übersehen oder ist es möglich 1080p auf einem 1440p Monitor über die gesamte Fläche zu nutzen?
Mein Tipp:
Bleibe einfach auf Borderless Fullscreen, stelle als Upscaling weiter unten CAS ein, den Schärfegrad auf 0 Prozent (oder mehr, wenn du Schärfe möchtest) und skaliere die Renderauflösung oben mit mit der Option Skalierung der Renderauflösung. Wenn du möchtest, kannst du anstatt CAS auch FSR 2 ausprobieren, das sollte eigentlich so einiges besser können (ich habe es in WQHD nie ausprobiert), doch kostet das etwas Leistung.
 
  • Gefällt mir
Reaktionen: Floppy5885
Bethesda war ja schon immer bekannt dafür komplett schrubbelige Engines zu haben, da wundert mich das hier nicht. Optik passt jedenfalls nicht zur benötigten Leistung, egal ob AMD oder Nvidia.

Allerdings bin ich etwas verwundert das im Test von "grafisch ein überdurchschnittliches Spiel geworden" gesprochen wird... hab ich irgendwie andere Szenen gesehen? Klar ist der Vergleich zur x360 komplett überspitzt aber außerhalb einem beeindruckenden Sternenhimmel sieht das Game jetzt nicht überdurschnittlich aus? Das ist doch eher Standardkost die es vor 5 Jahren schon gab?

Allein der erste Screenshot beim Test bei den Preset zeigt doch ein extrem negativ Beispiel wie schlecht das Game aussehen kann wenn die Szene grad "stinknormal" ist?
https://pics.computerbase.de/1/0/9/1/1/4-74a41b58493d4f14/3-2160.ee31d39f.jpg

Aber wenn das Game gut ankommt werden die Modder es eh regeln.
Die Mod Community wird vermutlich innerhalb von 12 Monaten das Game optisch auf ein dreifaches Level heben. Wobei die Performance dadurch vermutlich immer schlechter werden wird wenn Bethesda da nicht nachregelt an der Engine.

Den langen Gamesstar Test/Talk dazu gehört... klingt aber eh nach keinem Game was mich interessiert.
Bethesda sollte endlich mal ein Skyrim Nachfolger liefern, frage mich eh, wenn man so eine Zugstarke IP hat warum man die Fans so lange hängen lässt und erstmal wild rum experimentiert.

Wenn man überlegt das die Entwicklung ja jetzt erst so richtig los geht, dann wird da vermutlich vor 2028 nichts kommen... das sind dann 17 Jahre zum Skyrim Release.
 
Grestorn schrieb:
Aus meiner Sicht schlicht eine bodenlose Schlamperei der Starfield Engine Programmierer. Und extrem einfach zu beheben, wenn man den Quellcode zur Hand hat und neu kompilieren kann.
Ja, aber da hast Du es doch, wenn AMD so per Sponsoring auf die Optimierung an die eigene Architektur und Vorteile gegenüber der Konkurrenz gepocht hätte, dann hätte das anders aussehen müssen.

Das genau nimmt den z.T geäusserten Verschwörungstheorien - absichtlich alles besser für AMD Produkte optimiert zu haben, weil Starfield AMD gesponsort wurde - den Wind komplett aus den Segeln, denn letztendlich geht das alles auf Bethesdas Kappe ohne Richtungsvorgebung durch AMD.

Ergo, wie ich schrieb, hat Bethesda das lange schon alleine aufgesetzt bevor Microsoft und AMD dazu kamen und letzteres hatte scheinbar wenig Einfluss auf die Starfield Entwicklung im Detail.
 
Zuletzt bearbeitet:
MrHeisenberg schrieb:
Nein, ist es nicht. Du fährst hier nur ne Anti-Nvidia Schiene und versuchst dein heißgeliebtes AMD zu verteidigen und das teils mit völlig abstrusen Argumenten (AMD gesponsorte Spiele vs unabhängige Studios, unreale Frames, schwache RT Leistung...).
Leider für dich und deine Argumentation habe ich eine 3080.

Aber interessant, was du mir vorwirfst, betreibst du offensichtlich hier selbst.

Die Argumente sind für dich abstrus weil du eine andere Meinungen/Ansichten hast aber eben keine anderen Sichtweisen tolleriren kannst. Kann ich mit leben. Ich kann andere Ansichten tolerieren, auch wenn ich sie nicht teile.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: eXe777, Alesis und Syrian
Zurück
Oben