• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Starfield im Test: 24 Grafikkarten und 12 Prozessoren im Benchmark

incurable schrieb:
@Wolfgang

Danke für das Update! Hast Du auch Speicherbandbreitenskalierungsbenchmarks auf dem Zettel? (ob nur für morgen oder erst später)
Nein, die wird es nicht geben.
Ich habe mir das aber mal groß angesehen und nichts spannendes dabei gesehen. Selbst der FPS-unterschied zwischen DDR5-4800 und DDR5-6000 auf Alder Lake ist überschaubar.
Kuestennebel79 schrieb:
@Wolfgang Danke für die Tests.
Allerdings, ich verstehe nicht, warum Ihr WQHD nativ und UHD mit Upsampling "Quality" in den Benchmarks auswählt. Ist das nicht die gleiche Renderauflösung wie WQHD? Die Werte sind ja auch sehr ähnlich, welchen Mehrwert haben wir davon?
Ja, es ist dieselbe Renderauflösung, entspricht kommt der Leistungsunterschied durch den Upsampling-Algorithmus zustande. Was man davon hat? Nun, in Ultra HD sollte man mit FSR 2 Quality spielen, nativ geht eh nur auf sehr wenigen Grafikkarten.

Ein paar Benchmarks in UHD Nativ haben wir ja zudem, da zeigt sich dann schnell, dass das schnell eine enge Kiste wird. Das hilft dir zwar in der Tat nicht weiter wenn du halbwegs an ein potenzielles UWQHD-Ergebnis heran kommen möchtest, das stimmt natürlich.
 
  • Gefällt mir
Reaktionen: incurable und Kuestennebel79
Ich ergänze mal den Test von Computerbase mit meiner Hardware und meinen Screenshots.

Verwendet wurden ein 5800x, eine 6950 XT, 32GB RAM mit 3600 MHz und eigenen Timings. CPU und GPU sind untervoltet. Als Treiber wurde der Adrenalin 23.8.2 genutzt und das Spiel lief in WQHD mit dem Hoch Preset. FSR ist dabei automatisch aktiv. In der von Computerbase verwendeten Benchmark Szene habe ich 2 Screenshots vom selben Moment gemacht, die den Vergleich zwischen der nativen Auflösung ohne FSR und den FPS mit FSR zeigen. Auch meine Messung mit CapFrame-X habe ich ohne FSR an dieser Stelle gemacht, damit zwischen den Werten von ComputerBase und meinen verglichen werden kann. Ca. 70 FPS erreicht mein System im Durchschnitt. Computerbase scheint auf fast den identischen Wert zu kommen und praktisch ist man damit auf dem Niveau einer 4080, die nur 3 FPS schneller läuft. Die GPU-Power hat CapFrame-X dabei mit ca. 210 W ausgelesen. @Wolfgang Was zieht eine 4080 an der Stelle?

Alle anderen Screenshots sind wie gesagt mit dem Preset Hoch, welches FSR enthält. Ich will damit einen allgemeinen Eindruck vom Spiel und der Leistung vermitteln. Wahrscheinlich gibt es noch Tuningpotenzial seitens Bethesda, aber das Spiel läuft gut. Dem Stromverbrauch nach, könnte die Auslastung der Architektur aber noch höher sein. Es kann also sein, dass manche Bereiche der RDNA2 Architektur nicht genutzt werden, oder darauf warten, dass andere Berechnungen abgeschlossen sind. Auch wird mein System manchmal durch die CPU limitiert. Das Sieht man auch schon beim Vergleich zwischen nativer Auflösung und Upscaling. Die GPU hat mit Upscaling nämlich noch Reserven. Bei ca. 80% Gesamtauslastung kommt aus der CPU aber nicht mehr Info für die GPU. Das Spiel fühlt sich trotzdem durchweg gut an.

Ich hänge euch ebenfalls das Savegame für die Benchmark Szene an und wünsche clear skies ;)

starfield FSR on.jpg
starfield FSR off.jpg
CX_2023-09-04_13-20-33_Starfield_.png
starfield 2023-09-04 12-04-42.jpgstarfield 2023-09-04 12-06-26.jpgstarfield 2023-09-04 12-09-20.jpgstarfield 2023-09-04 12-11-43.jpgstarfield 2023-09-04 12-15-11.jpgstarfield 2023-09-04 12-16-32.jpgstarfield 2023-09-04 12-16-49.jpgstarfield 2023-09-04 12-19-27.jpgstarfield 2023-09-04 12-19-40.jpgstarfield 2023-09-04 12-20-43.jpgstarfield 2023-09-04 12-24-24.jpgstarfield 2023-09-04 12-25-53.jpgstarfield 2023-09-04 12-39-32.jpgstarfield 2023-09-04 12-42-18.jpgstarfield 2023-09-04 12-44-32.jpgstarfield 2023-09-04 12-51-26.jpgstarfield 2023-09-04 12-58-48.jpgstarfield 2023-09-04 13-00-07.jpgstarfield 2023-09-04 13-00-46.jpgstarfield 2023-09-04 13-01-04.jpgstarfield 2023-09-04 13-08-15.jpg
 

Anhänge

Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: A.Xander, TheManneken, simosh und 7 andere
Erfahrungsgemäß würde Nvidias DLSS besser abschneiden......Immerhin läuft FSR 2 aber auf allen Grafikkarten

Finde den Fehler....

GeleeBlau schrieb:
Wieso sollte man die alle mit Absicht vergraulen?

Inwiefern vergraulen?
Es läuft ja auf nVidia Karten. Sogar recht ordentlich.
FSR geht mit allen Herstellern ...

Eine Tatsache die DLSS nicht mit sich bringt ...

Vergrault wird hier doch niemand?

Arc ist einfach noch zu schwach ... da müssen wir auf die nächste Gen hoffen.
 
  • Gefällt mir
Reaktionen: Alesis
Also ich lese hier schon eine ganze Weile mit und möchte jetzt auch mal meinen Senf dazu geben, da das wohl bisher noch nicht angesprochen wurde.
Davon abgesehen, dass die Performance allgemein besser ausfallen könnte, könnte das relative Abschneiden der AMD- und Nvidia-Karten eventuell durch die jeweilige FP16-Performance auf den Shadern + ReBar-Support erkärt werden.

RX 7900XTX: ~123 TFlop FP16
RTX 4090: ~83 TFlop FP16

Falls es zutreffen sollte, dass einfach nur viel mit halber Genauigkeit berechnet wird, kann da nur Nvidia über einen Treiber nachbessern und die FP16-Berechnungen eventuell auf die Tensorkerne verlagern. Also falls das überhaupt so einfach möglich ist.
 
  • Gefällt mir
Reaktionen: MiroPoch, bad_sign, NOTaNerd und 2 andere
Inxession schrieb:
Inwiefern vergraulen?
Es läuft ja auf nVidia Karten. Sogar recht ordentlich.
FSR geht mit allen Herstellern ...

Eine Tatsache die DLSS nicht mit sich bringt ...

Vergrault wird hier doch niemand?

Klar, jeder Nvidia Nutzer, der ein besseres Bild hätte haben können, wenn Bethesda sich auch nur ein paar Stunden hingesetzt und DLSS angeboten hätte.
Stattdessen wird ihnen was schlechteres vorgelegt mit dem Zusatz "das ist zwar schlechter, aber andere können es auch nutzen, deshalb ist es gut"

Bei den Vergleichen zwischen Nativ und FSR2 zeigt sich eigentlich: Ordentlich geht anders und wie gesagt, die DLSS Mod an Day1 bringt den Nvidia Nutzern bereits deutlich bessere Qualität.
Und mit der FG Mod hat man direkt auch noch mal ein deutlich flüssigeres Spiel, vor allem diejenigen mit älteren CPUs.
 
  • Gefällt mir
Reaktionen: aLanaMiau, gesperrter_User, MrHeisenberg und eine weitere Person
Inxession schrieb:
Finde den Fehler....



Inwiefern vergraulen?
Es läuft ja auf nVidia Karten. Sogar recht ordentlich.
FSR geht mit allen Herstellern ...

Eine Tatsache die DLSS nicht mit sich bringt ...

Vergrault wird hier doch niemand?

Arc ist einfach noch zu schwach ... da müssen wir auf die nächste Gen hoffen.
AMD könnte ja einfach versuchen bei Nividia das RTX Brand + DLSS zu lizenzieren :) - oder weiterhin eigene halbgarre Produkte auf den Markt werfen. Ist doch nicht das Problem von Nvidia. Außerdem würde kein Hersteller für halbgarre Lösungen Geld ausgeben. Somit macht dass schon Sinn das FSR "kostenlos" nutzbar ist.
 
Ich bin immer noch erschrocken. Eine 3080 für 60FPS in effin FHD.
 
  • Gefällt mir
Reaktionen: simosh, bruderzorn und grincat64
Bei Starfield ist das FSR nicht vergeigt.. das ist tatsächlich das beste was FSR so hinbekommt..
Es fällt nur extremer auf wie schlecht es ist weil DLSS fehlt..


Ansonsten hab ich hier n kleines Tool was in jedem Game (auch starfield) AutoHDR forcieren kann

https://github.com/ledoge/autohdr_force
 
  • Gefällt mir
Reaktionen: Blackland
CMozzarella schrieb:
Auch wenn die Optik die hohen Anforderungen nicht rechtfertigt, bin ich schon mal froh dass es zum Start kein komplett unspielbares Desaster wie Jedi oder Last of us ist. Es sei denn du hast ne Arc 😄
Danke für den Test!
Öhm, Last of Us war mit der selben Hardware besser spielbar als Starfield zu release.
 
habla2k schrieb:
Ich bin immer noch erschrocken. Eine 3080 für 60FPS in effin FHD.
Hey, es ist Bethesda!
Schau dir deren Games mal an und die Qualität mit der da gearbeitet wird.
Ich bekomme schon bei allen TESO oder Fallout das kalte Grausen und wenns wer richtet, dann die Com, was einem Armutszeugnis gleichkommt. Die hatten ihre Performance-Probleme noch nie im Griff und dann gibts eben sowas wie "Eine 3080 für 60FPS in effin FHD".

Nicht mein Setting und typische Bethesda-Probs - ich lass es mal geflissentlich links liegen.
 
Blackfirehawk schrieb:
Bei Starfield ist das FSR nicht vergeigt.. das ist tatsächlich das beste was FSR so hinbekommt..
Es fällt nur extremer auf wie schlecht es ist weil DLSS fehlt..


Ansonsten hab ich hier n kleines Tool was in jedem Game (auch starfield) AutoHDR forcieren kann

https://github.com/ledoge/autohdr_force
Geht so mit Dlss Mod sieht es besser aus und läuft schneller, also ja verkackt für NV user.
 
Blackfirehawk schrieb:
Bei Starfield ist das FSR nicht vergeigt.. das ist tatsächlich das beste was FSR so hinbekommt..
Nee, auch FSR bekommt es normalerweise hin, das Bildflimmern zu minimieren, was hier überhaupt nicht klappt.
Starfield ist weit entfernt von der besten FSR Implementierung
 
  • Gefällt mir
Reaktionen: MrHeisenberg
HUB über CPU Einfluss auf die Leistung:
 
  • Gefällt mir
Reaktionen: MiroPoch und simosh
Wenn ich mir Farcry 6 ansehe, auch ein -quasi- AMD Spiel genau wie Starfield, habe ich festgestellt, das FSR mit einer getesteten nvidia Grafikkarte nichts bringt, also wenn ich mir das für Starfield vorstelle, lasse ich die Finger von dem Game mit nvidia Grafikkarte.
Jedenfalls in Farcry 6 ist FSR für alle schlechter, als DLSS Unterstützung für nvidia Grafikarten wäre.

Da es im Gamepass ist, ist es nicht aufwendig es mal anzutesten, obwohl es 150 GB ca an Download verschlingt, mal sehen, im Moment ist zb auch das Quake 2 Remaster für die schmale Hardware/Taler so genial. Komisch, weshalb fesseln einen immer solche Games anstatt auf den Zug der Hype AAA Blockbuster aufzuspringen? Ist es nur der Preis? Oder auch die Einstellung nicht alles haben zu wollen/müssen um seine Hardware zu rechtfertigen?
 
Chronic schrieb:
Also ich lese hier schon eine ganze Weile mit und möchte jetzt auch mal meinen Senf dazu geben, da das wohl bisher noch nicht angesprochen wurde.
Hey,
willkommen in der Community!
Ich bin gespannt, wie viel noch an Leistungsoptimierung drin sein wird. Das Verhältnis von Grafik (Wau) zu Leistungshunger (Au), gefällt mir schon mal nicht. Ich hoffe, es läuft dann Mittwoch auf meinem mid-range Rechner...
 
  • Gefällt mir
Reaktionen: Chronic
Was ist denn jetzt der Unterschied zwischen Premium- & Standard, nur 2 Tage Unterschied?
 
Mrbrill schrieb:
Wenn ich mir Farcry 6 ansehe, auch ein -quasi- AMD Spiel genau wie Starfield, habe ich festgestellt, das FSR mit einer getesteten nvidia Grafikkarte nichts bringt, also wenn ich mir das für Starfield vorstelle, lasse ich die Finger von dem Game mit nvidia Grafikkarte.
Jedenfalls in Farcry 6 ist FSR für alle schlechter, als DLSS Unterstützung für nvidia Grafikarten wäre.
Far Cry 6 ist spatiales FSR 1, das ist völlig anders als das temporale FSR 2 in Starfield, das kann man nicht vergleichen.
 
  • Gefällt mir
Reaktionen: MiroPoch, E2K3, _Cassini_ und 5 andere
1693831424750.png


Wer lesen kann, ist im Vorteil 😉. War schon bei der Bundeswehr so.
 
  • Gefällt mir
Reaktionen: Apo
Manegarm schrieb:
"Starfield" ist bei Weitem nicht so revolutionär, wie die Werbung es vielleicht vermuten lassen würde. Aber es ist das beste RPG aus dem Hause Bethesda seit "Skyrim". Vielleicht sogar das beste RPG von Bethesda überhaupt."

Kann ich genauso bestätigen.

Jetzt bin ich irritiert?!?! Warst Du nicht am Anfang des Threads derjenige, der das Spiel am meisten "gedisst" hat und fluchte, was es für eine Grütze wäre? No offense, ehrliche Frage! :)
 
  • Gefällt mir
Reaktionen: cyberpirate
Wolfgang schrieb:
Cyberpunk mit Raytracing. Da haben die Entwickler auch nur "nach mir/Nvidia die Sinnflut" gemacht und mir kann da auch keiner erklären, dass das auf Radeon nicht besser geht. Das ist quasi kaum Spielbar auf Radeons die es damals 2 Jahre lang noch nicht gegeben hat.
Da dieses Spiel bei jeder Gelegenheit nach wir vor von Nvidia für alles mögliche zitiert wird wird es hier ein ähnliches agreement geben wie AMD es mit Bethesda hat.
 
Zurück
Oben