• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Starfield im Test: 24 Grafikkarten und 12 Prozessoren im Benchmark

Americanguy schrieb:
Achja das Spiel mag kein Undervolting mit fixer Voltage. Ich verliere viel Leistung dadurch.
Macht bei mir kaum Unterschied, bis auf den signifikant höheren Verbrauch:

Starfield_2023_09_06_07_59_21_736.jpg Voltage fixed
Starfield_2023_09_06_07_57_58_134.jpg Voltage GPU default
Starfield_2023_09_06_07_57_12_348.jpg Voltage fixed
 
GerryB schrieb:
Ist ne Andere Szene.

GerryB schrieb:
Das PCGH nur JEDEC-Rotz testet ist doch schon ausreichend diskutiert worden.
Welcher User/Fertig-PC-Käufer geht bitteschön extra ins Bios um XMP auszustellen?
Viele kennen gar kein Bios und Wer´s kennt macht so nen Quatsch net.
Welche Rolle spielt das? Es geht um dein System. Du hast in der Anfangszene nicht mal 60 FPS und die ist nicht anspruchsvoll. Ich kann dir sagen, dass sich deine FPS fast halbieren werden im Laufe des Spiels.
 
MrHeisenberg schrieb:
Es geht um dein System. Du hast in der Anfangszene nicht mal 60 FPS und die ist nicht anspruchsvoll. Ich kann dir sagen, dass sich deine FPS fast halbieren werden im Laufe des Spiels.
Du kannst davon ausgehen, das meine CPU ungefähr wie der 8700k bei HUB reagieren wird, weil die c/t noch reichen.

Dagegen PCGH hat alle älteren Intel-CPU´s riiiiiiiiesig benachteiligt, da fehlen bestimmt 20...25% ohne XMP.
Die Fps vom 9900k@2666MHz << 3300x@3200MHz-Vram sind ein Witz!
 
Apocalypse schrieb:
@scuba2k3
Sieht es wirklich so schlecht aus? Die Konsolen-Spieler die ich dazu gehört habe scheinen alle begeistert zu sein. Besonders die auf der Xbox S.
Nicht richtig schlecht aber auch bei weiten nicht "next-gen"
Zumindest "UltraHD" Texturen hätten es auf dem PC schon sein dürfen
 
  • Gefällt mir
Reaktionen: Apocalypse
Ähm... nichts anderes als UV ist eingestellt. PL nutze ich nicht, weil durch fixe maximale Voltage eh begrenzt und PL allein keine Frametimes glättet. Aber kann natürlich sein, dass Ada da anders reagiert.
 
  • Gefällt mir
Reaktionen: Americanguy
So mir ist aufgefallen das das spiel nur 130w zieht bei 98% gpu load
meine gpu hat 170w (rtx3060 12gb)
Jetzt teste ich auf ner m2 ssd
 
Was würde ein fleißiger Tweaker jetzt versuchen?
Natürlich ein separates Profil/Kurve erstellen mit mehr Takt.
(weil die Watt für mehr Volt reichen)

Das ein Setting für alle Games passen soll ist zwar schön faul, aber auch net das Beste.

YTer mit 4090 fahren auch ca.3GHz@1,10V.
Lt.Matt bei OCersUK sogar 3,1GHz
https://imgsli.com/MjAyMzM0
 
Zuletzt bearbeitet:
Starfield ist eine zicke ganz anders wie die meisten spiele. Ich fahre mit PL am besten, wenig verbauch gute Leistung in relation und gpu boostet frei mehr wie 2.9ghz braucht man eh nicht.

Auch ist es trügerisch es gibt schon szenarien da zieht sie dann was sie kann ;)
 
Ich könnte mal wieder "Perry Rhodan: The Adventure" spielen. Erschienen am 29.01.2008 und damit gerade mal schlappe 15 Jahre jung. Soviel schlechter sieht dessen Grafik auch nicht aus. Die Hintergrund-Grafik ist natürlich, wie seinerzeit üblich, vorgerendert. Das hält aber auch die Datenmenge klein.

Die empfohlenen Systemanforderungen sind entsprechend:

CPU: 2,4 GHz Pentium 4 CPU
RAM: 1024 MB RAM for Windows XP 2048 MB RAM for Windows Vista
GPU: NVidia GeForce 6600 GT 256 MB / ATI 9600 XT (or better) 256MB
DX: DirectX 9.0c
OS: Windows XP/2000/Vista
STO: 3.5 GB Free space
Schall: 100% DirectX 9.0 compatible Sound Card
ODD: DVD-ROM

Das waren noch Zeiten! Allerdings waren die Anforderungen seinerzeit doch recht anspruchsvoll.
Man war von den Leistungsdaten der Hardware noch nicht so verwöhnt wie heute. Grins
 
Ganz ehrlich...
Ich habe heute morgen um 4 Uhr angefangen und ich finde das Spiel prima.
Die Grafik ist zwar nicht mehr ganz auf Höhe der Zeit und die Charakteranimationen sind halt so hölzern, wie man es eh von Bethesda kennt - aber das macht für mich den Charme der Bethesda Spiele aus.

Wenn man sich dann auf das Ganze mal ganz in Ruhe einlässt, dann passiert eben auch nicht sowas, wie hier auf den ersten Seiten von jemand beschrieben hat (hey, Du hast was gefunden - ich geb Dir mein Schiff) -
Man kann bei einem solch riesigen Game auch die Dialoge mal komplett durcharbeiten (also als Spieler).
Da merkt man bereits in der ersten Spielstunde, wie ewig viel Arbeit da drin steckt.

Wo ich echt ein bisschen gebraucht habe, war die Menüstruktur bei Aufgaben und für die automatischen Reisen.

Also ich sehe mich mal wieder bei über 1.500 Stunden in dem Game.
Und nächsten Monat kommt auch noch CS-II dazu.
 
  • Gefällt mir
Reaktionen: up.whatever, Vigilant, H6-Mobs und 3 andere
Wintermute schrieb:
Weil wir wissen wollen, wie viele FPS die CPU maximal generieren kann. Schafft sie 70FPS in 720p, schafft sie das auch in UHD. Andersrum ergibt das keinen Aufschluss.
Wenn man also schreibt ein 5800x3d schafft 70fps und ein 7800x3d 90fps bei 720p bedeutet dies, dass ein 7800x3d ca. 28% mehr FPS hat in UHD? Oder wie ist das für mich als Gamer zu verstehen?
 
@Nerke Nein. Das heißt einfach nur das der 7800x3d 90 fps schafft. ;) Die höhere Auflösung stresst dann nur die GPU, die dann zum Flaschenhals werden könnte
 
Americanguy schrieb:
auch geil endlich wieder mal ein spiel mit physik. :) Jede andere engine würde crashen ^^ und das Zeug bleibt auch so da liegen egal wohin du gesht wenn du zurückkommst ist es genauso wie du es verlassen hast in anderen spiele despawnt alles sofort und kann meistens gar nicht miteinander agieren. (programmierhölle)
Was auch in früheren Bethesda Games eingebaut war, ist zwar gut im vergleich zu anderen Games, aber eher standard als ES oder Fallout Gamer. Wobei das natürlich positiv ist.

Nerke schrieb:
Wenn man also schreibt ein 5800x3d schafft 70fps und ein 7800x3d 90fps bei 720p bedeutet dies, dass ein 7800x3d ca. 28% mehr FPS hat in UHD? Oder wie ist das für mich als Gamer zu verstehen?
Bedeutet das der 5800x3d in dem Game 90fps leisten kann, sofern nicht die gpu imitiert.
Schafft die eigene gpu nur maximal 60fps dann wird man mit beiden CPU´s bei 60fps gecapt durch die Grafikkarte.
Der 5800x3D wird halt weniger Auslastung haben und damit sparsamer laufen.

9t3ndo schrieb:
Andererseits liegt normalerweise der 5800X3D knapp vor oder gleichauf mit dem 7700X. Bei Starfield ist der 7700X mal eben bedeutend schneller. Also irgendwas scheint da mit dem Cache nicht hin zuhauen.
War doch schon immer das Problem beim 5800X3D, dass nicht jedes Game auf mehr Cache gut anspricht. Somit lieber einen 7700x der immer seine Leistung bringt ohne Schwankungen, als einen 5800x3D.
X3D ist nur ein netter Bonus wenn man Enthusiast ist und die jeweils schnellste Gaming CPU benötigt , aktuell halt die 7800x3d und 7900X3D`s, zumal der Cache halt auch nicht gratis ist, sondern wie damals bei Broadwell entsprechend Aufpreis kostet.
 
Zuletzt bearbeitet:
Nerke schrieb:
Wenn man also schreibt ein 5800x3d schafft 70fps und ein 7800x3d 90fps bei 720p bedeutet dies, dass ein 7800x3d ca. 28% mehr FPS hat in UHD? Oder wie ist das für mich als Gamer zu verstehen?
Ja, so ist das zu verstehen, solange deine GPU auch stark genug ist 90 FPS zu schaffen. Ob sie das ist hängt natürlich von den Settings und deiner GPU ab. Sprich in Starfield auf sinnlosen Ultra-Settings wohl selbst mit einer 4090/7800xtx nicht, aber auf Hoch, sieht das dann schon so in etwa aus. Das Hoch Preset verwendet FSR2.

Viele werden aber nicht so starke Grafikkarten haben, und für die reicht dann der 5800x3D wahrscheinlich ganz gut, weil selbst auf 1440p mit einer 6800xt man nur so um die 60FPS hat, da passt CPU und GPU für das Spiel eigentlich ziemlich gut zusammen.

Das CPU Limit zu kennen bedeutet also umgekehrt auch, das ich dann auch direkt mit aus den GPU Benchmarks die Grafiksettings meiner Grafikkarte raus suchen kann, die zum CPU Limit passen, weil mit weniger hübscher Grafik ich ja eh keine FPS mehr gewinnen würde.

Mit meinem lahmen 2700x bedeutet das leider das ich meine 6800 auch auf 4k, mit Hoch Preset stellen kann, weil mehr als 40-50 FPS packt ja leider die CPU nicht. Immerhin würde die Ruckelorgie dann ganz hübsch aussehen ... ein 5800x3D muss her. Dann geht QHD so halbwegs, wenn man die Settings auf Medium runter stellt mit 60 FPS. Zumindest laut Hardware Unboxed, CB hat ja Medium nicht getestet. ;-)
Ergänzung ()

Vitec schrieb:
Bedeutet das der 5800x3d in dem Game 90fps leisten kann, sofern nicht die gpu imitiert.
Typo, du meinst den 7800x3D
 
  • Gefällt mir
Reaktionen: Wintermute
alberts2 schrieb:
Das würde dann aber auch für den 13900K gelten da steht in der spec das selbe also 4400 für 2DPC. Wurde aber mit 5600er RAM getestet, macht so keinen Sinn der Test.
Ehrlich gesagt habe ich das zu 13th gen nirgendswo gelesen.
Ich wollte ja noch eine Quelle zu meiner Aussage anhängen, habe aber nur Tests gefunden und nur Anandtech hat es am ende eines Absatzes erwähnt. Bei 13th gen gabs die Info nicht mehr oder sie wurde vollends ignoriert.

Intel Ark 12900K, Reiter Dokmentation lädt bei mir nicht. Ich hatte ihn während des Essens laden lassen und immer noch Ladebalken :D
 
GerryB schrieb:
Dann schau mal die Ergebnisse von sinnvollen Tests mit XMP an.
1693985990497.png


Ist halt einfach eine "Worst Case" Szene was man bei anderen oftmals nicht extra sucht.
Da wird dann eine Szene gewählt die eben nicht am absoluten Limit ist und schon sieht es auf der selben HW wieder komplett anders aus.

Habe auch mehrere Szenen gebenched. Anstatt der 70FPS hatte ich dann auf einmal 100 FPS mit der selben HW.

Deswegen ist so ein Vergleich einfach scheiße -> selbe Szene nehmen (Worst Case) und dann vergleichen, alles andere macht keinen Sinn.

Bei PCGH macht man das seit Jahren, daran erkennt man dann eben die Leute die sich darüber gedanken machen.
 
GerryB schrieb:
Welcher User/Fertig-PC-Käufer geht bitteschön extra ins Bios um XMP auszustellen?
Viele kennen gar kein Bios und Wer´s kennt macht so nen Quatsch net.
XMP/EXPO ist standardmäßig immer deaktiviert und muss manuell im BIOS aktiviert werden. Nach jedem BIOS Update oder CMOS reset muss es neu aktiviert werden, daher impliziert deine Aussage eher dass die meisten User ohne XMP unterwegs sind.
 
  • Gefällt mir
Reaktionen: W4RO_DE, MrHeisenberg und Vitec
Verangry schrieb:
Bei PCGH macht man das seit Jahren, daran erkennt man dann eben die Leute die sich darüber gedanken machen.
???

Du vgl. 2x den 5800x3d@3200 aber für nen älteren Intel 9900k sollen grottige 2666 herhalten!?
Das 4000 auch noch beim 5800x3D zieht sagt ja Alles. Nehm DAS mal für den 9900k!

PCGH ist nach m.E. ne reine Marketingmaschine, die ältere Hardware schlecht aussehen lässt.(kauft, kauft!)
CPU@Jedec
GPU@maxed>ultra + ggf. 8x MSAA oder Downsampling um die älteren Midrange-Grakas in Bottlenecks
zu manövrieren

Da lob ich mir Wolfgang, der sich spielbare Settings aussucht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Americanguy
Zurück
Oben