• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Starfield im Test: 24 Grafikkarten und 12 Prozessoren im Benchmark

Raucherdackel! schrieb:
Ich habe nämlich vor, Starfield auf meinem Ryzen 5 2400G zu spielen.
Also beim besten Willen, da wird das Spiel nicht einmal starten.

Die Framerate ist seit FO76 nicht mehr gekoppelt, wurde aber bei Fallout 4 auch verbessert, soweit ich es richtig in Erinnerung habe, die Probleme hatten andere Ursachen. Gibt auch jetzt Mods dafür.
 
  • Gefällt mir
Reaktionen: McFritte
Also ich spiele es jetzt mit einer 4080 und der DLSS Mod inklusive FG. Alles auf Ultra in 3440 x 1440 und die FPS sind selten unter 120. Eine simple Mod reicht um FSR komplett zu bürsten, sowohl bei den FPS als auch von der Bildqualität her, wird mehr als nur Zeit für FSR3.
 
RedDeathKill schrieb:
Also beim besten Willen, da wird das Spiel nicht einmal starten.
doch, wird es. Gibt es einige die das Spiel auf ihren APUs in Notebooks zocken.

Außerdem ist mein 2400G maxed out:
3,95GHz Allcore
DDR4 3333 CL14 mit scharfen subtimings
1700MHz GPU Takt.

Wenns auf einem 5700G ohne HT läuft, dann läufts bei mir erst recht.
 
Wie viele Mods einfach schon auf Nexus sind! :o

[Archive]
bInvalidateOlderFiles=1
sResourceDataDirsFinal=

Ja, da werden Erinnerungen wach! :D
 
Hate01 schrieb:
Eine Technik, die dem Endkunden keine Wahl lässt lässt per se keinen Wettbewerb zu.

Es geht um den Wettbewerb zwischen den Herstellern und nicht um den Endkunden.
Ohne diesen Wettbewerb gäbe es keinen Anlass irgendwas neues zu entwickeln.

Oder glaubst du es gäbe Freesync ohne das G-Sync vorher rausgekommen wäre?
Oder FSR ohne den vorherigen DLSS Release?
Oder dass AMD heute Raytracing Beachtung schenken würde ohne die RT-Initiative von nVidia?

Vielleicht hätte AMD auch die Ryzen-Prozessoren nicht entwickeln müssen, wenn wir alle fein mit dem Status Quo wären. Bulldozer forever. Flankiert von Core2Quad Prozessoren. Na schönen dank auch.

Wäre es vielleicht gut gewesen wenn AMD Ryzen auf eigene Kosten entwickelt und die Pläne an Intel schickt, damit die auch solche Prozessoren bauen können? Dann hätte der Endkunde ja auch herstellerübergreifend die gleiche Leistung und die gleichen Features.

Wo ist denn der Anreiz für eine Firma was neuere und besseres zu entwickeln als das was es schon gibt, wenn der Konsens lautet, dass alle es nutzen und davon profitieren können? Wir leben noch nicht im Star Trek Universum.
 
Zuletzt bearbeitet:
schon wieder die bescheuerten CPU Tests in 720p... niemand spielt dieses Spiel in 720p 🤡

Ich will wissen was die verschiedenen CPUs in der Realität bringen, in Auflösungen die tatsächlich genutzt werden.
 
Chris007 schrieb:
schon wieder die bescheuerten CPU Tests in 720p... niemand spielt dieses Spiel in 720p 🤡
Glückwunsch wieder jemand der nicht versteht wie man einen CPU Test macht...
 
  • Gefällt mir
Reaktionen: mazO!, Gesualdo, ShowOff und 6 andere
Also ich habe jetzt FSR2 (67%) und Preset "Hoch" und bin sehr zufrieden. Es läuft zwischen 70-120 FPS in UWQHD mit ner 4070ti und 5800x3d. Die Grafik ist wie im Artikel beschrieben manchmal richtig gut und manchmal etwas altbacken. Charme, Atmo, Sound und Setting machen das Spiel für mich aber zu einem absoluten Highlight.

Was ich icht verstehe, woher die CPU Benches mit 65FPS Avg kommen ?
Evtl. bin ich einfach noch nicht weit genug im Spiel oder es gab einen Patch, aber ich war auch in New Atlantis noch nicht unter 70 FPS :-)
 
Kuestennebel79 schrieb:
Was ich icht verstehe, woher die CPU Benches mit 65FPS Avg kommen ?

Kommt immer auf das Test Szenario an.

Stehe ich in einer kleinen instanzierten höhle oder stehe ich gerade in einer belebten Stadt.

Da ist das Test Szenario schon entscheident um das ermittelte nachzustellen.
 
Zuletzt bearbeitet:
@alne24
Was wiederum zwar gut und notwendig für die Vergleichbarkeit, evtl. aber auch nicht für das ganze Game repräsentativ ist.

Daher sollte im Test idealerweise ein Hinweis auftauchen, dass eine sehr anspruchsvolle Szene oder der interne Benchmark (sofern vorhanden) gewählt wurde, ergänzt um einen Hinweis, wie repräsentativ es für das ganze Game ist.
 
Chris007 schrieb:
schon wieder die bescheuerten CPU Tests in 720p... niemand spielt dieses Spiel in 720p 🤡

Ich will wissen was die verschiedenen CPUs in der Realität bringen, in Auflösungen die tatsächlich genutzt werden.
Nur geht es bei CPU Test in Spielen nicht darum, mit welchen Einstellungen man spielt. Da geht es darum, wie schnell eine CPU das Spiel maximal berechnen kann. Und dieses Maximum findet man nun mal schlecht in 4K Ultra Settings raus, wo die Grafikkarte sich dann mit 100% Auslastung 40 FPS rausquält und die CPU dabei halb im Idle ist.
 
Ich glaube, dass können wir noch ein Leben lang wiederholen, ohne dass es haften bleibt 😄.
 
  • Gefällt mir
Reaktionen: mazO!
Valanx schrieb:
@Mimir
"
Ja. Ein FPS Limit garantiert dir nicht, dass deine Frametimes
a) nicht schwanken und
b) synchron zum Display laufen
"

Genau dafür ist freesync doch da:

"Mit AMD FreeSync™ Technologie wird die Wiederholrate eines Displays mit der Bildrate von FreeSync kompatiblen Grafikkarten synchronisiert. Dies reduziert oder eliminiert visuelle Artefakte, die viele Benutzer als besonders störend empfinden: Eingabelatenz, Bildverzerrung und Ruckeln bei Gaming und Videowiedergabe"

https://www.amd.com/de/technologies/free-sync-settings


Ja, aber du hast das Problem nicht verstanden.

FPS sind wie der Name schon sagt der Durchschnittswert der Bilder innerhalb einer Sekunde.

Auf einem 144 Hz Display hast du damit maximal 144 Bilder. Also 144 mal eine bestimmte Frametime.
Und diese Frametime ist von Frame zu Frame leicht unterschiedlich.

Wenn du auf 140 FPS limitierst, dann würde das im idealfall einer Frametime von 7,1 ms pro Frame entsprechen.
Aber das erreichst du in der Praxis nicht. Die Frametime wird um diese 7,1 ms mal mehr mal weniger stark pendeln, so dass du nur im Schnitt auf 7,1 ms bzw. 140 FPS kommen würdest.
Da werden dann Frames dabei sein, die eine Frametime größer 7,1 ms haben. die kann der Monitor dann darstellen, da sich so eine langsamere Bildwechselzeit ergibt und es werden Frametimes dabei sein, die kleiner als 6,944 ms sind. Denn das wäre die schnellste Bildwechselzeit, die ein 144 Hz Display verarbeiten kann.

Hast du also einen Frame der schneller als nach 6,944 ms angezeigt werden muss, hast du Tearing.

Deswegen sag ich ja, je näher du an der Grenze bist, desto weniger dürfen die Frametimes schwanken. Und wenn du dir mal einen Frametime Verlauf angesehen hast, dann siehst du da einen ziemlich unrunden Verlauf mit Ausschlägen in alle Richtungen. Eine perfekte Linie wirst du da nie sehen, das ist praktisch nicht möglich.

Nochmal, Vsync ist zwingend notwendig, da beißt die Maus keinen faden ab. Außerhalb der Sync Range verhält sich so ein Monitor nunmal wie ein klassischer Monitor ohne Sync Technologie. Sobald ein Frame diesen Bereich erwischt, weil er schneller dargestellt werden soll als es die schnelltes Bildwechselzeit des Displays erlaubt, hast du tearing, weil dieser Frame dann nicht mehr von der VRR Range abgedeckt werden kann.

Dein Fehler ist es in FPS und nicht in Frametimes zu denken. Für den Monitor ist nur letzteres entscheidend. Da zählt nur, wie schnell von einem Bild aufs nächste umgeschaltet werden kann.


Um das nochmal etwas zu veranschaulichen.

Hättest du ein klassisches non-VRR Display mit 144 Hz, dann könnte ein Frame immer nur im Zeitraster von 6,9 ms angezeigt werden. Also entweder nach 6,9ms, nach 13,8ms nach 20,7ms usw. Wenn ein Refresh vom Monitor verpasst wurde, dann muss mit aktiven Vsync auf den nächsten Refresh nach weiteren 6,9ms gewartet werden.
Dadurch ergibt sich mit aktivem Vsync leichtes Ruckeln, wenn die Framerate geringer als 144 FPS ist, weil die Frames nicht mehr dann angezeigt werden, wann sie es eigentlich sollten und nicht mehr ins Zeitraster passen. Die dargestellten Bewegungen sind dann einfach unflüssig und ohne Vsync gibts Tearing.

Das was der VRR Monitor jetzt anders macht ist folgendes.

Wurde ein Frame dargestellt, dann kann auf einem 144 Hz VRR Display das nächste Frame ebenfalls frühestens erst nach 6,9ms dargestellt werden. Schneller als 144 Hz bzw. 6,9 ms Bildwechselzeit geht ja nicht.
Was der VRR Screen jetzt besser macht ist, dass er für langsamere Frametimes kein festes Raster hat. Sprich wenn das Bild nicht nach 6,9 ms sondern nach 7,1 ms kommt, dann kann der Monitor es sofort darstellen, weil er mit seinem Refresh immer so lange wartet, bis das nächste Bild kommt. So kann jedes Bild das ankommt just-in-time direkt angezeigt werden, ohne dass auf den nächsten zyklus des Display gewartet werden muss, denn es gibt ja keinen festen zyklus mehr, der bei einem non-VRR Display besagte 6,9 ms @ 144 Hz betragen würde.
Somit vermeidet man das Microruckeln das man vorher mit aktivem Vsync hatte.

VRR braucht also in der Tat kein Vsync, solange die Frametime länger als die schnellste Bildwechselzeit ist, weil der Monitor immer auf das nächste Bild wartet.

Kommt ein Frame aber wie gesagt zu schnell und unterschreitet die 6,9 ms gibts Tearing. Dieser schnellstmögliche zyklus existiert also nach wie vor. Muss ja, sonst hätten wir bereits Displays mit unendlicher Bildfrequenz. Mit aktivem Vsync würde so ein Frame dann so lange verzögert werden, bis der Monitor in der Lage ist den nächsten Bildwechsel zu machen. Also wird der Frame um 0 bis maximal 6,9 ms verzögert.


Ich hoffe es ist halbwegs verständlich. Ich hab jetzt einfach drauf los geschrieben.

Das alles ist kein Hexenwerk, aber dann doch ein bisschen komplexer, um es mal eben verständlich rüber zu bringen. Wer ein bisschen Grundlagen Elektrotechnik hatte und mit Frequenzen und Periodenzeit was anfangen kann, sollte das auch verstehen, wenn er sich etwas reindenkt. Aber das muss man auch nicht von jedem erwarten.

Wie gesagt, mach einfach Vsync an, wenn du VRR nutzt und niemals Tearing haben willst.
"trust me bro!" :daumen:
 
Zuletzt bearbeitet:
alne24 schrieb:
Kommt immer auf das Test Szenario an.

Stehe ich in einer kleinen instanzierten höhle oder stehe ich gerade in einer belebten Stadt.

Da ist das Test Szenario schon entscheident um das ermittelte nachzustellen.
Wie gesagt, auch in der Stadt nie unter 70. evtl muss ich einfach weiterspielen.
 
  • Gefällt mir
Reaktionen: alne24
DocWindows schrieb:
Es geht um den Wettbewerb zwischen den Herstellern und nicht um den Endkunden.
Ohne diesen Wettbewerb gäbe es keinen Anlass irgendwas neues zu entwickeln.

Oder glaubst du es gäbe Freesync ohne das G-Sync vorher rausgekommen wäre?
Oder FSR ohne den vorherigen DLSS Release?
Oder dass AMD heute Raytracing Beachtung schenken würde ohne die RT-Initiative von nVidia?

Vielleicht hätte AMD auch die Ryzen-Prozessoren nicht entwickeln müssen, wenn wir alle fein mit dem Status Quo wären. Bulldozer forever. Flankiert von Core2Quad Prozessoren. Na schönen dank auch.

Wäre es vielleicht gut gewesen wenn AMD Ryzen auf eigene Kosten entwickelt und die Pläne an Intel schickt, damit die auch solche Prozessoren bauen können? Dann hätte der Endkunde ja auch herstellerübergreifend die gleiche Leistung und die gleichen Features.

Wo ist denn der Anreiz für eine Firma was neuere und besseres zu entwickeln als das was es schon gibt, wenn der Konsens lautet, dass alle es nutzen und davon profitieren können? Wir leben noch nicht im Star Trek Universum.
Im Prinzip versucht du zu sagen das offene Standards Wettbewerb verhindern. Das ist völlig falsch, weil es genau das Gegenteil tut: es verhindert Monopole.

Die Diskussion führt zu nichts, also belasse ich es dabei.
 
Kuestennebel79 schrieb:
Wie gesagt, auch in der Stadt nie unter 70. evtl muss ich einfach weiterspielen.
Schau Mal beim Benchmark Post von CB. Die Testszene ist ja angegeben mit einem 25sek Video

Also könntest du theoretisch die Szene ja nachstellen wenn du Lust hast 👍

Oder genieß das Spiel 😉
 
Hate01 schrieb:
Im Prinzip versucht du zu sagen das offene Standards Wettbewerb verhindern. Das ist völlig falsch, weil es genau das Gegenteil tut: es verhindert Monopole.
Auf Basis von Aktienkonzernen liegt er da aufjedenfall richtig. Die geben garantiert kein Geld freiwillig für die Forschung aus von der dann andere Unternehmen profitieren können.
 
Raucherdackel! schrieb:
doch, wird es. Gibt es einige die das Spiel auf ihren APUs in Notebooks zocken.
Also wenn man daran noch Spaß hat: STARFIELD on a RYZEN 5 2400G - Vega 11 iGPU
Da kommt richtig Retrofeeling auf...Grafik von vor 20 Jahren, kombiniert mit 20 FPS-Geruckel

2023-09-06-17h25m25s191.png 2023-09-06-17h25m46s493.png

Raucherdackel! schrieb:
Außerdem ist mein 2400G maxed out:
3,95GHz Allcore
DDR4 3333 CL14 mit scharfen subtimings
1700MHz GPU Takt.
Ja dann, das reißt es bestimmt raus :smokin:
Also mal ernsthaft. Ich bin schon sehr genügsam, aber das würde ich mir nicht mehr antun.
 
  • Gefällt mir
Reaktionen: GerryB
Zurück
Oben