• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Forspoken im Test: Die PC-Premiere von DirectStorage analysiert

Windell schrieb:
Erst Calisto Protokoll, dann Dead Space und jetzt dieses Game. Für das Geleistete einfach viel zu schlecht optimiert.
Die nächsten Bananen stehen ja auch schon vor der Tür,zum Glück bin ich zu 85% in LA und PUBG zu Hause,ich verlier keine Träne wenn ich X nicht spielen kann,weil sich 0,0 mehr um optimierung gekümmert wird.

Gibts halt kein Geld von mir.

Ein gutes hats ja trotzdem,die spiele fallen dann rasant im Preis.
 
  • Gefällt mir
Reaktionen: Topi41
Dachte ich mir auch warum keine 4090 testung

Zudem hat schon wer rausgefunden was die Speicherbelegung (ram und vram) ausmacht?
Bei mir läuft das Game nur wenn ich in den settings beides auf Low Stelle
Sonst crashed es die ganze zeit
Trotz 4099 und 32gb ram
 
Aschenseele schrieb:
Und vor kaum einem Jahr haben einem noch die meisten erklärt 8GB Vram wären voll in Ordnung in der Mittelklasse

Daran hat sich auch nichts geändert. Stilblüten wie sie dieser Tage rausgekommen sind, ändern daran nichts.
Die allermeisten Games laufen schließlich sehr gut auf solchen Karten.

Es hat sich auch nichts dran geändert, dass hauptsächlich in der Enthusiastenbubble in Foren immer noch davon ausgegangen wird mit Mittelklassekarte alles auf Anschlag drehen zu können, ohne Einbußen erwarten zu müssen. Außerhalb dieser Bubble ist es jedoch bekannt und Usus, dass die Einstellregler in Spielen dazu da sind, den Leistungsbedarf an die eigene Hardware anzupassen.
 
  • Gefällt mir
Reaktionen: Coeckchen
@Wolfgang @Jan
Vielen Dank für diesen ausführlichen Technik-Test.

Um ehrlich zu sein enttäuscht mich Forspoken technisch betrachtet etwas. Die Anforderungen sind desaströs und entreißen Cyberpunk 2077 den Pokal des obligatorischen Hardware-Fressers mit Leichtigkeit. Das schlimmste daran ist aber, dass das Spiel visuell nicht den Eindruck macht, als sei dies auch nur im Entferntesten nötig. Das passt so keinesfalls zusammen.

Hinzu verstehe ich eine eurer Aussagen nicht:
Zwei Eigenheiten zeigt das Frametime-Verlaufsdiagramm noch. Erstens: Ganz gleich ob eine Radeon RX 7900 XTX oder eine GeForce RTX 4080 im Rechner steckt und Raytracing an- oder abgeschaltet ist: Das Framepacing bleibt vom Rhythmus her immer absolut gleich. Und das ist eine Seltenheit, denn normalerweise reagieren Spiele diesbezüglich teils ziemlich unterschiedlich.

Und zweitens zeigt das Diagramm auch den massiven Frameverlust in Bewegung. So ist die Ausgabe der Bilder in der ersten halben Sekunde der Testsequenz noch viel gleichmäßiger. Zwar werden die Frames nicht generell höher, aber eben deutlich gleichmäßiger ausgegeben. Nach weniger als einer halben Sekunde beginnen allerdings die Ausreißer, denn die Spielfigur läuft dann schneller. Und die Framerate sinkt damit auch.

Ich verstehe durchaus, dass ihr darauf hinweisen wollt, dass sich bei den Frametimes ein gleichmäßiges Bild abzeichnet, deshalb eure Wortwahl mit dem Framepacing.

Es ist jedoch - und da hilft meiner Meinung nach der zweite Absatz auch wenig - super mißverständlich geschrieben, denn es suggeriert dem (vielleicht unaufmerksamen?) Leser im ersten Moment gute Frametimes.

Das komplette Gegenteil jedoch ist der Fall: die Frametimes sind ja eine wahre Katastrophe. Ich bin normalerweise niemand, der sich (besondes in einem Rollenspiel) an so etwas stört, aber diese Ausreißer sind ja schon heftig.

Wollt ihr das nicht noch einmal anders formulieren, dass es wirklich so deutlich dasteht, wie es der Graph eben auch zeigt?
 
Zuletzt bearbeitet:
Also ich hatte zwar nur die Demo angespielt aber hier war ich mit der 4090 in 1440p nativ konstant in meinem 80FPS Limit und dabei hat sie gerade mal 170-180W gezogen.

Sollte die Testszene hier so viel fordernder sein, dass eine unlimitierte 4080 nur auf 60 kommt? Bei dem normalen Abstand zwischen 4080 und 4090 müsste diese ja dann auch nur auf 75-80 kommen, aber bei vollast
 
Blood011 schrieb:
Die nächsten Bananen stehen ja auch schon vor der Tür,zum Glück bin ich zu 85% in LA und PUBG zu Hause,ich verlier keine Träne wenn ich X nicht spielen kann,weil sich 0,0 mehr um optimierung gekümmert wird.

Gibts halt kein Geld von mir.

Ein gutes hats ja trotzdem,die spiele fallen dann rasant im Preis.
Geht mir auch so. Das letzte Spiel hier von Square Enix war wohl DX MD, und das war auch ein paare Jahre später mit der damals aktuellen 1060@6gb auf WQHD grade so spielbar, auch in FHD mit guter Quali nur mittelmäßig. Und jetzt wieder der gleiche Mist, lausige Performance mit aktuellen Durchschnitts-Grakas. Aber heute kann ich ruhig abwarten, bis man die 4070 o.ä. für 250€ bekommt.
Ergänzung ()

JMP $FCE2 schrieb:
Abgesehen davon, dass Crysis wirklich besser aussah, als alles davor. Was man von Forspoken ganz und gar nicht behaupten kann.
Crysis war auch nicht gut. Die hätten den Aufwand lieber in die Optimierung stecken sollen, statt in den blöden Kopierschutz, der sogar Process Explorer als Cheating-Tool gemeldet hat, wenn ich mich richtig erinnere.
 
Zuletzt bearbeitet:
Stuffz schrieb:
Aber heute kann ich ruhig abwarten, bis man die 4070 o.ä. für 250€ bekommt.
Wirds wohl nie geben,das ist ja es nächste Prob die GPU Preise,wer kauft sich schon alle 2Jahre ne mid GPU für 1000Euro+.
Ich erinner mal ne RX480 hat 200Euro gekostet mid Klasse!

Ich sage dir die Preise+die schlechte optimierungen werden sich früher oder später rächen,dann ist PC Gaming wirklich tot.

Wenn die Spiele wenigstens auch Nextgen aussehen würden,könnte man das noch verstehen aber bis jetzt kenn ich nur 1Spiel und das ist Fortnite was Nextgen verdient hat.
 
  • Gefällt mir
Reaktionen: Stuffz
@Wolfgang

Noch ein Mini-Dreher im Text:

"Die Curcial MX500 erreicht als SATA-SSD nur knapp 400 MB/s."

Da steht Curcial statt Crucial :) .
Ergänzung ()

Ansonsten schon sehr interessant. Wie geahnt kein Unterschied zwischen 3.0 und 4.0 . Alles was mit 3.5GB/S lesen kann, zimmert hier einen ab.

Damit werden die 5.0 NVMe immer uninteressanter fürs Gaming.

Da schnalle ich mir lieber eine Firecuda mit 4TB ins System, erfreue mich über 5PB TBW und ausreichend kühle Temperaturen.

Es wird mit Sicherheit auch Spiele geben die mit noch mehr lesen können. Aber bis wir da Mal bei > 7GB/S gelandet sind, wird noch einige Zeit vergehen.

Das hier ist aber erstmal ein riesiger Schritt. Wenn alle Spiele z.B auch der FS2020 jetzt damit umgehen könnten, wäre das ein gigantischer Schritt. Von der derzeit 550MB/S (auch BF2042) hin zu 3.5GB/S wäre massiv positiv zu sehen.

Wenn man die Basis erst Mal geschaffen hat, kann man darauf aufbauen.

Was dann allerdings wieder nervig ist, sind die Runden Timer von 40 Sekunden bei Battlefield, damit auch die Krücken irgendwann Mal loslegen können. Also künstliche Beschränkungen für den Wettbewerb.

Das ist bei Singleplayer Titeln natürlich anders.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: simosh und Wolfgang
Mein Eindruck:
  • Grafik steht in einem unterirdischen Verhältnis zur Hardwareanforderung
  • im Zuge dessen sind DLSS/FSR nur instrumentalisierte Argumente
  • eine 4080 ist jetzt schon alt
  • DS bringt (hier) bezüglich Ladezeiten so gut wie nichts
  • der Ladezeitenvergleich ist ein aktualisiertes Abbild vom Konsens: NVMe SSD > SATA SSD > HDD
  • DS muss noch intensiver (bei mehreren Spielen) untersucht werden, da es auch Berichte darüber gibt, dass DS = ON die fps gar senkt (siehe pcgh)
Mein Fazit:
Erneut ein aktuelles Beispiel dafür, dass die Entwicklung in dieser Branche aus Sicht des Konsumenten in die falsche Richtung geht.
 
t3chn0 schrieb:
Ansonsten schon sehr interessant. Wie geahnt kein Unterschied zwischen 3.0 und 4.0 . Alles was mit 3.5GB/S lesen kann, zimmert hier einen ab.

Damit werden die 5.0 NVMe immer uninteressanter fürs Gaming.
Forespoken ist da allerdings auch kein perfektes Beispiel. Hier wird nur Direct Storage 1.0 statt 1.1 genutzt.
Somit ist die CPU immernoch für die Dekomprimierung verantwortlich.
Es gibt auf PCGH einen schönen Test dazu, dass dies zum Flaschenhals wird.
Allerdings scheinen die ASICs in den aktuellen GPUs ebenfalls noch zu langsam zu sein um selbst 4.0 SSDs richtig auszulasten.

https://www.pcgameshardware.de/Dire...-Storage-Games-Windows-11-Benchmarks-1411071/

Über die GPU Dekomprimiert ist der Durchsatz immerhin 3 mal so hoch.
 
Wie sieht es denn mit dem Textur/Asset Streaming aus während man sich durch die Welt bewegt? Da sollte DS ja einen deutlichen Vorteil bieten oder?
 
Welche PC Grafikkarte bräuchte man, um die Grafikqualität/FPS der PS5 und Xbox Series X zu erreichen?
 
Für die Xbox gibt es das Spiel gar nicht.

Bei der PS5 ist es schwer zu sagen, da eine dynamische Auflösung mit FSR2 genutzt wird, was sich am PC so nicht so leicht reproduzieren lässt. Aber an sich läuft es auch auf der Konsole bescheiden. Der 60 FPS mode fällt bis auf 720p runter und trotzdem leidet manchmal die Framerate. Gibt ein detailiertes Video von Digital Foundry dazu.
 
metoer schrieb:
Wie sieht es denn mit dem Textur/Asset Streaming aus während man sich durch die Welt bewegt? Da sollte DS ja einen deutlichen Vorteil bieten oder?
Kommt auf die Szene an. In der GPU-Testsequenz ist es egal, in einer anderen mit mehr CPU-Last brechen die Frametimes deutlich ein. Siehe ganz am Ende der 1. Seite. Ob das an DS „aus“ liegt, oder daran, dass sich um die Alternative gar nicht bemüht wurde, bleibt erstmal offen.
 
  • Gefällt mir
Reaktionen: t3chn0 und metoer
Neophyte77 schrieb:
Welche PC Grafikkarte bräuchte man, um die Grafikqualität/FPS der PS5 und Xbox Series X zu erreichen?
2060 Super/2070 Super mit Raytracing ohne Raytracing reicht eine Rx 5700xt- Rx 6600 um die Grafik der neuen Konsolen zu erreichen. Ein direkt vergleich geht nicht so wirklich , PC funktioniert anders wie Konsole. Laut Technischen Daten wäre es eher eine Rx 6700 oder eine 2080 Super. Da Konsolen eine APU haben ist es eher weniger.
 
Zuletzt bearbeitet:
ShiftC schrieb:
DS muss noch intensiver (bei mehreren Spielen) untersucht werden, da es auch Berichte darüber gibt, dass DS = ON die fps gar senkt (siehe pcgh)
PCGH hatte einfach nur falsch gemessen, die Erklärung dazu steht sowohl bei PCGH als Update als auch hier im Artikel
 
  • Gefällt mir
Reaktionen: ShiftC, Jan und StylishChiller
Blops234 schrieb:
Forespoken ist da allerdings auch kein perfektes Beispiel. Hier wird nur Direct Storage 1.0 statt 1.1 genutzt.
Somit ist die CPU immernoch für die Dekomprimierung verantwortlich.
Es gibt auf PCGH einen schönen Test dazu, dass dies zum Flaschenhals wird.
Allerdings scheinen die ASICs in den aktuellen GPUs ebenfalls noch zu langsam zu sein um selbst 4.0 SSDs richtig auszulasten.

https://www.pcgameshardware.de/Dire...-Storage-Games-Windows-11-Benchmarks-1411071/

Über die GPU Dekomprimiert ist der Durchsatz immerhin 3 mal so hoch.
Die Frage ist für mich, welchen Hebel kann ich hier noch ziehen? Wenn das Spiel mit einer HDD in 15 Sekunden lädt und mit einer SSD in 5 Sekunden, dann ist der Unterschied schon echt erheblich. Von 5 Sekunden auf 1 Sekunde mit einer 3.0 oder 4.0 NVMe ist bestimmt auch noch spürbar.

Wenn ich aber mit einer 5.0 NVMe und 10GB/S lesend; im Vergleich zu einer top 4.0 NVMe mit 7GB/S von 1 Sekunde auf 0.7 Sekunden falle, dann ist das nur noch messbar.

Der Nachteil von scheinbar deutlich mehr Hitze und damit schnellerer Drosselung steht dann in keinem Verhältnis mehr zum Nutzen.

Dass 5.0 NVMe dennoch sinnvoll sind und es weiter gehen muss, will ich nicht bestreiten. Wir stoßen hier jedoch scheinbar an erhebliche, thermische/physische Grenzen welche wirklich angegangen werden müssen.

Zumal bei vielen Boards die 5.0 M.2 NVMe auch noch direkt oberhalb der GPU Backplate platziert ist, während die 4.0 M.2 Slots schön unten am Board im kühleren Bereich rumbummeln.
 
Ich finde die deutlich besseren minimum-Frametimes sind schon ein krasser Dealbreaker zu Gunsten von DirectStorage (ca. 20 ohne und 60 mit) - denn die beinflussen das Spielerlebnis meiner Meinung nach noch stärker als Ladezeiten.
 
@t3chn0 PCIE-5.0 SSD werden sicherlich noch deutlich sparsamer werden. War bei PCIE-4 und PCIE-3 SSDs ja anfangs auch so dass diese teils ordentlich geschluckt haben und dann deutlich sparsamere Controller auf den Markt kamen.
 
Zurück
Oben