Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestForspoken im Test: Die PC-Premiere von DirectStorage analysiert
Die nächsten Bananen stehen ja auch schon vor der Tür,zum Glück bin ich zu 85% in LA und PUBG zu Hause,ich verlier keine Träne wenn ich X nicht spielen kann,weil sich 0,0 mehr um optimierung gekümmert wird.
Gibts halt kein Geld von mir.
Ein gutes hats ja trotzdem,die spiele fallen dann rasant im Preis.
Zudem hat schon wer rausgefunden was die Speicherbelegung (ram und vram) ausmacht?
Bei mir läuft das Game nur wenn ich in den settings beides auf Low Stelle
Sonst crashed es die ganze zeit
Trotz 4099 und 32gb ram
Daran hat sich auch nichts geändert. Stilblüten wie sie dieser Tage rausgekommen sind, ändern daran nichts.
Die allermeisten Games laufen schließlich sehr gut auf solchen Karten.
Es hat sich auch nichts dran geändert, dass hauptsächlich in der Enthusiastenbubble in Foren immer noch davon ausgegangen wird mit Mittelklassekarte alles auf Anschlag drehen zu können, ohne Einbußen erwarten zu müssen. Außerhalb dieser Bubble ist es jedoch bekannt und Usus, dass die Einstellregler in Spielen dazu da sind, den Leistungsbedarf an die eigene Hardware anzupassen.
@Wolfgang@Jan
Vielen Dank für diesen ausführlichen Technik-Test.
Um ehrlich zu sein enttäuscht mich Forspoken technisch betrachtet etwas. Die Anforderungen sind desaströs und entreißen Cyberpunk 2077 den Pokal des obligatorischen Hardware-Fressers mit Leichtigkeit. Das schlimmste daran ist aber, dass das Spiel visuell nicht den Eindruck macht, als sei dies auch nur im Entferntesten nötig. Das passt so keinesfalls zusammen.
Hinzu verstehe ich eine eurer Aussagen nicht:
Zwei Eigenheiten zeigt das Frametime-Verlaufsdiagramm noch. Erstens: Ganz gleich ob eine Radeon RX 7900 XTX oder eine GeForce RTX 4080 im Rechner steckt und Raytracing an- oder abgeschaltet ist: Das Framepacing bleibt vom Rhythmus her immer absolut gleich. Und das ist eine Seltenheit, denn normalerweise reagieren Spiele diesbezüglich teils ziemlich unterschiedlich.
Und zweitens zeigt das Diagramm auch den massiven Frameverlust in Bewegung. So ist die Ausgabe der Bilder in der ersten halben Sekunde der Testsequenz noch viel gleichmäßiger. Zwar werden die Frames nicht generell höher, aber eben deutlich gleichmäßiger ausgegeben. Nach weniger als einer halben Sekunde beginnen allerdings die Ausreißer, denn die Spielfigur läuft dann schneller. Und die Framerate sinkt damit auch.
Ich verstehe durchaus, dass ihr darauf hinweisen wollt, dass sich bei den Frametimes ein gleichmäßiges Bild abzeichnet, deshalb eure Wortwahl mit dem Framepacing.
Es ist jedoch - und da hilft meiner Meinung nach der zweite Absatz auch wenig - super mißverständlich geschrieben, denn es suggeriert dem (vielleicht unaufmerksamen?) Leser im ersten Moment gute Frametimes.
Das komplette Gegenteil jedoch ist der Fall: die Frametimes sind ja eine wahre Katastrophe. Ich bin normalerweise niemand, der sich (besondes in einem Rollenspiel) an so etwas stört, aber diese Ausreißer sind ja schon heftig.
Wollt ihr das nicht noch einmal anders formulieren, dass es wirklich so deutlich dasteht, wie es der Graph eben auch zeigt?
Also ich hatte zwar nur die Demo angespielt aber hier war ich mit der 4090 in 1440p nativ konstant in meinem 80FPS Limit und dabei hat sie gerade mal 170-180W gezogen.
Sollte die Testszene hier so viel fordernder sein, dass eine unlimitierte 4080 nur auf 60 kommt? Bei dem normalen Abstand zwischen 4080 und 4090 müsste diese ja dann auch nur auf 75-80 kommen, aber bei vollast
Die nächsten Bananen stehen ja auch schon vor der Tür,zum Glück bin ich zu 85% in LA und PUBG zu Hause,ich verlier keine Träne wenn ich X nicht spielen kann,weil sich 0,0 mehr um optimierung gekümmert wird.
Gibts halt kein Geld von mir.
Ein gutes hats ja trotzdem,die spiele fallen dann rasant im Preis.
Geht mir auch so. Das letzte Spiel hier von Square Enix war wohl DX MD, und das war auch ein paare Jahre später mit der damals aktuellen 1060@6gb auf WQHD grade so spielbar, auch in FHD mit guter Quali nur mittelmäßig. Und jetzt wieder der gleiche Mist, lausige Performance mit aktuellen Durchschnitts-Grakas. Aber heute kann ich ruhig abwarten, bis man die 4070 o.ä. für 250€ bekommt.
Ergänzung ()
JMP $FCE2 schrieb:
Abgesehen davon, dass Crysis wirklich besser aussah, als alles davor. Was man von Forspoken ganz und gar nicht behaupten kann.
Crysis war auch nicht gut. Die hätten den Aufwand lieber in die Optimierung stecken sollen, statt in den blöden Kopierschutz, der sogar Process Explorer als Cheating-Tool gemeldet hat, wenn ich mich richtig erinnere.
Wirds wohl nie geben,das ist ja es nächste Prob die GPU Preise,wer kauft sich schon alle 2Jahre ne mid GPU für 1000Euro+.
Ich erinner mal ne RX480 hat 200Euro gekostet mid Klasse!
Ich sage dir die Preise+die schlechte optimierungen werden sich früher oder später rächen,dann ist PC Gaming wirklich tot.
Wenn die Spiele wenigstens auch Nextgen aussehen würden,könnte man das noch verstehen aber bis jetzt kenn ich nur 1Spiel und das ist Fortnite was Nextgen verdient hat.
"Die Curcial MX500 erreicht als SATA-SSD nur knapp 400 MB/s."
Da steht Curcial statt Crucial .
Ergänzung ()
Ansonsten schon sehr interessant. Wie geahnt kein Unterschied zwischen 3.0 und 4.0 . Alles was mit 3.5GB/S lesen kann, zimmert hier einen ab.
Damit werden die 5.0 NVMe immer uninteressanter fürs Gaming.
Da schnalle ich mir lieber eine Firecuda mit 4TB ins System, erfreue mich über 5PB TBW und ausreichend kühle Temperaturen.
Es wird mit Sicherheit auch Spiele geben die mit noch mehr lesen können. Aber bis wir da Mal bei > 7GB/S gelandet sind, wird noch einige Zeit vergehen.
Das hier ist aber erstmal ein riesiger Schritt. Wenn alle Spiele z.B auch der FS2020 jetzt damit umgehen könnten, wäre das ein gigantischer Schritt. Von der derzeit 550MB/S (auch BF2042) hin zu 3.5GB/S wäre massiv positiv zu sehen.
Wenn man die Basis erst Mal geschaffen hat, kann man darauf aufbauen.
Was dann allerdings wieder nervig ist, sind die Runden Timer von 40 Sekunden bei Battlefield, damit auch die Krücken irgendwann Mal loslegen können. Also künstliche Beschränkungen für den Wettbewerb.
Forespoken ist da allerdings auch kein perfektes Beispiel. Hier wird nur Direct Storage 1.0 statt 1.1 genutzt.
Somit ist die CPU immernoch für die Dekomprimierung verantwortlich.
Es gibt auf PCGH einen schönen Test dazu, dass dies zum Flaschenhals wird.
Allerdings scheinen die ASICs in den aktuellen GPUs ebenfalls noch zu langsam zu sein um selbst 4.0 SSDs richtig auszulasten.
Bei der PS5 ist es schwer zu sagen, da eine dynamische Auflösung mit FSR2 genutzt wird, was sich am PC so nicht so leicht reproduzieren lässt. Aber an sich läuft es auch auf der Konsole bescheiden. Der 60 FPS mode fällt bis auf 720p runter und trotzdem leidet manchmal die Framerate. Gibt ein detailiertes Video von Digital Foundry dazu.
Kommt auf die Szene an. In der GPU-Testsequenz ist es egal, in einer anderen mit mehr CPU-Last brechen die Frametimes deutlich ein. Siehe ganz am Ende der 1. Seite. Ob das an DS „aus“ liegt, oder daran, dass sich um die Alternative gar nicht bemüht wurde, bleibt erstmal offen.
2060 Super/2070 Super mit Raytracing ohne Raytracing reicht eine Rx 5700xt- Rx 6600 um die Grafik der neuen Konsolen zu erreichen. Ein direkt vergleich geht nicht so wirklich , PC funktioniert anders wie Konsole. Laut Technischen Daten wäre es eher eine Rx 6700 oder eine 2080 Super. Da Konsolen eine APU haben ist es eher weniger.
Forespoken ist da allerdings auch kein perfektes Beispiel. Hier wird nur Direct Storage 1.0 statt 1.1 genutzt.
Somit ist die CPU immernoch für die Dekomprimierung verantwortlich.
Es gibt auf PCGH einen schönen Test dazu, dass dies zum Flaschenhals wird.
Allerdings scheinen die ASICs in den aktuellen GPUs ebenfalls noch zu langsam zu sein um selbst 4.0 SSDs richtig auszulasten.
Die Frage ist für mich, welchen Hebel kann ich hier noch ziehen? Wenn das Spiel mit einer HDD in 15 Sekunden lädt und mit einer SSD in 5 Sekunden, dann ist der Unterschied schon echt erheblich. Von 5 Sekunden auf 1 Sekunde mit einer 3.0 oder 4.0 NVMe ist bestimmt auch noch spürbar.
Wenn ich aber mit einer 5.0 NVMe und 10GB/S lesend; im Vergleich zu einer top 4.0 NVMe mit 7GB/S von 1 Sekunde auf 0.7 Sekunden falle, dann ist das nur noch messbar.
Der Nachteil von scheinbar deutlich mehr Hitze und damit schnellerer Drosselung steht dann in keinem Verhältnis mehr zum Nutzen.
Dass 5.0 NVMe dennoch sinnvoll sind und es weiter gehen muss, will ich nicht bestreiten. Wir stoßen hier jedoch scheinbar an erhebliche, thermische/physische Grenzen welche wirklich angegangen werden müssen.
Zumal bei vielen Boards die 5.0 M.2 NVMe auch noch direkt oberhalb der GPU Backplate platziert ist, während die 4.0 M.2 Slots schön unten am Board im kühleren Bereich rumbummeln.
Ich finde die deutlich besseren minimum-Frametimes sind schon ein krasser Dealbreaker zu Gunsten von DirectStorage (ca. 20 ohne und 60 mit) - denn die beinflussen das Spielerlebnis meiner Meinung nach noch stärker als Ladezeiten.
@t3chn0 PCIE-5.0 SSD werden sicherlich noch deutlich sparsamer werden. War bei PCIE-4 und PCIE-3 SSDs ja anfangs auch so dass diese teils ordentlich geschluckt haben und dann deutlich sparsamere Controller auf den Markt kamen.