Glaub meine 3070 packt's nimmer

AMD-Flo schrieb:
India Jones lässt sich laut PCGH gar nicht mehr mit einer RTX 2060 6 GB starten, mit der 12 GB Variante hingegen schon.
Mit meiner Notebook RTX 3060 das gleiche Problem. 3,5 Jahre nach dem Kauf startet ein aktueller Titel nicht mehr:
1737130076512.png

Wobei hier die Schuld auch am Spieleentwickler liegt.
 
Hallo in die (Indy) Runde,
ich habe ebenfalls eine 3070 8GB und spiele ab und an Indiana Jones, allerdings nur in FHD. Mittels einer angepassten Config-Datei bezgl. Textur-Pool läuft es mit Medium Texture-Pool-Size (wohlgemerkt ist das der vorgehaltene Pool). Dadurch läuft es auch sonst mit max Settings (bis auf PT) recht flüssig mit 55-70fps (hier bottleneckt mein i5 aus 2020).
Ich hatte auch kurzzeitig eine 4070 12GB in meinem Rechner, habe den Textur-Pool auf max gestellt. Mit dem Ergebnis (wohlgemerkt in FHD), dass die Texturen für mich nicht besser aussahen! Ich habe echt keinen Unterschied festgestellt. Leider auch hier teils matschige Texturen, die erst beim Herangehen scharf wurden - genau wie das derzeit auch mit meiner 3070 der Fall ist. Evtl. liegt das aber auch am Spiel?! Jedenfalls habe ich da momentan keinen Bock drauf, die 3070 zu ersetzen, bei den Preisen und vor dem Hintergrund, dass mir FHD als Auflösung noch langt :-( Ich habe aber auch kein Cyberpank auf der Kiste. Würde mich mal interessieren, wie die 3070 hier performed. LG

Edit: Aber interessante und aufschlussreiche Diskussion hier, hat mich darin bestärkt, die 3070 zu behalten.
 
  • Gefällt mir
Reaktionen: _ROG_
@Snoggle Die 4070 hat ja auch nicht mehr zu bieten wie die 3070. Die 4070 kann noch FG, aber das lassen wir mal außen vor.
Die 3070 und 4070 können beide bis DLSS 3.5 und bald auch 4.0. Das sollte die VRAM Nutzung nochmals um 30% verbessern.
Das mit den Texturen kenne ich aus Manor Lords. Die Details kommen erst wenn man nah ran zoomt.
 
  • Gefällt mir
Reaktionen: Snoggle
Danke für die Info, das mit der besseren Nutzung des VRAMs wusste ich noch nicht und ich bin erstaunt, dass es sogar 30% sein sollen. Wenn das so ist, umso besser. Und ja, die 4070 ist auch aus meiner Sicht kein sinnvolles Upgrade zur 3070, gerade bei Indy hat sie nicht nennenswert besser performed. Mit aktiviertem PT (medium) ist sie dann in die Knie gegangen, aber das kann auch an meiner alten CPU liegen - wer weiß.
 
Mit Pathtracing kannst Du momentan jede CPU zum verrecken bringen. Würde ich immer aus lassen. Je nach Spiel kann man aber Raytracing einschalten.

Alan Wake2 oder Star Wars Outlaws packt nicht mal ne 4090 mit Pathtracing + max Settings in spielbaren FPS.

Es war jetzt kürzlich die 5090 -und nur mit Multi Frame Generation- die erstmals 100FPS schaffte.
 
https://www.nvidia.com/en-us/geforce/news/dlss4-multi-frame-generation-ai-innovations/

"Our new frame generation AI model is 40% faster, uses 30% less VRAM, and only needs to run once per rendered frame to generate multiple frames. For example, in Warhammer 40,000: Darktide, this model provided a 10% faster frame rate, while using 400MB less memory at 4K, max settings, using DLSS Frame Generation."

Im konkreten Fall werden mit Frame Generation 400MB VRAM eingespart. Eine RTX 3070 kann kein Frame Generation...
 
Zurück
Oben