Frame Generation bei Indiana Jones

Bahkauv

Cadet 4th Year
🎅Rätsel-Elite ’24
Registriert
Apr. 2023
Beiträge
93
1. Nenne uns bitte deine aktuelle Hardware:
(Bitte tatsächlich hier auflisten und nicht auf Signatur verweisen, da diese von einigen nicht gesehen wird und Hardware sich ändert)
  • Prozessor (CPU): Ryzen 7950X3D
  • Arbeitsspeicher (RAM): 64GB 6000Mhz Expo
  • Mainboard: Asus B650E-E Strix
  • Netzteil: Seasonic TX 1000
  • Gehäuse: O11 Dynamic
  • Grafikkarte: Gainward 4090
  • HDD / SSD: WD 850 4TB
  • Weitere Hardware, die offensichtlich mit dem Problem zu tun hat (Monitormodell, Kühlung usw.): MSI 321UPX 4K OLED 240Hz
  • Wird ein sog. "PCIe Riserkabel" genutzt? ...

2. Beschreibe dein Problem. Je genauer und besser du dein Problem beschreibst, desto besser kann dir geholfen werden (zusätzliche Bilder könnten z. B. hilfreich sein):

Ich hab ein Problem mit Frame Generation bei Indiana Jones und der große Kreis. Wenn ich FG einschalte wird es unspielbar. Es ruckelt und zuckelt und die FPS schwanken stark zwischen 10 und 100 bei gleichzeitig stark schwankender GPU Last. Die Frage, die sich mir stellt, ist, ob es Einstellungen (nVidia Control Panel + Ingame) gibt, die sich irgendwie beißen. Die Probleme treten unabhängig von den anderen Ingame Grafik Einstellungen auf. Ich kann auch alles auf Minimal stellen und trotzdem treten sofort die Probleme auf sobald ich FG aktiviere.

3. Welche Schritte hast du bereits unternommen/versucht, um das Problem zu lösen und was hat es gebracht?

Habe im NVCP und Ingame alle Einstellungen auf Default gesetzt. Danach Ingame auf minimalen Einstellungen getestet sowie einzelne Einstellungen geändert. Aber ich könnte keine Einstellungen finden, bei der das Problem nicht auftritt.


P.S.: Beachte auch die verschiedenen angepinnten Themen und die Forensuche. Möglicherweise findest du da bereits die Lösung zu deinem Problem.
 
Tritt das nur in dem Spiel auf?
 
Hatte das gleiche Problem (4080 12GB Mobile) und liegt am VRAM. Da deine Karte davon viel hat, wird es eher ein Bug des Spiels sein.

Wenn du mit ^ die Konsole öffnest, wird sicherlich massenhaft der Fehler "DLSS FG out of VRAM!" kommen.
Drehst du den Texturpool und Schatten nur weit genug runter, sodass die Meldung verschwindet, funktioniert es plötzlich einwandfrei.
 
  • Gefällt mir
Reaktionen: Azghul0815 und Maxysch
Ich empfehle es einfach mit weniger fps zu spielen. Das sieht besser aus, als wenn du DLSS oder FG nutzt. Wenn dir das zuwenig fps sind, dann stell die Auflösung auf FHD. Da UHD ein ganzzahliges Vielfaches von FHD ist, sieht das trotzdem noch gut aus. Auf jeden Fall besser als mit den ganzen Bildfehlern, die DLSS und FG verursachen. Falls du das nicht magst, könntest du auch PT ausschalten, aber gerade PT ist es ja, was das Spiel so gut aussehen lässt. Oder du wartest auf die RTX 6090 und hoffst, dass sie genug Leistung hat.
 
probiere mal den treiber 566.36 , dieser wurde für Game Ready for Indiana Jones and the Great Circle optimiert und ich habe das Spiel damit ohne probleme durchgespielt (bei deiner CPU und GPU kombination)mit allem aktiviert "dlss + fg"
 
Azghul0815 schrieb:
Woher kommt den dieses "DLSS macht das Bild schlechter" Käse?
Ich hatte das zum Testen mal ausprobiert und es fällt direkt ins Auge.
Ergänzung ()

Azghul0815 schrieb:
Es gibt duzende Tests, in denen UHD oder WQHD mit DLSS besser aussehen als Nativ....
Bestenfalls bei Standbildern.
 
  • Gefällt mir
Reaktionen: GutenTag und daknoll
Azghul0815 schrieb:
Ich bin mir nicht sicher, was du mit dem Link ausdrücken willst, aber nochmal:
Ich habe es ausprobiert und weiß somit schon, dass DLSS bei Indy schlechter aussieht als ohne - so wie bei allen anderen Games, die ich getestet habe. Meinst du, dass das Lesen des Artikels etwas daran ändern könnte? Bestenfalls lässt es mich an der Kompetenz des Autors zweifeln, wenn sein Fazit von meinem abweicht. Hast du schon mal selbst DLSS on mit DLSS off verglichen? Also während du selbst gezockt hast und nicht durch Lesen was irgendwer im Internet geschrieben hat?
DLSS kann doch nur besser aussehen als nativ, wenn du nativ mit reduzierten Einstellungen zockst und mit DLSS normal, also ohne irgendwelche Regler nicht ganz rechts zu haben.

Speziell bei Indy würde ich noch empfehlen neben DLSS auch das normale AA zu deaktivieren, dann sieht es noch besser aus, sofern der Moni die entsprechende Pixeldichte hat, was hier der Fall sein sollte.
 
  • Gefällt mir
Reaktionen: GutenTag
Fujiyama schrieb:
Tritt das nur in dem Spiel auf?
Ich hab kein anderes Spiel probiert. Bin kein Vielspieler und adhoc fällt mir kein Spiel in meinem Pile of Shame ein, das FG benutzt.

cvzone schrieb:
Hatte das gleiche Problem (4080 12GB Mobile) und liegt am VRAM. Da deine Karte davon viel hat, wird es eher ein Bug des Spiels sein.

Wenn du mit ^ die Konsole öffnest, wird sicherlich massenhaft der Fehler "DLSS FG out of VRAM!" kommen.
Drehst du den Texturpool und Schatten nur weit genug runter, sodass die Meldung verschwindet, funktioniert es plötzlich einwandfrei.
Wie geschrieben, ich kann die Settings auch auf Minimal stellen. Das ändert, bis auf die FPS, nichts am FG Problem.

Porky Pig schrieb:
Hast du den 572.16 installiert?
Bei nVidia im Forum scheint er viele Probleme zu machen.
https://www.nvidia.com/en-us/geforc...rce-grd-57216-feedback-thread-released-13025/
Ja, hatte aber vorher den 566. Kein Unterschied.

adfsrg schrieb:
Die 4090 kann Indy nicht flüssig in UHD darstellen, dafür ist sie einfach zu schwach. Selbst in UWQHD komme ich nicht mal auf 60 fps.
Naja, ich hab so 40-50fps. Das reicht mir bei Indy um es als flüssig durchgehen zu lassen. Es gibt ja genügend Regler damit es es auch in UHD vernünftig läuft. Ich finde solche Pauschalaussagen furchtbar.

adfsrg schrieb:
Interessant. Das klingt zwar auch nicht gerade gut, aber nicht ganz so dramatisch wie mein Empfinden. Und wie gesagt, die FPS scheinen nicht das Problem zu sein. Bei mir sieht das eher aus wie eine Einstellung, die sich nicht verträgt oder eben ein Bug.

Ich dachte halt ich frag mal ob es ein eher bekanntes Problem ist. So intensiv beschäftige ich mich nicht mit dem ganzen Zeugs. Spiel ich halt ohne FG :)
 
Wenn du nicht spiel spielst hättest du dir ggf auch die olle X3D CPU auch sparen können.
Ich würde es einfach mal woanders testen, denn es nur bei einem Spiel ist lass es halt deaktiviert.
 
Bahkauv schrieb:
Naja, ich hab so 40-50fps. Das reicht mir bei Indy um es als flüssig durchgehen zu lassen. Es gibt ja genügend Regler damit es es auch in UHD vernünftig läuft. Ich finde solche Pauschalaussagen furchtbar.
Moment!
Wenn du sagst, dass du Regler benutzen musst, damit es vernünftig läuft, dann ist das doch im Prinzip die gleiche Aussage wie meiner, der du damit zu widersprechen versuchst.
Würde die 4090 für UHD ausreichen, dann bräuchte man ja nicht die Regler benutzen oder gar DLSS oder FG nutzen. Das tut man doch nur weil die GraKa eben nicht ausreicht.


Übrigens ist FG grundsätzlich immer schlecht. FG dient nur dazu, dass Nvidia die Leute, die keine Ahnung haben, täuschen kann um mehr Geld zu verdienen. Angeblich wäre ja die 5070 so schnell wie die 4090.

Bedenke, dass der Hauptgrund für hohe fps die niedrige Latenz ist. Die Latenz ist aber nur bei echten Frames umgekehrt proportional zu Bildrate. FG erhöht die Latenz sogar. Als Spieler hat man unter keinen Umständen Vorteile durch FG, das schaltet man immer aus. Oder willst du ein schlechteres Bild mit schlechterer Latenz?!
 
Echt komisch ich habe auf einer 4080 (WQHD) das Spiel ohne Probleme durchgespielt. Alles voll aufgerissen mit FG.
 
  • Gefällt mir
Reaktionen: GutenTag
@Porky Pig ohne Probleme und mit FG widerspricht sich doch. Also zum Einen ist FG schon selbst ein Problem und zum Anderen wirst du ja wohl FG nicht ohne Grund aktiviert habe, oder? FG aktivieren doch normalerweise nur technisch weniger versierte Spieler, weil sie denken damit liefe das Spiel besser. Probiers mal ohne FG und du wirst sehen, dass es deutlich besser aussieht.
 
@adfsrg Das Wort "Problem" bezog sich hier auf die starken FPS Schwankungen. Und nein, das widerspricht sich nicht und ich finde das FG durchaus kein Problem darstellt. Da du ja ein versierter Spieler bist, wirst du mitbekommen haben, das FG bei anspruchsvollen Raytracing Titeln wie Indiana Jones durchaus eine gute Option ist.
 
  • Gefällt mir
Reaktionen: GutenTag
Porky Pig schrieb:
Und nein, das widerspricht sich nicht
doch, sonst hätte ich das ja nicht gesagt
Porky Pig schrieb:
ich finde das FG durchaus kein Problem darstellt
du irrst
Porky Pig schrieb:
wirst du mitbekommen haben, das FG bei anspruchsvollen Raytracing Titeln wie Indiana Jones durchaus eine gute Option ist
Das stimmt einfach nicht. FG ist ausnahmslos schlecht.

Ich finde übrigens deine Art ziemlich lächerlich. Ich habe genau begründet, warum FG schlecht ist. Du hingegen sagst ohne eine einziges meiner Argumente zu widerlegen (nötige wäre es alle zu widerlegen) das Gegenteil und bringst dafür nicht ein einziges Argument. Ich bin mir nicht sicher, ob das einfach nur ein schlechter Trollversuch war oder ob du das ernst meinst. Wenn du das ernst meinst habe ich ein paar Fragen:
1) Da FG ja das Bild schlechter macht, warum findest du ein schlechteres Bild gut?
2) Da FG die Latenz steigert, warum findest du höhere Latenzen gut?
3) Was bringt dir FG?
 
adfsrg schrieb:
Die 4090 kann Indy nicht flüssig in UHD darstellen, dafür ist sie einfach zu schwach. Selbst in UWQHD komme ich nicht mal auf 60 fps.
adfsrg schrieb:
Würde die 4090 für UHD ausreichen, dann bräuchte man ja nicht die Regler benutzen oder gar DLSS oder FG nutzen. Das tut man doch nur weil die GraKa eben nicht ausreicht.
So ein Unsinn. Wenn wir nur danach gehen, ob ein Spiel auf (idr. komplett unsinnigen) maxed out Settings flüssig läuft und alles andere als "reicht nicht"/"zu schwach" bezeichnen, könnte man keine einzige auf dem Markt erhältliche Grafikkarte empfehlen, denn die "scheitern" ja alle (teilweise schon in FullHD) an vielen modernen Titeln mit max. Settings, weil die Entwickler eben ein paar einzelne Settings anbieten, die irrsinnig viel Leistung für winzige Grafikverbesserungen anbieten.
Eine RTX 4090 reicht für praktisch jeden aktuellen Titel mit (sehr) hohen Grafikeinstellungen prima aus, wenn man einzelne extrem und unverhältnismäßig fordernden Optionen ausstellt.

Die absolut maxed. out Einstellungen sind zur Benutzung zu Release von den Herstellern eigentlich auch garnicht unbedingt zur Nutzung vorgesehen, ansonsten würden sich deren Systemanforderungen und Empfehlungen danach richten. Das ist mehr etwas, was man in 5-10 Jahren anschalten kann, wenn die Grafikkartenleistung bis dahin deutlich gestiegen ist. (Die Crysis Entwickler hatten das mal in einem Interview erklärt.)
adfsrg schrieb:
DLSS kann doch nur besser aussehen als nativ, wenn du nativ mit reduzierten Einstellungen zockst und mit DLSS normal, also ohne irgendwelche Regler nicht ganz rechts zu haben.
Warum? Mit DLSS können feine Details erstellt werden, die in der nativen Auflösung nicht gerendert werden. (Wegen LoD, oder schlicht niedrigem Detailgrad der Modelle und Texturen.) Wenn ein NPC mit DLSS eine detailiertere, realistischere Hauttextur aufweist, oder in Distanz feine Details z.B. an Vegetation verbessert wird, ist die Grafik schlichtweg besser als nativ.
adfsrg schrieb:
Als Spieler hat man unter keinen Umständen Vorteile durch FG, das schaltet man immer aus.
Auch das ist in dieser pauschalität falsch. Die Latenz ist wichtig und muss wenn man Framegen nutzen möchte zwingend bereits vorher ausreichend schnell sein das stimmt, aber ein flüssigeres Bild mit Framegen bietet optisch dennoch Vorteile. Dadurch verringert sich zum Beispiel das ruckelige Bild bei schnellen Kameraschwenks und sich schnell bewegende Objekte tun das flüssiger.
Was denkst du warum Nvidia sich die Mühe macht so etwas zu entwickeln? Bestimmt nicht, weil es nichts bringt, und ginge es nur darum: "Die Kunden zu verarschen", hätte man das wesentlich einfacher hinbekommen, in dem man einzelne Frames einfach mehrfach ausgibt um eine höhere Framerate und damit höhere Leistung vorzugaukeln.
adfsrg schrieb:
Das sieht besser aus, als wenn du DLSS oder FG nutzt. Wenn dir das zuwenig fps sind, dann stell die Auflösung auf FHD. Da UHD ein ganzzahliges Vielfaches von FHD ist, sieht das trotzdem noch gut aus. Auf jeden Fall besser als mit den ganzen Bildfehlern, die DLSS und FG verursachen.
Was, was, was?! Da stehen mir die Haare zu Berge wenn ich so einen Unsinn lese:
Theoretisch stimmt das mit dem ganzzaligen Teiler, aber um mit FullHD eine ausreichende PPI zu erreichen darf der Monitor nicht besonders groß sein, maximal etwa 25"(, je nach Sitzabstand und abhängig von der eigenen Sehkraft selbstverständlich).
Die meisten 4K Monitore sind >30" auf so einem großen Bildschirm, bei typischem "Schreibtischabstand" in FullHD zu spielen sieht komplett mies aus, da kannst du die einzelnen Pixel, bzw. 4er Pixelblöcke mit dem bloßen Auge zählen. DLSS zu nutzen ist da eigentlich in jedem Fall die klar bessere Option
 
Zurück
Oben