• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Systemanforderungen: Alan Wake 2 verlangt nach schneller Hardware und Upscaling

GoZx schrieb:
Die kommen in paar Monaten schon wieder angekrochen wenn sie das Spiel dann wirklich fertig haben. Oder in ein paar Jahren wenn die Hardware ihre inkompetenz eingeholt hat.

Inkompetenz sehe ich hier in erster Linie bei den Beiträgen
 
  • Gefällt mir
Reaktionen: H6-Mobs, BuzzLightYear, MrHeisenberg und 6 andere
Abwarten und Tee trinken. Ich habe mir dieses Jahr nach 12 Jahren (2500k+GTX980) einen neuen PC für ca. 600€ gegönnt (R5 5600 und dazu die 3060 12gb gebraucht gekauft). Bisher passt P/L von dem Eimer (Cyberpunk läuft ohne Probleme) - bin gespannt was er von AW2 halten wird :D
 
  • Gefällt mir
Reaktionen: Erzherzog
Sollen sie es halt vorerst behalten. Nehme ich dann, wenn es in 6 Jahren im EPIC Store verschenkt wird. Dann habe ich auch die passende Hardware dafür.
 
  • Gefällt mir
Reaktionen: SweetOhm, TheHille und 0range
pacifico schrieb:
Hier sind einige unterwegs die ein 4K Display günstig geschossen haben, aber im Grunde genommen nicht das nötige Einkommen besitzen um alle 24 Monate die dafür nötige Grafikkarte zu kaufen.

Seit 4K displays für weniger als 300 Euro zu haben sind, werden die Dinger reihenweise von noobies gekauft die sich dann im Anschluß wundern das sie ständig upscaling und/oder 1080p nutzen müssen.

Zu blöd das man für ein 300 Euro 4K Display eine 1000+ Euro GPU benötigt....

Bei Reddit bzw PCMR findet man ganz viele dieser empörten Beiträge.... Und hier natürlich auch :-P

Boaah, was für ein mieser Kommentar.
Manche nutzen einen 4k-Bildschirm auch einfach für Office und zum Surfen, dafür reicht sogar die Onboard-Graka.
Von 4k-TVs hast du auch noch nix gehört? Ist mittlerweile Standard und jede Konsole neuer Gen bedient diese TVs per Upscaling.
Upscaling... etwas was es auch auf dem PC gibt und genutzt wird. Womit dann auch auf einem 4k Monitor das Game ganz hübsch daherkommt.

Ein wirklich mieser Kommentar! Noch nicht genug Kaffee gehabt am Morgen?


@NOX84
Ok, danke für die Erläuterung. Ich bin tatsächlich anders und kann 30 fps nicht nutzen. Es geht einfach nicht. Vielleicht liegt es auch an meiner TV Größe und daran weil es ein OLED ist. Möglicherweise verwischt das Bild bei einem schaltfaulem LCD/LED und kleinerer Bildschirmdiagonale 30fps-freundlicher. Selbst der 40 fps Modus ist mir nicht flüssig genug, obwohl er schon deutlich smoother daherkommt und er an 50 fps erinnert als an 40.
Ich verzichte also wirklich gerne auf die letzten Details und das schärfste Bild zugunsten von 60 fps. Die wiederum empfinde ich als ausreichend flüssig. Jeder Jeck ist da wohl anders.
Das Schöne ist ja das es mittlerweile Standard ist die Wahl zu haben. Ich denke auch nicht dass sich dies bis zum Ende dieser Gen ändern wird, es sei denn es kommt die PS5 Pro (dann wird es heißen 60 fps gibt es mit der, kauft sie euch). Kommt die Pro nicht werden weiterhin 60 fps auf der Standard PS5 angeboten werden, einfach deshalb, weil Games primär für Konsolen entwickelt werden (und weil Viele nicht mehr zu den 30 fps der PS4 zurück wollen).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Qyxes, NOX84, TempeltonPeck und eine weitere Person
SweetOhm schrieb:
Erzähl das mal den 3090/Ti Käufer/Besitzer bzgl. DLSS 3 und den ganzen exklusiven Features !
Nun mach hier mal nicht den Anwalt für die kleinen Leute :-)

Die xx90 Zielgruppe hat das Geld und den Enthusiasmus um in jeder Generation nachzukaufen.
Ergänzung ()

bluna schrieb:
Boaah, was für ein mieser Kommentar.
Manche nutzen einen 4k-Bildschirm auch einfach für Office und zum Surfen, dafür reicht sogar die Onboard-Graka.
Von 4k-TVs hast du auch noch nix gehört? Ist mittlerweile Standard und jede Konsole neuer Gen bedient diese TVs per Upscaling.
Upscaling... etwas was es auch auf dem PC gibt und genutzt wird. Womit dann auch auf einem 4k Monitor das Game ganz hübsch daherkommt.

Ein wirklich mieser Kommentar! Noch nicht genug Kaffee gehabt am Morgen?

Warum ist der Kommentar so mies?

Weil er dir nicht gefällt. Mehr nicht.

Ihr könnt gerne einen 4K Monitor für Office nutzen. Nur man sollte sich halt bewusst sein das für 4K Gaming eine GPU der 1000+Euro klasse benötigt wird....

Stattdessen wird hier in Foren rungejammert das die Devs angeblich so lazy sind und ihre Spiele nicht optimieren.

Die Realität ist aber das viele Gaming PC nicht optimal sind und mit altem Kram vollgestopft sind der noch aus der PS4 erä stammt.

Seit dem Release der Current Gen Konsolen braucht man halt mehr Power im Case wenn man deutlich mehr will als die Konsolen bieten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Cohen schrieb:
Warum denn erst auf der Xbox One und nicht bereits Jahre früher auf Xbox 360 oder PC?
Ergänzung ()


Dann wären 50 € für Alan Wake 2 wohl auch viel Geld für dich.

Also einfach auf den Merkzettel setzen und in ein paar Jahren nachholen. Single-Player-Spiele werden mit den Jahren nicht schlechter.
Ich muss zugeben, dass ich das Game erst verwechselt habe... Mea culpa.
Alan Wake (Teil 1) hab ich tatsächlich auch am Rechner gespielt, wenn ich mich recht erinnere.
 
pacifico schrieb:
Die xx90 Zielgruppe hat das Geld und den Enthusiasmus um in jeder Generation nachzukaufen.
Bestimmt....

Viele kaufen sich auch ne dicke GPU um einfach paar Jahre ruhe zu haben.
 
@Blood011 Erstmal kaufen nicht viele eine xx90 sondern weniger als 1 Prozent aller Gamer.

High End Karte über mehrere Generationen hinweg nutzen?

Genau diese Strategie hat noch nie so richtig funktioniert.

Warum?

Weil es technischen Fortschritt gibt. Das Nvidia kein Frame Generation für die 3xxx Karten anbietet ist halt Nvidia. Du muss man durch oder AMD kaufen. Da gibt es nächstes Jahr Frame Gen für Oldies :-)

Davon mal abgesehen ist es halt keine gute Idee eine xx90 zu kaufen um diese über mehrere Generationen zu nutzen. Die technische Entwicklung geht zu schnell und die Hersteller interessieren sich nicht für ihre Legacy Produkte. Insbesondere NVIDIA fokussiert nur das was sie gerade im Markt haben.

Das war übrigens auch schon mmer so....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, TempeltonPeck und Blackvoodoo
pacifico schrieb:
Die Realität ist aber das viele Gaming PC nicht optimal sind und mit altem Kram vollgestopft sind der noch aus der PS4 erä stammt.
Diese Leute zielen aber auch nicht auf die neusten spiele ab...
 
pacifico schrieb:
@Blood011 Erstmal kaufen nicht viele eine xx90 sondern weniger als 1 Prozent aller Gamer.

High End Karte über mehrere Generationen hinweg nutzen?

Genau diese Strategie hat noch nie so richtig funktioniert.

Warum?

Weil es technischen Fortschritt gibt. Das Nvidia kein Frame Generation für die 3xxx Karten anbietet ist halt Nvidia. Du muss man durch oder AMD kaufen. Da gibt es nächstes Jahr Frame Gen für Oldies :-)

Davon mal abgesehen ist es halt keine gute Idee eine xx90 zu kaufen um diese über mehrere Generationen zu nutzen. Die technische Entwicklung geht zu schnell und die Hersteller interessieren sich nicht für ihre Legacy Produkte. Insbesondere NVIDIA fokussiert nur das was sie gerade im Markt haben.

Das war übrigens auch immer so....


Die Strategie hat funktioniert, als es noch bei jeder Generation durch die Bank den gleichen Performanceschub im low end bis hinauf zum High End gab.

Aber seit man mit RTX3000 und jetzt so richtig mit 4000 angefangen hat, upselling zu betreiben, ist es ne ziemlich dumme idee, mit jeder Generation günstige GPUs zu kaufen statt einmal eine schnellere.

Denn was hättest du davon? Du Hättest dir z.B. eine RTX2070S gekauft, dann in der nächsten Generation eine RTX3060ti, welche 15% schneller ist und jetzt kaufste dir zum gleichen Preis eine 4060ti, die 0% schneller als die 3060ti ist.

Die ganze Warterei bringt einfach nichts mehr und die Mittelklasse stagniert praktisch seit Turing. Es gibt keine nennenswerten Upgrades die sich für den gleichen Preis und vor allem nach so langer Zeit lohnen.
Es ist ein witz. Man muss mehr ausgeben, damit sich ein Upgrade lohnt.
Immerhin kommt einer RTX4070 langsam in Preisregionen die für Mittelklasse Käufer akzeptabel sind, da bekommt man dann immerhin 70-80% mehr leistung als eine 2070S hat. Nach so langer Zeit trotzdem frustrierend.

Wenn du hingegen nicht 3x mittelklasse kaufst, sondern gleich zur 4080 oder 4090 greifst, hast du plötzlich die 2-3 Fache leistung einer RTX2070S.


Die Zeiten haben sich komplett geändert. Ich habe früher auch alle paar Jahre Mittelklasse gekauft, weil das nur logisch war. der technische Fortschritt ist exponenziell, solange man genug Leistung für die nächsten 2-3 Jahre hat, sah ich keinen Sinn darin, eine High End Karte zu kaufen, erstrecht wenn man sich die letzten 10-20% mehr leistung mit überproportional hohen preisen erkaufen musste und weil diese 10-20% im anbetracht exponenziellem Fortschritts auf lange Sicht eh nur ein fliegenschiss sind.

Heute ist es komplett umgekehrt. Die RTX4090 steht oft mit dem besten preis/Leistungsverhältnis da.
Natürlich bin ich immernoch der Meinung, dass man sich ein Limit setzen sollte und nicht jeden Preis akzeptieren sollte, nur weil das Preis/Leistungsverhältnis aktuell besser aussieht. Der Exponenzielle Fortschritt findet ja im High End immernoch statt, das sollte man brücksichtigen. Dennoch macht es heute absolut Sinn, eine Teure Karte zu kaufen, in der Hoffnung sie länger nutzen zu können. In der Mittelklasse biste jedenfalls komplett verloren und kaufst dir wenn du nicht aufpasst eine GPU mit einer Leistung, die vor 5 Jahren schon Mittelklasse war oder du kaufst eine GPU, die angesichts des Preises ein viel zu kleines Upgrade ist.

Man läuft natürlich jetzt gefahr, dass Nvidia und AMD mit der nächsten Generation die völligen preis/Leistungsknaller raushauen und man RTX4090 performance dann für 500€ bekommt. Dann hätte man mit einem High End kauf einen eher schlechten Deal gemacht. Aus aktueller Sicht und aufgrund der hohen Preise bei TSMC scheint das aber unwahrscheinlich.
 
Zuletzt bearbeitet:
Und ich dachte schon, es könnte auf PS5 was werden, aber mit solchen Anforderungen muss die gute alte 3080 herhalten.

Hatte beinahe vergessen, dass CONTROL damals auch der nVidia gesponserte DLSS-Vorzeigetitel war und auf PS4Pro mit AMD-GPU furchtbare Performance hatte. Ändert sich wohl nix...
 
bluna schrieb:
Ok, danke für die Erläuterung. Ich bin tatsächlich anders und kann 30 fps nicht nutzen. Es geht einfach nicht. Vielleicht liegt es auch an meiner TV Größe und daran weil es ein OLED ist. Möglicherweise verwischt das Bild bei einem schaltfaulem LCD/LED und kleinerer Bildschirmdiagonale 30fps-freundlicher. Selbst der 40 fps Modus ist mir nicht flüssig genug, obwohl er schon deutlich smoother daherkommt und er an 50 fps erinnert als an 40.
Ich verzichte also wirklich gerne auf die letzten Details und das schärfste Bild zugunsten von 60 fps. Die wiederum empfinde ich als ausreichend flüssig. Jeder Jeck ist da wohl anders.
Mir geht es genauso, ich kann 30 FPS nicht mehr spielen, seitdem meine alte TV verkauft hatte und gegen neue Monitor mit 120 Hz 4K getauscht habe. Und dann müsste ich festellen, dass gleiche Spiel zb. Dragon Quest 11, die alte TV die Spiele mit 30 FPS flüssig liefte, plötzlich alles geruckelt hat, als würde man 20 FPS spielen wollen. Und mein Monitor verwendet IPS Panel, kein OLED.

Moderne Monitor mit 120+ Hz Panel mögen keine 30 FPS mehr. Das selbigen auf mein PC, ein Spiel die ich absichtlich 30 FPS aus Test limitiert habe und was sehe ich dann? Auf meinem 144 Hz Monitor ruckelt es genauso unerträglich, schiebe ich ein Spiel auf mein 60 Hz Zweitmonitor, dann wirkt es deutlich flüssiger an. 🫣

Ich muss alle Konsolenspiele immer 60 FPS Modus spielen, falls es vorhanden ist. Sonst zur Not 40 FPS Modus nehmen, da wirkte es deutlich flüssiger an als 30 FPS. 😅

Ein Grund warum ich Starfield nach 4h spielen aufgehört habe, war das 30 FPS Limit. Ich kann nicht mehr so spielen. Das muss ich immer an 12 FPS-Zeiten denken, damaligen DOS-Rechner 🤪
 
  • Gefällt mir
Reaktionen: bluna
pacifico schrieb:
Ihr könnt gerne einen 4K Monitor für Office nutzen. Nur man sollte sich halt bewusst sein das für 4K Gaming eine GPU der 1000+Euro klasse benötigt wird....
Man kann doch auf einem 4K Monitor auch prima in 1080p spielen. Da 1080p geradzahlig in 4K passt, ist dabei dann auch nichts unscharf oder verschwommen wie bei bspw. 1080p auf einem WQHD Monitor. Einzig die effektiven DPI gehen halt runter, mehr aber auch nicht.

Habe mir auch schon überlegt, einen 4K Monitor zu holen, um die höhere Auflösung auf dem Desktop zu nutzen, zum Beispiel beim Programmieren und dann halt in 1080p zu spielen.
 
  • Gefällt mir
Reaktionen: bluna
Fatal3ty schrieb:
Moderne Monitor mit 120+ Hz Panel mögen keine 30 FPS mehr. Das selbigen auf mein PC, ein Spiel die ich absichtlich 30 FPS aus Test limitiert habe und was sehe ich dann? Auf meinem 144 Hz Monitor ruckelt es genauso unerträglich, schiebe ich ein Spiel auf mein 60 Hz Zweitmonitor, dann wirkt es deutlich flüssiger an. 🫣
Kleiner Tipp am Rande.

Stell das Overdrive von deinem Display nicht so scharf. Auf den niedrigeren Stufen verlaufen die Frames etwas mehr miteinander und das kaschiert Mikroruckler.

Oder aktiver Motion Blur auf der niedrigsten Stufe. Das hat einen ähnlichen Effekt
Ergänzung ()

mibbio schrieb:
Man kann doch auf einem 4K Monitor auch prima in 1080p spielen. Da 1080p geradzahlig in 4K passt, ist dabei dann auch nichts unscharf oder verschwommen wie bei bspw. 1080p auf einem WQHD Monitor. Einzig die effektiven DPI gehen halt runter, mehr aber auch nicht.

Habe mir auch schon überlegt, einen 4K Monitor zu holen, um die höhere Auflösung auf dem Desktop zu nutzen, zum Beispiel beim Programmieren und dann halt in 1080p zu spielen.


Full Quote weil Der Post wichtig ist.

Ja natürlich kann man auf einem 4K Display in 1080p spielen. Wenn man im Treiber das Skaling vom Monitor auf die GPU verlagert, sieht das auch super aus weil die Pixel einfach im Verhältnis 1:4 hochgerechnet werden.

Hier im Thread sind allerdings genau die Leute unterwegs die sowas nicht machen wollen und auch keine echte 4K fähige GPU besitzen.

Die Leute wollen einfach nicht einsehen das ihre GPU für 4K zu lahm ist

Stattdessen wird genörgelt und der Confirmation Bias bei Youtube ausgelebt.

Es mehr als genug Youtubler aus der zweiten und dritten Reihe die ihren Communities erfolgreich einreden das die Lazy Devs an allem schuld sind.
 
Zuletzt bearbeitet:
pacifico schrieb:
Stell das Overdrive von deinem Display nicht so scharf. Auf den niedrigeren Stufen verlaufen die Frames etwas mehr miteinander und das kaschiert Mikroruckler.

Oder aktiver Motion Blur auf der niedrigsten Stufe. Das hat einen ähnlichen Effekt
Hilft alles nicht, merke immer noch genau die Ruckler. Jeder nimmt anders wahr. 😢

Nächsten Monitor kaufe ich wieder 60 Hz Modelle für die Spielkonsole. Scheiß auf 120Hz Panel wenn es 30 FPS zu tode ruckelt 🫣
 
Fatal3ty schrieb:
Moderne Monitor mit 120+ Hz Panel mögen keine 30 FPS mehr. Das selbigen auf mein PC, ein Spiel die ich absichtlich 30 FPS aus Test limitiert habe und was sehe ich dann? Auf meinem 144 Hz Monitor ruckelt es genauso unerträglich, schiebe ich ein Spiel auf mein 60 Hz Zweitmonitor, dann wirkt es deutlich flüssiger an. 🫣
Du kannst den 144Hz-Monitor ja mal testweise auf 120 Hz umstellen, vielleicht hilft das bei 30-fps-Spielen.
 
  • Gefällt mir
Reaktionen: SweetOhm
@Cohen
Ist ja auf 120 Hz, mehr kann mein PS5 ja nicht realisieren. 30 FPS ruckelt immer nocn extrem, als würde man jede frames zählen kann.

es ruckelt genauso wie Beispielvideo wenn es auf 20 FPS sinkt, im meinem Augen.

Na, ich habs aufgegeben und ich informiere im Netz vorher ob die Spiele 60 FPS unterstützt wird und nicht gleich nen Titel blind kaufen. 🤷🏻‍♀️
 
Alles eine Sache der Gewöhnung.

Wenn ich Stundenlang mit 120 FPS spiele und dann 60 FPS sehe, dann hab ich auch das Gefühl, die Frames einzeln zählen zu können.

Trotzdem hab ich letztes Jahr God of War mit 30 FPS auf meiner PS4 in 1080p gespielt. Auf einem 4K OLED mit 120 Hz.

Waren die 30 FPS flüssig? Ganz bestimmt nicht!
War das Bild scharf? Ganz bestimmt nicht!
Hatte ich trotzdem Spaß mit dem Spiel? Definitiv!


Ich verstehe allgemein nicht, warum wegen hoher Systemanforderungen und folglich potenziell niedrigen Framerates ein viel größerer Aufriss gemacht wird, als über die ganzen Spiele, die zwar mit hohen FPS laufen, aber von nachladerucklern oder Shader Compile Rucklern betroffen sind oder wo der VRAM überläuft.

Lieber spiel ich im worst case mit konstanten 30 FPS, als mit 120 FPS, die ständig von Rucklern unterbrochen werden und sich total hakelig anfühlen. Dank VRR ist es ja heute auch egal, mit welcher Framerate man spielt. Wo man sich damals sorgen machte, dass man zusätzliche Ruckler hatte, weil man die 60 FPS nicht konstant halten konnte, ist es heute einfach egal, ob man mit 35, 40 oder 50 FPS spielt.

Mittlerweile ist das alles echt meckern auf hohem Niveau. Klar, bei den Preisen für die aktuellen GPUs soll das auch erlaubt sein, aber dass man sich davon so verrückt machen lässt versteh ich nicht. Ich hätte da wie gesagt viel größere Sorgen, ob das Spiel nachladeruckler oder Shadercompile ruckeln hat. Denn wenn es das hat, bringen auch 200 FPS keine Freude.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Wenn ich dieses Upscaling schon höre.
 
  • Gefällt mir
Reaktionen: SweetOhm
Zurück
Oben