Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAlan Wake 2: GTX 1000 und RX 5000 sind außen vor, Spieler außer sich
Ich besitze eine RX6900XT... Konnen Sie dann trotzdem behalten und was ich bisher an Videos gesehen habe, hat mich auch nicht wirklich vom Hocker gehauen. Wieder so ein Hype um Nichts. Schade.
Anhand mancher Kommentare merkt man, dass diese nicht ab und an mal den Auftrag haben eine günstige Daddel-Kiste für Kids deren Eltern wenig Geld haben zu bauen.
Grad für solche Kisten bieten sich die alten Karten ab 5700/1070 noch ideal an, da man mit diesen Karten in FHD noch ordentlich spielen kann, wenn auch nur auf mittleren Details. Das stört die Kids aber meistens nicht.
Ich kann nur hoffen, dass der Publisher damit auf die Nase fällt und einen Patch nachreichen wird. Wobei das Game auch eher nichts für Kids sein dürfte.
Meine EVGA 1070 FTW läuft noch bis Ende der Woche und das ohne Probleme.
Selbst das gerade oft gescholtene Forza Motorsport läuft gut.
Wenn es nicht wie länger geplant nen neuen Rechner geben würde würde sie auch weiter laufen.
Ab Sonnabend, wenn ich den neuen Rechner zusammen gebaut habe würde auch Alan Wake 2 laufen aber es kommt nicht in die (Einkaufs)Tüte irgendwas von den Kinder Abziehern von epic zu kaufen da kann mich das Game noch so reizen.
Reichen aber dennoch nur für 30 FPS in FHD auf Low und auch nur mit Upscaling. Deshalb ist es auch kein Beinbruch, denn so hätte ohnehin kaum jemand gespielt.
Es stiebt auch niemand davon, wenn er das Spiel erst nach dem nächsten GPU-Upgrade spielen kann.
Escom und Konsorten. Das waren noch zeiten.
Und ich bin damals 1998 mit nem Pentium 75hz rumgeeiert.
Beg1 schrieb:
Allerdings wird Remedy am PC wohl nicht sonderlich hohe Verkaufszahlen erreichen, EGS Exclusive + ziemlich hohe Hardwareanforderungen sind ziemliche Killer. Eventuell läuft das Game auf den Konsolen gut, sonst wird es für Epic wohl sogar knapp mit dem einspielen der Entwicklungskosten
Das denke ich aber auch.
Nun... am Ende entscheidet ja der Kunde mit dem Geldbeutel wie es läuft.
Ich fand den Ersten Teil von der Atmosphäre ja sehr immersiv und Unterhaltsam aber am ende waren mir zu viele Fragen offen.
Das hat mich an Control auch etwas gestört. War Übrigens Gameplaytechnisch auch ein gutes spiel.
Nur die Performance fand ich nicht so pralle. Allerdings hatte ich da noch mein altes system.
Ich hatte die 8800GT (200€). Zwei Detailstufen runter, eine Auflösungsstufe runter (bei Röhrenmonitoren kein Problem), und Crysis lief mit 50 fps. Sah zwar weniger spektakulär aus, aber es lief.
Na klar, kein Thema, hatte in 1650x1050 in High gespielt, 35 FPS, ging schon.
Um was es mir eher ging ist, dass die meisten heutzutage aufgrund der Jahrelangen Stagnation gewöhnt sind mit Jahrealter Hardware noch was reißen zu können.
Ich wollte damit ausdrücken, dass es damals anders war und das im 6-12 Monats Zyklus.
Heutzutage hast du eine GPU 2,5 Jahre bis überhaupt ne neue Gen rauskommt.
Und dann erwarten die Leute, dass eine 1080Ti aus 2016 echt noch in 2023 aktuell von Featureset ist?
Kommt darüber weg.... sorry.... (no offense, die Karte war geil, Betonung auf "war")
Holen werde ich es mir definitiv, aber wohl eher etwas später. Meine Hardware wird definitiv ausreichen, aber ich habe vorher noch einige Spiele zu spielen, bevor ich an eine Neuanschaffung denke. Bis dahin warte ich die Tests ab.
Schlimm finde ich es jetzt nicht, dass man hier konsequent auf ein gewisses Featureset setzt. Ein Spiel nicht zum Start spielen zu können ist definitiv kein Weltuntergang. Ich erinnere mich noch daran, das es früher auch so war. Dann hat man dieses Spiel halt liegen lassen und erst dann gespielt, wenn die Hardware wieder schnell genug dafür war oder die Mindestanforderungen erfüllt hat.
Hm ich sehe hier viele Kommentare die nicht richtig sind.
Also meien GTX1080 schafft noch jedes meiner aktuellen Spiele mit guten Details, 1440p und ausreichenden FPS.
Trackmania 2020
CS2
Hell Let Loose
R6:Siege
Pioneers of Pagonia (Demo)
Battlebit Remasterd
Warzone2
..um mal ein Paar zu nennen
Die Trippel A verseuchten und unfertigen Dinge wie Cyberpunk oder Hogwarts sprechen mich aktuell aber sowieso garnicht an.
Ein Alan Wake 2 hätte ich mir aber doch gerne angespielt. Muss ich halt warten.
Edit: Zu den kommentaren, 7Jahre alte Karten sind irgendwann auch mal zuende Supported.
Ich würde mir ja direkt wieder nVideas High-End Karte (4080/4090) holen. Ich warte nur darauf das die Mondpreise mal in eine Region der normalität kommen; 4080 unter 1000€ zB
Cyberpunk 2077, Sonic Frontiers, Uncharted 4, Counter-Strike 2, Half-Life Alyx, Ghostrunner, es gibt da schon einiges, was noch sehr gut mit meiner 5700 (keine XT) läuft.
Aber schon klar, heutzutage ist es viel einfacher, künstlich Elektroschrott zu produzieren, als Code zu optimieren.
Das ist keine Begründung sondern eine Entschuldigung. Die müssen die Renderpfade doch sowieso auch auf anderen Plattformen auch erstellen und das erfolgt per Compiler dem das weitgehenst egal ist.
Ach, du meinst, die PS5 und die Xbox Series S/X beherrschen diese Features auch nicht?
Aus meiner Sicht sind das RDNA2, was auf dem Desktop ab der Radeon RX 6000 Serie war... aber hey, wie gesagt, du weißt es sicher besser.
Cyberpunk 2077, Sonic Frontiers, Uncharted 4, Counter-Strike 2, Half-Life Alyx, Ghostrunner, es gibt da schon einiges, was noch sehr gut mit meiner 5700 (keine XT) läuft.
Das galt früher auch mal über eine Voodoo 1...
Außerdem reichten noch früher auch 640 kB nutzbarer Arbeitsspeicher. Und früher brauchte es auch kein CD-Laufwerk, um etwas zu spielen, da sind wir zum Glück wieder hingekommen...
Das galt früher auch mal über eine Voodoo 1...
Außerdem reichten noch früher auch 640 kB nutzbarer Arbeitsspeicher. Und früher brauchte es auch kein CD-Laufwerk, um etwas zu spielen, da sind wir zum Glück wieder hingekommen...
Also wenn Du kleinlich werden und das falsche Bill Gates Zitat ausrollen willst, können wir gerne an dem Punkt gehen, wo es keine moderne Technologie gebraucht hat und die Leute auch mit ihrem Holzofen in ihrer 15 Quadratmeter großen Wohnung glücklich waren.
ganz ehrlich, im Fall von Alan Wake 2, sag ich mal Dankeschön an die Entwickler. Entgegen wahrscheinlich vieler Meinungen, find ich es gut bzw. hab kein Problem damit dass das Game nur mit DLSS vernünftig laufen soll und jetzt alte Karten nicht supported sind. Ich seh die Grafik und AW2 setzt neben Cyberpunk neue Maßstäbe. Das ist kein hingeklatschtes Assassins Creed oder EA Massenware Müll, sondern für zukünftige Hardware und gegenwärtige die voll ausgenutzt wird. technologischer Fortschritt lässt halt auch mal Altlasten hinter sich, ist mir so lieber als 08/15 stagnierende Grafik.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
@Randnotiz:
Wenn du nur das Bill Gates Zitat gesehen hast, dann würde ich dir einen Besuch beim Optiker nahelegen. Und bei deiner Polemik braucht es auch keine Diskussion.
Zudem würde mich deine Meinung interessieren, was an dem Zitat falsch ist (dem Zitat, das ich nicht mal zitiert habe, aber egal).
Randnotiz schrieb:
Also wenn Du kleinlich werden und das falsche Bill Gates Zitat ausrollen willst, können wir gerne an dem Punkt gehen, wo es keine moderne Technologie gebraucht hat und die Leute auch mit ihrem Holzofen in ihrer 15 Quadratmeter großen Wohnung glücklich waren.
Und im Übrigen: Ich bin ja nicht der, der rumheult, dass alte Grafikkarten nicht meh runterstüzt werden. Wer weigert sich hier denn gegen Fortschritt?
Und zum Elektroschrott-Argument: Es wird doch niemand gezwungen, das Spiel zu spielen... und falls man doch den Zwang spürt, muss man ja auch keine neue Grafikkarte oder eine 4080 kaufen.
@MrHeisenberg: Den Optiker brauchen scheinbar auch Leute, die sagen, die Grafik sei mittelmäßig.
Und bei Gott. Ich verabscheue Epic seit sie angefangen haben, Exklusiv-Deals mit Entwicklern abzuschließen. Wenn Epic andere Studios kaufen würde, würde ich ja nicht mal was sagen.