• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Dead Space Remake im Test: Sehr gutes Horror-Remake schockt selbst High-End-GPUs

WebBeat84 schrieb:
nur weil ich nicht so doof bin und mir für den RT mist ne über 2000€ teure GraKa kaufe habe ich keinen Plan?
Auch in CP2077 und Control sieht es NICHT besser aus, außer ein paar Reflektionen, die aber keine 70% Leistungseinbußen rechtfertigen.
sorry aber Cyberpunk ist mit RT Psycho ein anderes Game...
Raytracing ist solange nur "ein paar Reflektionen" bis man die Performance dafür hat, dann kann man aufhören sich selbst das ein/schlechtzureden und genießen ;)
 
  • Gefällt mir
Reaktionen: Grundgütiger
Freue mich schon auf heute Abend. Haben Dead-Space 1 & 2 mehrfach durchgespielt und das Remake schaut sehr gut aus - auch, dass die Ishimura jetzt zusammenhängend begehbar ist und der ätzende Part bei dem man die Asteroiden abschießen muss, geändert wurde finde ich super.
 
Oh, ich freue mich auch schon drauf das mal wieder zu erleben! War eins der intensivsten Horror Spiele ich bisher so gespielt hatte damals... Ich frage mich nur ob meine arme 1080 auf 3440x1440 überhaupt auch nur auf niedrigsten Details eine Chance hat :headshot:
 
  • Gefällt mir
Reaktionen: Laphonso
Seriousjonny007 schrieb:
Sorry aber nur 32FPS mit einer GTX 1080er in FHD. Und das bei einem Spiel das zum größten Teil nur in geschlossenen Räumen spielt. 😒
Nein danke, so toll sieht das ganze jetzt auch nicht aus.
Deine Grafikkarte ist allerdings mittlerweile im siebten Jahr; und im Herbst diesem Jahres geht sie in das achte Jahr….
Wir haben mittlerweile drei weitere Generationen von Grafikkarten releases hinter uns.
Deine 1080 ist eine gute, aber mittlerweile veraltete Möhre im Technikstand.

Würde ein AAA Titel von Anfang 2023 auf einer alten Karte von 2016 mit 60-80 fps super toll laufen würden sich alle beschweren, dass das ja „anspruchslose“ Grafikeffekte sind ;)

Deus Ex Mankind Divided aus 2016 hab ich gerade durchgespielt, und das hatte noch eine 1080Ti auseinander gerissen (vor allem auch - aber nicht nur - wegen MSAA.).

Und was mir beim Durchspielen aufgefallen ist, sofort, diesem Titel fehlt zum Beispiel ganz explizit etwas wie Raytracing. Deus Ex MD ist immer noch hübsch, aber optisch deutlich in die Jahre gekommen und mit veralteter Engine unterwegs, visuelle limitiert, selbst auf Ultramax,

Du kannst du beide Spiele mal selbst optisch vergleichen. Oder andere Games aus der Pascal Ära.

Spoiler:
Das Dead Space Remake spült die Referenztitel aus 2015 und 2016 grafisch die Toilette runter.

(unabhängig davon gibt es unterschiedliche Stile und Artworks z.B. bei Bioshock oder Fall Out, welche man unterschiedlich empfindet im Design, die aber mit der Qualität der Grafik nichts zu tun haben.)

Einige von Euch haben eine völlig willkürlich absurde subjektive Bewertungsskala von Grafikqualität, finde ich.
Ergänzung ()

MalzM schrieb:
Oh, ich freue mich auch schon drauf das mal wieder zu erleben! War eins der intensivsten Horror Spiele ich bisher so gespielt hatte damals... Ich frage mich nur ob meine arme 1080 auf 3440x1440 überhaupt auch nur auf niedrigsten Details eine Chance hat :headshot:
Ich fürchte, das wird keinen Spaß machen. Spare dir diesen Titel lieber auf bis du eine neue(re) Grafikkarte hast, mein persönlicher Rat!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: paccoderpster, JahJah192, entengruetze und 3 andere
Dedenne1987 schrieb:
Mh, rund 48 FPS bei 1440p/Ultra auf meiner RTX 3070. Sollte mir langen.
Und es ist mit den Einstellungen von CB in einer Testsequenz gemessen worden. Je nachdem wie du es für dich individuell einstellst sind auch mehr fps drin. Ich gehe mal davon aus dass es mit einer RTX 3070 flüssig läuft.
 
msv schrieb:
„Achtung ⚠️. Dieses Spiel ist (momentan) leider nicht geeignet für Ihre Intel Arc-Grafikkarte!“ oder so irgendwie… 😅.

Faszinierend, wie unterschiedlich gut/schlecht Games auf der Karte laufen. Spiele grade zB auch den „Death Stranding“ DC, und der läuft halt einfach wie Butter in 4K mit XeSS auf „Qualität“ und sieht toll dabei aus…
Respekt, dass du da als Besitzer einer 770 noch lachen kannst. Ich würde es nicht mehr können. die Karte ist ja nicht einfach nur etwas langsamer. Die 3060TI, mit der die A770 sich messen lassen will/muss ist in den FPS 2,5 mal, bei den min Frames mehr als 4 mal so schnell.

Da fehlt es doch an Grundlegender Treiberarbeit bei Intel oder nicht?
Nach der Baulandung zu der jetzigen Zeit (Zeitpunkt Release), würde mir die Hoffnung abhanden kommen, dass es Intel irgendwann überhaupt einmal schafft, eine gewisse grundlegende Performance abliefern zu können.
 
  • Gefällt mir
Reaktionen: msv
Gravlens schrieb:
Ich hab das Gefühl seitdem es SSRTGI gibt nutzen Entwickler diese Methode aus nur um aus reinem Marketing vorweisen zu können das ihr Spiel Raytracing bietet.

Es lässt sich denke ich darüber Streiten ob es sich hier überhaupt wirklich um Raytracing handelt.^^
Wäre schön, wenn das Marketing angeben würde, in welchem Umfang Raytracing vom Spiel verwendet wird. Denn Raytracing reicht ja vom "Alibi-Raytracing" (nur statische Schatten wie in Forspoken) über "nur Reflektionen" bis hin zum vollen Programm (wie in Metro Exodus EE). Das macht sich auch unterschiedlich stark in der Grafik und vor allem im Leistungsbedarf bemerktbar.
 
MalzM schrieb:
Oh, ich freue mich auch schon drauf das mal wieder zu erleben! War eins der intensivsten Horror Spiele ich bisher so gespielt hatte damals... Ich frage mich nur ob meine arme 1080 auf 3440x1440 überhaupt auch nur auf niedrigsten Details eine Chance hat :headshot:
Meinst fhd truth hurts👊🏻 glaubst da steht 32 fps zum spass 😉
 
Laphonso schrieb:
Ich fürchte, das wird keinen Spaß machen. Spare dir diesen Titel lieber auf bis du eine neue(re) Grafikkarte hast, mein persönlicher Rat!
Ja, das fürchte ich auch ein bisschen! Mal sehen ob der Geiz gewinnt, ich die 1080 noch ein paar Jahre behalte und ich auch das Spiel erstmal auf die Liste für Sankt Nimmerlein setze :heul:
 
  • Gefällt mir
Reaktionen: Laphonso
nciht schrieb:
Spieleentwickler machen ihren Teil - das bedeutet aber nicht, dass nicht GPU-Hersteller mit neuen Treibern oft gezielt die Performance bestimmter Spiele verbessern. Und an den Treibern werkeln ganz sicher nicht die Spieleentwickler, auch wenn die miteinander in Kontakt stehen
Die GPU-Hersteller kümmern sich erstmal mit dem Treiber nur darum, dass die gängigen Grafik-APIs (Vulkan, DirectX) möglichst gut supportet werden und effizient auf der jeweiligen GPU läuft. Aufgabe des Spieleentwicklers ist dann wiederum, diese Grafik-API so optimal wie möglich in seinem Spiel zu nutzen.

Was die GPU-Hersteller letztendlich an Optimierungen für bestimmte Spiele in den Treiber einbauen, sind im Grunde haufenweise Sonderfälle im Vulkan- oder DirectX-Support mit dem sie vom Spieleentwickler schlecht genutzt API-Aufrufe in effizientere Aufrufe "umzubiegen". Der GPU-Hersteller optimiert also in dem Sinne nicht für bestimmte Spiele, sondern bügelt letztlich nur Fehler der Spieleentwickler aus.
 
Casillas schrieb:
Respekt, dass du da als Besitzer einer 770 noch lachen kannst. Ich würde es nicht mehr können. die Karte ist ja nicht einfach nur etwas langsamer. Die 3060TI, mit der die A770 sich messen lassen will/muss ist in den FPS 2,5 mal, bei den min Frames mehr als 4 mal so schnell.

Da fehlt es doch an Grundlegender Treiberarbeit bei Intel oder nicht?
Nach der Baulandung zu der jetzigen Zeit (Zeitpunkt Release), würde mir die Hoffnung abhanden kommen, dass es Intel irgendwann überhaupt einmal schafft, eine gewisse grundlegende Performance abliefern zu können.
Hehe na klar, dass in diesem speziellen Fall etwas gewaltig hakt und nicht so gut läuft, wie es theoretisch könnte, ist ja nicht zu übersehen 😉.

Aber da ich eh kein Hardcore- und High-FPS-Spieler bin und mir die Arc hauptsächlich aus Interesse an was Neuem und Basteltrieb gekauft habe und sie mir dafür in den meisten Fällen hervorragende Dienste leistet, bin ich da ziemlich entspannt und hoffe, Intel werkelt auch weiterhin an ihrer Hard- und Software.

Wäre ja langweilig, wenn immer alles perfekt funktioniert… und falls mich die Karte & ihre Entwicklung irgendwann doch nervt, dann gibts halt doch wieder eine der rotgrünen Konkurrenz 😊.
 
MalzM schrieb:
Ja, das fürchte ich auch ein bisschen! Mal sehen ob der Geiz gewinnt, ich die 1080 noch ein paar Jahre behalte und ich auch das Spiel erstmal auf die Liste für Sankt Nimmerlein setze :heul:
Mach das alle anderen neuen games von denen ich gehört habe, die dieses jahr raus kommen, brauchen auch mind 6700 xt/3060 für FHD
 
WebBeat84 schrieb:
nur weil ich nicht so doof bin und mir für den RT mist ne über 2000€ teure GraKa kaufe habe ich keinen Plan?
Auch in CP2077 und Control sieht es NICHT besser aus, außer ein paar Reflektionen, die aber keine 70% Leistungseinbußen rechtfertigen.
https://www.computerbase.de/forum/t...noch-kein-nvidia-dlss-3.2112291/post-27505442

^was hältst du von meinem Vergleich?

Man kann sich ja darüber streiten, ob es den Performancehit wert ist, aber ich frage dich ernsthaft, ob du hier keine grafische Aufwertung erkennen kannst.
 
  • Gefällt mir
Reaktionen: BlueBringer und Mayima
Mit knapp 80 Euro kostet das Remake deutlich mehr als das Original, sorry, aber das ist und bleibt Verarsche! Ist den Spielern klar, wie viel Aufwand der Entwickler hier spart? Ein Remake kostet vielleicht 10% einer Neuentwicklung, warum dann maximalen Vollpreis zahlen?
 
mibbio schrieb:
Der GPU-Hersteller optimiert also in dem Sinne nicht für bestimmte Spiele, sondern bügelt letztlich nur Fehler der Spieleentwickler aus.
Das "Ausbügeln von Fehlern des Entwicklers" kann ich also nicht als "optimieren" bezeichnen?

Sorry, aber das ist sinnlose Wortklauberei. Ergebnis ist am Ende, dass ein bestimmtes Spiel besser läuft, weil der GPU-Hersteller, am Treiber gewerkelt hat, und das z.T eben oft auch extra für ein bestimmtes Spiel. Wenn du dich darum winden willst, dass das kein Optimieren ist, bitte - Mir ging es darum, dass die GPU-Hersteller mit Treibern gezielt Einfluss auf die Performance von bestimmten Spielen auf ihrer Hardware nehmen und das AMD aktuell wohl die Ressourcen fehlen dies bei RDNA2 parallel zum Release neuer Spiele zu tun.

mibbio schrieb:
Die GPU-Hersteller kümmern sich erstmal mit dem Treiber nur darum, dass die gängigen Grafik-APIs (Vulkan, DirectX) möglichst gut supportet werden und effizient auf der jeweiligen GPU läuft.
Ich hab nicht das Gegenteil behauptet - Das bedeutet aber nicht, dass div. Treiberupdates nicht auch ganz gezielt die Performance ganz bestimmter Spiele (oder anderer Software) verbessern wollen. Ich nenne das "optimieren", aber die Forenpolizei für den korrekten Ausdruck der deutschen Sprache darf mir da gerne widersprechen.
 
Ich komme mit eurer Erwartungshaltung einfach nicht klar, ihr verlangt mit einer Grafikkarte die 7 Jahre alt ist ein aktuelles Game in Full HD spielen zu können und das noch mit 60 Fps ?
 
Diese Benchmarks zeigen mir, wohin die Reise im PC Gaming geht. Ich kenne noch Zeiten, wo man sich mit Mid-End-GPUs einige Jahre "zurücklehnen" konnte, weil man genug Puffer hatte. Heute sieht man, dass sich eine 6800 schon auf dünnem Glatteis bewegt. Dass Karten in dieser Leistungsklasse "jetzt" noch ausreichend fps liefern, ist relativ unbedeutend, denn wir reden hier nicht von ein paar Kröten, die man für dieses Stück Silizium auf den Tisch gelegt hat.

Dass man früher in Preisregionen von ~300€ sich alle 2-3 Jahre mal ne neue GPU kaufen musste, um dann auch die aktuellen Titel auf Regler-Anschlag-Rechts spielen zu können, ist heute scheinbar auf mindestens das doppelte Preisniveau gestiegen und nein, ich rede hier nicht von 100+ fps.

Umso unverzichtbarer sind dann Techniken wie DLSS, RSR oder FSR geworden, RT hin oder her. Allerdings wirkt das eher wie eine Trostlösung, auch wenn es gute Ergebnisse liefert. Die Ironie dabei ist, dass bei solchen Dingen dann die "veralteten", relativ leistungsschwachen Karten davon ausgeschlossen werden, obwohl gerade diese am meisten davon profitieren würden.

Alles in allem keine gute Entwicklung. Ja, Grafik wird besser. Ja, die fps werden besser. Leider auch Ja, dass die Kosten dafür ins absurde gestiegen sind und in viel zu kurzen Zeitabständen erneut hohe Kosten verursachen.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz, DerSnake, Master Chief ! und eine weitere Person
Ich habe den Pre Upload des Spiels gestern gemacht. Eben kam ein Updates von knapp 500MB rein. Also kann es sein dass eventuell einige Probleme behoben wurden. Da ich es erst wie alle anderen ab 17 Uhr testen kann, könnte sich @Wolfgang dazu melden.
 
Taurus104 schrieb:
mit dem Spiel und der scheinbar schlechten Optimierung des Spieleentwicklers zutun?! Der Spieleentwickler ist für die Optimierung seiner Software an die unterschiedlichen Hardwarekonfigurationen zuständig.
Ja, vordergruendig von Entwicklern aber nicht alleinig, denn ohne Treiberoptimierung duerfte das Spiel suboptimal laufen und momentan wird bei den Treibern (uebergangsweise?) zweigleisig gefahren (fuer monolithische RDNA2 und Chiplet-RDNA3 Karten), was das ganze sicherlich nicht vereinfacht.

Der gegensaetzliche Leistungstrend in diesem Spiel im Vergleich zum Blog-Marketing ist sicherlich eher als Einzelfall zu betrachten, aber fuer die Kundschaft eben maximal verwirrend und m.E. eher kontraproduktiv.

Es bleibt zu hoffen, dass zukuenftig klar/weniger verwirrend kommuniziert/gehandelt wird bei AMDs/RTGs Marketing und Treiberoptimierung (seit fast 2 Monaten gibt es bzgl. RDNA2 Treibern nichts neues, wohl auch weil RDNA3 nicht so laeuft wie urspruenglich angedacht und Ressourcen umgestellt wurden).
 
Zurück
Oben