• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Resident Evil 4 (PC) im Test: Benchmarks und Analysen zur Technik des Remakes

Die Vollversion läuft bei mir runder als die Demo!

Ich kann relativ viele Details hochschalten oder auf max. gehen bei 4 GB Texturen inkl. RT normal.
Bleibt deutlich über 100+ FPS.

Die Demo hatte bei mir beim Start des Levels noch Shader-Ruckler.
In der Vollversion nicht.

Edit:
Bei der Demo hatte ich noch nicht den neuen Resi Nvidia Treiber installiert.
 
Zuletzt bearbeitet:
just_fre@kin schrieb:
AMD zocken die Leute doch beide übelst ab und Firmen wie Capcom unterstützen das dann noch indirekt, indem die Games unverhältnismäßig viel VRAM und Leistung abrufen.
Da sind die Leute alle selbst schuld sage ich mal und Capcom hat dass Problem dass sie halt 7 Konsolen unterstützen müssen sage nur CP2077 Fail. ;) oder Witcher 3 PS5 Fail und finde lustig dass GoW heran gezogen wurde auf wie vielen Konsolen muss dass laufen genau einer.

HW Basis ist einfach zu weit auseinander.
 
just_fre@kin schrieb:
RE4 galt und gilt mehrheitlich sowohl bei Spielern wie auch in der Fachpresse als einer der besten Teile - die Verkaufszahlen, die Tests und die unzähligen Portierungen sprechen da auch eine deutliche Sprache. Die actionlastigere Neuausrichtung hat der Serie damals einen wahnsinnigen Bekanntheitsschub gegeben. Nur weil es eine Hand voll ewig gestriger wie du gibt, die an den alten Teilen hängen, schließe bitte nicht von dir auf die Mehrheit.
Volle Zustimmung.
Wobei das mit den ewig gestrigen ein bisschen gemein ist, eigentlich hätte Capcom damals einfach nur mit der Nummerierung aufhören müssen oder je Reihe wieder bei 1 anfangen sollen.
Alle paar RE Spiele hat sich die Ausrichtung bzw. die Spielweise grundlegend geändert und dem hätten man durch unterschiedliche Bezeichnungen Rechnung tragen können. (wie bei Sniper Elite und Zombie Army)
Wobei man durchaus sagen kann, dass Capcom aktuell 2 unterschiedliche Reihen hat. (die Remakes und die reguläre Reihe (7-9)

Resident Evil Reihen
Resi 1-3, 0, 1R & CV = Singleplayer, feste Kameraperspektive, mehr Horror, wenig Action, (teilw.) knappe Ressourcen, gerenderte Hintergründe, nur die Figuren in 3D (CV ist hier die Ausnahme da quasi das erste vollständige 3D-Spiel (eigentlich RE2 für N64, aber so kleinlich wollen wir mal nicht sein))

Resi 4-6, Revelations 1 & 2 und Operation Racoon City = Multiplayer Focus, 3rd-Person, wenig Horror, viel Action (wie bei CoD), viele Ressourcen, Quicktime Events (wie bei CoD), vollständig in 3D gerendert, mit modernen Features (z.B. 3D)

Resident Evil 7-9? = Singleplayer, 1st-Person, (wieder) mehr Horror, weniger Action, wenig Ressourcen, vollständing in 3D gerendert, aktuelle Features (z.B. Raytracing, VR)

Resident Evil Remakes = Single- und Multiplayer, 3rd-Person, je nach Spiel mehr oder weniger Horror, genauso die Action, vollständing in 3D gerendert, aktuelle Features (z.B. Raytracing)


Das Nummerierungsding funktioniert eigentlich nur bei Spielen bei denen sich die grundlegende Spielweise nicht oder nur wenig ändert. Also quasi alle Sportspiele, Rennspiele, Action-(Schlaulevel)-Shooter hust CoD hust, RTS,...
 
  • Gefällt mir
Reaktionen: Mcr-King, Sappen und Laphonso
Warum fehlen in euren Benchmarks immer die gpus die ich besitze? Erst hatte ich die rx6800 jetzt die 4070ti 🤣
 
Czk666 schrieb:
Das hat nix mit verbietet zu tun. Nvidia hilft bei Implementierung oder gibt Geld. Wenn sie das nicht machen kommt auch kein dlss.
Das ist eine reine Behauptung.
Ergänzung ()

Chismon schrieb:
dass FSR fuer Entwickler einfacher zu implementieren sei in Spielen als DLSS und somit waere es (ohne nVidia Sponsoring) aus Kostensicht schon eine Option auf DLSS Support zu verzichten ;).
Wieso das denn? Es ist beides gleich aufwändig. Die grundsätzliche Integration ist langweilig. Die Andockstellen die gleichen. Der größte Aufwand entfällt darauf entsprechend saubere Inputs zu liefern.
Nicht umsonst gibt es inzwischen generische Mods, mit welchen man munter beide Versionen für den jeweilig anderen Hersteller aktivieren kann.

Ergänzung ()

Chismon schrieb:
Wie zuvor erwaehnt, koennte der geringere Arbeitsaufwand/einfachere Implementierung von FSR dann fuer einige Entwickler den Ausschlag geben (nicht auf DLSS zu setzen)
Sie schreiben in ihrem Statement, dass AMD Ihnen dafür Ressourcen zur Verfügung gestellt hat.
Alles andere deutet darauf hin, dass es ein Zerwürfnis mit nvidia gab. Siehe auch Atomic Heart.
Das wäre der zweite Vorzeigetitel, der die anfangs beworbenen Features in Sachen RTRT gecancelt hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Und was lernen wir daraus?
Grafikspeicher haben, ist besser wie Grafikspeicher brauchen.
 
  • Gefällt mir
Reaktionen: MiroPoch, z-R-o-, Captain Mumpitz und 5 andere
danyundsahne schrieb:
Alle feiern immer wenn DLSS in den games integriert ist, aber sobald es nicht drin ist, wird gejammert. (Wie gesagt, läuft mit FSR ja auch auf NV Karten)
Man sollte generell jammern, wenn in modernen Titeln DLSS und FSR fehlen. Es ghört einfach beides integriert, wenn man heutzutage ein sauberes Produkt abliefern will.
DLSS und FSR sind nämlich nebst der eigentlichen Funktionalität ein Garant dafür, dass man beim Rendering in speziellen Bereichen einen gewissen mindeststandard hat walten lassen müssen.
 
  • Gefällt mir
Reaktionen: Laphonso und Wolfgang
Ich hätte mal gerne gesehen, dass sich jemand mit dem Thema massiv gestiegene Anforderungen befasst, vor allem an den in diesem Jahr veröffentlichten Spielen gut zu beobachten. Die Spiele sehen häufig nicht viel besser aus, vor allem auf niedrigeren Einstellungen, welche teils immernoch Leistung ohne Ende fressen. Was sieht jetzt an RE4 Remake so viel vesser aus, dass sich das Viertel oder Fünftel der FPS von RE2/3 Remake rechtfertigt?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Czk666
derbe schrieb:
Finde ich krass wir häufig mittlerweile Spiele raus kommen die echt viel VRam brauchen. Bin froh davon mehr als genug zu haben mit der 7900XTX - I'm looking at you RTX30x0 :D
Krass wird es eigentlich nur, wenn man sich die Texturen und die Kompressionsverfahren mal ansieht und dann bemerkt, wieviel VRAM oftmals sinnlos zum Fenster rausgeworfen wird.
Da darf man sich ruhig mal an dem HD Reworked Project von Halk Hogan ein Beispiel nehmen.
Besser kann man es fast nicht machen. VRAM Verbrauch bei Witcher 3 -> Bei 4K um die 7GB nach einiger Zeit Levelstreaming.
Wobei man so fair sein muss, dass gute und optimierte Texturen nicht generisch herzustellen sind und dementsprechend Zeit und Geld kosten.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
wieviel VRAM oftmals sinnlos zum Fenster rausgeworfen wird.
Allgemein, wie sinnlos mit Speicher aller Art umgegangen wird. Spiele mit rund 100GB, das wär eigentlich nicht nötig. Und Resident Evil sind keine Spiele, welche >10GB VRAM Verbrauch rechtfertigen können eigentlich.
 
  • Gefällt mir
Reaktionen: z-R-o-, Mcr-King, Epistolarius und eine weitere Person
...wo wir auch wieder beim Thema Realtime- Raytracing wären.
Problematik ist ja unter anderem, dass Du jeden Level segmentiert inzwischen in zig unterschiedlichen Beleuchtungsstati vorhalten musst und auch noch der Fall berücksichtigt wird, dass User die Spiele auf Festplatte installieren.
Einmal mit Sonne von hier, einmal mit Sonne von da. Einmal eine Map mit Lampe an, einmal eine Map mit Lampe, die zerstört bzw. kaputtgeschossen wurde. Einmal die Beleuchtung des Raumes mit Schrank, einmal die Beleuchtung, wenn der Schrank umgefallen ist usw. usf.
Das ganze in Chunks dann noch mehrfach auf der Festplatte abgelegt, so dass man komplette Levelblöcke streamen kann.

Hätte man Realtime- Raytracing für Beleuchtung & co. und würde man endlich mal SSDs voraussetzen, sind die Tonnen an sonst vorberechneten Daten nicht mehr notwendig. Festplattenplatz und VRAM sind weitere Dinge, die man für Rastertechniken bis jetzt massenhaft opfern musste, wenn es nach was aussehen soll.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThreepQuest64
.Sentinel. schrieb:
Wieso das denn? Es ist beides gleich aufwändig. Die grundsätzliche Integration ist langweilig. Die Andockstellen die gleichen. Der größte Aufwand entfällt darauf entsprechend saubere Inputs zu liefern.
Weil DLSS insgesamt viel aufwaendiger ist (es braucht Tensor-Kerne und KI dafuer, usw.) und FSR eben dafuer leichter zu implementieren ist, aber dafuer eben (fuer einige) meist optisch leicht weniger Abstriche bei der Darstellungsakkuratesse (im Vergleich zur nativen Darstelllungsqualitaet) gemacht werden muessen.

AMDs Technik ist quelloffen, dementsprechend deutlich leichter in Spielen zu implementieren, und funktioniert auf quasi jeder Hardware. [...] Nvidia wiederum verspricht mit DLSS eine gleiche oder sogar bessere Bildqualität bei verbesserter Performance. Hierfür kommt eine künstliche Intelligenz zum Einsatz, die mittels neuronaler Netzwerke Bewegungsvektoren berechnet, wodurch sich das Bild aus mehr Informationen als bei einer einfachen Hochskalierung zusammensetzt. Dafür sind jedoch die speziellen Tensor-Cores der RTX-Grafikkarten notwendig.

Das ist doch allgemein schon lange bekannt (sollte Dir eigentlich nicht entgangen sein ;) ) und auch logisch, dass sich DLSS mehr auf die Entwicklungskosten auswirkt als die Implementierung von FSR und XeSS (die groessere Reichweite der letztgenannten, offenen Features einmal aussen vorgelassen).

Zudem sind normalerweise abgewandelte Nachfolgeloesungen effizienter als die Urloesung, sonst wuerden sich die Entwicklungen (in dem Fall von FSR oder XeSS) wenig lohnen (fuer AMD/RTG und Intel).

Es koennte mittel- bis langfristig wieder einmal so kommen, dass sich der offene Standard behauptet, aber nVidia moechte auch nicht daraus lernen und setzt weiterhin auf propriertaere Ansaetze (zumal man mittlerweile soweit geht, damit die eigenen Kundschaft per dGPU-Generation in Zugangsklassen einzuteilen und mehr Produkt-Absatz/Gewinne forcieren kann, siehe DLSS3 Exklusivitaet nur fuer Ada Lovelace und Nachfolgekarten) und konnten schon abschaetzen, dass das auf sie (und natuerlich die eigene Kundschaft) zukommen koennte.

So gesehen geschieht das nVidia nur recht, wenn diese wieder auf das "falsche (proprietaere) Pferd" gesetzt haben und (ohne dafuer zu zahlen/sponsorn) von einigen Entwicklern dafuer abgestraft werden, nur um eine noch marktdominierendere Stellung im GPU-Markt mit propriertaerer Technik sowie neue interne Exklusivitaets-/Ausschlussmechanimsmen zu generieren zwecks Gewinnmaximierung.

Ein oder eher mehrere Zerwuerfnisse aus den o.g. Gruenden von Entwicklern (oder Geschaeftspartnern allgemein) mit nVidia, wuerden mich auch ueberhaupt nicht wundern, es waere ja leider nicht das erste Mal (wenn man bspw. an Apple, Tesla oder EVGA denkt oder viele grosse Spielepublisher bezogen auf GeForce Now).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eXe777, Mcr-King und danyundsahne
Hier wird ja immer wieder behauptet das viel GDDR und Bit nicht wichtig wären, da sieht man mal wieder das Gegenteil. Ein GPU unter 12GB zu kaufen macht schon länger wenig Sinn.

Wenn man dann bedenkt was selbst 8GB von NV kosten sollen, naja bitte jeder wie er´s braucht.

mfg
 
  • Gefällt mir
Reaktionen: Mcr-King
Lustig dass Capcom hier eine angebliche AMD Affinität zugesprochen wird, dabei haben sie gerade erst letztes Jahr für Monster Hunter Rise DLSS per Patch nachgeliefert.
 
  • Gefällt mir
Reaktionen: Payne19 und Mcr-King
Chismon schrieb:
Weil DLSS insgesamt viel aufwaendiger ist (es braucht Tensor-Kerne und KI dafuer, usw.) und FSR eben dafuer leichter zu implementieren ist, aber dafuer eben (fuer einige) meist optisch leicht weniger Abstriche bei der Darstellungsakkuratesse (im Vergleich zur nativen Darstelllungsqualitaet) gemacht werden muessen.
Das ist ein Missverständnis und dem Marketing geschuldet. In den Köpfen hängt halt immernoch FSR1.
Davon spreche ich aber nicht. Ich spreche von FSR2.

Das ist überhaupt nicht leichter zu implementieren.
In einem Fall strickst Du den kompletten Code in Dein Produkt und im anderen Fall schickst Du Befehle an ein "Include" bzw. einer Bibliothek. Das macht genau null Unterschied, ob die entsprechende Routine transparent ist oder nicht.
Die Inputs deren Bereitstellung den Hauptaufwand darstellen, bleiben wie bereits erwähnt für beide Varianten die gleichen.

Wie gesagt- Eigentlich sollte einem schon auffallen, dass man durch einfache Wrapper hier die Techniken munter untereinander austauschen kann, was einen direkten Schluss zu dem betreibenden Aufwand beider Techniken zulässt. Auch wenn man kein Coder oder Engine- Tech ist.

Chismon schrieb:
Das ist doch allgemein schon lange bekannt (sollte Dir eigentlich nicht entgangen sein ;) )
Ja- Da ich inzwischen die Integration für 2 kommende Titel hinter mich gebracht hab (nein- keine UE4 One- Klick- Integration), ist mir der Integrationsprozess bekannt. Wenn die Prerequisites stimmen und die anderen Jungs und Mädels aus der Renderecke einen einigermaßen soliden Job hingelegt haben, macht das so gut wie 0 Aufwand sowohl bei FSR2 wie auch bei DLSS2-x.
Die Integration beider Techniken machst Du an einem Tag.
Bei DLSS2 kannst Du inzwischen mehr Tweaken und kannst problembehaftete Dinge besser maskieren.
Kannst Du bei FSR2 mit deutlich höherem Aufwand natürlich auch machen...
Chismon schrieb:
und auch logisch, dass sich DLSS mehr auf die Entwicklungskosten auswirkt als die Implementierung von FSR und XeSS (die groessere Reichweite der letztgenannten, offenen Features einmal aussen vorgelassen).
Du musst für DLSS nichts zahlen. Das darfst Du genauso ohne Kosten zu haben integrieren wie wie FSR auch.
Chismon schrieb:
Es koennte mittel- bis langfristig wieder einmal so kommen, dass sich der offene Standard behauptet,
Ja- Wenn man mit (in der aktuellen Version) schlechterer Qualität leben kann, dann mag das so sein. Nicht immer setzt sich der überlegene Standard durch.
Chismon schrieb:
aber nVidia moechte auch nicht daraus lernen und setzt weiterhin auf propriertaere Ansaetze
An welche Tensor- Cores hätte denn die DLSS API die Instruktionen bei AMD schicken sollen?
Chismon schrieb:
(zumal man mittlerweile soweit geht, damit die eigenen Kundschaft per dGPU-Generation in Zugangsklassen einzuteilen und mehr Produkt-Absatz/Gewinne forcieren kann, siehe DLSS3 Exklusivitaet nur fuer Ada Lovelace und Nachfolgekarten)
Du wirst anhand von der FG von FSR 3 sehen wo da der Hund begraben liegt.
Chismon schrieb:
Ein oder eher mehrere Zerwuerfnisse aus den o.g. Gruenden von Entwicklern (oder Geschaeftspartnern allgemein) mit nVidia, wuerden mich auch ueberhaupt nicht wundern, es waere ja leider nicht das erste Mal (wenn man bspw. an Apple, Tesla oder EVGA denkt oder viele grosse Spielepublisher bezogen auf GeForce Now).
Sehe ich auch so.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MoinWoll, Chismon und H6-Mobs
troyan schrieb:
Bei Miles Morales und F1 22 wurden nicht die höchsten Einstellungen für Raytracing verwendet. Vor zwei Jahren bei Metro Exodus EE wurde auch nur "Normal" statt "Ultra" herangezogen.

Es werden jeweils getrennte Benchmarks mit keinem und aktivierten RT gemacht. Wieso sind dann Einstellungen, die ebenfalls massiv viel Leistung kosten (Hair-Rendering hat in der Demo in 1080p meine Frames halbiert) hier standardmäßig an? Müsste es nicht auch getrennte Benchmarks geben?
Lese nochmal meinen Satz. Ich schreibe abseits von Raytracing und du nennst zwei Beispiele mit Raytracing - das passt also schonmal nicht zusammen. Zumal bei Miles Morales und vor allem F1 22 auch mit Nvidia-GPUs die Performance nicht gerade dolle ist bei vollem RT (in F1 22 gar schlecht, der FPS-Verlust ist unglaublich groß). Das läuft dann auch nicht mehr auf vielen GeForceKarten brauchbar.

Ich kann dich bezüglich Hair-Rendering übrigens beruhuhigen. Ich kann zwar nicht von der Testszene sprechen, aber mit den Presets und damit auch der Haar-Qualität verlieren AMD- und Nvidia-Grafikkarten in der Vollversion ziemlich genau gleich viel FPS.

Davon abgesehen reduziere ich nie die Details, nur weil AMD- oder Nvidia-Grafikkarten bei einem Feature zu viel Leistung verlieren. Darum geht es da eigentlich nie. Ich reduziere die Details, wenn andernfalls ein Lager, ganz gleich welches, keine Spielbarkeit mehr erreicht oder nur noch die schnellsten Produkte. Das ist in Resident Evil 4 nicht gegeben, ganz gleich wie viel Radeon und GeForce beim Haar verlieren.


Rhino One schrieb:
Warum fehlen in euren Benchmarks immer die gpus die ich besitze? Erst hatte ich die rx6800 jetzt die 4070ti 🤣
Warte noch bis Montag :)
 
  • Gefällt mir
Reaktionen: Rhino One, Redundanz und Czk666
@HaRdWar§FreSseR

Sry die 7900XT ist eine Hervorragende Karte besonders mit die 20GB Vram und sehr gute Rasterlesitung. Dass du eine Nvidia Fan boy ist ist ziemlich offensichtlich...

Immerhin 30% mehr RT als eine RTX 3070 und bald FSR 3.0...
 
  • Gefällt mir
Reaktionen: MiroPoch, danyundsahne und C4rp3di3m
Epistolarius schrieb:
Ich hätte mal gerne gesehen, dass sich jemand mit dem Thema massiv gestiegene Anforderungen befasst, vor allem an den in diesem Jahr veröffentlichten Spielen gut zu beobachten. Die Spiele sehen häufig nicht viel besser aus, vor allem auf niedrigeren Einstellungen, welche teils immernoch Leistung ohne Ende fressen. Was sieht jetzt an RE4 Remake so viel vesser aus, dass sich das Viertel oder Fünftel der FPS von RE2/3 Remake rechtfertigt?

KONSOLEN

Jetzt kommen erstmals Spiele raus, die die neuen Konsolen gut ausLASTEN (grafisch aber noch nicht ausREIZEN)
Soll heißen, die meisten Spiele werden zwar noch mit Grafiktechnologie und Engines erstellt, die auf den alten Konsolen laufen, aber man hat sich schon Mühe gegeben im Rahmen der Möglichkeiten der Engine die Leistung der neuen Konsolen für bessere Grafik auszunutzen und nicht nur Auflösung und Framerate hochzuschrauben.

In den nächsten Jahren wird nochmal ein Schwung an Games kommen, die auf den alten Konsolen nicht mehr lauffähig sind, aber auf den neuen dafür deutlich besser aussehen.
Das Performanceprofil hingegen wird sich jetzt nicht mehr großartig ändern, denke ich.

Die mit den neuesten Spielen erreichten ~1440p 30 FPS mit FSR/TSR Upsampling und etwas Raytracing werden wohl der neue Standard sein. 1440p, 60 FPS dann ohne RT und mit reduzierten Settings.
So in etwa.

Das heißt zugleich, dass man am PC für doppelte Framerate auch logischerweise doppelte Leistung braucht.
Doppelte Leistung im Vergleich zu Konsolen geht beim PC bei einer RTX3090 erst los.

Daher die hohen Anforderungen.

Aber wie gesagt, ich gehe stark davon aus, dass sich die Grafik auf gleicher Hardware in den nächsten Jahren nochmal deutlich verbessern wird. Bisher gibts fast nur hochgezüchtete last-gen Engines und die Features aktueller Hardware werden kaum genutzt.
 
pookpook schrieb:
Sry die 7900XT ist eine Hervorragende Karte besonders mit die 20GB Vram und sehr gute Rasterlesitung. Dass du eine Nvidia Fan boy ist ist ziemlich offensichtlich...
Nein bin kein Fan boy und die 4070 ti ist die bessere gpu für mich.
Ich bleibe immer sachlich du kannst es anscheinend nicht.
Für das fanboy wurdest du gemeldet.
Schönen tag noch
Ergänzung ()

pookpook schrieb:
Immerhin 30% mehr RT als eine RTX 3070 und bald FSR 3.0...
Wann ist den dieses bald und wer sagt dass es so gut laufen wird wie das Gegenstück dazu.?
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben