• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Resident Evil 4 (PC) im Test: Benchmarks und Analysen zur Technik des Remakes

Spiele mit einer 7900xt, 1800p, 80fps, max 250 Watt. alles auf Maximum und rt an.

Es gibt nervige Ruckler, die Pfützen habe teilweise keine Reflexionen mit rt. Fps muss ich so hochsetzen weil es sich sonst ruckelig anfühlt. (Mit fps Limit auf 60 im Spiel oder im Treiber) Also ein ganz normaler Release heutzutage.

Ansonsten ist es gut gelungen und macht Spass.

Nachtrag: 75 fps sind auch OK dann ist sie bei um die 200 Watt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 9t3ndo und Mcr-King
Diablokiller999 schrieb:
Du brauchst doch ein Venn Diagramm oder?
Alle aktuellen Architekturen von Maxwell über Turing bis Lovelace, von GCN1 über RDNA bis RDNA3, von Adreno bis PowerVR unterstützen FSR! Egal ob, PC, Mobile, Konsole - theoretisch sogar die Switch! DLSS läuft nur auf Turing, Ampere und Lovelace (und die Profi-Karten)!
Zwing mich nicht, dir das aufmalen zu müssen, das kann doch nicht so kompliziert sein...
Schon deine Nerven, der kapiert das auch 3 Posts später nicht.
 
  • Gefällt mir
Reaktionen: jo0 und Diablokiller999
@mcsteph Was für eine billige Polemik. 🙄
 
peakyblinder schrieb:
Es SPRICHT keiner über die 6900XT, zum dritten Mal jetzt.
Kannst noch ein 4. Mal sagen, es macht keinen Unterschied ob jetzt übertaktete 6900XT oder die 6950XT. Die Leistung ist identisch. In deinem Video sind sie gleich auf, bei CB ist die 4070 Ti etwas schneller. Dazu geringerer Verbrauch und modernere Features. Wo das jetzt "zum Frühstück essen" ist, frag ich mich halt weiterhin.

So, BTT: Nachdem ich mich nach 30h Dead Space Remake jetzt umgewöhnen konnte, macht mir RE4 Remake so langsam richtig Spaß. Anfangs war das Movement etwas wabbelig vom Gefühl her. Schwierigkeitsgrad ist definitiv höher als noch bei Dead Space. Liegt vor allem auch daran, dass die Gegner deutlich mehr wackeln und die Horden viel größer ausfallen. Aber ich komm wieder in Übung 😁 Wie ich das damals mit 15 auf'm Gamecube mit Controller gepackt habe ist mir aber weiterhin ein Rätsel.

Grafik gefällt mir auch sehr gut. Viele Details, tolle Stimmung. Performance weiterhin sehr gut in UHD mit meiner 10GB VRAM-Karte 😉
 
  • Gefällt mir
Reaktionen: Kuestennebel79, Mcr-King, HaRdWar§FreSseR und eine weitere Person
Tommy Hewitt schrieb:
Schwierigkeitsgrad ist definitiv höher als noch bei Dead Space.
SPielst Du auf Hardcore?
Habe schon einige Streamer und Let's Player gesehen, die direkt im Dorf mehrfach gestorben sind. Und make any shot count steigert das ohenhin :D
 
  • Gefällt mir
Reaktionen: Mcr-King
Diablokiller999 schrieb:
Also alles, wie ich es seit über 25 Jahren im Bastel-Geschäft kenne - Nvidias Speicherkrüppel altern schneller und die Käufer verteidigen mit jeder Generation die geplante Obsoleszenz, dass NV keine $30 für mehr Speicher aus gibt/zu lässt. War das schon bei den TNTs so oder doch erst mit der GeForce 6? Mein altes Hirn trügt da langsam xD
Die Rivas waren damals sogar eher breiter aufgestellt, 128bit SI war ne Ansage wo viele GPUs noch mit 64bit unterwegs waren. Auch die Speichergröße war meist auf der Pro-Seite wenn mich nicht alles täuscht.

https://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units
https://de.wikipedia.org/wiki/S3_ViRGE

Ne Matrox Mystique lief auch mit 64bit SI und kam je nach Ausführung von 2-8MB Speicher.
Auch 3DFX hat lange an 64bit festgehalten, aber deren Karten waren eh special. Ich meine die Voodoo Rush hat unter dem 64bit SI für nen 2D und 3D-Chip sehr gelitten, erst die Banshee gegen Ende der 90er kam mit 128bit.
Da war die Riva TNT mit 16MB und bei der TNT2 mit 32MB noch sehr gut aufgestellt.

ATi war mit den Mach-Karten auch bei 64bit und das hat sich glaub ich erst mit den späten Rage-Karten zu 128bit geändert - als nVidia schon die GeForce draußen hatte. Allerdings waren die Rage-Karten ja oft in diesen Multimedia-Komplettsystemen zu finden...
 
  • Gefällt mir
Reaktionen: derMutant und Mcr-King
Laphonso schrieb:
SPielst Du auf Hardcore?
Nein, ich spiel eigentlich immer auf mittlerem Schwierigkeitsgrad. Im Dorf bin ich nicht gestorben, aber in diesem Tal hats mich doch 2x erwischt. Da hatte ich auch fast keine Munition mehr 😅
 
  • Gefällt mir
Reaktionen: Mcr-King und Laphonso
Laphonso schrieb:
SPielst Du auf Hardcore?
Habe schon einige Streamer und Let's Player gesehen, die direkt im Dorf mehrfach gestorben sind. Und make any shot count steigert das ohenhin :D
ich hab einen streamer gesehen der hatte die demo, also dorf in unter 2 min 50 gezockt.
um splus zu erreichen muss du verteran unter 5h spielen.


gibt viele die zocken einfach RE4 weils spaß macht und gut gelungen ist,
viele die hier amd vs nvidia bashen zocken nicht mal das game..
 
  • Gefällt mir
Reaktionen: bluna, z-R-o-, 9t3ndo und 4 andere
Micday schrieb:
ich hab einen streamer gesehen der hatte die demo, also dorf in unter 2 min 50 gezockt.
Und auf der anderen Seite des Spektrums war dann der Streamer Caranage, der kannte das Original nicht und war so panisch orientierungslos in der ersten "Kettensegen-Begegnung" und hatte u.a. - natürlich - vorher direkt die Shotgun verpasst; das hatte dann aber auch schon wieder einen gewissen und unterhaltsamen Charme :D
 
  • Gefällt mir
Reaktionen: Sirhaubinger und Micday
Laphonso schrieb:
vorher direkt die Shotgun verpasst; das hatte dann aber auch schon wieder einen gewissen und unterhaltsamen Charme :D
das ist doch klasse, bei twitch siehste live wie die streamer verkacken und panik schieben,
und das will man ja auch sehen, ich zumindest :)
macht aber auch laune so speed runner typen wie hollylp zu zuschauen die hier und da wie
aliens zocken, also für mich unerreichbar.
 
  • Gefällt mir
Reaktionen: Laphonso
Micday schrieb:
viele die hier amd vs nvidia bashen zocken nicht mal das game..
Solche Posts, vor allem in der Häufigkeit und Länge, erfordern auch einfach Zeit. Scheint für manche spannender zu sein, als das Spiel selbst 😁 Zu einem gewissen Grad erwartet man ja sowas in einem technikorientiertem Forum, aber wie oft sich hier Diskussionen im Kreis drehen. Einfach mal das Internet "ausmachen" und ignorieren schont nerven (wobei Resi 4 jetzt auch nicht unbedingt nervenschonend ist XD)
 
  • Gefällt mir
Reaktionen: Micday
Legalev schrieb:
ich habe im Moment eine 4080 verbaut.
Außerdem ist es mir egal ob AMD oder Nvidia Grafikkarte.
Bin mit beider Herstellern bis Dato zufrieden gewesen.
Ja was interessiert dich dann die 4090 Besitzer.....

Es ist nun mal legitim danach zu fragen weil es nun mal schon länger so geht etc
Wenn man die stärkste Karte weglässt...ist das nun mal nicht gerade verständlich....

Zumal die Benchmarks sowieso nicht aussagekräftig hier sind da man keine Hardwarelastige Szene genommen hat...
Wofür mache ich dann Benchmarks....
 
Martinipi schrieb:
Aber mit weniger Rohleistung und 16GB Vram wäre man heute sehr viel besser dran? Nein ...
Was ist denn das für ein künstliches Argument?
Niemand fordert diesen TadeOff. Mehr VRAM zieht doch nicht an der Leistung.
 
  • Gefällt mir
Reaktionen: Redundanz und JackTheRippchen
VRam kann man heut anscheinend nicht genug haben.
Also ich würde eher weniger FPS in kauf nehmen und dafür de texturen hochschrauben können,statt wegen vRam Mangel matsche zu haben..

Trotzdem geht das hier mittlerweile in eine ganz falsche richtung,wie sieht das denne erst bei den kommenden UE5 spielen aus?
 
  • Gefällt mir
Reaktionen: Schinken42, Redundanz, JackTheRippchen und 2 andere
pookpook schrieb:
Sachlich bist du nicht... Immer was AMD macht ist bei dir schlecht! Die 7900XT ist meine erste AMD Karte seit 2013!
Mag sein die 4070Ti ist bei dir besser aber für mich die 7900XT...
Ich bleibe immer sachlich bis auf eine Ausnahme( Razer mauspad) für 120 Euro dort wurde ich verwarnt.^^ Ist doch ok wenn du damit zufrieden bist wünsche dir viel spaß damit.

Das sind von die irgend, welche Behauptungen das ich von AMD alles schlecht mache.
Die aktuellen GPUs finde ich nicht gut genau so, wie ich die aktuellen Prozessoren von Intel nicht gut finde.

Die Nummer eins Gaming-CPUs: ist aktuell AMD und die Nummer eins bei den GPUs Nvidia.
So einfach ist das, da kann man nicht was anderes behaupten, das sind fakten.

pookpook schrieb:
Punkt ist die RTX3070 hat die 8GB gebremst. Schon fing es an mit Doom Eternal mit RT unter 30FPS in 3440 x1440 ging gar nicht. Die 12GB mit die 4070TI ist in manche Spiele jetzt schon knapp..(Hogwarts Legacy usw)
Bitte vergleich eine 8-GB-Karte nicht mit der 4070 Ti ,beide Karten spielen in den verschiedenen Leistungsklassen. Der Speicher sagt nicht über die Leistung einer Karte aus. Hogwarts läuft bei mir ohne Probleme alles Max plus RT kein Ruckeln.

pookpook schrieb:
Fakt ist RE Engine laüft besser auf AMD Hardware genau wie Cyberpunk 2077 auf Nvidia Hardware.
Thema RT mit die Unreal5 Engine mit Lumens (anderen weg RT dazustellen) laüft es besser auf eine 7900XT als eine 4070ti....
Und deshalb disqualifiziert es den Kauf einer 4070 Ti weil spiel x besser abschneidet wie auf der anderen Karte. Das sind immer die Zukunftswünsche von Radeon Besitzer, ja in Zukunft wird alles besser und das finde ich traurig und genau darum keine Radeon mehr bei mir und meine Kritik an AMD.

Ergänzung ()

Taxxor schrieb:
Und die 4070Ti ist in 1440p ~10% schneller als 3090 und 6950XT und mit 12GB wird es in 1440p auch noch länger ausreichen.
Bringt leider nichts hier mit fakten zukommen Mann widerlegt so einiges sachlich und wird als Fanboy abgestempelt und von den Mods bekommst du dann zu lesen: Das ist kein Regelverstoß. Dem Ganzen einfach kulant und argumentativ begegnen oder es ignorieren.

Mit dem argumentativ begegnen kommt man hier nicht weit.
Ergänzung ()

peakyblinder schrieb:
In 1080p und 1440p. Von 4K war nicht die Rede.
Sorry, woher soll ich wissen, welche Auflösung du meinst bin kein Hellseher und nein, selbst dort ist die 4070 TI auch schneller.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: demoin
kratos31 schrieb:
Zumal die Benchmarks sowieso nicht aussagekräftig hier sind da man keine Hardwarelastige Szene genommen hat...
Wofür mache ich dann Benchmarks....
Sei doch bitte so nett und erkläre Wolfgang wie es richtig geht. Danke
 
  • Gefällt mir
Reaktionen: jo0, JackTheRippchen, HaRdWar§FreSseR und eine weitere Person
Tommy Hewitt schrieb:
Kannst noch ein 4. Mal sagen, es macht keinen Unterschied ob jetzt übertaktete 6900XT oder die 6950XT. Die Leistung ist identisch. In deinem Video sind sie gleich auf, bei CB ist die 4070 Ti etwas schneller. Dazu geringerer Verbrauch und modernere Features. Wo das jetzt "zum Frühstück essen" ist, frag ich mich halt weiterhin.
Danke, ich hatte es aufgegeben. Es geht dabei nicht um Fakten. Auch bzgl des VRAM gibt es auch diverse Themen wie Speichermanagement , allokierter vs benötigter Speicher etc. aber es erscheint mir hier gerade sinnlos und ist ja auch OT
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Kuestennebel79 schrieb:
Auch bzgl des VRAM gibt es auch diverse Themen wie Speichermanagement , allokierter vs benötigter Speicher etc.
Gerade VRAM ist ja ein Thema, das hier ja dazu passt wenigstens. Und hier scheint es bei den Spielen auf Basis der RE Engine doch einiges an Unwissen zu geben bei den Texturen-Settings. Dass einer Karte mit 8GB der VRAM ausgeht, wenn man den Texturen-Cache auf 8GB einstellt, ist ja jetzt wenig verwunderlich. Die Option muss man halt entsprechend der eingesetzten Karte wählen. Hat auch keinen Einfluss auf die Optik. Ist allerdings auch ziemlich blöd von Capcom umgesetzt, sowas sollte die Engine selber zuweisen. Und vor allem, dass das Spiel abstürzt, wenn man es hier übertreibt, ist weiterhin ein absolutes Nogo.
 
  • Gefällt mir
Reaktionen: Cohen, Kuestennebel79 und HaRdWar§FreSseR
Poati schrieb:
Naja es wird dann halt Zeit für eine neue Karte.
Eher Zeit für den anderen Hersteller. Nvidia scheißt seit Jahren auf Nachhaltigkeit im Sinne ihrer Shareholder, indem die Lebenszeit der Grafikkarten durch VRAM-Unterdimensionierung künstlich verkürzt wird.

Dass es auch mal anders ging, zeigt die GTX 770 4GiB (Gebrauchtkauf) meiner Frau: sie konnte damit selbst Shadow of the Tomb Raider noch vernünftig spielen. Die Standard-2GiB-Variante hätte ich auf Kleinanzeigen selbst mit Kneifzange nicht angefasst.
 
  • Gefällt mir
Reaktionen: Redundanz
.Sentinel. schrieb:
(nein- keine UE4 One- Klick- Integration)
Genau darum ging es mir auch, in die Unreal Engine zwar integriert/interfaced, aber trotzdem braucht es mehr Arbeit, weil es komplexer ist.

Es ist ja nicht so, als ob Du die KI-Optimierung da herauslassen kannst und ja klar, FSR 2 hat nun eben auch spatiale und quasi-temporale Komponenten (im Gegensatz zu FSR 1, spatial algorithmisch begrenzt beim Upscaling auf jeweils einen Frame), aber trotzdem nicht auf dem Level wie nVidias DLSS 2.X, denn sonst wuerde es nicht auch gut auf aelteren Radeon Karten (vor RDNA3) laufen, wohingegen bei nVidia eben Tensor Kerne ein Muss sind (vor Turing laeuft da nichts mit DLSS).

Das ist doch ein Wink mit dem Zaunpfahl und dann auch immer noch Grund, weswegen das anders ausgelegte (zusatzkernelos funktionierende und damit schlankere) FSR 2.X nicht ganz an das (zusatzkernebasierte, umfangreicher zu optimierende) DLSS 2.X in den meisten Faellen heran kommt (auch wenn man da teilweise schon mit einer Lupe unterwegs sein muss um Unterschiede zu finden, was natuerlich aberwitzig ist.

Welcher Gamer nimmt sich im Spiel die Auszeit - insbesondere von vielen juengeren Speedrunnern, die (kompetitiv verblendet?) nur noch durchhetzen ohne den Content (Story, Grafik/Artwork, Sound, etc.) zu geniessen - und sucht danach minutenlang (abgesehen von Entwicklern und Upscaling-Technik-Testern)?


.Sentinel. schrieb:
Du musst für DLSS nichts zahlen.

Zahlen oder mehr kosten im Sinne von Mehraufwand/Entwicklungszeit (Zeit ist Geld); natuerlich kostet das nichts als Entwicklungswerkzeug extra, dann wuerden es sich noch mehr Entwickler sparen es zu integrieren (und einfach wieder ressourcenschonender programmieren).

Somit ist das definitiv ein Argument bei der Spielentwicklung, egal ob es um Resident Evil 4 oder Boundary oder andere zukuenftige Titel geht. Ob das wirklich den Ausschlag gegeben hat und daraus ein Trend bei kleinen und grossen Entwicklern wird, sollte man natuerlich abwarten.

.Sentinel. schrieb:
Nicht immer setzt sich der überlegene Standard durch.

Das ist wahr, wobei die Frage ist, ob DLSS wirklich ueberlegen ist, denn ja, das Endergebnis mag marginal besser sein, aber der groessere Aufwand der aelteren Technik (platzraubende Kerne muessen dafuer in dGPUs verbaut sein, man muss die KI trainieren und Server dafuer unterhalten, etc.) und die geringere Kompatibilitaet eher keine Ueberlegenheit im Vergleich zu FSR ist und somit fuer letztere Upscaling Technik insgesamt sprechen wuerde.

Wenn der qualitative Nutzen von DLSS - wie jetzt - nur marginal bleibt fuer einen deutlich kleineren Nutzer-/Kundenkreis als bei FSR oder XeSS, dann reiht sich das wie etwa der C-64 (technisch dem Schneider CPC 464/664 oder auch Atari 800XL damals auch deutlich unterlegen) eher in die Kategorie, welche Technik ist am Markt breiter aufgestellt/kompatibler ein.

.Sentinel. schrieb:
An welche Tensor- Cores hätte denn die DLSS API die Instruktionen bei AMD schicken sollen?

Man haette die Upscaling-Technik wie AMD/RTG mit FSR vorher von vornherein bei nVidia ja auch offen und nicht Tensor-Kerne-propriertaer entwickeln koennen.

nVidia hat da eine lange unruehmliche Historie bzgl. propriertaere Techniken um Marktanteile/-dominanz gewinnen zu koennen, nicht nur das zwar noch existente aber durch den Aufpreis und mangels Verbreitung (im Vergleich zu Free-Sync) wenig relevante G-Sync oder man denke an die Gameworks Features wie bspw. Hairworks (um die Konkurrenz schlechter aussehen zu lassen, wobei dann AMD/RTG mit TressFX ein besseres und effzienteres Gegenstueck geboten hat) oder lange auch das gehypte Phys-X (welches sang- und klanglos in der Versenkung verschwunden ist und dabei hatte ich mich auch damit noch bei meinem Kepler-GPU Kauf noch locken lassen).

.Sentinel. schrieb:
anhand von der FG von FSR 3 sehen wo da der Hund begraben liegt.

Warten wir es ab, denn FSR 3 duerfte nach dem was ich bisher darueber lesen konnte auch wieder komplett anders aufgebaut sein als DLSS3.

Wenn man bei AMD/RTG die vorherigen Versprechen, dass es auch noch auf RDNA2 (evt. auch RDNA1 und ab nVidia GTX Pascal und Intel Arc Alchemist) laufen soll, dann muss die FSR 3 Frame-Interpolationstechnik (nicht Frame-Generationstechnik wie bei DLSS3) ja auch anders funktionieren/entwickelt worden sein.

Wie gut FSR 3 bisher laeuft bzw. fortgeschritten ist auf den Karten unterschiedlicher GPU-Chip-Entwickler (was eine deutlich groessere Leistung sein duerfte als das was DLSS 3 bei nVidia bisher nur die Ada Lovelace Archtiektur bereit gestellt hat) natuerlich ausserhalb AMDs/RTGs bisher nicht einschaetzbar, aber deswegen wird es wohl - wie auch zuvor angekuendigt - auch noch bis Ende der zweiten Quartals (evt. kommt es dann zeitgleich mit den Navi 32/33 RDNA3 Grafikkarten-Martkstarts) optimiert werden.

Am Anfang duerfte FSR 3 mit Sicherheit noch buggy sein, aber das war und ist bei DLSS3 (mit deutlich weniger Optimierungsaufwand auf unterschiedliche GPU-Architekturen) ja auch so.

Ich freue mich jedenfalls trotzdem darauf und dass AMD/RTG keine Daeumchen drehen bei der Feature-Entwicklung und m.M.n. mindestens genauso aktiv wie nVidia sind (trotz deutlich kleinerer Belegschaft und weniger Ressourcen) zeigt ja auch die (neben FSR 3) angekuendigte FidelityFX SDK Erweiterung ;).

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jo0, .Sentinel. und 9t3ndo
Zurück
Oben