• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Systemanforderungen: Resident Evil Village hat erst mit Raytracing Hunger

Ja wir wissen, dass AMD mit RT auf Turing Niveau ist und somit schwächer als Ampere.

Ich freu mich aufs Game auch ganz ohne RT! Bäätsch! :D
 
  • Gefällt mir
Reaktionen: DannyA4
Maddyson schrieb:
Ich deaktiviere immer Raytracing, weil ich keinen Unterschied sehe
kostet nur sehr viel FPS
hm dann solltest du das pc spielen lassen wenn du da keinen unterschied siehst :D
 
  • Gefällt mir
Reaktionen: ChrissKrass
DarkInterceptor schrieb:
@.Sentinel. @Shoryuken94
ja gut dann etwas anderes ausgedrückt. die gpu hat RT cores und selbst damit frisst es leistung. wozu dann die RT cores? wenn selbst eine 1080ti eine RT leistung einer RTX2060 (quelle such ich noch) auf den tisch bringt, wozu werden dann mehr oder weniger dedizierte ray tracing einheiten genutzt? könnte dies nicht anders/besser gelöst werden?
Und, schon was gefunden?
 
Maddyson schrieb:
Ich deaktiviere immer Raytracing, weil ich keinen Unterschied sehe
kostet nur sehr viel FPS
Kommt aufs Spiel und aufs Genre an. Bei einem schnellen MP-Shooter wie CoD --> Raytracing unbedingt aus. Wenn Raytracing nur Schatten beeinflusst, dabei aber viel FPS frisst --> ebenfalls aus. Wenn es dagegen in einem Singleplayer-Spiel (wo 60 FPS dicke ausreichen) die Grafik signifikant aufwertet wie in Cyberpunk oder Control --> definitiv an. Möchte bei letzteren RT nicht mehr missen.
 
foo_1337 schrieb:
Hört vielleicht nun das Mimimi von wegen "Für nvidia optimierte Raytracing Titel" auf?
Die 6900XT mit RT auf Niveau der 3070 sieht man nämlich in bisher fast allen Raytracing Games genau so. Aber da hieß es ja dann immer, dass das daran läge, dass auf Nvidia optimiert wurde.

Also ich persönlich habe auch immer bisher gesagt, NV RT angepasste Titel (was definitiv so ist allen voran Control, außer bei WoW und Dirt 5), jedoch bei der ersten Vorstellung von RE V mit RT und Fidelity FX im entsprechenden Thread hier gesagt, jetzt kann sich RDNA 2 beweisen und wir sehen wo diese wirklich unter RT stehen. Ließ unten weiter wenn du weiter interessiert bist ;)


Ganjafarmer schrieb:
Hoffe der Satz ist richtig gegendert 😁

Gegendert? Sorry, ich habe zwar gerade ne AMD Karte (was lange Jahre nicht der Fall war), bin ich aber keinerlei Fanboy, egal von wem. Aber vielleicht gegendert es dir wenn du siehst, dass AMD mit der ersten RT Generation schon mal schneller als Nvidias erste RT Generation ist und auf Augenhöhe mit der Einsteiger zweiten RT Generation ist (und ja kann man als Vergleich herbei ziehen aufgrund der Tatsache, dass beide unterschiedliche RT Ansätze haben und so beide bei 0 angefangen haben und AMD nicht "Tensor Cores" einfach kopiert hat). Was ist also daran so schlimm bzw. wie du es meintest "gegendert"?

Vielleicht mag es Leute gegeben haben, die zukünftiges RT bei RDNA 2 schon vorab in den höchsten Tönen gelobt haben oder irgendwelche Illusionen hatten, aber die Mehrheit der Leute hier ist doch eher objektiv. Besser du nimmst diese als Referenz als die anderen "Illulisten" (keine Ahnung gerade ob es das Wort gibt 😂).


EDIT: Aber ja, etwas mehr RT Leistung habe ich schon von der 6800 XT und 6900 XT erwartet, eher das 6900 XT auf Augenhöhe mit 3080 und 6800 XT auf 3070 Niveau liegt. Aber auch mit der RT Leistung einer 3070 kann man aktuell gut auskommen - bis auf den "nur" 8 GB großen VRAM der gerade mit RT schnell ausgeht im Gegensatz zur 6800 XT/6900 XT 😂 . Und dann fällt die 3070 deutlich zurück.....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
EDIT: Aber ja, etwas mehr RT Leistung habe ich schon von der 6800 XT und 6900 XT erwartet, eher das 6900 XT auf Augenhöhe mit 3080 und 6800 XT auf 3070 Niveau liegt. Aber auch mit der RT Leistung einer 3070 kann man aktuell gut auskommen - bis auf den "nur" 8 GB großen VRAM der gerade mit RT schnell ausgeht im Gegensatz zur 6800 XT/6900 XT 😂 . Und dann fällt die 3070 deutlich zurück.....
 
MMIX schrieb:
Gegendert? Sorry, ich habe zwar gerade ne AMD Karte (was lange Jahre nicht der Fall war), bin ich aber keinerlei Fanboy, egal von wem. Aber vielleicht gegendert es dir wenn du siehst, dass AMD mit der ersten RT Generation schon mal schneller als Nvidias erste RT Generation ist und auf Augenhöhe mit der Einsteiger zweiten RT Generation ist (und ja kann man als Vergleich herbei ziehen aufgrund der Tatsache, dass beide unterschiedliche RT Ansätze haben und so beide bei 0 angefangen haben und AMD nicht "Tensor Cores" einfach kopiert hat). Was ist also daran so schlimm bzw. wie du es meintest "gegendert"?

Er bezog sich auf "Hardcorefans/ -innen"

https://de.wikipedia.org/wiki/Gendern
 
  • Gefällt mir
Reaktionen: Ganjafield
Pisaro schrieb:
Bin auf das neue Resident Evil gespannt. Wollte mir eigentlich das RE3 Remake holen, aber so wirklich gut scheint das nicht zu sein.
Es ist nicht schlecht, nur etwas kurz. Für die 20€ im Sale kann man aber imo durchaus zuschlagen
 
Vor allem sehe ich hier niemanden mit einer Radeon, der mimimi macht. Hat wohl selber ein Problem damit, das RT bei 99% der Titel 0 Relevanz besitzt. Kann ja schön weiter in seiner Blase mit 5 RT titeln leben (ich weiß, es sind mehr aber welcher Titel davon hat 2021 noch Zugkraft? Cyberpunk hatte das potential zur killerapp.. vertan). Ich habe mir meine Graka nach Rasterleistung gekauft, weil RT aktuell noch irrelevant erscheint und da liegt RDNA2 sehr gut auf.
Und zu sagen das RDNA2 nicht für RT taugt stimmt auch nicht, denn sonst könnte man das auch zu allen Ampere 3070 und darunter auch sagen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Thor-75 schrieb:
cyberpunk 2077 mit rt und alles auf ultra. nur als beispiel.

mit einer 3060ti? in 720p mit dlls an?

ich habe hier zwei rechner: 3900x+3080 und 5900x+6900. die visuellen unterschiede sind nicht sooo gewaltig mit rt on/off aber bei 2560x1440 geht die 3080er doch arg in die knie (dlss qualität). und da wilst du mir erzählen, mit deiner karte vernünftig (darum ging es) cp2077 zocken zu können :o
 
  • Gefällt mir
Reaktionen: Mcr-King
PTS schrieb:
ich selbst habe ein i7 3770k auf 4,7ghz laufen und eine EVGA 1070 verbaut, da würdest wahrscheinlich auch sagen das der CPU bremst ne? Tut er aber nicht, in keinem Spiel! Kannst mir aber gerne das Gegenteil beweisen =)
Diablo 3 akt 3 bridge of korsikk ruckelt mit dem Museums Stück vor sich hin.
Als der 2700X drin war, war der Mist weg. Ich hoffe du hast ihn wenigstens geköpft, getaktet und mit 2400Mhz RAM versorgt, sonst ist er ja noch langsamer.
StarCraft 2 geht auch fast sofort ins CPU Limit und World of Tanks mit der Engine vor 1.0 genauso
Das war durchaus mal eine gute CPU, die Zeit ist aber nach mittlerweile 9! Jahren einfach vorbei.
Spätestens mit den Ryzen Zen+ / Intel 8000er sehen die nur noch die Rücklichter.

Genauso wie die 1000er Generation von Nvidia, die deutliche Probleme bei DirectX12 und Vulkan hat, stößt bei aktuellen Titeln immer mehr auf Probleme.
Es ist nicht so, dass neue Hardware nur ein paar Prozent oder 20-30% Vorsprung bringt.
Zu einem 5600X mit 3070, was in etwa der gleichen Klassifizierung entspricht, ist der Unterschied ein vielfaches der Leistung.
 
  • Gefällt mir
Reaktionen: Tyr43l
Thor-75 schrieb:
cyberpunk 2077 mit rt und alles auf ultra. nur als beispiel

Alles klar, da sagen die CB Benchmarks was anderes. Ausser du findest 30-40 FPS (mal geschätzt) super... Zumindest 60 FPS packst du nicht dauerhaft.
 
Pisaro schrieb:
Alles klar, da sagen die CB Benchmarks was anderes. Ausser du findest 30-40 FPS (mal geschätzt) super...
59 FPS.
 

Anhänge

  • Unbenannt.png
    Unbenannt.png
    4,8 MB · Aufrufe: 340
  • Gefällt mir
Reaktionen: Pisaro
jap FullHD langt mir auch. Durchschnitt sind es 50 bis 60FPS.
 
  • Gefällt mir
Reaktionen: 8087 und Pisaro
F4711 schrieb:
Und zu sagen das RDNA2 nicht für RT taugt stimmt auch nicht, denn sonst könnte man das auch zu allen Ampere 3070 und darunter auch sagen.

Wie ich sagte, Nvidia hat ganze zwei (!) RT Grafikkarten, die genügend native Leistung haben, 3080 und 3090. Die 3070 kann man in neueren RT Games vergessen, Stichwort 8 GB VRAM. Da ist selbst die 3060 mit 12 GB schneller. Und was kommt nach 3090 und 3080 dann, richtig Radeon 6900 XT und 6800 XT.

Bei der 3070 hat man halt noch DLSS und kann das kompensieren, rein von der nativen Leistung (also was die Architektur ohne "Tricks" her gibt) sind die Radeons sogar schneller und drittschnellste Kraft - für die erste RT Generation wohlgemerkt.
 
Lindar schrieb:
mit einer 3060ti? in 720p mit dlls an?

ich habe hier zwei rechner: 3900x+3080 und 5900x+6900. die visuellen unterschiede sind nicht sooo gewaltig mit rt on/off aber bei 2560x1440 geht die 3080er doch arg in die knie (dlss qualität). und da wilst du mir erzählen, mit deiner karte vernünftig (darum ging es) cp2077 zocken zu können :o
Was erzählstn du für ein Käse? Wo steht in 720p bei mir? Junge Alle Details auf Ultra RTon mit DLSS 50 bis 60FPS in FullHD. Ohne waren es 35 FPS. Und ja ich finds ok 60FPS. Kann mich hier an Beiträge erinnern da fanden welche 25FPS als ausreichend. Screenshot hab ich eingefügt oder willste noch ein Video.

Immer dieses rechtfertigen. jeder hat andere empfindungen was das angeht. soll auch leute geben die ruckeln sich mit 20fps durchs spiel aber hauptsache 4k bildschirm.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: bad_sign
Zurück
Oben