• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Resident Evil Village: Hervorragende Performance auch mit Raytracing

@Wolfgang "Was leider fehlt, ist eine Option für spielinternes Down- und Upsampling."
Das ist die Option "Bildqualität", standardmäßig auf "1(.0)", selektiert und inklusive Beschreibung zu sehen in eurem zweiten Screenshot auf Seite 1. Das war bei den anderen RE Engine-Spielen auch schon so.
 
  • Gefällt mir
Reaktionen: Czk666 und B3nutzer
Laphonso schrieb:
Nächster Zustieg in den unaufhaltsamen Raytracing Bus:
  • Far Cry 6
  • Formel1 2021
  • Witcher 3

= 💯Prozent Vorfreude :D
Weiß hier jemand wann Far Cry 6 endlich rauskommen soll?
Auf Witcher 3 bin ich auch gespannt mit den Lamdscapes und unter bzw aufgehenden Sonne kann man da viel reißen.
 
  • Gefällt mir
Reaktionen: Laphonso
=dantE= schrieb:
Ohne mir jetzt alle Kommentare hier, und Tests im sonstigen Netz angeschaut zu haben ...
@Wolfgang Wird 32:9 unterstützt?

Danke für die Info.

Gruß,
=dantE=

Habe die Demo auf dem G9 gespielt und 32:9 funktionierte reibungslos.
 
  • Gefällt mir
Reaktionen: =dantE= und Laphonso
Das immer gleich alles hier in ein NVIDIA vs AMD Duell ausarten muss. Ist doch schön zu sehen was geht wenn ein Spiel ordentlich optimiert ist, dann läuft es nämlich überall gut spielbar, schlimm genug das es einige Schinken so bescheiden programmiert sind das eine Seite einen großen Vorsprung überhaupt erst bekommen kann. Mal schauen wie das gehate vorwärts geht falls Intel doch mal eine GPU bringen sollte, vermutlich alle erstmal gegen blau und der Rest kratzt sich nachher die Augen aus. Traurig und amüsant zu gleich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Larnak, milliardo, Volvo480 und eine weitere Person
Taxxor schrieb:
In einem anderen Thread wurde ich mal berichtigt, als ich
Du hast oben 330asic=390gesamt geschrieben, a little bit too much.
Die XFX in dem Video, wo die Screenshots herkommen ist eigentlich sparsam.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Ich konnte in diesem Technik Test kein einziges Wort zum Sound lesen:

Ist Dolby Atmos mit an Board?
 
  • Gefällt mir
Reaktionen: Laphonso
Fighter1993 schrieb:
Weiß hier jemand wann Far Cry 6 endlich rauskommen soll?
Leider nein :-(
1620237088038.png


Dank des 5950x bekam ich die Zen 3 Far Cry 6 Promo mit, aber da gibt es seit November 2020 immer noch kein Datum, nur TBD...
 
Onkel Föhn schrieb:
Finde auch den Vergleich bzgl. Verbrauch interessant. Die 3090 verbratet über 400 Watt und die 6900XT genehmigt sich 330 Watt. Auch die AMD CPU´s machen einen guten Job. Der 5950X bis 5050 MHz und der 5800X schafft Taktraten, jene für einen 5800XT (ZEN 3+) prognostiziert wurden mit 4,0/5,0 GHz Base/Boost.

MfG Föhn.
Das ist doch nicht dein ernst? Du wunderst dich, dass der Verbrauch beim OC steigt?!
Bang4BuckPC Gamer hat ein ordentlich übertaktes System mit Wakü. Natürlich zieht das auch dementsprechend Saft aus der Dose. :freak:

Der Typ hat auch jeden Tag ne neue GPU/CPU im Rechner. Natürlich taktet ein handverlesener 5950X mit starken OC unter Wasser auch entsprechend hoch...
 
Taxxor schrieb:
Das liegt daran, dass es bei Nvidia der Verbrauch der Karte ist, und bei AMD nur die ASIC Power.

330W ASIC entsprechen ca 390W TBP, analog zu den Stock 255W ASIC, die 300W TBP entsprechen.

Warum wird das zwischen AMD und Nvidia immer noch so häufig falsch verglichen, wo es doch schon über 10 Jahre lang so ist?
Dachte der Unterschied liegt lediglich bei den Angaben beider Hersteller.
Aber bei den Screenshot wird doch der Verbrauch von beiden Karten gleich gemessen,
oder etwa nicht ?!? :confused_alt:

MfG Föhn.
 
GerryB schrieb:
Du hast oben 330asic=390gesamt geschrieben, a little bit too much, oder Wo sollen gerade mit weniger Abwärme auf einmal 60W für VRM´sund Lüfter herkommen?

300W TBP vs 255W ASIC = Faktor 1.18

VRMs mit einer Effizienz von 89% verursachen bei 255W ASIC Power ca 30W zusätzlichen Verbrauch der Karte, die restlichen ~15W kommen von anderen, teils statischen Verbrauchern auf dem PCB.

Wenn wir nun 330W ASIC Power haben, dann sind das alleine für die VRMs schon 40W zusätzlicher Verbrauch.

Aufgrund der verbleibenden Verbraucher kann man den Faktor aber jeweils etwas anpassen, z.B. 1.2 wenn die ASIC Power niedriger ist, oder 1.16 wenn sie höher ist. Dann wären es ca 385W
 
  • Gefällt mir
Reaktionen: MoinWoll
Ich finde die Bilder ohne Raytracing zum Teil schöner! Ich weiß nicht geht es sonst jemanden auch so?
 
  • Gefällt mir
Reaktionen: edenjung
Onkel Föhn schrieb:
Dachte der Unterschied liegt lediglich bei den Angaben beider Hersteller.
Aber bei den Screenshot wird doch der Verbrauch von beiden gleich Karten gemessen,
oder etwa nicht ?!? :confused_alt:

MfG Föhn.
Nein der Screenshot ist nichts, was vom Nutzer gemessen wurde sondern das, was Tools aus den Karten auslesen.
Nvidia überträgt hier direkt den kompletten Karten Verbrauch, AMD nicht.
Bei den offiziellen Angaben gleichen sie sich, AMD gibt 300W TBP an und Nvidia sagt 350W, das ist jeweils der Kartenverbrauch. Nvidia zeigt diese 350W aber auch als Sensor an, während es bei AMD nur 255W sind.
 
  • Gefällt mir
Reaktionen: MoinWoll und Onkel Föhn
Fighter1993 schrieb:
Der Laphonso wieder.
RT bringt hier einen Mehrwert weil es damit noch spielbar ist.
Kla ist es in Cp2077 auch ein Mehrwert, sollte aber ohne dlss nicht eingeschaltet werden da sonst unspielbar...
60 FPS sind also unspielbar? Alles klar :daumen:
 
Freue mich schon! Hab die Demo vor 3 Tagen durchgezockt (Schloss u. Dorf) und es hat mir sehr gut gefallen. Schöne Grafik, tolles Design und Atmosphäre der Schauplätze (man kommt sich wirklich vor wie in so einem alten Horror-Schinken der Hammer Studios). Hatte alle Regler nach oben in WQHD, mir hat die Grafik sehr gut gefallen, habe jetzt aber auch nicht einen Grafikhammer erwartet wie Cyberpunk, Assassins Creed oder RDR2.
Finde mal auch toll das man auf Zombies verzichtet hat und so klassische Horror-Charakteren wie Werwölfe und Vampire genommen hat. Dazu auch ein richtig geiles Schloss (für mich die beste Location seit dem Herrenhaus aus Resi 1 und dem spanischen Dorf und Burg aus Resi 4)!
Freu mich, werde wohl am Samstag bei MMOGA zuschlagen und mir abends nach Einbruch der Dunkelheit das Game reinziehen ;)
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Vitali.Metzger schrieb:
Ich bezahle 43€
Bei Gamivo heute unter 40€ zu bekommen.

Einen neuen grafischen Meilenstein setzen kann das Spiel aber nicht.
Also gerade das Innenlevel der Demo, der Raum mit dem Kronleuchter, sowas hab
ich noch nicht gesehen in einem anderen Spiel, aber ich nehme auch nicht für mich
in Anspruch, bereits alle Spiele gespielt zu haben. Für mich ist das schon 10/10:

1620237115889.png


Aber Außenlevel jedoch sind weniger hübsch, da wäre deutlich mehr drin gewesen.

1620237034931.png


Dennoch muss man sagen: Neues Triple A Spiel und es läuft mit allem auf Max in
WQHD auf einer 1660 Super für damals 250€, das ist mal ein Wort. Zum Beispiel ein
Monster Hunter sieht imho nicht so gut aus und braucht ca. doppelt so viel Leistung.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Taxxor schrieb:
300W TBP vs 255W ASIC = Faktor 1.18

VRMs mit einer Effizienz von 89% verursachen bei 255W ASIC Power ca 30W zusätzlichen Verbrauch der Karte, die restlichen ~15W kommen von anderen, teils statischen Verbrauchern auf dem PCB.
Quelle?

Nach m.E. wäre 330-->380 schon viel. (aber wg. 5W brauchen Wir uns net streiten)
Die XFX ist schön kühl, Was die Spawas lieben, nur mal so als Anmerkung.
(net so ein Schrott wie die 3080FE)
 
owned139 schrieb:
60 FPS sind also unspielbar? Alles klar :daumen:
Welche KArte bekommt denn in Cyberpunk 60FPS ohne DLSS hin?
Ergänzung ()

GerryB schrieb:
Ist das, was Igor auch immer bei seinen Berechnungen nutzt, immer irgendwas zwischen 87% und 89%, höher aber nie, also meine Rechnung gerade war schon Best Case.
Könnte man jetzt auch nachlsesen, wenn man sich die genaue Bauteilbezeichnung raus sucht, aber ich vertraue Igor da mal.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MoinWoll
Wäre mir neu. Vielleicht in manchen Szenen.
 
Zurück
Oben