Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestCall of Duty: Vanguard im Test: Mit schnellen GPUs gibt's was fürs Auge
Call of Duty: Vanguard kann ein unglaublich hübsches Spiel sein. Vor allem die kurze Kampagne weiß optisch zu überzeugen. Wie Benchmarks zeigen, benötigt es dafür nicht gleich eine High-End-Grafikkarte. Darüber hinaus wirft ComputerBase einen Blick auf AMDs FSR und Nvidias DLSS.
Ich fand die Beta leider schon sterbenslangweilig. Spielt sich halt zu 99% wie die anderen teile der letzten Jahre mit neuen Skins. Die Performance scheint auf den ersten Blick ganz okay zu sein. Die Beta lief auch okay.
Die super hübsche Grafik, die im Test angesprochen wird, sehe ich zwar nicht so ganz, aber okay. Was Sie sehr gut machen, die fangen extrem gut Stimmung ein und es wirkt sehr atmosphärisch. Rein von der Grafikqualität sieht mir das nach gutem Mittelmaß im Jahr 2021 aus. Auch in den ganzen Videos online.
Den Singleplayer würde ich für einen 20er mal nachholen. Der Hauptteil, also der Multiplayer lässt mich aber kalt. Vollpreis gebe ich auch nicht für einen Multiplayer aus, der sich wie ein Free 2 Play Spiel anfühlt.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ist hier bei Computerbase leider normal geworden. Schade das es keine aufwendigen Tests unterschiedlichen Systemen und Spieleeinstellungen gibt. Die Games haben soviel optimierungspotenzial in den Einstellungen für kleine Hardware. Nur spricht kaum jemand darüber.
Der Schärfefilter von FSR ist AMD einfach extrem gut gelungen. Finde den deutlich besser als CAS oder Nvidias Sharpening, weil er so gut wie keine typischen Nachschärfungsartefkate erzeugt.
Beim eigentlichen Upscaling kann AMD aber eben leider gar nix mit FSR reißen, was ja auch logisch ist.
Nvidia sollte dringend am Sharpening Filter arbeiten. So genial die Rekonstruktion auch ist, gerade der Quality Modus könnte ohne großen Aufwand zumindest rein subjektiv besser aussehen, wenn man nen besseren Scharfzeichner hätte.
Das was FSR überhaupt erst rettet und erwähnenswert macht, wird bei Nvidia praktisch komplett ignoriert.
Na ja, vielleicht dann mit DLSS 2.4
Dass mal wieder die Mips falsch geladen werden ist ein Armutszeugnis. Das Problem gabs schon bei Cold War und sorgte für matschige Texturen.
Leider wieder so ein Test, wo einfach nur alle Regler nach rechts geknallt wurden, ohne andere Einstellungen oder Presets zu testen. Schade... Für mich ist der Test darum leider nicht relevant und eine verpasste Chance wie ich finde.
Ich sehe gerade das ja selbst mit 4K die franetimes bei AMD besser sind.
4K war doch DIE ampere Auflösung (bis auf den vram😆) aufgrund ihres Treiber overheads. Wie kann denn nun AMD mit ihrem „krüppel“ Speicherinterface da so gut mithalten, gar überholen?!
Wenn man dann noch den Verbrauch mit einbezieht, würde man vermutlich nur noch den Kopf schütteln.
Meine Erfahrung war, das die 3090 mindestens 50-70watt mehr verbrät als die 6900xt, bei annähernd gleicher Leistung im Sinne von fps.
Das wäre doch was, wenn zukünftig im bench nicht nur endlich der Takt der GPU im Diagramm dran stehen würde, sondern auch noch der Verbrauch der GPU. Dabei reicht der ca. Durchschnitt ja völlig aus.
hatte zuletzt von ww2 die kampagne durchgezockt (zocke seit teil eins jede kampagne durch wenn vorhanden) und war relativ gut unterhalten. gut inszeniert und grafisch ok, aber irgendwas fehlt da mir mittlerweile.... hat mich alles nicht mehr vom hocker gehauen.
die luft ist wohl raus und auch der online part hat lange nicht mehr die strahlkraft wie früher.
die kuh ist auch irgendwann mal ausgemolken
Also. Hab den Singleplayer wie für mich üblich zwar (noch) nicht gezockt, aber den Multiplayer find ich mega gelungen. Endlich kann man mal wieder anständig snipen!
Das Spiel wird wahrscheinlich eher für die Konsole optimiert sein. Da in den Konsolen mittlerweile auch RDNA2 vorkommt, sieht die Zukunft für AMD rosiger aus. Eine doppelte Optimierung macht nunmal mehr Arbeit.
@GERmaximus Chill mal^^ Der Frametime Unterschied ist jetzt nicht gerade erwähnenswert.
Ich finde es erstaunlich, das hier in UHD zwischen 6800XT und 6900XT 10% liegen.
Man ist hier praktisch am maximal theoretisch Machbaren. 72CU vs 80CU (+11%)
Das dachte ich auch immer, hat aber zb. Zur ps4 überhaupt keinen Unterschied gemacht. Da war ja bereits AMD Hardware verbaut, hat aber im gaming Sektor nichts davon gemerkt.
Ist das jetzt in dieser Generation anders?
Oder gar AMD einfach ein gutes Produkt geliefert?
Sorry Activision, denn so wie ihr auf eure Kunden sch…. sehr ihr keinen Cent mehr. 2 Jahre Warzone, ca 5000 Cheater später rührt sich mein Geldbeutel kein Stück.
Vanguard ist bereits geplagt von Cheatern.
Und Activision/Raven tat in all der Zeit praktisch nichts. Meldungen von Cheatern verlaufen seit einem Jahr im Sand. Zuvor bekam man eine kurze Info mit einem Danke. Ricochet wird wohl nichts bringen, da dessen (und Vanguards) Quellcode bereits gestohlen wurden.
Ich „chille“
Aber 10% empfinde ich schon als erwähnenswert, wenn ich mir den Performance Unterschied einer 3080/3080ti/3090 angucke. Da sind es nicht Mals 10% was eine ganze GPU klasse aus macht mit Wahnsinns Preis unterschieden.
Bei AMD je ebenfalls.
Wenn ich das richtig verstanden habe, ist das kein Grafikkarten-Test, sondern soll zeigen ob das Spiel spielbar und spielenswert ist auf unterschiedlicher Hardware.
Wenn ich jetzt angenommen eine 1060 hätte, dann hilft mir der Test kein Stück weiter. Ja ich weiß ich kann nicht auf maximalen Details spielen. Aber ich weiß nicht, dass es auf Hoch recht gut spielbar ist mit ca 60 fps, und was noch immer sehr gut aussieht, wenn man nicht mit der Lupe Unterschiede sucht.