• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Call of Duty: Vanguard im Test: Mit schnellen GPUs gibt's was fürs Auge

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.926
Call of Duty: Vanguard kann ein unglaublich hübsches Spiel sein. Vor allem die kurze Kampagne weiß optisch zu überzeugen. Wie Benchmarks zeigen, benötigt es dafür nicht gleich eine High-End-Grafikkarte. Darüber hinaus wirft ComputerBase einen Blick auf AMDs FSR und Nvidias DLSS.

Zum Test: Call of Duty: Vanguard im Test: Mit schnellen GPUs gibt's was fürs Auge
 
  • Gefällt mir
Reaktionen: flo.murr, aid0nex, fahr_rad und 5 andere
Unglaublich hübsch im Jahr 2014.
 
  • Gefällt mir
Reaktionen: FLCL, DerBandi, Haenger und 39 andere
Tja, ich hatte es mir aber schon gedacht. Mit meinem System wird das Spiel garantiert kein Spaß bringen. Also, kann ich mir die Kohle wohl sparen.
 
  • Gefällt mir
Reaktionen: Anvil-EU- und Anti-Monitor
Ich fand die Beta leider schon sterbenslangweilig. Spielt sich halt zu 99% wie die anderen teile der letzten Jahre mit neuen Skins. Die Performance scheint auf den ersten Blick ganz okay zu sein. Die Beta lief auch okay.

Die super hübsche Grafik, die im Test angesprochen wird, sehe ich zwar nicht so ganz, aber okay. Was Sie sehr gut machen, die fangen extrem gut Stimmung ein und es wirkt sehr atmosphärisch. Rein von der Grafikqualität sieht mir das nach gutem Mittelmaß im Jahr 2021 aus. Auch in den ganzen Videos online.

Den Singleplayer würde ich für einen 20er mal nachholen. Der Hauptteil, also der Multiplayer lässt mich aber kalt. Vollpreis gebe ich auch nicht für einen Multiplayer aus, der sich wie ein Free 2 Play Spiel anfühlt.
 
  • Gefällt mir
Reaktionen: Unioner86, Till 88, Invd und 7 andere
Discovery_1 schrieb:
Mit meinem System wird das Spiel garantiert kein Spaß bringen
Muss gar nicht mal sein..


nicht immer nur von den Tests mit max. Settings blenden lassen.
 
  • Gefällt mir
Reaktionen: Unioner86, Kitsune-Senpai, aid0nex und 7 andere
Und wieder ein Game in dem AMD (Frametimes in 1440p) deutlich schneller ist.
9% zwischen der 6900xt zur 3080ti.

Wie kommt es das sich nach und nach immer mehr Games mit Abstand „absetzen“ können?
 
  • Gefällt mir
Reaktionen: E2K3, aid0nex, Eller und 4 andere
Sieht sehr lecker aus !
Über einen Kauf (nach der Aufrüstung) werde ich nachdenken, versprochen. :love:

MfG Föhn.
 
Captain Mumpitz schrieb:
nicht immer nur von den Tests mit max. Settings blenden lassen.

Ist hier bei Computerbase leider normal geworden. Schade das es keine aufwendigen Tests unterschiedlichen Systemen und Spieleeinstellungen gibt. Die Games haben soviel optimierungspotenzial in den Einstellungen für kleine Hardware. Nur spricht kaum jemand darüber.
 
  • Gefällt mir
Reaktionen: Pro_Bro, Zitterrochen, easyrider429 und 13 andere
Der Schärfefilter von FSR ist AMD einfach extrem gut gelungen. Finde den deutlich besser als CAS oder Nvidias Sharpening, weil er so gut wie keine typischen Nachschärfungsartefkate erzeugt.

Beim eigentlichen Upscaling kann AMD aber eben leider gar nix mit FSR reißen, was ja auch logisch ist.

Nvidia sollte dringend am Sharpening Filter arbeiten. So genial die Rekonstruktion auch ist, gerade der Quality Modus könnte ohne großen Aufwand zumindest rein subjektiv besser aussehen, wenn man nen besseren Scharfzeichner hätte.

Das was FSR überhaupt erst rettet und erwähnenswert macht, wird bei Nvidia praktisch komplett ignoriert.
Na ja, vielleicht dann mit DLSS 2.4

Dass mal wieder die Mips falsch geladen werden ist ein Armutszeugnis. Das Problem gabs schon bei Cold War und sorgte für matschige Texturen.
 
Leider wieder so ein Test, wo einfach nur alle Regler nach rechts geknallt wurden, ohne andere Einstellungen oder Presets zu testen. Schade... Für mich ist der Test darum leider nicht relevant und eine verpasste Chance wie ich finde.
 
  • Gefällt mir
Reaktionen: Zitterrochen, MiG001, Pulsar77 und eine weitere Person
Ich sehe gerade das ja selbst mit 4K die franetimes bei AMD besser sind.
4K war doch DIE ampere Auflösung (bis auf den vram😆) aufgrund ihres Treiber overheads. Wie kann denn nun AMD mit ihrem „krüppel“ Speicherinterface da so gut mithalten, gar überholen?!

Wenn man dann noch den Verbrauch mit einbezieht, würde man vermutlich nur noch den Kopf schütteln.
Meine Erfahrung war, das die 3090 mindestens 50-70watt mehr verbrät als die 6900xt, bei annähernd gleicher Leistung im Sinne von fps.

Das wäre doch was, wenn zukünftig im bench nicht nur endlich der Takt der GPU im Diagramm dran stehen würde, sondern auch noch der Verbrauch der GPU. Dabei reicht der ca. Durchschnitt ja völlig aus.
 
  • Gefällt mir
Reaktionen: Invd, aid0nex, Qyxes und 10 andere
hatte zuletzt von ww2 die kampagne durchgezockt (zocke seit teil eins jede kampagne durch wenn vorhanden) und war relativ gut unterhalten. gut inszeniert und grafisch ok, aber irgendwas fehlt da mir mittlerweile.... hat mich alles nicht mehr vom hocker gehauen.
die luft ist wohl raus und auch der online part hat lange nicht mehr die strahlkraft wie früher.
die kuh ist auch irgendwann mal ausgemolken:)
 
  • Gefällt mir
Reaktionen: Gesualdo
da_reini schrieb:
Leider wieder so ein Test, wo einfach nur alle Regler nach rechts geknallt wurden, ohne andere Einstellungen oder Presets zu testen. .

Wie willst du denn sonst das GPU Limit darstellen?
Wenn du mit low Settings testest, ist es quasi ein CPU Benchmark.
 
Also. Hab den Singleplayer wie für mich üblich zwar (noch) nicht gezockt, aber den Multiplayer find ich mega gelungen. Endlich kann man mal wieder anständig snipen!
 
  • Gefällt mir
Reaktionen: jdiv
GERmaximus schrieb:
Wie kommt es das sich nach und nach immer mehr Games mit Abstand „absetzen“ können?
Das Spiel wird wahrscheinlich eher für die Konsole optimiert sein. Da in den Konsolen mittlerweile auch RDNA2 vorkommt, sieht die Zukunft für AMD rosiger aus. Eine doppelte Optimierung macht nunmal mehr Arbeit.
 
@GERmaximus Chill mal^^ Der Frametime Unterschied ist jetzt nicht gerade erwähnenswert.

Ich finde es erstaunlich, das hier in UHD zwischen 6800XT und 6900XT 10% liegen.
Man ist hier praktisch am maximal theoretisch Machbaren. 72CU vs 80CU (+11%)
 
oll1e schrieb:
Das Spiel wird wahrscheinlich eher für die Konsole optimiert sein.

Das dachte ich auch immer, hat aber zb. Zur ps4 überhaupt keinen Unterschied gemacht. Da war ja bereits AMD Hardware verbaut, hat aber im gaming Sektor nichts davon gemerkt.

Ist das jetzt in dieser Generation anders?
Oder gar AMD einfach ein gutes Produkt geliefert?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: C4rp3di3m und DirtyHarryOne
Sorry Activision, denn so wie ihr auf eure Kunden sch…. sehr ihr keinen Cent mehr. 2 Jahre Warzone, ca 5000 Cheater später rührt sich mein Geldbeutel kein Stück.

Vanguard ist bereits geplagt von Cheatern.

Und Activision/Raven tat in all der Zeit praktisch nichts. Meldungen von Cheatern verlaufen seit einem Jahr im Sand. Zuvor bekam man eine kurze Info mit einem Danke. Ricochet wird wohl nichts bringen, da dessen (und Vanguards) Quellcode bereits gestohlen wurden.
 
bad_sign schrieb:
@GERmaximus Chill mal^^ Der Frametime Unterschied ist jetzt nicht gerade erwähnenswert.

Ich „chille“
Aber 10% empfinde ich schon als erwähnenswert, wenn ich mir den Performance Unterschied einer 3080/3080ti/3090 angucke. Da sind es nicht Mals 10% was eine ganze GPU klasse aus macht mit Wahnsinns Preis unterschieden.
Bei AMD je ebenfalls.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Invd, NMA und eine weitere Person
GERmaximus schrieb:
Wie willst du denn sonst das GPU Limit darstellen?
Wenn du mit low Settings testest, ist es quasi ein CPU Benchmark.
Wenn ich das richtig verstanden habe, ist das kein Grafikkarten-Test, sondern soll zeigen ob das Spiel spielbar und spielenswert ist auf unterschiedlicher Hardware.

Wenn ich jetzt angenommen eine 1060 hätte, dann hilft mir der Test kein Stück weiter. Ja ich weiß ich kann nicht auf maximalen Details spielen. Aber ich weiß nicht, dass es auf Hoch recht gut spielbar ist mit ca 60 fps, und was noch immer sehr gut aussieht, wenn man nicht mit der Lupe Unterschiede sucht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zitterrochen, Invd, adaptedALPHA und 13 andere
Zurück
Oben