• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Call of Duty: Black Ops 6 im Test: Benchmarks mit 22 Grafik­kar­ten von Nvidia, AMD und Intel

Sind bei irgendeinem die Boosts die man sich in MW3 erspielt hat in bo6 übernommen worden?
 
Nein. Kumpel sagte gestern, dass die ganzen Token nachmittags wohl kurz da waren, aber abends wieder weg.

Kleiner Tipp für alle, die die vorherigen CoD Teile vorher bei Battlenet oder Steam gezockt haben und da jetzt noch CoD Punkte liegen haben aber nun im Xbox Gamepass spielen.

Wenn man zB bei Battlenet nur das kostenlose Warzone installiert kann man sich dort mit den CoD Punkten den Battlepass "kaufen" und hat ihn dann auch im normalen Gamepass.

Die Punkte selbst werden ja nicht zwischen den verschiedenen Plattformen übertragen, aber Dinge wie Battlepass hat man dann überall.
 
ColinMacLaren schrieb:
Das Ghosting bei FSR, vor allem ab "Performance"-Einstellung, ist eigentlich immer deutlich sichtbar. Da braucht man keine großen Vergleiche.

Ah und bei DLSS Performance ist kein Ghosting da oder wie?

Und wenn es so einfach zu zeigen ist, dann sollte man es auch einfach ZEIGEN als Hardware Review...
Und wenn es dann doch nicht sooo einfach ist - dann vielleicht einfach nicht ständig um eine "EINDEUTIG ÜBERLEGENE Bildqualität" rumeiern.

EDIT: Vielleicht ist es dann angebracht von "im Details unterschiedlicher Darstellung" zu sprechen, die von der unterschiedlichen Artefaktisierung in Kombination mit den unterschiedlichen Herangehensweisen des Upscalings einhergeht.
 
  • Gefällt mir
Reaktionen: Dittsche
Mit Nvidia GPU kannst du es doch einfach selbst probieren, alle Arten von Super Sampling. Dann siehst du es selbst. So kann man FSR einfach mal selbst testen. Habe es ein paar mal gemacht und ja, lieber irgendeine andere Lösung nehmen. Es gibt dazu doch schon genug Dokumentation als das man das in jedem Test mit Bildern nochmal darlegen muss. Zum Beispiel: https://www.computerbase.de/artikel/grafikkarten/upscaling-faq-nvidia-dlss-amd-fsr-intel-xess.86657/
Zusammengefasst: bei UHD kann man FSR Quality ohne Einbuße nutzen, DLSS Quality sieht bei WQHD schon gut aus, oder DLSS Performance bei UHD. Wenn TSR vorhanden ist im Spiel, dann immer TSR vor FSR, bei XESS einfach wie hier kurz in den Spieletest schauen ob es was taugt.

Das gute ist doch, dank dem Test kann nun jeder mit AMD GPU einfach gleich XESS nutzen und kann sich die Testerei selbst sparen. Nvidia Nutzer nehmen einfach wie gewohnt DLSS.
 
Stock86 schrieb:
Nein. Kumpel sagte gestern, dass die ganzen Token nachmittags wohl kurz da waren, aber abends wieder weg.

Kleiner Tipp für alle, die die vorherigen CoD Teile vorher bei Battlenet oder Steam gezockt haben und da jetzt noch CoD Punkte liegen haben aber nun im Xbox Gamepass spielen.

Wenn man zB bei Battlenet nur das kostenlose Warzone installiert kann man sich dort mit den CoD Punkten den Battlepass "kaufen" und hat ihn dann auch im normalen Gamepass.

Die Punkte selbst werden ja nicht zwischen den verschiedenen Plattformen übertragen, aber Dinge wie Battlepass hat man dann überall.
Bekannter hat mir den Tip gegeben.
Man brauch Warzone.
Da sind die die Tokens zum aktivieren.
Die sind dann auch im normalen MP aktiv.
 
  • Gefällt mir
Reaktionen: Stock86
Eigentlich müsste sich für diesen Test Computerbase zu Consolenbase umbenennen.
Seit der Einführung von Crossplay sind die SP Texturen auf PS4 jetzt 5, & im MP weiterhin auf matschigen PS3 Tapeten Niveau (runter gerendert) unterwegs. Also einer PC Hardware in keinsterweise würdig. Statt Hairworks immer noch Playmobilfrisuren. Merkt das denn keiner?
Das Gameplay ist ebenso selbst mit deaktivierten Crossplay aufn Controller ausgelegt. Zero Body & Waffenfeeling & schneller als DOOM & Quake zusammen. Hat daher ebenso nix mehr mitm PC Shooter zutun. Nunja, die Youngstarkäuferschicht sprichts angeblich immer noch an & lassen sich auf YouTube feiern. Ok, wegen SP ists mir irgendwann 10€ wert.
 
Zuletzt bearbeitet:
Multiplayergames sind halt auf FPS optimiert (zumindest im besten Fall)

Bringt halt nichts, so ein Spiel mit Grafiksettings wie Cyberpunk umzusetzen.
Das hat nichts mit Crossplay zu tun. Zumindest die Auflösung der Texturen nicht.
 
@Aimero Dann müssten ja andere MP Games wie BF & Co genauso miese Texturen unabhängig von der Auflösung aufweisen, tun sie aber nicht. WW2 ist das letzte Game was 2017 fürn PC rauskam & sieht aufgepustet immer noch schick aus, danach bis heute sinds reine CoD Konsolenimports. & es werden definitiv keine schicken Shader im MP nachgepuffert, sondern downgrade Texturen der schwächsten Konsole für alle. & ja, damit auch alle über 200 FPS haben.
 
Zuletzt bearbeitet:
noSub84 schrieb:
Sagt mal, spiele auf einer 7800XT, natives 1440p mit fidelityfx cas auf 50.... Selbst auf dem Ultra Preset schauen Haare und Schatten etwas komisch aus und rauschen. Wurde auch so im Test erwähnt.

Kriegt man das, ohne DLSS, irgendwie in den Griff? Hat das jemand geschafft :D
Dto. Schaut hauptsächlich in den Zwischensequenzen schrecklich aus. Hab jetzt Render auf 150 eingestellt. Ansonsten alles auf aus. So ist das Rauschen zumindest fast weg.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: noSub84
@noSub84 probier mal fidelityfx cas auf 75, so sah es zuletzt als ich mal ohne dlss gespielt habe ganz gut aus.
 
  • Gefällt mir
Reaktionen: noSub84
Iscaran schrieb:
Ah und bei DLSS Performance ist kein Ghosting da oder wie?

Und wenn es so einfach zu zeigen ist, dann sollte man es auch einfach ZEIGEN als Hardware Review...
Und wenn es dann doch nicht sooo einfach ist - dann vielleicht einfach nicht ständig um eine "EINDEUTIG ÜBERLEGENE Bildqualität" rumeiern.

EDIT: Vielleicht ist es dann angebracht von "im Details unterschiedlicher Darstellung" zu sprechen, die von der unterschiedlichen Artefaktisierung in Kombination mit den unterschiedlichen Herangehensweisen des Upscalings einhergeht.

Ich habe eine NVIDIA-GPU und in x Games den direkten Vergleich gemacht. Ab "Balanced" fällt das Ghosting in FSR total auf. Bei DLSS sehe ich erst ab "Ultra Performance" einen deutlichen Qualitätsverlust, Ab "Performance" nehme ich kein Ghosting war, zumindest nicht in einem störenden Ausmaß. Bei FSR ist bei Kameraschwenks, einem fahrenden Auto etc. immer ein pixeliger Doppelgänger zu sehen. Das heißt nicht, dass DLSS perfekt ist, aber da braucht man nicht mehr diskutieren, dass es hier große Qualitätsunterschiede gibt. Wenn Du das im detail aufgedröselt brauchst, gibt es z.B. bei Digital Foundry genug Videos dazu.
 
@ColinMacLaren Aha - der eine Tester sieht das so - der andere so. In Game Y ist es so in Game X wieder andersrum.
https://www.igorslab.de/amd-fsr-2-0-und-nvidia-dlss-2-3-im-direkten-praxisvergleich/3/
DLSS Leistung: Man sieht ganz gut, wie sich die Kimme mehrfach im Bild doppelt und der Zaun im Hintergrund um die Waffe eine Schlierenbildung hinterlässt.
So wirklich perfekt bekommt es keiner hin. So heftig wie bei FSR 2.0 ist das Schlieren mit DLSS 2.3 nicht, aber es ist da! Am besten kommt hier FSR 1.0 weg. Mehr oder weniger nur leichtes Ghosting… Wer hätte das gedacht? Da man dieses Phänomen schon in 4K wahrnehmen kann
Am besten meint Igor ist FSR 1.0 !!! (laut CB ist FSR2.0 dagegen immer besser usw...)

Ich hab mir die Video dort 10x angeschaut - das meiste was ich sehe ist "Upload-Artefakte" vom Video machen/decoding selbst.

Für mich sind das weder "Welten" an Unterschied noch "EINDEUTIG" und IMMER UND JEDERZEIT sichtbar.

Es geht hier einfach um die Beschreibung/Erklärung!
Hier tun manche so als sind die Modi ohne hinschauen in einer Zehntelsekunde KLAR ERKENNBAR verschieden...doch selbst nach 10x maligem Schauen der Videos sieht man praktisch nichts.

Das die Darstellung hier aufgrund der unterschiedlichen Mathematischen Artefakte unterschiedlich ausfällt ist klar! Und das sollte man auch so schreiben.

Für eine oftmals, derart "deutliche" Bevorzugung gibt es IMHO keinerlei reale Beweise. Nichtmal Ansatzweise hat mal jemand z.B. auch eine doppelblindstudie gemacht und mal an einer Testgruppe von Personen das bewerten lassen. Egal wo ich lese da steht dann da "für mich/uns ist der Eindruck X/Y besser als Z)"
Wenn man das machen würde, kommt da nur "rauschen" raus nämlich.

Will man möglichst keine Verzerrenden Artefakte nimmt man "natives" Rendering....reicht die Performance nicht aus, kann man mit sehr geringen Einbussen dank upscaling vielleicht noch was retten.

Gleiche Upscaling stufen im Blindtest bei einmaligem sehen des Videos zwischen DLSS und FSR zu unterscheiden bekommen mit Sicherheit keine 50% hin (was "Raten" entspricht).

Unterschiedliche Upscaling Stufen zu vergleichen ist wiederum Äpfel/Birnen...da kann ich dann aber auch gleich stupide nach FPS gehen, weil 300 FPS braucht man damit man "competetive Shooter" spielen kann nicht wahr? (weil mit 250 FPS verliert man automatisch)...

Man könnte natürlich auch ein Pixel für Pixelvergleich mittels Bildanalyse software machen und sehen wo das "native Bild" am besten reproduziert wird., und dann die Differenzen in %Pixel die anders sind angeben. Just my two cents.

DARUM gehts mir.
 
Iscaran schrieb:
@ColinMacLaren Aha - der eine Tester sieht das so - der andere so. In Game Y ist es so in Game X wieder andersrum.
https://www.igorslab.de/amd-fsr-2-0-und-nvidia-dlss-2-3-im-direkten-praxisvergleich/3/


Am besten meint Igor ist FSR 1.0 !!! (laut CB ist FSR2.0 dagegen immer besser usw...)

Ich hab mir die Video dort 10x angeschaut - das meiste was ich sehe ist "Upload-Artefakte" vom Video machen/decoding selbst.

Für mich sind das weder "Welten" an Unterschied noch "EINDEUTIG" und IMMER UND JEDERZEIT sichtbar.

Für mich auch nicht. Dafür bewegt er aber die Kamera viel zu langsam und das ist ein mehr als zweieinhalb Jahre alter Test, der hat mit den aktuellen DLSS/FSR-Versionen nichts zu tun.

Ich zocke ja regelmäßig mit FSR auf dem Legion Go. In Bewegung wird es kriselig, auf der NVIDIA fällt das nie in dem Maße auf. Guck Dir einfach mal hier die folgenden 20 Sekunden vom Timestamp (oder das ganze Video) an.

An sich ist das auch nicht soo schlimm. Man kann ja mittlerweile mit entsprechenden Tools auch XESS mit FSR3-Framegeneration kombinieren. Das nützt aber nichts in Multiplayerspielen und ist eher etwas für Tüftler.
 
Igor hat halt auch weder 2x reingezoomed noch eine 10x Slow-Motion gemacht. Und warum nimmt man nicht einfach mal Quality...

FPS mäßig bringt das immerhin ~50% geht man auf Balanced hat man im Mittel 55%, auf Performance dann 60% und die Artefakte werden nicht besser.
https://www.techspot.com/review/2860-amd-fsr-31-versus-dlss/

Versteh ich nicht ganz...In Quality sind die Unterschiede von allen Techniken viel geringer, als wenn man auf biegen und brechen extra niedrigere Modi testet.

Und Ratchet & Clank ist ein SuperCherrypick -
Ratchet is one of the worst examples of FSR 2.2, as it has a large number of issues, so it presents a great opportunity to see where AMD has improved.

Und selbst DA brauchts 2x Zoom + SloMo und den niedrigeren Qualitätsmodus um es deutlich zu machen.

Ganz ehrlich - für mich gibt es KEINEN Grund von Native wegzugehen - die wenigsten Games sind so "FPS-Sensitiv", dass wirklich merklich was bringt und wenn ich UNBEDINGT mit einer low-End GPU in 4k auf >60 FPS zocken will - dann evtl. doch wirklich über ein Upgrade nachdenken.
Weil auch eine 2060 oder 3060 wird mit DLSS da nix reissen, egal welches Setting du wählst. Dann lieber "Nativ" in FullHD rendern und auf dem 4k Screen ausgeben lassen ganz ohne upscaling. Sieht dann immer noch besser aus als "Performance oder ultra performance DLSS".
 
@Iscaran Zwischen den einzelnen Qualitätsstufen liegen bei mir locker immer um die 10%. Und ich habe zwar nur ein Notebook, aber "low end" GPU finde ich auch übertrieben. Bei aktuellen PS5-Ports wird es in allem oberhalb von Performance UND Framegen schon sehr knapp, die 40k 60FPS zu halten, mit Raytracing und ReShade sowieso. FSR krisselt und ghostet bei schnellen Bewegungen (schnelle Kameraschwenks, schnelle Animationen, Autorennen etc.), DLSS nicht. Aber ja, es spielen auch viele mit Lossless Scaling und finden das toll (da flimmert dann noch die Hautpfigur). Cyberpunk mit Pathtracing + Texturmods war schon zuviel für die Kiste.

Ratchet & Clank ist kein SuperCherrypick - es geht in dem Video ja explizit um die Verbesserungen von FSR 2 zu 3. Und die sind zweifelsohne vorhanden, aber halt weit weg "von gleich auf mit DLSS". XESS ist mittlerweile aber wirklich sehr brauchbar.

Ich muss aber anmerken, ich zocke in erster Linie brandaktuelle, beschissen optimierte Ports von AAA-Titeln auf 48" (am Schreibtisch) oder 60" (im Wohnzimmer). Da fällt das vielleicht eher auf als am 16" Notebook oder 27" Desktopö-Monitor. Und das tue ich in erster Linie, weil die typische PS5-Grafik, die mitlerweile irgendwo bei 900p + FSR2 liegt, doch deutlich gegenüber einem PC abfällt.
 
Zuletzt bearbeitet:
Ratchet & Clank ist kein SuperCherrypick

Doch - es ist eines der SCHLECHTESTEN mit FSR funktionierenden Spiele...ja deswegen wurde es ausgewählt um zu sehen wieweit FSR3 vor FSR2 liegt.

Zwischen den einzelnen Qualitätsstufen liegen bei mir locker immer um die 10%.

Wow - von Native auf Upscaling Quality kriegst du laut Benchmark oben gelinked im Mittel ~50% Boost.

Also z.B. von 40 auf 60

Wenn du nun nochmal 10% mehr hast weil du 2 Stufen runtergehst....gehst du dann eben von 40 auf 66!...

Japp definitiv absolut sinnvoll hier das maximal Artefaktenden Upscaling-Level auszuwählen weil man 6 FPS mehr hat. Weil NIEMANDEN interessiert ja BQ! :-) Deswegen scheiss auf Upscaling einfach in 720p rendern und lossless hochskalieren bringt noch mehr FPS.

Irgendwie ist deine Betrachtungsweise sehr paradox...auf der einen Seite den Bildquali-Fetisch rausholen, aber auf der anderen Seite dann lieber das "Artefaktende" Balanced oder gar Performance STATT Quality wählen.

Na gut - dein Ding. Ich wähle im Zweifel lieber Native FullHD und Ausgabe auf 4k. Das geht ganz ohne Upscaling und bringt mehr als 50% und die optischen Unterschiede sind kleiner als sich mit "Balanced" oder "Performance" rumzuärgern.
 
Iscaran schrieb:
Will man möglichst keine Verzerrenden Artefakte nimmt man "natives" Rendering....reicht die Performance nicht aus, kann man mit sehr geringen Einbussen dank upscaling vielleicht noch was retten.
„Natives Rendering“ (mit TAA) ist Qualitativ doch DLSS/FSR, bzw. TSR/XESS unterlegen, zumindest oberhalb von FHD.
Deshalb sind diese Lösungen aus Qualitätsgründen nativ (TAA) vorzuziehen, um Performance geht es da noch garnicht.
https://www.computerbase.de/artikel/grafikkarten/upscaling-faq-nvidia-dlss-amd-fsr-intel-xess.86657/
 
  • Gefällt mir
Reaktionen: Aimero
Ich dachte auch eine Zeit lang, dass Nativ immer besser ist. Wenn man aber mal realisiert hat, dass FSR/DLSS auch nur Kantenglättung ist, wenn es in nativer Auflösung unter Quality rendert, dann sollte sich die Meinung ändern.
Gerade bei Stalker 2 z.B. wenn man Nativ einstellt ist das ein Kantenflimmerfest Deluxe
 
Pro_Bro schrieb:
„Natives Rendering“ (mit TAA) ist Qualitativ doch DLSS/FSR, bzw. TSR/XESS unterlegen, zumindest oberhalb von FHD.
Deshalb sind diese Lösungen aus Qualitätsgründen nativ (TAA) vorzuziehen, um Performance geht es da noch garnicht.
https://www.computerbase.de/artikel/grafikkarten/upscaling-faq-nvidia-dlss-amd-fsr-intel-xess.86657/
Es ging in der Diskussion aber ums Upscaling - DLSS als Aliasing für 4k gibt es auch noch extra ganz ohne upscaling...das liefert aber nicht +50% FPS.
 
Zurück
Oben