• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Call of Duty: Black Ops 6 im Test: Benchmarks mit 22 Grafik­kar­ten von Nvidia, AMD und Intel

Wolfgang schrieb:
Und selbst wenn. Ist ja schön, dass es auf allen Karten läuft. Bringt aber denen mit einer aktuellen Radeon nichts, die dafür eine schlechtere Bildqualität in Kauf nehmen müssen.
Die Diskussion führst du mittlerweile in jedem Spieletest und machst dich selbst und diese Seite damit für die Kritiker deiner Testmethoden angreifbar (das hab ich dir aber schon Mal geschrieben)

Es geht in allen Spielen.. im Kommentar Bereich.. die du testest gar nicht mehr um das Spiel an sich sondern zu 80-90% um deine Testmethode! und das Upscaling an sich egal von welchem Hersteller.

Allein deswegen würde ich an deiner Stelle anfangen mit Nativ TAA zu Benchen damit die Leute einen Fairen Vergleich der GPUs und deren Leistung untereinander haben..

Wie die Leute nachher wirklich Spielen ist ziemlich unerheblich da sich eh jeder die Settings nach seinen belieben und Möglichkeiten tweakt... Ein Test muss Neutral erscheinen und das geht meiner Meinung nach mit Upscaling nicht.

Natürlich solltest du auch auf die Upscaler und deren Qualität im Text eingehen.. keine Frage.. aber Benchen musst du mit dem kleinsten gemeinsamen nenner wo die Qualität gleichwertig ist.. egal wie es aussieht und wie nacher gespielt wird.. und das ist leider Nativ TAA!
Dann erreicht so ne rtx4080/rx7900xtx halt keine 60FPS in 4k Nativ ohne upscaling..
ich verstehe nicht wo da dass Problem sein soll.. die Leute wissen mittlerweile das sie das mit upscaling kompensieren können/müssen.

Du machst dich.. und die Seite generell... blos unnötig für Kritik angreifbar und die Leute fangen an an deiner Seriösität und Neutralität als Tester zu Zweifeln (bitte nicht persönlich nehmen) und das finde ich Persönlich sehr Schade sowohl für die Seite als auch für dich der die Arbeit reinsteckt und in meinen Augen einen guten Job macht.

Ich empfehle auch Mal eine offizielle Umfrage hier auf der Seite zu Starten (oder zumindest intern in der Redaktion) ob und wie mit upscaling getestet werden soll in Zukunft... Gerade in Bezug auf die FSR Qualitäts Problematik...

Und das Weigern einer großen Deutschen Technikwebseite aus Qualitätsgründen mit upscaling .. hauptsächlich wegen FSR .. zu Benchen.. und dementsprechend eine offizielle Erklärung die international gehör finden wird..
hätte mehr Auswirkung auf Erfolg bei Qualitätsverbesserungen als deine geäußerten Wünsche hier im Kommentar Thread
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kadett_Pirx
@Blackfirehawk
Ich diskutiere hier so eifrig mit, weil mir einfach wichtig ist, dass die Leute verstehen, warum ich mache was ich mache. Nicht weil ich irgendwie glaube, dass die Testmethode falsch ist bzw. ich sie rechtfertigen möchte. Wenn ich mich damit angreifbar mache...gut, ich kann das diskutieren auch einfach sein lassen.

So eine Umfrage gab es hier quasi schon. Nicht, eine Umfrage, ob wir mit oder ohne Upsampling testen sollen. Sondern eine, in wie weit die CB-Leser Upsampling nutzen. Die Umfrage war ich glaube von letztem Jahr und schon da war Upsampling in der Mehrheit. Das ist einer der Gründe, warum wir so testen wie wir testen. Und warum sich das auch nicht mehr ändern wird.

Ist es alles perfekt so wie es hier ist? Sicherlich nicht. Aber ich glaube einfach nicht, dass man Grafikkarten aktuell "perfekt" benchmarken kann. Das war früher eben einfacher. Nun ist es mit dem Upsampling definitiv schwer geworden. Jetzt habe ich halt die Wahl zwischen (zur Vereinfachung) zwei verschiedenen Techniken, die aber eine unterschiedliche Bildqualität aufweisen. Oder dem Testen in Nativ, was in der CB-Community aber schon vor diversen Monaten weniger vertreten gewesen ist als Nativ und was ich selbst als Redakteur auch nicht mehr für sinnvoll halte.

Egal, wie ich mich von da an entscheide, einen Kompromiss muss ich eingehen. Und wie das mit Kompromissen ist, irgendeinem gefällt das natürlich nicht.
 
  • Gefällt mir
Reaktionen: uberLemu und ElliotAlderson
Blackfirehawk schrieb:
Ich empfehle auch Mal eine offizielle Umfrage hier auf der Seite zu Starten ob und wie mit upscaling getestet werden soll in Zukunft
In eine sehr ähnliche Kerbe schlug ja eine Umfrage von September 2023.
Wenn wir das als Anhaltspunkt nehmen, sind es nichtmal 6% welche kein Upscaling nutzen (wollen) und somit wohl auch keine entsprechenden Tests möchten.
Auf die Teilnehmer umgerechnet waren das 139 Personen.

1730301518768.png
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Hab's gerade mal kurz getestet.
Ist das normal, das die Spielfigur keinen eigenen Schatten wirft?
Wenn ja, dann ist das echt schlecht.
Die Grafik ist ok, mehr aber auch nicht.
 
Wolfgang schrieb:
So eine Umfrage gab es hier quasi schon. Nicht, eine Umfrage, ob wir mit oder ohne Upsampling testen sollen. Sondern eine, in wie weit die CB-Leser Upsampling nutzen. Die Umfrage war ich glaube von letztem Jahr und schon da war Upsampling in der Mehrheit. Das ist einer der Gründe, warum wir so testen wie wir testen. Und warum sich das auch nicht mehr ändern wird.
Ja natürlich ich kenne diese umfrage.
Aber wie ich bereits geschrieben habe.. ist es unerheblich in einen Test wie die Leute nacher wirklich Spielen weil eh jeder Settings nach seinen Ansprüchen und seiner Hardware Tweakt.. auch mit einer 4080/7900xtx dreht man nicht alles einfach nach rechts.

Wenn jeder mit Medium Texturen Spielen würde.. würdest du auch so testen?
Oder jeder schaltet Motion Blur aus also muss man auch ohne testen ect..
Die verschiedenen Upscaler verzerren einfach zuviel meiner Meinung nach.
Deswegen muss man offizielle zahlen vergleichen können..wie man nachher Spielt ist irrelevant



Wolfgang schrieb:
Nicht weil ich irgendwie glaube, dass die Testmethode falsch ist bzw. ich sie rechtfertigen möchte.
So kommt es aber leider rüber für mich... Jeden Test den ich sehe Verteidigst und Rechtfertigst du in den Kommentaren deine Testmethoden.. spätestens ab der 2 oder 3 Seite.. bzw Wiederholung eines" Bäh upscaling Kommentars" (Mein Eindruck) und das Finde ich schade..

ich glaube dir auch das du dass nur erklären möchtest.. man kann mit dir schließlich auch Ordentlich diskutieren wenn man will.
und irgendwann auch verständlicherweise upgefuckt bist dich ständig zu wiederholen..
(Grade bei den unfreundlichen Kommentaren mancher User) wäre ich auch an deiner Stelle.

Wie gesagt es ist nicht Persönlich oder Böse gemeint...
Es ist auf Dauer auf jedenfall nicht gesund in meinen Augen..



Die Wahl ist entweder unter "Realbedingungen" zu Benchen.. wobei jeder da eine andere Vorstellung und Variablen hat(wie beim Spritverbrauch beim Auto)

Oder unter Technischen Bedingungen mit maximaler Vergleichbarkeit ohne Praxis bezug(auch wieder wie beim Spritverbrauch)

Und ich gebe dir durchaus Recht das dass nicht einfach ist mit modernen engines und GPUs da es kein " Richtig oder Falsch" gibt.
 
Zuletzt bearbeitet:
HAse_ONE schrieb:
Und das kommt ja auch ungefähr hin, wenn man mal die Benchmarks vom Vorgänger und diesem hier vergleicht. Ist ja die selbe Engine und arg viel getan hat sich Grafisch jetzt nicht.
Dein Bench ist im CPU Limit. Poste mal 4K.
Hier wurde nativ getestet und Nvidia kommt trotzdem besser weg:
https://www.pcgameshardware.de/Call...-Hands-on-Benchmarks-Anforderungen-1458295/2/

Hier noch die 4090 und 7900 XTX:
https://www.dsogaming.com/wp-content/uploads/2024/10/Call-of-Duty-Black-Ops-6-benchmarks-3.png
 
Tja, solche Benchmarks, deren Ergebnisse wirklich vergleichbar sind, muss man sich heute leider woanders suchen...
 
Taxxor schrieb:
Es wurde halt das getestet, was auf den Karten jeweils am besten aussieht.
Ein Käufer der Spiels mit AMD GPU würde ja auch XeSS statt FSR nutzen wollen
Naja, glaube ich nicht unbedingt. Wie hier schon geschrieben wurde läuft das Spiel mit FSR wohl wunderbar und die Probleme der Redaktion konnten nicht nachvollzogen werden .
Ergänzung ()

Wolfgang schrieb:
@Blackfirehawk
Ich verstehe dein Argument, aber dann muss da AMD einfach mal etwas Geld dafür in die Hand nehmen, dass die Entwickler ein potenziell RDNA-3/4-exklusives FSR 4 in ihre Spiele einbauen. Das Geld haben sie dafür, dass ist mittlerweile einfach kein Argument mehr. Das hat Nvidia ja auch lange gemacht, bis es mit DLSS mal so richtig geflutscht ist.

Es rächt sich halt irgendwann, die GPU-Sparte abseits von Instinct immer nur mit dem absoluten Minimum arbeiten zu lassen. Wenn sie ernsthaft in Spielen vertreten sein möchten geht das halt nicht mit minimalem Geldeinsatz. Erst recht nicht gegen einen so starken Konkurrenten wie Nvidia.


Ich finde dieses Argument super komisch. Warum sollte man nicht die GPU testen, wenn man mit Upsampling testet? Ganz unabhängig davon, dass man dann so testen würde, wie vor allem GeForce-Besitzer einfach nicht mehr spielen. Aber der Algorithmus wird ja jeweils auch auf der GPU berechnet und nicht irgendwie ausgelagert.

Entsprechend testet man die Grafikkarte. Und moderne GPUs sind schon lange nicht mehr nur Hardware, sondern auch viel Software. Wenn denn da einer sich einen Vorteil erkämpft hat, dann ist das eben so. Das gehört zum Gesamtpaket "Grafikkarte" einfach mit dazu
Jeder der Multiplayer kompetitiv spielt, schaltet DLSS und Co aus, da man keine dazugedichteten Elemente will. Aber das versteht ihr scheinbar nicht.
 
Zuletzt bearbeitet:
rocka81 schrieb:
Jeder der Multiplayer kompetitiv spielt, schaltet DLSS und Co aus, da man keine dazugedichteten Elemente will. Aber das versteht ihr scheinbar nicht.
Und du verstehst scheinbar den Unterschied zwischen DLSS SR und DLSS FG nicht, oder denkst fälschlicherweise, dass DLSS SR Sachen hinzudichten würde.
Ergänzung ()

HAse_ONE schrieb:
Nvidia nutzt DLSS Quality und alle anderen XeSS Ultra Quality, was nach einer kurzen Internetrecherche eine höhere Auflösung als Grundlage nutzt.
Da war deine Recherche leider etwas zu kurz, Ultra Quality ist seit XeSS 1.3 gleich dem Quality Preset der anderen Upsampler, Quality ist gleich Balanced, Balanced ist gleich Performance etc
IMG_3783.jpeg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: E1M1:Hangar
DevPandi schrieb:
Nein, das kann man an der Stelle so nicht gelten lassen. Nvidias erster Versuch mit DLSS1 war auch grausam. DLSS 2 unterlag zudem auch immer wieder einzelnen Problemen.

Und ja, Nvidia hat mehr "Ressourcen" als AMD, nur ist das für den Rückstand bei AMD in diesem Bereich nicht das eigentliche Problem.
Doch, leider, der RDNA Grafikkartenbereich ist vergleichsweise (mit dem GeForce Bereich von nVidia) massiv unterfinanziert, ein Blick in folgendes Video von CoreTeks greift das auch richtiger Weise als Grund auf für die aktuelle Misere in dem Bereich bei AMD.


Untitled.jpg


Untitled.jpg


Sicherlich ist das "CUDA Monopol" nVidias auch nicht hilfreich und ebenso nicht, dass nVidia im K.I. Bereich schneller in die Pötte gekommen ist und AMD dem eher hinterher dackelt, aber alles darauf zu schieben, sorry, das ist leider viel zu einfach und der Bart ist diesbzgl. einfach viel zu lang.

DevPandi schrieb:
Es geht in dieser Welt in der Regel um Kosten-Nutzenrechnung.

Das ist doch kein Novum, schon vor etlichen Jahren wurde von einigen Entwicklern deutlich weniger auf Radeon als GeForce Karten optimiert in Spielen auch abseits Sponsoring/Bundles, einfach weil die Marktverhältnisse das hergeben und solange genügend nVidia Käufer zugreifen, kann man auch auf die AMD Käufer als Entwickler verzichten oder erst viel später dahingehend nachpatchen.

Ich bleibe dabei, ohne ein Einschreiten der Kartellbehörden wegen marktbeherrschender Position nVidias wird sich da nichts ändern (egal wieviel Resourcen jetzt - zu spät - AMD und Intel da in GPU-Softwareentwicklung/-optimierung hinein buttern), dafür ist das Ungleichgewicht einfach mittlerweile viel zu groß/ausgeartet und warten wird erst einmal ab, wenn sich nVidia mit ARM CPUs gegen Intel und AMD in den Konsumentenmarkt hinein drängen wird (notfalls per massiven Quersubventionen).

Die Gier kennt bei Huang & Co. keine Grenzen, bei den Konsolen hat man seitens nVidia mit Nintendo auch einen Fuß in die Tür bekommen.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Und du verstehst scheinbar den Unterschied zwischen DLSS SR und DLSS FG nicht, oder denkst fälschlicherweise, dass DLSS SR Sachen hinzudichten würde.
Ergänzung ()


Da war deine Recherche leider etwas zu kurz, Ultra Quality ist seit XeSS 1.3 gleich dem Quality Preset der anderen Upsampler, Quality ist gleich Balanced, Balanced ist gleich Performance etc
Anhang anzeigen 1538537
Genau das tut es doch. Es rechnet von einer niedrigen Auflösung auf eine höhere Auflösung um. Dadurch entstehen mehr Pixel, die aber keiner Spiele-Geometrie zugrunde liegen sondern einem AI Algorithmus.
Somit hast du eben Dinge dazu generiert die es nicht gibt. FG macht es noch schlimmer.
 
rocka81 schrieb:
Genau das tut es doch. Es rechnet von einer niedrigen Auflösung auf eine höhere Auflösung um. Dadurch entstehen mehr Pixel, die aber keiner Spiele-Geometrie zugrunde liegen sondern einem AI Algorithmus.
Somit hast du eben Dinge dazu generiert die es nicht gibt.
Falsch. Das was du beschreibst war DLSS 1.0, deine Informationen sind also seit guten 4 Jahren veraltet.

DLSS macht seit 2.0 vereinfacht gesagt das, was TAA auch macht, nur wesentlich effektiver und mit mehr Samples, sodass man die vergangenen Frames nicht mehr in voller Auflösung benötigt.
Du hast insgesamt mehr Bildinformationen als in nativer Auflösung und nichts davon ist einfach dazu generiert.
Die Pixel die „entstehen“ stammen unter anderem aus den motion vectoren des Spiels, den Informationen aus mehreren Dutzend vorherigen Frames und natürlich der des aktuellen Frames.

Der Algorithmus ist nur dafür da, zu entscheiden, welche Infos aus diesen Frames verworfen werden können und welche benötigt werden.

FSR arbeitet dabei genauso, nur nicht ganz so effektiv, da es nicht auf dedizierte Hardware zurückgreifen kann und somit auch weniger samples nutzen kann ohne dass die Performance zu sehr einbricht
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Das schreiben wir aber nicht.
UHD mit XeSS sieht besser aus als mit nativ. In niedrigen Auflösungen dreht sich das dann um.

In welcher Hinsicht denn überarbeitet?


Ich habe mir natürlich die Performance mit FSR und XeSS auf einer Radeon angesehen. Und ja, FSR ist etwas schneller als XeSS, die Differenz beträgt zumindest auf einer RX 7900 XTX rund 5 Prozent zu Gunsten von FSR. In UHD sind damit 7900 XTX und 4080 Super in etwa gleich schnell, in WQHD und Full HD bleibt die GeForce vorne.

HDR10 ist doch "vollständiges" HDR.

Wie im Abschnitt "Das Testsystem und die Benchmark-Szene" steht, "Extrem-Preset, DLSS Quality oder XeSS Ultra Quality".

Das ist der Plan :)


Ich fand die Kampagne ziemlich spaßig. Die war schön abwechslungsreich, sogar mit einem "Horror-Level" :)
1730324648793.png


Müssten die Empfehlungen mit Upscaling nicht steigen bzw. die Grafikkarten "sinken"? Also die WQHD-Empfehlungen nicht zu UHD-Empfehlungen werden?
Ergänzung ()

Wolfgang schrieb:
@Blackfirehawk
Ich diskutiere hier so eifrig mit, weil mir einfach wichtig ist, dass die Leute verstehen, warum ich mache was ich mache. Nicht weil ich irgendwie glaube, dass die Testmethode falsch ist bzw. ich sie rechtfertigen möchte. Wenn ich mich damit angreifbar mache...gut, ich kann das diskutieren auch einfach sein lassen.

So eine Umfrage gab es hier quasi schon. Nicht, eine Umfrage, ob wir mit oder ohne Upsampling testen sollen. Sondern eine, in wie weit die CB-Leser Upsampling nutzen. Die Umfrage war ich glaube von letztem Jahr und schon da war Upsampling in der Mehrheit. Das ist einer der Gründe, warum wir so testen wie wir testen. Und warum sich das auch nicht mehr ändern wird.

Ist es alles perfekt so wie es hier ist? Sicherlich nicht. Aber ich glaube einfach nicht, dass man Grafikkarten aktuell "perfekt" benchmarken kann. Das war früher eben einfacher. Nun ist es mit dem Upsampling definitiv schwer geworden. Jetzt habe ich halt die Wahl zwischen (zur Vereinfachung) zwei verschiedenen Techniken, die aber eine unterschiedliche Bildqualität aufweisen. Oder dem Testen in Nativ, was in der CB-Community aber schon vor diversen Monaten weniger vertreten gewesen ist als Nativ und was ich selbst als Redakteur auch nicht mehr für sinnvoll halte.

Egal, wie ich mich von da an entscheide, einen Kompromiss muss ich eingehen. Und wie das mit Kompromissen ist, irgendeinem gefällt das natürlich nicht.
Ich habe in der Umfrage auch abgestimmt, das ich FSR/DLSS benutze, an einem solchen Test hier ist für mich erstmal die Rohleistung der Grafikkarten interessant. Upscaler finde ich in Grafikmonstern wie Black Myth ok, aber wenn ein FPS mit eher "altbackener" Grafik ohne Upscaler keine 100 FPS min hinbekommt (ich weiss nicht, ob es hier zutrifft), dann möchte ich das wissen. Dann mache ich einen Bogen um das Spiel, die Entwickler haben es dann nicht hinbekommen. Bei mir entsteht der Eindruck, das Spieleentwickler kaum noch in Performanceoptimierung Zeit stecken, sondern lieber Upscaler integrieren und fertig ist die Laube. Und wer keine Upscaler nutzen will oder auch kann (zB keine Nvidiagraka) hat eben Pech und soll sich eine neue teurere Grafikkarte kaufen. Zur Performancebeurteilung von Spiel und Graka in dem jeweiligen Spiel ist deshalb ein Test ohne Upscaler für mich wertvoller.
 
Zuletzt bearbeitet:
6700xt für 1440p passt schon mit TAA:

COD BO6@TPU.JPG


FSR3.1 ist wohl so schlecht implementiert, das man 45% Performance ggü. TAA verliert.
kann vermutlich nur vom Studio selbst gefixt werden (siehe Anhang)
und
TAA ist vermutlich auch deutlich schneller als XeSS, .... 95fps >>80fps mit ner 7900xt
 

Anhänge

  • FSR-3.1.jpg
    FSR-3.1.jpg
    191,7 KB · Aufrufe: 11
Zuletzt bearbeitet:
Es ist ein subjektive durchgeführter Benchmark, es ist ein "so würde Wolfgang spielen Setting".
Nur meine Settings sind das nicht, so kann doch keiner was mit den Werten anfangen, der nicht genau so spielt.
Bitte kommt zurück zu den objektiven Settings. Upscaling wäre dann noch Bonus.

PS: @Wolfgang, mit welcher Karte spielst du das Spiel? Spielst du es überhaupt? Wirklich mit AMD und xess??
 
janeeisklar schrieb:
Nur meine Settings sind das nicht, so kann doch keiner was mit den Werten anfangen, der nicht genau so spielt.
Gilt für alle Settings.
Die Menge an Leuten die Max Settings + TAA Spielt, dürfte geringer sein als das was wir hier haben
 
  • Gefällt mir
Reaktionen: Captain Mumpitz
@Taxxor Sehe ich nicht so.
Zudem ist das ein Benchmark mit subjektiven Settings -> nutzlos für die Mehrheit. Mit welcher Karte spielt Wolfgang?
 
janeeisklar schrieb:
Zudem ist das ein Benchmark mit subjektiven Settings -> nutzlos für die Mehrheit.
DLSS Quality + Max Settings ist nicht weniger subjektiv als TAA + Max Settings.

Es ist halt eines von vielen möglichen Settings, bei denen die Leser nur selten exakt dieses nutzen werden.
Wichtig für hier ist nur, dass die Ergebnisse vergleichbar sind, also alle mit TAA oder alle mit Upscaling
 
DLSS@quality(= kleinere Resi) läuft nuuur ungefähr genauso gut wie TAA@nativ.
also
hätte man sich den ganzen Zirkus sparen und einfach mit TAA testen können
ohne das der Verdacht/Diskussion aufkommt, das XeSS möglicherweise noooch schlechter läuft
 

Anhänge

  • DLSS-3.jpg
    DLSS-3.jpg
    100,5 KB · Aufrufe: 12
  • COD-BO6@1440p_7900xt.JPG
    COD-BO6@1440p_7900xt.JPG
    180,9 KB · Aufrufe: 3
Zuletzt bearbeitet:
Zurück
Oben