• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Call of Duty: Black Ops 6 im Test: Benchmarks mit 22 Grafik­kar­ten von Nvidia, AMD und Intel

Blackfirehawk schrieb:
Teilweise werden erstmal Low ress Texturen hochscaliert von den upscalern bevor highress nachträglich drüber gelegt wird.
So arbeiten die Upscaler nicht ;)
Die bekommen das gerenderte Bild mit interner Auflösung, rechnen hoch und geben es dann auf den Bildschirm.

Texturestreaming und -sampling passiert in der Pipeline bevor der Upscaler irgendwas macht.

Blackfirehawk schrieb:
haben viel Bearbeitungszeit weil sie auf Daten Warten die erst noch gestreamt werden müssen.
Auch das ist falsch. Das Bild wird einfach mit den vorhandenen Texturen gerendert. Erst wenn eine gestreamte Texture vollständig lokal da ist, wird sie in den Grafikspeicher geladen und dann aber auch wie eine normale Texture behandelt.

Der Upscaler ist in keiner Form von Texturstreaming abhängig.

DiePalme schrieb:
warum XeSS meistens optisch auf dem Niveau von DLSS ist und damit fast immer deutlich besser als FSR aussieht
Weil Intel Arc XMX/Tensorkerne hat und deshalb XeSS als KI-basierten Ansatz schnell genug nutzen kann und so von Anfang an entwickelt hat. Das Problem der Marktanteile wollte Intel anfänglich als Verlust durch Investition schlucken.

Den gleichen "Luxus" konnte/wollte AMD sich allerdings nicht leisten.

FSR musste auf AMDs Karten gut laufen, die aber keine ausreichend schnelle KI Beschleunigung konnten.
 
Zuletzt bearbeitet:
DevPandi schrieb:
Und selbst dann, wenn diese Tools eingesetzt werden, ist es so, dass DLSS und XeSS von dieser Arbeit sogar noch stärker profitieren und während dann FSR gute bis sehr gute Ergebnisse erzielt, DLSS dann oft herausragende Ergebnisse erzielt.
Und diesen Punkt sehe ich auch so. FSR wird in diesem Zustand, den es aktuell hat niemals an DLSS herankommen. Da muss schon etwas bei der Implementierung komplett falsch laufen, damit das klappt.
Ich denke es hat auch viel mit dem im Spiel verwendeten Content und den Eigenheiten der Engine zu tun.
FSR ist von der Erfassung der Bewegungsvektoren einfach zu wenig universal-Werkzeug. Man merkt einfach den fehlenden AI-approach.
DevPandi schrieb:
AMDs Problem ist der "fehlende" Marktanteil. Entwickler werden immer mehr Mühe in DLSS stecken, weil hier potenziell aktuell 90 % der Spieler abgedeckt sind. Für die 10 % "AMD" Nutzer - lohnt sich die Implementierung in seiner "guten" Form nicht.
Ich denke, dass der Marktanteil eigentlich weitgehend irrelevant ist, da XeSS ja zuverlässig bessere Ergebnisse als FSR abliefert. TSR tut das ja auch.
 
Vielen Dank für den Test. Eine gute Kampagne ist immer gern gesehen. Ich mag die Kampagne bei CoD auch wesentlich lieber als die von Battlefield.
 
Powl_0 schrieb:
Auch eine PS5 wird Packet Loss haben, wenn die Internetverbindung Murks ist. Das hat doch mit der Plattform nichts zu tun.

Na doch genau das ist der Fall.

Ich hab beide Versionen getestet und nur die Steam PC Version hat Packet Loss und Hit Registration Probleme.

Das findet man heute bei BO6 in den Steam Foren oft genug und war auch bei MWIII und Warzone immer wieder Thema.

Wir haben ne FTTH Leitung aktuell, dazu keine anderen Verbraucher laufend wenn gezockt wird. Ping ist <10ms und die haben nirgends Probleme.

Egal ob Crossplay an oder aus am PC ( ja das geht über Umwege ) - Packet Loss und dergleiche sind fast immer da.

Bei der PS5 Version wird Packet Loss und Latenz ebenso via Monitoring angezeigt und da ist alles schick, inkl. Hit Registration.
 
Blackfirehawk schrieb:
Also sind alle Leute mit AMD GPUs gearscht obwohl sie zb mit einer RDNA3 Karte wie der 7900xt ähnliche Rohleistung wie das Topmodel RDNA4 haben... Mit der 6950xt sogar RDNA2 in Rastern
Das hat doch Nvidia auch durchgezogen. Wer da eine 3060 Ti hatte und nicht die 10% schnellere 4060 Ti bekam kein Frame Generation.
Ich denke AMD könnte (!) FSR4 exklusiv machen, wenn ihre RX8000-Reihe in der Mittel- und Performanceklasse richtig was reißt.
Das mit dem Marktanteil (Nvidia > AMD, daher nur DLSS) ist so eine Sache, die verzerrt. Es gibt ja noch die Käufer und Besitzer der Vorgänger-Generationen von AMD. Nur RX7XXX vs RTX40XX zu betrachten, ist da vielleicht nicht so aussagekräftig.
 
GreatEvil schrieb:
Das beantwortet trotz klarer Nachfrage, nicht die AMD Einstellungen.
Also trotz klarer und eindeutiger Nachfrage wieder redaktionelles AMD Bashing.
XeSS Ultra Quality, steht doch da?
 
Wolfgang schrieb:
haben vier es geschafft, eine gute bis sehr gute Qualität zu erreichen, nur AMD nicht.
Epics TSR ist ja auch nicht KI basiert, aber tief in die Engine eingebaut und hat damit auch die "notwendige" Liebe erhalten bei der Implementierung. AMDs Ansatz ist Hard- und Softwareagnostisch und was sowohl Stärke ist, ist gleichzeitig auch Schwäche.

Aber das ist auch das, was ich meinte damit. DLSS, XeSS sind durch den KI-Ansatz weit aus weniger von der Implementierung abhänig, als FSR. DLSS/XeSS kann man in der Regel wirklich aus Plugin einbinden und es liefert schon gute Ergebnisse.

FSR kann eine gute Qualität erreichen - die Beispiele gibt es ja. Leider tut es das aber zu selten.
Chismon schrieb:
Das ist allerdings generell schwierig bei der großen Resourcenungleichheit, die AMD und nVidia in respektive RDNA und GeForce hinein stecken.
Nein, das kann man an der Stelle so nicht gelten lassen. Nvidias erster Versuch mit DLSS1 war auch grausam. DLSS 2 unterlag zudem auch immer wieder einzelnen Problemen.

Und ja, Nvidia hat mehr "Ressourcen" als AMD, nur ist das für den Rückstand bei AMD in diesem Bereich nicht das eigentliche Problem. Intel hat heute auch nicht unbedingt mehr Ressourcen als AMD und schafft es dennoch bei XeSS weiter am Ball zu bleiben. Epic schafft aus dem Stehgreif mit TSR in ihrer Enginen einen Upscaler, der sehr gute Arbeit abliefert. Sony nimmt ebenso das Geld in die Hand.

Das Hauptproblem bei AMD ist "immer noch" die Tatsache, dass die Firma Software sehr lange nicht sehr ernst genommen hat. FSR 1 und FSR 2 sind Lösungen, die unter Zugzwang entstanden sind. AMD hatte zu dem Zeitpunkt KI nicht mal im Ansatz auf den Schirm. Er jetzt mit Xilinx Übernahme und weil das Thema immer wichtiger wurde, geht AMD wirklich dran.

AMD verfolgte sehr lange die Strategie, dass gute Hardware ausreicht, das haben sie selbst sogar zugeben und dass das eben nicht mehr ausreicht.
Chismon schrieb:
Wenn die Entwickler AMD und Intel bei Grafikkarten bewusst suboptimal implementieren und ein Monopol nVidias fördern, sehe ich auch keinen Grund deren Spiele noch zu kaufen und eigentlich bräuchte es wegen der marktbeherrschenden Stellung nVidias dort eine kartellrechtliche Intervention seit Jahren, aber man träumt dort lieber weiterhin selig bei den zuständigen Behörden.
Es geht in dieser Welt in der Regel um Kosten-Nutzenrechnung. Wenn du bei XeSS und DLSS einfach nur die Plugins aktivieren musst und damit bereits gute Ergebnisse erzielst, dann nehmen die Entwickler das gerne mit. Kein Entwickler wird sich dannach aber noch die Arbeit machen beim FSR-Plugin "Verbesserungen" vorzunehmen, die einiges an ZEit beanspruchen.
Powl_0 schrieb:
Weil Intel Arc XMX/Tensorkerne hat und deshalb XeSS als KI-basierten Ansatz schnell genug nutzen kann und so von Anfang an entwickelt hat.
XMX/Tensorkerne sind hier nicht so ganz der Grund. Neuere Versionen von XeSS laufen ja auch ohne Tensor-Kerne relativ schnell. - @Volker hat hier 5 % für XeSS und FSR.

Das Problem bei AMD ist eher, dass AMD mit "exklusiven" Features nicht so gut Punkten kann, wie Nvidia. Dank DSR könnte AMD aber mit einem "exkulsiven" FSR 4 durchaus auch Erfolg haben. Weil die Entwickler nur DSR einbinden müssen und DSR dann die passenden Plugins lädt oder als Fallback FSR 2 nutzt.
Powl_0 schrieb:
FSR musste auf AMDs Karten gut laufen, die aber keine ausreichend schnelle KI Beschleunigung konnten.
Nein, AMD hat FSR auf KI zum Zeitpunkt 2020/2021 ganz bewusst verzichtet. Ihnen fehlte auf der einen Seite die Expertise, auf der anderen Seite konnte man so noch mit Vega, GTX und Co werben, was durchaus positiv war.

Im Endeffekt hat AMD sogar mit FSR 3.1 eine "super" Ausgangsbasis, von der man sogar auf KI umziehen kann. Nvidia ging damals bei DLSS 2 einen "umgedrehten" Weg und hat "etwas" KI sogar heraus genommen, weil sie merkten, dass die reine KI nicht gut ist. AMD muss jetzt bei FSR 4 genau den umgedrehten Weg gehen und an den Stellen KI implementieren, die auf die klassische Weise nicht funktionieren.

Quidproquo77 schrieb:
Ich denke, dass der Marktanteil eigentlich weitgehend irrelevant ist, da XeSS ja zuverlässig bessere Ergebnisse als FSR abliefert. TSR tut das ja auch.
TSR ist tief in die UE 5 implementiert und kann auf weit mehr Daten zurückgreifen, als die Plugins von DLSS, FSR und XeSS.

XeSS und DLSS wiederum sind durch ihre KI weniger Abhängig von den Daten und das ist der entscheidende Punkt und hier setzt auch die "Magie der KI" ein.

TSR ist nicht KI basiert sondern arbeitet im Prinzip wie FSR. Da es aber fest in der Engine implementiert ist und zur passenden Zeit Masken, Vektoren und Co erstellt und mitgibt, arbeitet es besser.

Und da kommt halt der Punkt: Alles was Zeit kostet, wird gerne vermieden. Wenn man nun TSR aktiviert, dann macht man das, weil das ist schon da. Plugin für DLSS und XeSS aktiviert man, beide arbeiten in der Form schon gut. FSR kannst du als Plugin aktivieren, dann hast du aber noch "Empfehlungen" für das beste Ergebnis, nur die Empfehlungen setzt eben nicht jeder um aus Zeitgründen.

AMD weiß das auch und hat ja auch da versucht die Arbeit zu erleichtern, nur ist es eben immer noch Arbeit.
 
GreatEvil schrieb:
Das beantwortet trotz klarer Nachfrage, nicht die AMD Einstellungen.
Also trotz klarer und eindeutiger Nachfrage wieder redaktionelles AMD Bashing.
Natürlich tut es das. Wenn da steht "Extrem-Preset, DLSS Quality oder XeSS Ultra Quality" und deine Grafikkarte unterstützt kein DLSS, dann wird XeSS UQ genutzt. Finde ich jetzt nicht sonderlich kompliziert zu verstehen.
 
Wolfgang schrieb:
Es ergibt in hohen Auflösungen einfach keinen Sinn mehr mit Nativ zu testen und DLSS zeigt dann eben zusätzlich,
Es würde mich brennend interessieren, wenn ihr eine Nvidia - GPU mal mit FSR3.1 getestet hättet, wie die Qualität da ausgesehen hätte.
 
Clonedrone schrieb:
Ich denke AMD könnte (!) FSR4 exklusiv machen, wenn ihre RX8000-Reihe in der Mittel- und Performanceklasse richtig was reißt.
Und genau das werden sie ja eben nicht.. das ist ja das hauptproblem.. AMD hat sich offiziell aus dem Performance Sektor zurückgezogen
die Karten werden irgendwo im Bereich 7900xt landen..
(7800xt +13% Raster und +25% RT laut neusten Gerüchten)

Was Nvidia mit ner 5060ti/5070 kontern wird..
Oder AMD selbst beim Abverkauf der 7900er GPUs.
Das ganze scheitert meiner Meinung nach schon an der Konkurrenz fähigkeit bzw Preisleistungsvergleich mit vorhandenen current-Gen GPUs im Abverkauf

Ich denke wir werden wenn überhaupt ein FSR4 mit FSR3.1 Fallback für nicht RDNA4 gpus sehen.. ähnlich wie Intel es mit XeSS hält
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Wenn da steht "Extrem-Preset, DLSS Quality oder XeSS Ultra Quality" und deine Grafikkarte unterstützt kein DLSS, dann wird XeSS UQ genutzt.
Seh ich ja jetzt erst. Bei Nvidia DLSS Quality und bei allen anderen XeSS Ultra Quality? Da wird doch dann von unterschiedlichen Renderauflösungen hochskaliert durch die Upscaler?
Also wenn dem wirklich so ist, dann sorry aber lol... und dann im Text anmerken, dass AMD langsamer ist als Nvidia, was bei den älteren CODs nicht der Fall war.

Und das ist genau das was ich meine. Dreht man sich jetzt die Settings so hin, dass die Bildqualität möglichst gleich ist, oder stellt man überall die gleichen Settings ein um eine nachvollziehbare Vergleichbarkeit zu haben?
 
HAse_ONE schrieb:
Dreht man sich jetzt die Settings so hin, dass die Bildqualität möglichst gleich ist,
Würde man das tun hätten Nvidia Karten Problemlos einen 20-35% Performance Vorteil durch die Bank weg.

Das Problem ist eben das die Upscaler nicht vergleichbar sind ..
FSR hat die schlechteste Bildqualität.. XeSS kostet am meisten roh Leistung.. bzw bringt weniger Zusatzperformance.. die eierlegende wollmilchsau ist mit Abstand DLSS

Daher find ich diese upscaling benches auch sehr suboptimal
 
Blackfirehawk schrieb:
(7800xt +13% Raster und +25% RT laut neusten Gerüchten)
Die 13% und 25% beziehen sich auf IPC. Zu Raytracing ist nur die Aussage "enorm" bekannt. Mit 25% wäre man bei der 7800 XT ja gerade mal auf 7900 XT-Niveau. Das glaube ich kaum, dass das AMD reicht. Da schafft man es ja nicht mal die 4070 Ti anzugreifen.
 
Child schrieb:
Ich finde ja die Formulierungen beim Thema des Upsamplings ganz interessant. Die Tests zeigen ja mittlerweile klar: Die Bildqualität, die am Ende rauskommt ist von der Qualität der Implementierung abhängig - zwar ist DLSS wohl in der Regel besser im Ergebnis aber die Ergebnisse bei FSR schwanken doch sehr.
Nvidia DLSS ist dabei klar der beste Algorithmus und erzeugt in jeder Auflösung ein besseres Bild als die native Auflösung mitsamt der TAA-Kantenglättung.
Ich fand DLSS an einigen Stellen, gerade bei feinen Schatten oder Schattierungen, nicht so berauschend. Da lief der alte Ameisenkrieg an diesen Stellen.

Und gerade die Bewegungen einiger Personen in Zwischensequenzen wirkte teils echt gut und dann mal wieder hölzern.

Dazu vier Updates an drei Tagen und dieses ewige Neugestarte, wegen Updates. Und jedesmal der Hinweis, das sich die Hardware doch geändert hat - nein, der Laptop hat sich nicht verändert. Die iGPU war in diesem Fall im UEFI deaktiviert.
 
Blackfirehawk schrieb:
Würde man das tun hätten Nvidia Karten Problemlos einen 20-35% Performance Vorteil durch die Bank weg.
Aber das wird ja hier gemacht, oder versteh ich das falsch? Nvidia nutzt DLSS Quality und alle anderen XeSS Ultra Quality, was nach einer kurzen Internetrecherche eine höhere Auflösung als Grundlage nutzt.
Und das kommt ja auch ungefähr hin, wenn man mal die Benchmarks vom Vorgänger und diesem hier vergleicht. Ist ja die selbe Engine und arg viel getan hat sich Grafisch jetzt nicht.
1.PNG2.PNG
 
andi_sco schrieb:
Ich fand DLSS an einigen Stellen, gerade bei feinen Schatten oder Schattierungen, nicht so berauschend. Da lief der alte Ameisenkrieg an diesen Stellen.

Und gerade die Bewegungen einiger Personen in Zwischensequenzen wirkte teils echt gut und dann mal wieder hölzern.

Dazu vier Updates an drei Tagen und dieses ewige Neugestarte, wegen Updates. Und jedesmal der Hinweis, das sich die Hardware doch geändert hat - nein, der Laptop hat sich nicht verändert. Die iGPU war in diesem Fall im UEFI deaktiviert.
Das tut er, doch mit TAA rauschen die Reflexionen und die Schatten noch umso mehr für gewöhnlich.
Die Reflexionen und die Schatten/GI rauschen in COD BO6 immer, das kann man nicht unterbinden. Und damit gehen alle temporalen Algorithmen unterschiedlich gut um, also auch das TAA. DLSS macht da den Job am besten, FSR am schlechtesten.

HAse_ONE schrieb:
Aber das wird ja hier gemacht, oder versteh ich das falsch? Nvidia nutzt DLSS Quality und alle anderen XeSS Ultra Quality, was nach einer kurzen Internetrecherche eine höhere Auflösung als Grundlage nutzt.
Und das kommt ja auch ungefähr hin, wenn man mal die Benchmarks vom Vorgänger und diesem hier vergleicht. Ist ja die selbe Engine und arg viel getan hat sich Grafisch jetzt nicht.
DLSS Quality und XeSS 1.3 Ultra Quality haben dieselbe Auflösungs-Faktoren, es kommt also dieselbe Renderauflösung bei raus.
 
Wolfgang schrieb:
@Kadett_Pirx
...AMD hat...nunja, eben FSR 3.1, was eben einfach nicht konkurrenzfähig ist. Von fünf Unternehmen die temporales Upsampling anbieten (AMD, Nvidia, Intel, Sony und Epic TSR) haben vier es geschafft, eine gute bis sehr gute Qualität zu erreichen, nur AMD nicht.
...
wobei FSR auf allen Fabrikaten läuft, auch auf ziemlich alten Karten, aber das ist leider nicht erwähnenswert - und ob dein harsches Urteil "nicht konkurrenzfähig" so wirklich stehen bleiben kann, ist auch fraglich
 
HAse_ONE schrieb:
Aber das wird ja hier gemacht, oder versteh ich das falsch? Nvidia nutzt DLSS Quality und alle anderen XeSS Ultra Quality, was nach einer kurzen Internetrecherche eine höhere Auflösung als Grundlage nutzt.
Und das kommt ja auch ungefähr hin, wenn man mal die Benchmarks vom Vorgänger und diesem hier vergleicht. Ist ja die selbe Engine und arg viel getan hat sich Grafisch jetzt nicht.
Anhang anzeigen 1538454Anhang anzeigen 1538455
Ich sage nicht das du falsch liegst.. ich finde es auch verstörend und unverständlich das man hier nicht mit FSR-Q bencht ..
obwohl es Qualitativ minderwertig ist.. ist sein Performance gewinn DLSS ähnlich
Ergänzung ()

Clonedrone schrieb:
Die 13% und 25% beziehen sich auf IPC. Zu Raytracing ist nur die Aussage "enorm" bekannt. Mit 25% wäre man bei der 7800 XT ja gerade mal auf 7900 XT-Niveau. Das glaube ich kaum, dass das AMD reicht. Da schafft man es ja nicht mal die 4070 Ti anzugreifen.
12% Raster IPC und 25% RT IPC + eventuell etwas Mehr takt..


  • Die traditionelle IPC von RDNA 4 wird im Vergleich zu RDNA 3 voraussichtlich um etwa 12 Prozent steigen ...
  • ... während die Verbesserung beim Raytracing enorm sein soll und die IPC voraussichtlich um etwa 25 Prozent steigen wird.
https://www.pcgameshardware.de/Graf...97980/News/Radeon-RX-8000-mit-RDNA-4-1458616/

Kommt ganz gut hin mit 7900xt Leistung in Raster und RT..
Die Karte kann nur übern Preis Punkten. Und dann dürfen es keine 450€ sein wenn die Konkurrenz die 5060/ti ist..
Bzw die 7900xt und 4070ti non S
 
Zuletzt bearbeitet:
Kadett_Pirx schrieb:
wobei FSR auf allen Fabrikaten läuft, auch auf ziemlich alten Karten, aber das ist leider nicht erwähnenswert - und ob dein harsches Urteil "nicht konkurrenzfähig" so wirklich stehen bleiben kann, ist auch fraglich
XeSS und TSR sind auf allen GPUs lauffähig und sehen in den meisten Fällen besser aus als FSR, teils deutlich. Was bringt mir dann, dass FSR auch auf allen GPUs läuft, aber schlechter aussieht?

Und selbst wenn. Ist ja schön, dass es auf allen Karten läuft. Bringt aber denen mit einer aktuellen Radeon nichts, die dafür eine schlechtere Bildqualität in Kauf nehmen müssen.
 
  • Gefällt mir
Reaktionen: shysdrag
Zurück
Oben