• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Final Fantasy XVI im Test: 22 Grafikkarten von Einstieg bis High-End im Benchmark

Ich habe am Wochenende FSR2.2 mal in einem Titel ausprobiert (FF XIV). FF XIV hat nur FSR 1.0. Via einem DLSS-Mod kann man aber höhere FSR-Versionen verwenden. Da es ein Mod ist, weiss ich nicht ob FSR generell sich so verhält.
Aber zumindest in dem Test war das Spiel deutlich weniger scharf, als Nativ (3440x1440). Das war auch in Bewegung deutlich sichtbar. Die Gesichter haben teilweise eine komische Klötzchenbildung. Also es hat mich gar nicht überzeugt.

Das einzig positive dass ich noch sehe, für Leute mit schwachen Grafikkarten kann das die bessere Option sein als Auflösung runter und den Monitor skalieren lassen.

Werde es demnächst auch mal auf dem 4K-TV ausprobieren. Vielleicht sieht es da anders aus.

Meine nächste Grafikkarte könnte Nvidia werden. Dann werde ich das sicher auch mal mit DLSS noch ausprobieren und mit mehr Titeln als nur grad diesem.
Aber zumindest hat mich dieser kurze Test skeptisch werden lassen gegenüber Upsampling mit FSR.

Noch zu FF XVI, habe es auf der PS5 schon gespielt. Ist ein OK-Spiel, mehr nicht. Die hätten das GoT Setting das am Anfang gesetzt wird konsequent weiterziehen sollen. Dann wärs glaube ich Hammer geworden.
 
10Tflops vs 80Tflops - nahezu gleiches Ergebnis. Ich vermute dass Sony nicht verstanden hat was die Kartellbehörde ihnen gesagt hat. Bringt eure Siele auf PC dann bringt M$ weiterhin CoD auf der Playstation. Die haben nicht gesagt "bringt verkrüppelten verbuggten Mist aufn PC". Es wird Zeit für M$ zurückzuschlagen. Und dann noch die Oberfrechheit mit 1000€ für die PS5pro, das einzige was Sony an dem Ding was kostet sind die SSDs. der Rest ist billiger Last-Gen-PC Müll
 
Brrr schrieb:
FF XIV hat nur FSR 1.0
Brrr schrieb:
FSR2.2 mal in einem Titel
Was den jetzt? Wenn es um FSR1 sich handelt ist der nicht gerade Berühmt dafür gutes Bild aus zu geben, genau so wie DLSS1 😏
Ergänzung ()

Brrr schrieb:
Ich habe am Wochenende FSR2.2 mal in einem Titel ausprobiert
Das ist ja auch derselbe wenn die cb.de hier die Grafikkarten nur in einem Spiel testen würden und anhand dessen die Rangliste aufstellen, einfach nicht Aussage kräftig und darf nur als unbedeutsame Meinung angesehen werden.
 
Maxysch schrieb:
Was den jetzt? Wenn es um FSR1 sich handelt ist der nicht gerade Berühmt dafür gutes Bild aus zu geben, genau so wie DLSS1 😏
Das Spiel bringt FSR1 und DLSS 2 mit, via Mod kann das Spiel im DLSS Modus aber höhere FSR-Versionen.
Ergänzung ()

Maxysch schrieb:
Das ist ja auch derselbe wenn die cb.de hier die Grafikkarten nur in einem Spiel testen würden und anhand dessen die Rangliste aufstellen, einfach nicht Aussage kräftig und darf nur als unbedeutsame Meinung angesehen werden.
Klar, mehr ist das nicht.

Habe mir jetzt aber mal das Vergleichsvideo für FF XVI angeschaut FSR vs Nativ. Wenn sich der Charakter nicht bewegt ist das Bild Nativ IMHO schöner, in Bewegung ist das FSR Bild hingegen schärfer.
Edit: Aktiviert das Spiel Motion Blur, sobald der Charakter in Bewegung ist und FSR gleicht das aus?
 
Zuletzt bearbeitet:
@Brrr Das Problem ist nur das FSR 1 und DLSS 1 einfach nicht zu gebrauchen sind, außer ohne das Spiel nicht flüssig läuft. Generell ist ab DLSS2 und FSR2 sind die upsamplings zu gebrauchen, DLSS hat dabei immer die Nase vorn, aber benötigt Nvidia Karte und ab DLSS3 eine RTX4000er Serie.
 
BloodGod schrieb:
Ja, der neue Treiber, unter anderem für FF XVI, hatte ihn installiert, dann ging DSR bei Final Fantasy XIV nicht mehr, obwohl ich es im Treiber eingestellt hatte. Nein, das Spiel startete in der Auflösung 1920 × 1080p. Dann habe ich den Treiber mit DDU entfernt, neu installiert, Einstellungen eingegeben, Neustart des PCs und des Spiels, nö, geht nicht.
Also noch mal DDU hergenommen, den alten Nvidiatreiber neu installiert, meine Einstellungen gesetzt, Neustart und dann ging es wieder. DSR von 1820 × 1090p auf 3840 × 2190(4.00x) hochgerechnet. Da ich mehr FF XIV spiele, lasse ich den neuen Nvidia Treiber einfach weg, ein paar verwaschene Texturen verbessert, brauche ich jetzt nicht.
 
Sagt mal muss man für Special K irgendwas einstellen nach dem man diese installiert hat? In FF16 kann ich zwar das Option Menü aufrufen aber keine Ahnung was man da einstellen sollte :D
 
Sorry CB einfach ein Witz!
FullHD ist quasi seit Jahren Standard! Wer sich heute einen neuen PC zusammen stellen möchte, steht zwangsläufig auch vor der Frage ob noch ein FullHD Monitor oder min. WQHD vielleicht sogar UHD!
Jetzt kauft man sich was aktuelles und gibt gerade bei NV ein Haufen Kohle aus, wie z.B. einen 7800X3D und eine 4070 und kann die Aktuellen Spiele nicht mal ohne tricksereien spielen. WTF Ja selbst FHD User sollen mit aktueller Hardware tricksen! Für FHD!!! Was ist hier los? Keines der Spiele setzt in Sachen Grafik neue Maßstäbe, das man sagen könnte, mit der nächsten GEN wirds dann besser und nochmal, wir reden hier über FHD. Bei 4K sag ich gar nix. Da ist selbst die beste GPU am Limit. Das sehr schwache GPU´s tricksen müssen... ok. Aber HighEnd kaufen und dann soll ich bei den aktuellen Spielen auch nur mit Tricks was gerissen bekommen? Vielleicht mal den Blick weg von der Hardware hin zur Software und da den Finger in die Wunde legen! Lächerliches FHD!!! Die Anforderungen sind nicht immer höher geworden, sondern die Optimierung findet nicht mehr statt! Change my Mind. Vermutlich wird seit der UE5, die Hoffentlich bald einen starken Gegner mit Unity 6 bekommt gar nix mehr gemacht. Null. Einfachl los und die werden es schon Fressen.

Im einkaufsfüher schreibt Ihr selbst " In UHD ist DLSS oder FSR inzwischen oft Pflicht – und auch sinnvoll ".
Ja in UHD kann das auch mal so sein. Aber in FHD?? WTF

Da Frage ich mich, wo geht den die immer bessere Leistung (die man ja immer teuerer Erkaufen muss) hin?

In mehr FPS und bessere Grafik jedenfalls nicht. Soll nix gegen Nvidia sein, aber diese AFFINITÄT für Upsampling, ich kann es nicht mehr lesen, hören.

Wie wäre es, wenn Ihr wenigstns für FHD auch native Tests zeigt? Wenn die Spiele Null optimiert sind, das sie in WQHD und UHD selbst Highend GPU´s und besser nichts mehr gebacken bekommen. Ok. Dann muss es wohl so sein. Bitte nicht irgendwelche pseudo Argumente von besserer Bildqualität die man in irgendwelchen Standbildern igendwann mal mit der Lupe sehen kann. In jedem Test liest man ja auch eben von Problemen und Nebenwirkungen eben wegen Upsampling! Die Fallen ja OH SCHRECK weg, wenn ich nativ Spiele. Beim Spielen sieht man von der angeblich leicht besseren Grafik eh nix! Die Probleme nerven aber Massiv!

MfG
 
Auf die Gefahr hin Öl ins Feuer zu gießen, muss ich noch einen Beitrag schreiben der etwas Off-Topic aber On-Thread ist:

Ich empfinde es wirklich als Schade, wie negativ die Technik bzw. Computergrafik Community mittlerweile unterwegs ist. Natürlich gibt es Probleme mit Preisen und verbuggten Releases, das darf und sollte man kritisieren. Ich würde sagen FFXVI ist da nicht der richtige Kandidat, da keine nennenswerten Bugs/Glitches und 50€ zu Release auf PC. 70€ mit allen DLC. Ist doch alles im Rahmen.

Dieser Thread macht nun schon wieder das ganze Fass auf, das RT sinnlos ist (das Spiel hat gar kein RT btw...), Upsampling Beschiss etc.

Leute, was ist denn los? Stellt euch mal vor in den 80ern hätten die Leute gesagt: "Polygone? Was soll das denn, Formen durch grobe Dreiecke annähern? Und dann braucht das noch super teure extra Hardware um irgendwie zu funktionieren? Da bleibe ich lieber bei 2D, da können Kurven wenigstens rund gezeichnet werden und es geht doch eh nur um gute künstlerische Gestaltung! Elende Grafikblender!"

Ist natürlich ein bisschen überspitzt, aber im Endeffekt liest es sich mittlerweile so.

Beschäftigt euch mal damit, wie die menschlichen Augen funktionieren (z.B. warum ein Sekundenzeiger auf den ersten Blick stillzustehen scheint, wenn man draufschaut) und ihr werdet festellen das Techniken des temporalen Upsamplings sich der funktionsweise des menschlichen Gehirns annähern. Das ist eine verdammt clevere Technik um völlig sinnlose Verschwendung von Rechenleistung zu reduzieren. Kann das noch besser werden? Ja. Aber das ist nicht der Untergang guter Grafik sondern der reale weg zu Photorealismus. Anders ist temporale Stabilität gar nicht realistisch hinzubekommen.

Ich hoffe das ich damit einigen einen Denkanstoß geben kann, auch wenn ich viele natürlich nicht erreichen werde.
 
  • Gefällt mir
Reaktionen: Marcel_ und Taxxor
sue181 schrieb:
Yadda yadda Sony yadda yadda verkrüppelten verbuggten Mist aufn PC. yadda yadda 1000€ für die PS5pro, das einzige was Sony an dem Ding was kostet sind die SSDs. der Rest ist billiger Last-Gen-PC Müll

Möchtest du uns erklären, was Sony mit dem PC-Port zu tun hat? Sony hat sich nur zeitexklusive Rechte gesichert, für alles Andere ist Square Enix verantwortlich.

Möchtest du uns erklären, was an verkrüppelt schlecht ist, oder wieso benutzt du das Wort in einem negativen Kontext?

Möchtest du uns erklären, wie du die 1000€ berechnest? Von Laufwerk und Standfuß sehe ich nichts in deinem geschriebenen. Die Konsole kostet 799€.

Möchtest du uns erklären, wie Sony es geschafft hat, dass die nichts für die APU von AMD zahlen müssen? Und nichts für den Zusammenbau? Nichts für das Gehäuse? Also wirklich nur die SSD kostet Sony was?
 
Matthias80 schrieb:
In jedem Test liest man ja auch eben von Problemen und Nebenwirkungen eben wegen Upsampling! Die Fallen ja OH SCHRECK weg, wenn ich nativ Spiele
Wie du in diesem Test hier lesen und im Vergleichsvideo auf Seite 1 auch sehen kannst, ist die Rangfolge was die Optik angeht in FF XVI:
XeSS < Nativ(TAA) < FSR < DLSS.
Denn die Probleme, die FSR und DLSS hier haben, hat TAA in noch stärkerem Maße.
Ergänzung ()

sue181 schrieb:
der Rest ist billiger Last-Gen-PC Müll
Soso, ein Hybrid aus RDNA 3.5 und RDNA4 ist also Last-Gen?
Ergänzung ()

Brrr schrieb:
Edit: Aktiviert das Spiel Motion Blur, sobald der Charakter in Bewegung ist und FSR gleicht das aus?
Da einfach nur das Hoch-Preset verwendet wurde, ist Motion Blur aktiv. Das hilft aber auch dem nativen Bild weil man dann in Bewegung weniger flimmern sieht.
Ich hab den Blur aus, dann ist der Unterschied in Bewegung zwischen TAA und FSR/DLSS noch mal größer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Brrr
Taxxor schrieb:
hat TAA in noch stärkerem Maße.
Die sind doch anders gelagert!

Problem die erst durch den Einsatz von upsampling ect. kommen!

Input lag, Latenz, Bröselgrafik, noise-Effekte, rauschen, flimmern, disocclusion-artefakte, bildstabilität, ghosting, schlieren, unschärfe, usw.

Kein Anspruch auf Vollständigkeit und muss auch nicht immer am upsampling liegen.

Manche engines flimmern halt z. B.
 
Selten, dass mich mal so ein Grafikkartentest neugierig auf ein Spiel macht. Hier ist es gelungen und Steam hat fast 70 € von mir gekriegt. Nur, dass ich vergessen habe, wie groß inzwischen diese scheiß Spiele geworden sind. Vor 137,9 GB Download hätte man mich ja auch warnen können. Das wird noch eine Weile dauern, bis ich es spielen kann. Aktuell fehlen noch fast 100 GB. Und Steam zeigt ine viel längere Restzeit an, als ich es im Kopf ausgerechnet habe.
Screenshot 2024-10-03 035722.png

Bin mal gespannt, was mir das Spiel für Einstellungen für meine RX 7600 auf 1440p vorschlägt.
 
Matthias80 schrieb:
Problem die erst durch den Einsatz von upsampling ect. kommen!

Input lag, Latenz, Bröselgrafik, noise-Effekte, rauschen, flimmern, disocclusion-artefakte, bildstabilität, ghosting, schlieren, unschärfe, usw.
Nochmal, lies doch den Test hier, es gibt hier keine Probleme die erst vom Upsampling kommen, es gibt nur Probleme die schon bei TAA vorhanden sind und die mit FSR und DLSS weniger vorhanden sind.

Latenz und Input Lag hat nichts mit Upsampling zu tun, dass wäre Frame Generation.
Wo wir vor allem bei AMDs Version sehen dass die Latenz nicht steigt, weil hier interne Latenzreduzierungen arbeiten die man ansonsten nicht separat nutzen kann (im Gegensatz zu Reflex bei NVIDIA) und die die höhere Latenz von FG ausgleichen.

Flimmern und Bildstabilität sind zwei Punkte in denen Upsampling in so gut wie jedem Fall, so auch in diesem Spiel, klar besser als Nativ+TAA ist.

Disocclusion Artefakte und Ghosting sind hier und da vorhanden, aber in diesem Fall hier eben mit FSR gleich stark wie mit dem normalen TAA und mit DLSS weniger stark ausgeprägt.

Final Fantasy XVI hat eine sehr schlechte temporale Kantenglättung. Sie hat die Bildstabilität vor allem in geringeren Auflösungen als Ultra HD überhaupt nicht im Griff, teils extrem flackernde Bildteile gehören damit zur Tagesordnung. Darüber hinaus hat das TAA mit Ghosting zu kämpfen und es gibt Disocclusion-Artefakte. Das hat zur Folge, dass sowohl FSR als auch DLSS unabhängig von der Auflösung eine bessere Bildqualität als „Nativ“ bieten
 
Zuletzt bearbeitet:
Taxxor schrieb:
Nochmal, lies doch den Test hier
Hab alle Tests gelesen und die Probleme zusammen getragen.

Da man DLSS FG in einem Atemzug sagt, habe ich input lag und Latenz mit aufgenommen.

Vielleicht bin ich zu blind die Probleme zu sehen, oder es liegt daran das ich die Spiele spiele und keine Einzelbilder analysiere.

Unterm Stich, wenn man sich die Bilder hier anschaut sind die unterschiede marginal. Ob manches besser oder schlechter aussieht, liegt wohl im Auge des Betrachters.

Wie einfach waren die Zeiten, wo nur die einzelnen FPS Werte zum Vergleich herangezogen wurden.

Taxxor schrieb:
es gibt hier keine Probleme die erst vom Upsampling kommen
Meinst du damit nur explizit diesen Test?

Die Aussage das es keine Probleme gibt, durch diese tricksereien sind schlicht falsch.
Viele Probleme die ich neuerdings hier lese, beziehen sich explizit auf eigenarten die durch die tricksereien erst entstehen. Davon hat man vorher bei keinem Spiel gelesen.
Da wurden die unterschiedlichen AA ausgewertet. Wenn mehrere angeboten wurden. Bildstabilität, ob die Grafik flimmert, aufplopende Texturen, Textur Qualität allgemein, ect. Ect. Deswegen schrieb ich ja kein Anspruch auf Vollständigkeit UND das einige Probleme auch vorher schon existieren. Das aber durch die tricksereien neue Probleme und oft alte Probleme verstärkt werden das liest man auch oft! DESWEGEN wäre ich froh, wenn wenigstens in FHD eine verdammt teure GPU was gerissen bekommt. Warten wir mal UNITY ab. Vielleicht gehören die Probleme der Vergangenheit an. Oder die Presse legt mal den Finger in die Wunde und die hersteller optimieren mal wieder ein wenig, wenigstens soviel das die lächerliche Auflösung FHD spielbar wird.


ich zitiere:

"an seine Grenzen und fängt sichtbar an zu flimmern – weniger als die anderen Technologien, aber mehr als in den meisten anderen Spielen."

"Darüber hinaus ist die Disocclusion-Problematik häufig sichtbar ausgeprägt."

"Nun kommt allerdings das große Aber: Was es vorher kaum, nun jedoch extrem ausgeprägt gibt, ist Ghosting – und zwar mehr oder weniger überall."

"Auch die zahlreichen NPCs „ghosten“ stark. Winken sie, um Aufmerksamkeit zu erzeugen, schliert die Bewegung extrem. Bewegen sie ihre Beine, schliert dies deutlich. Und eben nicht nur kurzzeitig während der Bewegung, denn der Effekt hält sekundenlang an. Letzteres gilt jedoch nur, wenn es keine Kamerabewegung gibt. Ist sie vorhanden, ist der Schliereffekt an sich derselbe, doch das sekundenlange Anhalten entfällt."

"Das Ghosting von FSR 3.1 ist in Ratchet & Clank: Rift Apart trotz der vielen kleinen Verbesserungen derart ausgeprägt, dass das neue Upsampling in dem Spiel wenig bis keinen Spaß macht. "

"Auch größere Wasserstellen haben mit Grafikfehlern zu kämpfen. Ist das Wasser in Bewegung, kommt FSR 3.1 damit nicht zurecht und es gibt zahlreiche Artefakte zu sehen."

"Ghosting begleitet FSR 3.1 dann auch in Spider-Man"
 
Matthias80 schrieb:
Meinst du damit nur explizit diesen Test?
Ja, dieser Test in dessen Kommentarspalte du schreibst und gefragt hast warum man nicht nativ FHD getestet hat, weil man ja in jedem Test von Problemen durch Upsampling liest.

Das hab ich dir beantwortet:Weil es in diesem Spiel eben nicht so ist und es keinen Aspekt gibt, der nativ besser aussieht
Ergänzung ()

Matthias80 schrieb:
man DLSS FG in einem Atemzug sagt, habe ich input lag und Latenz mit aufgenommen.
Wer sagt das? Wenn es um Upsampling geht, sollte niemand an FG denken.
Genauso wie niemand bei „DLSS FG“ an Upsampling denken sollte
 
Zuletzt bearbeitet:
Matthias80 schrieb:
Aber in der Realität wird es wenn es das Spiel anbietet, genutzt. So getestet. Usw. Usw.
FG ist halt kein Upsampling und CB testet auch standardmäßig nicht mit FG, höchstens als Zusatztest und auch der fehlt hier.
 
Die kritischen Steambewertungen finde ich abschreckend. Im späteren Spielverlauf fällt die Performance anscheinend krass ab.
 
Zurück
Oben