News FSR 4 mit AI?: AMD arbeitet an „ML based Next-Gen FSR“ für Black Ops 6

Taxxor schrieb:
Und für die beste Performance umgekehrt ebenso, da man für Parität in der Bildqualität ggü einer AMD Karte mit FSR nicht die gleiche DLSS Stufe verwenden muss, sondern eine niedrigere wählen kann.
Das ist auch der einzig valide Kritikpunkt an den aktuellen GPU Tests, dass eben DLSS und FSR und damit unterschiedliche Bildqualitäten verglichen werden.
.
Darum sind diese Balken Tests von CB und den anderen Seiten auch mittlerweile nichts sagend.

Zum eine hat NV den Vorteil durch besseren DLSS Support für Entwickler, da FSR bei dem ein oder anderen Spiel doch einen gute Job macht.
Im allgemeinen müsste DLSS Balanced (weniger Speicherbedarf) mit FSR Qualität verglichen werden.
Gleichzeitig aber auch auf die allgemeine Textur Qualität und Pop in geachtet werden, da der Wunder VRAM Zauber über aggressives frei schaufeln läuft und bei Mangel mit Matsch Texturen Endet.
 
  • Gefällt mir
Reaktionen: SweetOhm
Taxxor schrieb:
Wenn du die Auflösung runterstellst werden natürlich Details verschluckt
Ich rede hier aber nicht von "kleinen Details", sondern ganzen Bildinhalten. ZB, Funken, Schmetterlinge, Insekten sogar auch Regen/Schneefall die unter FSR gerne teils massiv sogar "geschluckt" werden, besonders auch schnell abhängig zur Entfernug.

Die meisten bekommen das gar nicht mit, ich "optimiere" fanatisch aus Prinzip vorher jedes Game, denn wenn ich bis zu Xxxx Stunden in eine Game investiere, dann muss alles bestmöglich passen, Bild, Sound (inkl KH Wahl) bis hin zur Maus / Gamepad für maximale Immersion und Spaß.
Auch entscheide ich ob ich ein Game auf Oled (c4), Qled (Qn90d) oder in VR (Q3) Zocke. Und da stelle ich sehr wohl immer SidyBySide Vergleiche an stets aktueller Hardware an (kanns mir Leisten und ist Hobby und Beruf gleichermaßen).

Und da zeigt sich nahezu immer das eine statische Schärfung besser ist als FSR. Was die Schärfeartefakte angeht, so kommt dies wenn mans damit übertreibt oder ein "mix" zusammen kommt aus Gameinternen, Treiberseitigen oder im Anzeigegerät gesetzten Nachschärfern, manchmal kommen auch bestimmte Farb/Kontrastsettings dazu. Das wird viel zu oft unterschätzt und nicht bedacht.
Daher kommt es auch das zB DLSS nicht bei jedem Setup gut rüber kommt, weil eben beim Enduser nicht bekannt ist auf welchem Ausgabegerät und welche "verbieger" am laufen sind.
Nicht umsonst hat DLSS ich glaub seit 2? extra einen Schärferegler bekommen, den viele nicht mal kennen / zu benutzen wissen.


I
 
MasterWinne schrieb:
Nicht umsonst hat DLSS ich glaub seit 2? extra einen Schärferegler bekommen, den viele nicht mal kennen / zu benutzen wissen.
Der wurde seit DLSS 2.5.1 wieder entfernt bzw hat keinen Effekt mehr in Spielen wo er drin ist, wenn man die Version hochzieht. Die Devs sollen dann über NIS nachschärfen, wenn sie wollen(analog zu AMDs RIS)

Ich schärfe immer über das Nvidia Overlay nach, wenn es mir mal zu unscharf sein sollte.
 
Chismon schrieb:
Bei Digital Foundry - die anders als CB schon einen sehr gelungenen (sogar mit Empfehlungen zu allen Spieleinstellungen) Techniktest zu Dragon Age (4) : The Veilguard online haben - wird FSR eher gelobt als verschmäht
An welcher Stelle soll das denn vorkommen. In deinem verlinkten Video geht es hauptsächlich PS5 vs PC.
DLSS hab ich gesehen, aber von FSR keine Spur.
 
Chismon schrieb:
Bei Digital Foundry - die anders als CB schon einen sehr gelungenen (sogar mit Empfehlungen zu allen Spieleinstellungen) Techniktest zu Dragon Age (4) : The Veilguard online haben - wird FSR eher gelobt als verschmäht ;) @Vitche :
Ich weiß nicht, inwiefern du dein Argument selbst ernst nimmst, aber es war nie das Problem, dass FSR in manchen Spielen nicht nah an DLSS rankommt. Das Problem ist, dass es in immer noch viel zu vielen (auch neuen) Spielen deutlich schlechter ist als alle anderen zur Verfügung stehenden Upsampling-Techniken. Und das stellt auch DF immer wieder so heraus.

Chismon schrieb:
steigt doch bitte wieder von Eurem hohen (Enthusiasten-)Ross herunter (denn den meisten dürfte das aktuelle FSR noch genügen und die würden dafür eben nicht Hunderte Euro mehr bezahlen, sonst könnten die gleich nVidia kaufen).
Eben genau das machen die allermeisten ja.

Und nein, selbstverständlich finde ich es nicht gut, dass AMD Nvidia so das Feld überlässt. Das geht auch schon aus meinem ersten Beitrag hervor; ich wünsche ihnen explizit Erfolg. Manchmal ist's hier echt Kindergarten.
 
MasterWinne schrieb:
Kann doch jeder selber Testen und sehen. Im Gegensatz zu FSR werden keine Details verschluckt oder Kantenflimmern dazugezaubert und ist auch nicht so Blurry (wie leider viele Games heute auch die von Haus aus schon intern Scalen um zu verschleiern wie dreckig sie optimiert sind) wenn man die Auflösung runter stellt und nachschärft, hat man meist ähnliche Leistungsergebnisse bei teils gar schärferen Pixeln.

Ist halt nicht meine Erfahrung. Auch die Tests haben eigentlich immer ein besseres Bild gezeigt. Das neue Dragon age spiele ich auch mit 1800p und fsr Quality und es sieht gut aus.
Ergänzung ()

Vitche schrieb:
Ich weiß nicht, inwiefern du dein Argument selbst ernst nimmst, aber es war nie das Problem, dass FSR in manchen Spielen nicht nah an DLSS rankommt. Das Problem ist, dass es in immer noch viel zu vielen (auch neuen) Spielen deutlich schlechter ist als alle anderen zur Verfügung stehenden Upsampling-Techniken. Und das stellt auch DF immer wieder so heraus.

Es liegt dann ja offensichtlich an den Entwicklern. Ob sich das dann überhaupt jemals ändert? Komisch dass da nie in einem Interview oder so mal nachgehakt wurde, wodran das liegt.
 
  • Gefällt mir
Reaktionen: SweetOhm
Vitche schrieb:
weil DLSS Quality und spätestens DLAA bei den neueren Releases eigentlich konsequent besser aussehen als "Nativ" + TAA oder FSR, selbst < UHD).
Ja, weil TAA die vermutlich schlimmste Technologie ist, die man sich in Sachen Bildqualität vorstellen kann. Ich habe noch kein Spiel erlebt, wo das nicht aus meinem 1440p Bild ein z.T. wirklich unspielbares 720p Youtubevideo gemacht hat. Oft noch mit schönem Ghosting, damit man auch ja nichts mehr erkennt wenn man mal die Kamera etwas bewegt. DLSS ist dann immerhin ein 1080p Video und irgendwie spielbar. Immer noch schlecht aber natürlich besser als das Kriegsverbrechen TAA.

DLSS ist (meist) klar besser als FSR, aber machte (als ich noch ne Nvidiakarte hatte) das Bild trotzdem mehr oder weniger unscharf. Upsampling bei <4k ist imho in 90% der Fälle Schrott und nichts als eine Notlösung. Fühlt sich meist an wie eine Sehschwäche und ist einfach extrem unangenehm.
 
  • Gefällt mir
Reaktionen: SweetOhm
coolmodi schrieb:
Upsampling bei <4k ist imho in 90% der Fälle Schrott und nichts als eine Notlösung. Fühlt sich meist an wie eine Sehschwäche und ist einfach extrem unangenehm.
Das mag mit DLSS 1 vor 5 Jahren noch so gewesen sein, ist aber inzwischen wirklich nicht mehr der Fall. Auch in WQHD und immer öfter auch in Full HD schafft es aktuelles DLSS Quality bei neueren Spielen regelmäßig, besser oder zumindest nicht schlechter als "nativ" + TAA auszusehen. Frag @Wolfgang! :)
 
Vitche schrieb:
Ich kann mir sehr gut vorstellen, dass zumindest RDNA 2 außen vor bleibt. Von RDNA 2 zu RDNA 3 hat AMD die "KI-Fähigkeiten" deutlich ausgebaut; möglicherweise wird da der Cutoff sein. Ich will aber auch nicht ausschließen, dass das ganze exklusiv auf RDNA 4 laufen wird. Selbst dann wäre es aber eine positive Entwicklung und definitiv nötig. Dass AMD alte Hardware immer lange mitschleift ist einerseits nett, aber irgendwann müssen die Zöpfe dann eben abgeschnitten werden und dann mag es plötzlich mehr wehtun. Aus Gründen der Abwärtskompatibilität mit neuen Produkten nicht konkurrenzfähig zu sein und weiter an Boden zu verlieren, kann sich AMD echt nicht länger leisten.
Dann hast du eine falsche Vorstellung. Es kommt auch für RDNA 2.
 
  • Gefällt mir
Reaktionen: SweetOhm
Vitche schrieb:
... aber es war nie das Problem, dass FSR in manchen Spielen nicht nah an DLSS rankommt. Das Problem ist, dass es in immer noch viel zu vielen (auch neuen) Spielen deutlich schlechter ist als alle anderen zur Verfügung stehenden Upsampling-Techniken.

Auf einmal nicht mehr (?), da kann ich mich aber noch an andere Bekundungen hier erinnern, denn ständig wird daran herumgemäkelt, trotz der viel späteren/nachträglichen Einführung von FSR bei AMD, des (vergleichsweise kleinen) Bruchteils des Finanzrahmens bei AMD von dem bei nVidia im Grafikkartenbereich, usw. und daraus werden dann die oft steilen Aufpreise (neben Raytracing) für nVidias Grafikkartenkarten trotz i.d.R. weniger Speicher in gleicher Leistungsklasse oft auch hier begründet.

Wann steht denn XeSS zur Verfügung und wieso ist die Implementierung wohl schlechter (?); na, aus guten Gründen für Entwickler bei den Marktanteilen (siehe unten).

Nun, ich habe zumindest nicht jahrelang wie andere hier treu mein Geld zu nVidia (am liebsten pünktlich alle 2 Jahre, bevor diese evt. noch anfangen (beim Speicher) zu schwächeln) für neue Grafikkarten getragen und die Marktsituation so mitgeprägt, die ziemlich irreversibel scheint, weil es m.E. schon länger eine marktbeherrschende Stellung gibt (auch wenn die dafür zuständigen Behörden das weiterhin ignorieren).

Im Gegensatz zu Dir habe ich eine AMD Desktop-Grafikkarte als letztes gekauft und hätte somit wohl deutlich mehr Grund mich darüber zu beschweren als Du mit Deiner - den Status Quo absichernden - nVidia Karte, was Du vielleicht einmal hinterfragen solltest.

Nein, mich wurmt es als AMD dGPU Käufer scheinbar nicht so inbrünstig wie Dich, dass FSR schwächer ist als DLSS aus den o.g. Gründen und bei der Implementierung durch Entwickler sind wir schon seit längerem da angelangt, dass AMD gegenüber nVidia Käufern in der Regel (nicht immer, es gibt auch Ausnahmen) benachteiligt werden (nicht erst seit der Einführung von Upscaling), aber das wüsstest Du vermutlich wohl auch besser, wenn Du damit mehr Erfahrung gemacht hättest.

Solange die Kartellbehörden sich da einen schlanken Fuß machen und nVidia den Markt quasi weiter so beherrscht und teilweise schon diktiert wie seit vielen Jahren, solange wird sich auch nichts ändern an den Marktverhältnissen und evt. besseren Implementierungen von AMD Techniken durch Entwickler ... trauriger Weise läuft es auf ein Prinzip Hoffnung hinaus, aber m.E. immer noch besser als ein komplettes nVidia Monopol zu fördern und das kannst Du gerne anders sehen, wenn Du möchstest.

Ich bin da im Gegensatz zu Dir eher des Lobes für AMD dafür, dass die sich noch damit abgeben und investieren in neuen Gaming-Grafikkarten anstatt sich ganz zu verabschieden, anstatt AMD den schwarzen Peter für die teilweise unmzureichende FSR Implementierung in Spielen zu geben (denn es gibt ja durchaus gute Implementierungen von FSR), die eher den Entwicklern anzulasten sein dürfte (die dafür aber auch Ihre gewinnmaximierenden Gründe haben dürften).

Vitche schrieb:
Manchmal ist's hier echt Kindergarten.
Ich denke, den dürftest Du mit Deinem Beitrag, speziell folgendem, in diesem Fall leider eher eröffnet haben:

... ist das für AMD einfach nur peinlich. Gemessen an DLSS sowieso. Es wird dringend Zeit, dass AMD hier nachbessert und ich hoffe wirklich, dass sie mit FSR 4 - oder wie auch immer es heißen mag - endlich ein konkurrenzfähiges Upsampling anbieten. Sonst können sie Gaming-Grafikkarten bald auch ganz sein lassen.

De facto ist es inzwischen soweit, dass man zwingend zu einer GeForce greifen muss, wenn man in neuen AAA-Titeln die bestmögliche Bildqualität haben mag

Es sind nicht AMD, die hier peinlich sind, vielleicht auch nicht die Entwickler, die sich nach den Marktmehrheitsverhältnissen und Kosten-Nutzen-Aufwand profitmaximierend bei minimalem Aufwand orientieren und somit für z.T. halbgare Implementierung von Upscaling-Techniken sorgen, sondern diejenigen, die trotzdem nVidia feiern und kaufen und glauben AMD (dGPU Käufer) belehren zu müssen.

Der Zug ist längst abgefahren, da braucht man kein Marketing, Framing, medialen Hype oder sonst irgendetwas zu bemühen, wenn seit einem Jahrzehnt nVidia ein relativ stabiles Quasi-Monopol hat mit im Schnitt 70(+)% Markanteil und von den Kartellbehörden diese nachhaltig marktbeherrschende Position geduldet wird (zum zunehmenden Nachteil aller Grafikkartenkäufer).

Untitled.jpg


Noch einmal für Dich, falls Du Dir noch nicht die Zeit genommen haben solltest das zur obigen Grafik passende CoreTeks Video anzuschauen und ja, das sehe ich (und wohl auch andere) als das große Problem im Gaming betreffenden Grafikkartenbereich (die Investitionsungleichheiten seit langer Zeit, dazu die Marktsituation, usw.):


Als überzeugter nVidia Käufer kannst auch Du froh sein, dass Deine deutlich (zum Marktstart) über 1000 Euro teure RTX 4080 (fast preislich doppelt so viel wie beim Vorgänger) nicht noch teurer angesetzt worden ist und AMD und Intel von dem Teil des Grafikkartenmarkts sich (noch) nicht verabschiedet haben für ein Monopol nVidias.

Wie weit soll mit dem Grafik-Detailwahn (den man per Lupe und in Standszenen suchen muss) und -Leistungswahn (siehe mies optimierte/stotternde Unreal Engine 5 und damit gemachte Mainstream-Spiele wie MechWarrior 5 Clans, wo eine RTX 4080 in 4K/UHD scheinbar auch schon verhungert - was auch zeigt wie unheimlich sich eine aktuelle/teure nVidia High-End dGPU (dafür) lohnt - also am besten bald pünktlich eine RTX 5090 nachkaufen, egal wie unverhältnismäßig das ist) eigentlich noch getrieben und medial beworben werden und was sollen die Leute (abseits von ein paar Hobby-Enthusiasten in Ihren Elfenbeintürmen) noch zahlen?

Es geht übrigens auch anders, siehe Frostbite Engine (Dragon Age (4) : The Veilguard Video von Digital Foundry), die es wohl scheinbar ohne Ruckeln schafft aber dafür auf Unreal Engine 5 "Hollywood-Effekte" wie Lumen und Nanite auch verzichten kann und gerade dadurch eben für eine viel bessere Spielbarkeit durch die Bank/für eine große Spielerschaft sorgt, anstelle von ein paar Grafikblender-Effekten, die nur eine Nischenkäuferschaft mit High-End dGPUs preist aber das Spiel nicht besser (lauffähig) macht.

Vielen dürften die Forderungen, was AMD und Intel noch alles mit einem Bruchteil des Kapitals von nVidia in dem Bereich leisten sollen, zunehmend weltfremd vorkommen, so schaut's leider aus.

Der angebliche Mehrwert bei immer schlechter (optimiert) umgesetzten Spielen durch Entwickler seit Einführung von DLSS Upscaling und auch verstärkt ersichtlich mit der Etablierung der für den grafischen Gegenwert m.E. viel zu fordernden Unreal Engine 5 steht schon jetzt für viele nicht mehr in einem gesunden Verhältnis zu den aktuellen (geschweige denn zukünftigen) Grafikkartenpreisen, denn das Bockmist-Marketing von nVidia und Co. (über mediale Wege) zieht auch bei ehemaligen nVidia-Käufern mittlerweile nicht mehr (genauso wie Raytracing etliche Jahre nach Einführung leider immer noch oft genug nicht wirklichen Mehrwert bietet in Spielen (ohne abartig viel Leistung zu kosten)).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jo0 und SweetOhm
Vitche schrieb:
dass sie mit FSR 4 - oder wie auch immer es heißen mag - endlich ein konkurrenzfähiges Upsampling anbieten. Sonst können sie Gaming-Grafikkarten bald auch ganz sein lassen.
Also mir wäre lieber die Games/Software würde mal wieder "ordentlich" optimiert auf den Markt kommen,
Damit wir auf den ganzen "Schmarr´n" verzichten könnten ... :stacheln:
Ergänzung ()

DaHell63 schrieb:
An welcher Stelle soll das denn vorkommen. In deinem verlinkten Video geht es hauptsächlich PS5 vs PC.
DLSS hab ich gesehen, aber von FSR keine Spur.
Muss man halt auch lesen/verstehen/glauben "wollen" ...
 

Anhänge

  • FSR3 vs DLSS3.jpg
    FSR3 vs DLSS3.jpg
    179,9 KB · Aufrufe: 29
  • FG FSR.jpg
    FG FSR.jpg
    382,3 KB · Aufrufe: 27
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon
DaHell63 schrieb:
An welcher Stelle soll das denn vorkommen.
Ab ca. 12:00 (min) im Video wird Upscaling mit DLSS, XeSS und FSR angeschnitten und auch FSR gezeigt und mit DLSS verglichen auf einer RTX 4060 (leider ist der Text ungeschickter Weise teilweise von der Videozeitleistenbeschriftung verdeckt worden):

Untitled.jpg


Untitled.jpg
 
  • Gefällt mir
Reaktionen: SweetOhm
Chismon schrieb:
Wie weit soll mit dem Grafik-Detailwahn (den man per Lupe und in Standszenen suchen muss) und -Leistungswahn (siehe mies optimierte/stotternde Unreal Engine 5 und damit gemachte Mainstream-Spiele wie MechWarrior 5 Clans, wo eine RTX 4080 in 4K/UHD scheinbar auch schon verhungert - was auch zeigt wie unheimlich sich eine aktuelle/teure nVidia High-End dGPU (dafür) lohnt - also am besten bald pünktlich eine RTX 5090 nachkaufen, egal wie unverhältnismäßig das ist) eigentlich noch getrieben und medial beworben werden und was sollen die Leute (abseits von ein paar Hobby-Enthusiasten in Ihren Elfenbeintürmen) noch zahlen?
Nüchtern betrachtet, spielen heute so viele Menschen Videospiele wie noch nie zuvor. Und es über diese Masse schwierig einen "Mittelwert" der benutzten Hardware zu bilden, aber zumindest ist klar, die Leute mit mit RTX4090/7900XTX High End Hardware spielen ist eine verschwindend geringe Minderheit in dieser Masse an Spielern. Die überwältigende Mehrheit der Leute spielt auf Notebooks, die deutlich weniger Leistung haben und der nächste große Anteil spielt auf Mittelklasse Hardware, die mindestens eine Generation, wenn nicht sogar zwei Generationen veraltet ist.
Du kannst auch diese aktuellen Spiele, wie eben Dragon Age durchaus auf solcher Hardware spielen. Eben nicht auf maxed out bei 4k Auflösung und dir Gedanken über den Luxus machen, ob nativ+AA, oder DLAA oder doch DLSS.
(Das ist auch mit der Hauptgrund, warum Raytracing sich noch nicht durchgesetzt hat. Diese Masse an Endkunden kann noch gar kein Raytracing flüssig darstellen.)
Diese Spieler sind über das FSR/DLSS Feature relativ happy, weil die bis dato mit dem Spieleigenen Upscaler bereits auf einer niedrigen Renderauflösungen kombiniert mit mittleren/niedrigen Details auf "nur" FullHD spielen.
Bis Dato gehen auch moderne Spiele recht gut auf niedrigen Einstellungen und mit älterer Hardware. Ich sehe hier keinen Grund, weswegen Kunden dazu "genötigt" werden 1000€ Grafikkarten kaufen zu "müssen".
Wir schauen hier aus unserer Blase auf die Spiele und mit der Erwartungshaltung, dass es immer maxed out sein muß, mindestens 100FPS erreichen muß und der Monitor immer 4k hat.
Mittel bei 60FPS auf FullHD ist viel realitätsnäher.
FSR und DLSS sind Features, die für die Bildqualität TAA ablösen und gleichzeitig noch FPS bringen.
Und selbst bei Nvidia geht das bis zur 1650/2060 zurück, also durchaus auf Karten mit hoher Verteilung (die 1060 hat bereits ihren Status als häufigste Karte bei Steam verloren)
 
  • Gefällt mir
Reaktionen: Chismon
SweetOhm schrieb:
Muss man halt auch lesen/verstehen/glauben "wollen" ...
Würde Dir tatsächlich mal zu Gesicht stehen. Hier gings um FSR/DLSS und nicht um FG.
Deine beiden Bildchen sind am Thema vorbei...und wie üblich hast Du den relevanten Teil nicht berücksichtigt und wie bei deinen selektierten Benchmarks den Artikel neu verföhnt.
Wie gesagt ging es aum FSR/DLSS

FG FSR.jpg

Bei deinem zweiten Artikel vom LUXX....keine Ahnung wie die darauf kommen dass sei die selbe Qualität...
https://imgsli.com/MzE1NjI1
...live am Bildschirm wird der Unterschied noch deutlicher.
 
Zuletzt bearbeitet:
Chismon schrieb:
Leider massiv überbewertet, die angeblich so viel schlechtere Bildqualität von FSR3.1 im Vergleich zu DLSS und sicherlich würden nicht Scharen von Leuten (außerhalb der hier diskutierenden Blase) sich nur wegen FSR4 eine neue AMD Grafikkarte kaufen, egal mit wie viel Marketing und wie medial dafür geworben wird

Alles richtig und auf der PS5 Pro richtig supi dank FRS3.1 und PSSR nochmal ein Punkt plus zur UE5 naja die ist immer noch Müll vielleicht mal mit 5.8 nutzbar ;)
 
  • Gefällt mir
Reaktionen: Chismon
Zurück
Oben