News AMD: FSR 3.0 soll die Framerate im Jahr 2023 verdoppeln

An alle wegen dem "macht mein TV doch auch so" (sind zuviele um alle zu zitieren;))

Prinzipiell macht/kann es euer Fernseher besser!
Bei einem Video ist die Verzögerung egal. Im Extremfall kann der TV also Bild 1 und Bild 2 verwenden um bild1.5 zu berechnen. Das würde aber bei Games zu gigantischen inputlags beitragen (weswegen die ganzen zwischenbildberechner im Gamemode deaktiviert werden)

Für FG muss quasi geraten werden wie das nächste logische Bild aussähe. Ist quasi so ein bisschen wie in die Zukunft schauen ;)

Low qualiti geht dass auch relativ einfach, aber hat dann halt extreme Artefakte zur Folge.


Bin gespannt ob/wann AMD was ordentliches liefert. Die slides enthalten so wenig Info, dass ich eher mit Ende 2023/Anfang 2024 mit einem vernünftigen Release rechne
 
  • Gefällt mir
Reaktionen: Oudenstekelig und Kuestennebel79
Czk666 schrieb:
Wie verhält es sich denn wenn du die frames auf 60-70 beschränkst? Merkst du einen Unterschied in der latenz?
Einige Hersteller haben inzwischen geschnallt, wie FG funktioniert und passen einfach die Polling- Rate an, wenn Du FG zuschaltest.
So kannst Du ein Bright- Memory mit DLSS und FG komplett ohne einen zusätzlichen Input- Lag genießen. Auch wenn z.B. in der Basis nur 30FPS zur Verfügung stehen geht dass Polling mit aktiviertem FG dann auf 60 pro Sekunde. Womit es keine erhöhte Eingabeverzögerung mehr gibt. Kann dort jeder mal ausprobieren und sich dann fragen, ob ein erhöhter input lag wahrgenommen wird :)

Die Abfrage von Eingaben und auch die internen Berechnungen sind ja grundsätzlich erstmal nicht an eine spezielle Bildrate gekoppelt. Die meisten Syncen halt aber aus gewohnheit die Pollrate mit der Framerate.

In VR läuft das schon lange Asynchron und das sehr gut (asynchroneous spacewarp). Sind halt alles so Dinge, die sich erst einschleifen müssen. Wie es zu Anfang bei DLSS oder FSR halt auch war.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Taxxor, Fallout667 und Laphonso
.Sentinel. schrieb:
. Sind halt alles so Dinge, die sich erst einschleifen müssen.
Ich selbst hatte das Phänomen, dass ich bei Spiderman erst mit Blick auf den fps Counter realisiert habe, dass FG angestellt ist, weil es so (unerwartet) sauber läuft. Genau das hatte der Digital Foundry Test auch erläutert, die dachten auch FG wäre aus, war aber bereits aktiviert.

Auch das ist wieder Spiel abhängig. In Hogwarts Legacy hat mich FG z.B. nicht so überzeugt, aber nicht wegen einer Latenz, sondern weil das ganze Spiel ja nicht richtig smooth und gut zum Release lief. Da konnten DLSS und/oder FG nicht so viel retten bzgl. der micro stutter und fps drops.
Ich weiß nicht wie es jetzt ist.
In Dying Light 2 war die nachgelieferte FG ordentlich mit ebenso absurdem fps boost.

In Portal RTX läuft die Kombination mit Raytracing, DLSS und FG fast grandios weich.
Von avg. 45 fps auf 120-130 fps ist komplett irre. Magie quasi :D

Wenn FSR3 dem nahe kommt trotz fehlender Acceleratoren (analog Ada mit OFA), mache ich den Kniefall vor AMD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
theGucky schrieb:
Das Spiel war aber deutlich flüssiger wegen den 120FPS.
Optisch habe ich NICHTS gesehen, keine Artefakte oder Fehler. Auch in anderen Spielen nicht.
Ich würde DLSS3 immer an machen
Genauso sehe ich das auch. Ich verstehe auch nicht, warum das Feature so durchschnittliche Kritiken bekommt von der Fachpresse. Optisch einwandfrei und allemal besser als Ghosting und Smearing des DLSS2 Upsamplers.
 
Lübke82 schrieb:
Noch dazu hat man ja schon oft gelesen wie fehlerhaft AMDs Lösungen im Treiber funtionierten was OC usw. betrifft.
Aha und welche Quellen hast Du für deine Urban Legend? Bitte um zahlreiche Quellen um deinen Post zu untermauern.
Fehler im Treiber gibt es sowohl bei NVidia wie auch bei AMD ...
Ansonsten hier noch ein Fisch für Dich ....

Aus eigener Erfahrung kann ich sagen, dass Wattman bei mir seit Jahren besser funktioniert als AB, sowohl mit Vega als auch jetzt mit 6800xt.

BTT:
Bin echt gespannt, ob sie den Achtungserfolg mit FSR1/2 wiederholen können. Immerhin läuft FSR auf fast allen Karten und es ist kein abgestimmtes, propietäres ML notwendig wie bei DLSS und das bei fast gleicher Qualität (je nach Qualität der Implementierung seitens der Spieleentwickler).
 
  • Gefällt mir
Reaktionen: Mironicus1337 und Syrato
Caramelito schrieb:
Freesync ging nicht auf NV-Karten. Ergo man brauchte zwingen einen G-Sync Modul Monitor. Es hieß immer man brauche die Hardware um das Ganze zu koppeln usw.

Streng genommen funktioniert FreeSync auch heute nicht auf nVidia-Karten, sondern nur die Adaptive Sync Implemenierung die nVidia "G-Sync Compatible" nennt. Dies funktionierte anfangs nicht, weil es erst in den Treiber integriert werden musste. Mit dem G-Sync Modul hat das nicht das Geringste zu tun.

G-Sync und G-Sync Ultimate funktionieren nur mit Modul. Heute wie damals.

FreeSync Premium und Freesync Premium Pro funktionieren wiederum nur auf AMD-Karten und nicht bei nVidia. Möchte AMD nicht.

Demon_666 schrieb:
Aha und welche Quellen hast Du für deine Urban Legend? Bitte um zahlreiche Quellen um deinen Post zu untermauern.

Er könnte einerseites die Release Notes der AMD-Treiber angeben oder auch so ziemlich jeden Thread zu einer "AMD hat nen neuen Adrenalin Treiber"-News.

Demon_666 schrieb:
Fehler im Treiber gibt es sowohl bei NVidia wie auch bei AMD ...

Kommt halt auch auf die Qualität der Fehler an.
"Die 4090 könnte in bestimmen Situationen ein flackerndes Bild in Spiel XY zeigen" ist halt was anderes als
"Nach der Treiberinstallation fährt vielleicht dein OS nicht mehr hoch"
 
Zuletzt bearbeitet:
Fallout667 schrieb:
Ich bin auch mehr als begeistert von DLSS 3 und FG.

Na dann müssten sie es aber doch schon längst fertig haben wenn es kaum Aufwand ist.
Das eine ist Kompatibilität der Grafikkarten und das andere die Erweiterung der Software auf Kompatibilität.
 
@DocWindows Adaptive Sync basiert auf bzw ist Freesync
 
Wenn FSR 3.0 kommt läuft, gut. Das Gute ist, man kann es nutzen oder lassen. Ich würde lieber die Einstellungen niedriger stellen, anstatt DLSS 3.0 zu aktivieren.

Ich sehen aktuell nur beim MSFS2020 den Vorteil von DLSS 3. In W40K Darktide und F1 22 "spürt" man, dass die Frames nicht auf die Aktion reagieren.
 
@jo0 Adaptive Sync ist der VESA Standard den AMD unter dem Namen "FreeSync" implementiert und nVidia unter dem Namen "G-Sync Compatible". Beide könnten natülich auch easy auf diese Namen verzichten und einfach "Adaptive Sync" auf die Packung schreiben, tun sie aber nicht. Das macht nur Intel.

Mastodon ist ja auch nicht ActivityPub, sondern Implementiert dieses Protokolls lediglich.
 
Zuletzt bearbeitet:
Fake frames, fake Auflösungen. Hättest das wem vor 5 Jahren erzählt😂

Was bringen 150 fps am counter wenn es sich anfühlt wie 75? Wie wärs mit schnellerer Hardware¿ 😒

Hat früher mehr spass gemacht. Bei NVIDIA kennt sich auch kein schwein mehr aus, Dls, Dlaa zig versioenen, 55 marketing begriffe, falsch beschriebene Karten.....Traurig.

Bringt einfach schnelle Hardware dann brauchst das alles eh nicht.
 
Lübke82 schrieb:
Und das sind alles Funktionen die er "Normalo" weder braucht noch nutzt. Ich butze Afterburner dafür und würd es auch weiternutzen wenn es das von Nvidia selbst im Treiber gäbe.

Noch dazu hat man ja schon oft gelesen wie fehlerhaft AMDs Lösungen im Treiber funtionierten was OC usw. betrifft.
Ja Du.
Tellerrand lässt grüßen.
Du benutzt eben lieber 3 Anwendungen anstatt einer.
Jeder soll einfach benutzen was er mag. Aber das bedeutet ja nicht, dass es keine Weiterentwicklung geben darf.
 
Hominem schrieb:
Bringt einfach schnelle Hardware dann brauchst das alles eh nicht.
Die Hardware ist mMn heutzutage nicht mehr so sehr das Problem. Die Software hinkt extrem hinterher. Würde die mal vernünftig auf die vorhandene Hardware optimiert werden, würde das imho mindestens eine Generation der HW obsolet machen.
 
pipip schrieb:
FSR 3.0 soll kaum Mehraufwand zu FSR 2.0 bedeuten.
Das heißt es bei FSR1.0 zu 2.0 auch. In der Realität kommen immer noch Spiele, die letzteres nicht haben oder nur DLSS.
 
Demon_666 schrieb:
Die Hardware ist mMn heutzutage nicht mehr so sehr das Problem. Die Software hinkt extrem hinterher. Würde die mal vernünftig auf die vorhandene Hardware optimiert werden, würde das imho mindestens eine Generation der HW obsolet machen.
Oder das.
Ergänzung ()

ComputerJunge schrieb:
Yo, macht endlich hinne. Und bitte nicht teuer.
Klar man kauft sich 1000€ Gpus diie nicht mal nativ schaffen und fake frames🤣
 
DocWindows schrieb:
@jo0 Adaptive Sync ist der VESA Standard den AMD unter dem Namen "FreeSync" implementiert und nVidia unter dem Namen "G-Sync Compatible". Beide könnten natülich auch easy auf diese Namen verzichten und einfach "Adaptive Sync" auf die Packung schreiben, tun sie aber nicht. Das macht nur Intel.

Mastodon ist ja auch nicht ActivityPub, sondern Implementiert dieses Protokolls lediglich.
Nein. Der Adaptive Sync Standart kam erst später und basiert auf AMD's Freesync, welches opensource ist.
 
Demon_666 schrieb:
Aha und welche Quellen hast Du für deine Urban Legend? Bitte um zahlreiche Quellen um deinen Post zu untermauern.
Fehler im Treiber gibt es sowohl bei NVidia wie auch bei AMD ...
Ansonsten hier noch ein Fisch für Dich ....
Die Mühe mach ich mir nicht, da mich das Thema nicht wirklich interessiert. Google findet da genug und solltest auch selbst hinkriegen.Ich verweise auf das Thema hier auf Computerbase wo zum Test der Automatischen Übertaktung im Treiber hingewiesen wurde das es fehlerhaft noch funktioniert. Auch wenn es möglicherweise nun funktioniert ist es doch fehlerhaft gewesen zur Veröffentlichung.
 
Hominem schrieb:
Klar man kauft sich 1000€ Gpus diie nicht mal nativ schaffen und fake frames
Ich kann Deine beabsichtigte Aussage nur raten: Du kannst den Kauf selbstverständlich auch unterlassen - andere Alternativen hast Du derzeit nicht.
 
Können wir ( die GPU Hersteller) uns mal wieder auf native Leistung konzentrieren?!?!

Die Idee ist gut, aber dass jetzt FPS Werte mit Upscaling Algorithmen auch bei Veröffentlichungen dazu gepackt werden stößt mir bitter auf...
Das sind imho Features, für schwache Systeme (Steam Deck/APUs), oder next Level Auflösungen (5-8k)!

Würden:
  • Devs Spiele besser optimieren (dürfen, weil wegen Geld)
  • Und NV & AMD (& Intel) mehr Leistung in die Chips packen
  • Und diese beiden Fraktionen sich dazu noch mit OS Hersteller verabreden zum Optimieren...
Bräuchte das kaum ein Mensch und es wäre kaum ein Thema.

Anderer Seits ist es natürlich auch Ressourcen schonender. Das wäre ein großer Pluspunkt für solche Technologie!
 
  • Gefällt mir
Reaktionen: Chismon
Zurück
Oben