News AMD: FSR 3.0 soll die Framerate im Jahr 2023 verdoppeln

Bisher klingt das leider für mich so als ob AMD den Weg von Nvidia geht und FSR3.0 nur RDNA3.0 exklusiv macht.

Ich hoffe ich irre mich.
 
Czk666 schrieb:
AMD taugt nicht nur dazu die Preise von Nvidia zu drücken. Jetzt sollen sie auch noch herhalten Nvidia Features auf alten Karten freizuschalten. Hauptsache ihr müsst nicht AMD kaufen. Die Treiber....
Denke ich mir grade auch bei all den Kommentaren... ganz schön dreist. Ich kaufe mein Leben lang AMD aus Überzeugung und bin zufrieden (Außer 1x Intel wegen der Bulldozer Geschichte, da ging es halt wirklich nicht).
Alle kaufen bei den Monopolisten und klagen dann über gelockte Features... unglaublich. Gibt bereits so viele Features die AMD vorrangetrieben hat und frei zugänglich gemacht hat... das muss man denen auch mal mit einem Kauf ihrer Produkte loben
 
  • Gefällt mir
Reaktionen: Casillas, Ernie75, gr1zzly und 13 andere
Wird aber auch Zeit dass die eingefrorene Leistung in form der KI Kerne endlich mal abgerufen wird. Die Chips konnten für die Tests nicht mal ihr volles Potential zeigen. Ich bin wirklich gespannt.
 
Naxtrumrar schrieb:
Denke ich mir grade auch bei all den Kommentaren... ganz schön dreist. Ich kaufe mein Leben lang AMD aus Überzeugung und bin zufrieden (Außer 1x Intel wegen der Bulldozer Geschichte, da ging es halt wirklich nicht).
Alle kaufen bei den Monopolisten und klagen dann über gelockte Features... unglaublich. Gibt bereits so viele Features die AMD vorrangetrieben hat und frei zugänglich gemacht hat... das muss man denen auch mal mit einem Kauf ihrer Produkte loben
AMD ist kein Wohlfahrtsverein. Preislich sind alle Karten im Moment der blanke Hohn auf Socken. Wenn man die Preise mal ausklammert hat nvidia hier aber wieder mal das wesentlich rundere Produkt abgeliefert. Da bringen mir am Ende tolles Features "for free" auch nix, wenn das Produk an sich wieder die reinste Banane ist.
 
Ich kann der FSR oder auch DLSS Technik nichts abgewinnen. Früher, wenn die Karte zu schnell war oder auch heute noch kann man Resolutionscaling nutzen. Sprich in einer höheren Auflösung rendern als nativ.

Heute scheint der Trend in die andere Richtung zu gehen. Die Karte schafft in Spiel X Y in UHD keine vernünftigen FPS, also rechnet man in einer niedrigeren Auflösung. Aber Hauptsache das Marketing suggeriert dann die doppelten FPS obwohl es nicht mehr die native Auflösung des verwendeten Bildschirms ist.

Aussagekräftig bleibt für mich einzig und allein die native Auflösung was Leistung betrifft!
Je nach Spiel funktioniert die Technik auch mal mehr oder weniger gut. Sprich eben mit Nachteilen wie oft deutlich mehr Unschärfe vor allem in Bewegungen, Bugs, Lag (Latenz), usw usw ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Piep00, loser, Bonos und 3 andere
startaq schrieb:
Bedeutet eine Unterstützung von FSR 3.0 dass auch automatisch FSR 2.x unterstützt wird, oder ist das komplett unabhängig? In der Liste der zukünftigen Spiele sind ja einige, die momentan nur FSR 1.x unterstützen.
Frame Generation funktioniert mit Motion Vektoren, FSR3 wird das gleiche brauchen.
Die Engine muss also die selben Daten liefern, die auch DLSS2 und FSR2 brauchen, ergo sollten die 3er Integrationen die 2er inkludieren
 
  • Gefällt mir
Reaktionen: rumpeLson und startaq
Ich habe bereits ein paar Spiele die FRS2 haben getestet, immer mit dem Resultat das ich es wieder abgeschaltet habe.
Ich finde auch RT können sie sich aufheben für die HighEnd Grafikkarten weil alles unter 4080 TI/7900xtx ist der Leistungseinbruch einfach zu hoch.
DLSS ist genauso ein Tool das eigentlich nicht zu gebrauchen ist, alles was ich bisher gesehen habe war unbefriedigend (RTX2070Super)
Bis ich zu einer Graka komme die FRS3/ DLSS3 beherrscht, da ziehen noch ein paar Jahre ins Land.
 
  • Gefällt mir
Reaktionen: Benji18
BxBender schrieb:
Mit DLSS3 wird die Latenz höher, weil die neuen Bilder berechnet werden müssen und in dieser Zeit keine Eingabe ermöglicht wird.
Das wird mit FSR3 vermutlich gleich sein.
Man hat also eine simulierte höhere Bildrate, was gur für benchmarkbalken ist, aber ansonsten kann der Schuss in Sachen Spielgefühl sogar nach hinten losgehen, wie man bei Tests auch im Eigenversuch herausgefunden hat.
Bedingt richtig, die Eingabe kommt ja erstmal von der CPU. Warten wir mal auf unabhängige Tests
 
Benji18 schrieb:
DLSS könnte auf jeder GPU laufen, das will man nicht …. FSR zeigt was geht und das ist auch gut so.
Nein könnte es nicht, da die genutze Hardware (Tensor Cores) nur bei RTX-Karten vorhanden ist
 
  • Gefällt mir
Reaktionen: MoinWoll und RogueSix
Ja nee ist klar .... drum funktioniert FSR auch auf Karten ohne ....
genauso wie RTX Voice mit ein paar tricks auch ohne funktioniert ....
 
Na dann bin ich mal auf die ersten Tests gespannt. Besonders im "Upper-Mid-Range" Bereich könnten die Technologien spannend werden.
 
  • Gefällt mir
Reaktionen: Benji18
IXI_HADES_IXI schrieb:
Ich kann der FSR oder auch DLSS Technik nichts abgewinnen. Früher, wenn die Karte zu schnell war oder auch heute noch kann man Resolutionscaling nutzen. Sprich in einer höheren Auflösung rendern als nativ.

Heute scheint der Trend in die andere Richtung zu gehen. Die Karte schafft in Spiel X Y in UHD keine vernünftigen FPS, also rechnet man in einer niedrigeren Auflösung. Aber Hauptsache das Marketing suggeriert dann die doppelten FPS obwohl es nicht mehr die native Auflösung des verwendeten Bildschirms ist.
Ich habe eine knapp 6 Jahre alte Grafikkarte. Ohne FSR hätte ich Cyberpunk niemals flüssig auf die Mattscheibe bekommen.
FSR verlängert die Lebenszeit einer Grafikkarte ernorm, wenn man bereit ist, sich darauf einzulassen.
 
  • Gefällt mir
Reaktionen: rhin_tin, MoinWoll, scootiewolff22 und 12 andere
Benji18 schrieb:
Ja nee ist klar .... drum funktioniert FSR auch auf Karten ohne ....
genauso wie RTX Voice mit ein paar tricks auch ohne funktioniert ....

Wäre schön, wenn Du Dich mit beiden Techniken mal beschäftigen und Dir wenigstens Basis-Informationen anlesen würdest. DLSS und FSR sind grundverschieden in der Art ihrer Umsetzung.

In extremer Kürze:

FSR ist ein simpler Algorithmus (= Mathematik), der in der Tat von jedem (Grafik-)Prozessor ausgeführt werden kann, weil das genau das ist, was jeder Prozessor den lieben langen Tag lang macht: Algorithmen unterschiedlichster Natur und Komplexität ausführen.

DLSS dagegen beruht -wie das DL (Deep Learning)- schon vermuten lässt, auf einem gänzlich anderen Ansatz. nVidia analysiert/trainiert mit einem hauseigenen neuronalen Netzwerk die unterstützten Spiele und es werden basierend auf Vorhersagen näherungsweise die "perfekt"-möglichsten Upscaling-Ergebnisse erzeugt. Die so gewonnen Informationen fließen dann als Code in den Treiber mit ein und werden pro Spiel auf den Tensor Cores ausgeführt. Das ist also schon etwas komplexer als FSR, was nVidia da veranstaltet und offensichtlich nicht einfach universell übertragbar für andere GPUs.
 
  • Gefällt mir
Reaktionen: MoinWoll
RogueSix schrieb:
Wäre schön, wenn Du Dich mit beiden Techniken mal beschäftigen und Dir wenigstens Basis-Informationen anlesen würdest. DLSS und FSR sind grundverschieden in der Art ihrer Umsetzung.
Das war mir vorab schon bewusst ...
Dennoch hätte Nvidia die Möglichkeit gehabt DLSS als eine "Light" also ein Fallback Variante auf älteren Karten anzubieten , wie man sieht funktionert FSR durchaus zufriedenstellend.

Aber man hat sich wie immer dazu entschieden zum wohle des profits einen anderen Weg zu gehen, kommt drauf an was FSR3.0 wird kann DLSS durchaus genauso sterben wie Gsync mit HW Dongle .... od. Physiks
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ernie75
Hoffe schon drauf, das FSR 3 -wenn technisch machbar-auch auf RDNA2 laufen wird.
 
  • Gefällt mir
Reaktionen: rumpeLson, Czk666 und Benji18
@RogueSix Wenn FSR2.x im Quality Mode gleichwertige Resultate zu DLSS2.x liefern kann dann ist der „Umweg“ über Tensor Cores mir als Enduser relativ egal. Und das ist sehr oft schon der Fall.

Nvidia versteht es einfach gut Exklusivität zu generieren und dazu das technologische Narrativ zu spinnen, dass es ja nicht anders ginge.
Ich bin mir sicher mit etwas gutem Willen und Ingenuität wär DLSS3 auch auf Ampere machbar gewesen.
 
  • Gefällt mir
Reaktionen: daknoll, JJJT, Ernie75 und 5 andere
Sun-Berg schrieb:
Ich bin mir sicher mit etwas gutem Willen und Ingenuität wär DLSS3 auch auf Ampere machbar gewesen.

Wenn Du Dir da so sicher bist, dann wende Dich doch mal an die nVidia Entwickler, die sich dessen wegen der Hardwareanforderungen und wegen des fehlenden OFA nämlich gar nicht mal so sicher sind.
Die sind bestimmt dankbar, wenn ihnen ein ausgewiesener Experte mal den Weg weist, wie man DLSS 3 mit annehmbaren Ergebnissen (Framerate und Bildqualität) auch auf älteren Karten zum Laufen bekommt.
 
  • Gefällt mir
Reaktionen: MoinWoll und Nuklon
Nun werdet doch nicht gleich so salty, wenn jemand mal eine andere Meinung hat. ;)

Gibt ja auch den einen Typ, der DLSS Frame Generation auf einer 2070 aktivieren konnte.
Ganz so von der Hand zu weisen ist es also nicht, dass es sich nV halt einfach macht:
"Das ist ein Feature für die neue Generation, macht es uns einfacher es weiterzuentwickeln, da weniger Hardware zu berücksichtigen ist".
Ist halt auch nachvollziehbar aus Herstellersicht.

https://wccftech.com/nvidia-dlss-3-...rtedly-bypassed-rtx-2070-gets-double-the-fps/
 
  • Gefällt mir
Reaktionen: Ernie75 und RogueSix
Zurück
Oben