News AMD: FSR 3.0 soll die Framerate im Jahr 2023 verdoppeln

Sollte das support für meine RTX 3080 geben gelobe ich in Zukunft nur noch AMD Karten zu kaufen :D
 
  • Gefällt mir
Reaktionen: Rockstar85, Ernie75, anarchie99 und 4 andere
Wenn das so klappt wie es versprochen wird, wird meine nächste Karte AMD.

Fühle mich durch NVIDIA doch schon sehr verarscht mit meiner 3090 ohne DLSS 3.0. Das war schon ein tritt in den Hintern :D.

Hätte ich das gewusst, wäre es wohl eine 6800 oder 6900 geworden.

Hinterher ist man immer schlauer.
 
  • Gefällt mir
Reaktionen: Ernie75, anarchie99, Meister1982 und eine weitere Person
Für mich steht fest: FSR 3.0 muss her um in Ray Tracing mit einer AMD-Karte gegenüber NVidia mithalten zu können. Ich möchte mittlerweile auch nicht mehr drauf verzichten, werde aber ins grüne Lager wechseln, wenn die RT-Performance nicht wirklich besser wird. Für mich ist es mittlerweile einfach auch ein Verkaufsargument (und Cyberpunk sieht in 4K HDR auf meinem OLED mit RT Ultra auch einfach geil aus... also die ruckelnden Standbilder :P )
 
  • Gefällt mir
Reaktionen: Lübke82
Benji18 schrieb:
Nvidia Features sind dumm für den Kunden weil Sie nicht open Source sind und man den Goldenen Käfig braucht.
Ich bin jetzt trotz GTX (als Ersatz ist schon eine RDNA2 geplant) im Case auch nicht der große Freund von Jensen, aber dumm sind die Nvidia Features in erster Linie mal nicht.
Da steckt auch Know-How dahinter.
Wenn man den proprietären Ansatz nicht gut findet, und da gehör ich auch dazu, dann ist das zwar blöd aber durchaus legitim wie ein Hersteller seine eigenen Entwicklungen handhabt.
Ich wüßte nicht dass irgendwo geschrieben steht dass alles im IT Sektor allen anderen auch kostenlos zur Verfügung gestellt werden muss. Immerhin kostet Entwicklung neuer Features auch Geld.
Und dass sich Nvidia mit seiner Marktposition halt auch leichter tut nur für sein eigenes Klientel zu entwickeln ist auch irgendwie klar. Ich wär mir nicht sicher wie AMD das handeln würde wenn die Marktposition umgekehrt wäre.

Es ist ähnlich wie bei dem Intel Compiler für Matlab (?); der fragt auch erst ab welche CPU im Sockel steckt.
Genuine Intel -> AVX wird genutzt
AMD -> es wird nur SSE3 oder 4 genutzt, obwohl eine CPU wie zB. mein Zen2 ebenfalls AVX könnte.
Intel ist nicht für Support von Produkten Dritter zuständig, aber es hinterlässt halt schon ein Geschmäckle.

Milliardenschwere Konzerne ticken halt anders als es sich der kleine Forumnerd vielleicht einbildet oder wünscht.
Intel wird es auch völlig egal sein, dass ich mir seit 20 Jahren keine blaue CPU für meinen persönlichen Bedarf mehr gekauft hab, weil die immer wieder mit irgendwelche unsympathischen Verhalten mich vom Kauf abgehalten haben.
Klar, AMD ist auch nicht die Wohlfahrt, aber mal blumig aufs Strafgesetzt gemünzt, dann leg ich mich lieber mit dem kleinen Ladendieb ins Bett als mit dem bewaffneten Kapitalverbrecher. :D
Vote with your wallet, sag ich immer.... und irgendwo muss man ja kaufen wenn man Hardware braucht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: daknoll, Rockstar85, Ernie75 und 3 andere
Sun-Berg schrieb:
@RogueSix Wenn FSR2.x im Quality Mode gleichwertige Resultate zu DLSS2.x liefern kann dann ist der „Umweg“ über Tensor Cores mir als Enduser relativ egal. Und das ist sehr oft schon der Fall.

Nvidia versteht es einfach gut Exklusivität zu generieren und dazu das technologische Narrativ zu spinnen, dass es ja nicht anders ginge.
Ich bin mir sicher mit etwas gutem Willen und Ingenuität wär DLSS3 auch auf Ampere machbar gewesen.
Naja, ich habe beide Hersteller bereits gehabt und sitze aktuell auf einer AMD. Aber DLSS sah vor 2 Jahren auf meiner 2070 Super schon besser aus als jetzt FSR 2 auf meiner 6800XT.
Ergänzung ()

IXI_HADES_IXI schrieb:
Das muss jeder für sich selbst abwägen ob er lieber gute Texturen oder teilweise Matsch am Schirm haben möchte wenn man es übertreibt in Sachen "Niedrigrendering".

Da bleibe ich lieber bei nativer Auflösung und bediene lieber die Grafikregler! ;)
Je nach Spiel sieht zumindest DLSS sogar besser aus als nativ. ;)
 
@Iconoclast Ich kann DLSS nicht testen aber soweit ich lese, hängt das tatsächlich auch vom Spiel ab. Grösstenteils ist DLSS wohl etwas besser aber den Unterschied sucht man letztenendes doch mit der Lupe. Ein Titel wo FSR zum Beispiel wirklich nicht sehr gut funktioniert ist Spiderman: Miles Morales. In Witcher 3 4.0 (allerdings mit zusätzlichen Schärfefilter per Treiber*, weil CDPR es nicht "geschafft" hat den ins Spiel zu integrieren) sieht FSR2 - Quality für mich nicht schlechter aus als Nativ mit TAAU. Während des Spielens sieht man die Unterschiede eh nicht mehr. Es hängt wirklich stark vom Spiel ab.

Klar, wenn man sich auf die Forendiskussionen versteift wo dann mit der Lupe Details herausgehoben werden, dann kann man sich wunderbar darüber streiten, was jetzt besser ist. Unterm Strich haben beide ihre Vorteile und Macken. Beide werden ja auch weiterentwickelt. Aber wenn Nvidia für grösstenteils vergleichbare Resultate extra Tensor Cores braucht... naja.

Nvidia hat dann noch den Vorteil, dass Sie offenbar mehr Geld in das Sponsoring stecken und DLSS Exklusivität erzeugen (Plague Tale: Requiem) oder einfach dafür sorgen dass FSR2 etwas stiefmütterlicher behandelt wird und etweder erst viel später (CP2077) oder mit beschnittenen Features (Schärfefilter in Witcher 3 NG) integriert wird. Zum Glück konnten Modder in so einigen DLSS2 Titeln einfach FSR2 reinmodden. Ohne grösseren Aufwand oder Unterstützung durch AMD.


*Hier hatte ich letztens noch den AMD CAS Schärfefilter über Reshade dazugeschaltet. Mittlerweile habe ich gemerkt dass der Treiberseitige Schärfefilter funktioniert, wenn man im Wattman ein Profil für das Spiel erstellt.
 
  • Gefällt mir
Reaktionen: IXI_HADES_IXI, Zitterrochen und Benji18
Also ich habe einige Vergleichvideos geschaut (habe keine RTX Karte) und dessen Analysen haben ziemlich ähnliche Ergebnisse zwischen DLSS2 und FSR2 ergeben. FSR flimmert mehr und DLSS hat mehr Ghosting. Ich finde beide Technologien sehr gut und beeindruckend.

Ich bin gespannt wie ein Flitzpiepe auf FSR3 und ob es auf älteren Karten und fremden Karten läuft sowie ob es auf Onbaordgrafik läuft. Ich bin auch gespannt womit Frame Generation läuft. Angeblich braucht man laut NV K.I. Hardware. Naja TVs können das seit 10 Jahren.
 
Was ich immer noch nicht so ganz verstehe ist, braucht das "Upscaling" mit dem ganzen drum herum, wirklich so viel weniger Rechenleistung als das echte Berechnen der einzelnen Pixel.

Kann mir das jemand kurz und knapp einfach erklären?
 
Hach schön, dann kann ich auf meiner "alten" Nvidia Karte ein AMD Feature nutzen, weil das Nvidia Feature nur auf ganz neuen Nvidia Karten läuft... :freak:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TexHex, up.whatever, Zitterrochen und 3 andere
Nachdem du mit dem Post nun genau gewartet hast bis es 2023 geworden ist um das schreiben zu können, wäre es Hilfreich wenn du alle anderen hier auch in die Entwicklung einweihst und etwas aktuelles dazu postest. Danke!
 
  • Gefällt mir
Reaktionen: Rockstar85 und M3930
polyphase schrieb:
Was ich immer noch nicht so ganz verstehe ist, braucht das "Upscaling" mit dem ganzen drum herum, wirklich so viel weniger Rechenleistung als das echte Berechnen der einzelnen Pixel.

Kann mir das jemand kurz und knapp einfach erklären?
Ja
 
  • Gefällt mir
Reaktionen: daknoll und taeddyyy
Auch wenn das nicht direkt on-topic ist, aber was ist eigentlich aus dem Gerücht geworden, dass für RTX 3000 noch DLSS 3.0 kommen soll. Da gab es doch mal vor nem Monat oderso, die Aussage, dass es das geben soll, es wohl aber nicht ganz so performant werden soll wie bei den 4000ern. Ich finde leider die Reddit Threads/Artikel nicht mehr.
 
Und wenn FSR 3.0 raus ist, geht DLSS 3.0 plötzlich auch auf RTX 3000er Karten.
 
  • Gefällt mir
Reaktionen: Hatch, cruse und Benji18
Iconoclast schrieb:
nach Spiel sieht zumindest DLSS sogar besser aus als nativ. ;)
Ganz sicher nicht,wie soll was skaliertes besser als nativ aussehen?

FSR und DLSS sind auch nur kompromisse,vorallem merkt man es an den details die flöten gehen.

Das kommt bei mir nur zum einsatz wenns wirklich anders nicht geht.
 
Blood011 schrieb:
Ganz sicher nicht,wie soll was skaliertes besser als nativ aussehen?
Aber mal sowas von. Wolfenstein Youngblood fällt mir da aktuell ein, was ich vor kurzem noch mal durchgespielt habe. Nativ gehen zum Beispiel feine Stromleitungen in der Ferne verloren, DLSS an und du siehst die Dinger auch in der Ferne noch und das scharf. Nativ gehen die Dinger wie gesagt verloren.

Ich beziehe mich da aber wie gesagt auch nur auf DLSS. FSR auf meiner 6800 XT aktuell schalte ich nie an, selbst die aktuelle Version sieht rotziger aus als DLSS vor 2-3 Jahren.
 
  • Gefällt mir
Reaktionen: Lübke82 und Pro_Bro
Es wäre super, wenn wir dann hin und wieder von CB Updates dazu bekommen, wie viele Spiele denn jetzt wirklich schon FSR 3.0 unterstützen. Das mit den 230 Spielen (in absehbarer Zeit) halte ich für extrem optimistisch, wenn ich mir mal die Unterstützung für FSR 2.0/2.1 anschaue. Von den 101 Spielen, die von AMD für FSR 2.0/2.1 genannt werden, sind wir offiziell immer noch ein gutes Stück von entfernt (ja ich weiß, einige Spiele davon sich noch nicht mal released).
 
Iconoclast schrieb:
Ich beziehe mich da aber wie gesagt auch nur auf DLSS. FSR auf meiner 6800 XT aktuell schalte ich nie an, selbst die aktuelle Version sieht rotziger aus als DLSS vor 2-3 Jahren.

Das ist dann wohl Geschmackssache. Ich schalte FSR2 Quality eigentlich in fast jeden Spiel dazu, weil es einfach gut läuft und in den allermeisten Fällen gut ausschaut. Aber wenn ich sowas schon lese wie "rotziger" dann ist mir schon klar dass es für dich ganz ganz schlimm sein muss.
 
Zuletzt bearbeitet: (Orthographie)
  • Gefällt mir
Reaktionen: daknoll, Zitterrochen, JJJT und 7 andere
Iconoclast schrieb:
Aber mal sowas von. Wolfenstein Youngblood fällt mir da aktuell ein, was ich vor kurzem noch mal durchgespielt habe. Nativ gehen zum Beispiel feine Stromleitungen in der Ferne verloren, DLSS an und du siehst die Dinger auch in der Ferne noch und das scharf. Nativ gehen die Dinger wie gesagt verloren.

Ich beziehe mich da aber wie gesagt auch nur auf DLSS. FSR auf meiner 6800 XT aktuell schalte ich nie an, selbst die aktuelle Version sieht rotziger aus als DLSS vor 2-3 Jahren.
Wird denke ich noch einiges an Zeit ins Land gehen bis jeder verstanden hat was da im Hintergrund eigentlich passiert und das nicht einfach nur hochskaliert wird (FSR1 und RSR mal ausgenommen), erinnere mich noch an Outriders, wie detailliert es plötzlich war mit DLSS. Ist ja inzwischen bei vielen Spielen so.
 
  • Gefällt mir
Reaktionen: MoinWoll
sOuLjA4eVeR schrieb:
Und wenn FSR 3.0 raus ist, geht DLSS 3.0 plötzlich auch auf RTX 3000er Karten.
Wenn FSR 3.0 raus ist, kommt als Antwort darauf DLSS 3.1 und fügt anstatt mickrige 2 gleich 4 Fake Frames hinzu.
Die Bildqualität wird sich im gleichen Atemzug natürlich auch verbessern und das Orginal bei weitem übertreffen.
 
  • Gefällt mir
Reaktionen: daknoll und C4rp3di3m
Zurück
Oben