Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD: FSR 3.0 soll die Framerate im Jahr 2023 verdoppeln
- Ersteller Wolfgang
- Erstellt am
- Zur News: AMD: FSR 3.0 soll die Framerate im Jahr 2023 verdoppeln
Naesh
Commodore
- Registriert
- Jan. 2011
- Beiträge
- 4.796
Wenn das so klappt wie es versprochen wird, wird meine nächste Karte AMD.
Fühle mich durch NVIDIA doch schon sehr verarscht mit meiner 3090 ohne DLSS 3.0. Das war schon ein tritt in den Hintern .
Hätte ich das gewusst, wäre es wohl eine 6800 oder 6900 geworden.
Hinterher ist man immer schlauer.
Fühle mich durch NVIDIA doch schon sehr verarscht mit meiner 3090 ohne DLSS 3.0. Das war schon ein tritt in den Hintern .
Hätte ich das gewusst, wäre es wohl eine 6800 oder 6900 geworden.
Hinterher ist man immer schlauer.
JohnDeclara
Lt. Junior Grade
- Registriert
- März 2008
- Beiträge
- 486
Für mich steht fest: FSR 3.0 muss her um in Ray Tracing mit einer AMD-Karte gegenüber NVidia mithalten zu können. Ich möchte mittlerweile auch nicht mehr drauf verzichten, werde aber ins grüne Lager wechseln, wenn die RT-Performance nicht wirklich besser wird. Für mich ist es mittlerweile einfach auch ein Verkaufsargument (und Cyberpunk sieht in 4K HDR auf meinem OLED mit RT Ultra auch einfach geil aus... also die ruckelnden Standbilder )
gustlegga
Commodore
- Registriert
- Nov. 2010
- Beiträge
- 4.121
Ich bin jetzt trotz GTX (als Ersatz ist schon eine RDNA2 geplant) im Case auch nicht der große Freund von Jensen, aber dumm sind die Nvidia Features in erster Linie mal nicht.Benji18 schrieb:Nvidia Features sind dumm für den Kunden weil Sie nicht open Source sind und man den Goldenen Käfig braucht.
Da steckt auch Know-How dahinter.
Wenn man den proprietären Ansatz nicht gut findet, und da gehör ich auch dazu, dann ist das zwar blöd aber durchaus legitim wie ein Hersteller seine eigenen Entwicklungen handhabt.
Ich wüßte nicht dass irgendwo geschrieben steht dass alles im IT Sektor allen anderen auch kostenlos zur Verfügung gestellt werden muss. Immerhin kostet Entwicklung neuer Features auch Geld.
Und dass sich Nvidia mit seiner Marktposition halt auch leichter tut nur für sein eigenes Klientel zu entwickeln ist auch irgendwie klar. Ich wär mir nicht sicher wie AMD das handeln würde wenn die Marktposition umgekehrt wäre.
Es ist ähnlich wie bei dem Intel Compiler für Matlab (?); der fragt auch erst ab welche CPU im Sockel steckt.
Genuine Intel -> AVX wird genutzt
AMD -> es wird nur SSE3 oder 4 genutzt, obwohl eine CPU wie zB. mein Zen2 ebenfalls AVX könnte.
Intel ist nicht für Support von Produkten Dritter zuständig, aber es hinterlässt halt schon ein Geschmäckle.
Milliardenschwere Konzerne ticken halt anders als es sich der kleine Forumnerd vielleicht einbildet oder wünscht.
Intel wird es auch völlig egal sein, dass ich mir seit 20 Jahren keine blaue CPU für meinen persönlichen Bedarf mehr gekauft hab, weil die immer wieder mit irgendwelche unsympathischen Verhalten mich vom Kauf abgehalten haben.
Klar, AMD ist auch nicht die Wohlfahrt, aber mal blumig aufs Strafgesetzt gemünzt, dann leg ich mich lieber mit dem kleinen Ladendieb ins Bett als mit dem bewaffneten Kapitalverbrecher.
Vote with your wallet, sag ich immer.... und irgendwo muss man ja kaufen wenn man Hardware braucht.
Zuletzt bearbeitet:
Iconoclast
Lt. Commander
- Registriert
- Okt. 2013
- Beiträge
- 1.687
Naja, ich habe beide Hersteller bereits gehabt und sitze aktuell auf einer AMD. Aber DLSS sah vor 2 Jahren auf meiner 2070 Super schon besser aus als jetzt FSR 2 auf meiner 6800XT.Sun-Berg schrieb:@RogueSix Wenn FSR2.x im Quality Mode gleichwertige Resultate zu DLSS2.x liefern kann dann ist der „Umweg“ über Tensor Cores mir als Enduser relativ egal. Und das ist sehr oft schon der Fall.
Nvidia versteht es einfach gut Exklusivität zu generieren und dazu das technologische Narrativ zu spinnen, dass es ja nicht anders ginge.
Ich bin mir sicher mit etwas gutem Willen und Ingenuität wär DLSS3 auch auf Ampere machbar gewesen.
Ergänzung ()
Je nach Spiel sieht zumindest DLSS sogar besser aus als nativ.IXI_HADES_IXI schrieb:Das muss jeder für sich selbst abwägen ob er lieber gute Texturen oder teilweise Matsch am Schirm haben möchte wenn man es übertreibt in Sachen "Niedrigrendering".
Da bleibe ich lieber bei nativer Auflösung und bediene lieber die Grafikregler!
@Iconoclast Ich kann DLSS nicht testen aber soweit ich lese, hängt das tatsächlich auch vom Spiel ab. Grösstenteils ist DLSS wohl etwas besser aber den Unterschied sucht man letztenendes doch mit der Lupe. Ein Titel wo FSR zum Beispiel wirklich nicht sehr gut funktioniert ist Spiderman: Miles Morales. In Witcher 3 4.0 (allerdings mit zusätzlichen Schärfefilter per Treiber*, weil CDPR es nicht "geschafft" hat den ins Spiel zu integrieren) sieht FSR2 - Quality für mich nicht schlechter aus als Nativ mit TAAU. Während des Spielens sieht man die Unterschiede eh nicht mehr. Es hängt wirklich stark vom Spiel ab.
Klar, wenn man sich auf die Forendiskussionen versteift wo dann mit der Lupe Details herausgehoben werden, dann kann man sich wunderbar darüber streiten, was jetzt besser ist. Unterm Strich haben beide ihre Vorteile und Macken. Beide werden ja auch weiterentwickelt. Aber wenn Nvidia für grösstenteils vergleichbare Resultate extra Tensor Cores braucht... naja.
Nvidia hat dann noch den Vorteil, dass Sie offenbar mehr Geld in das Sponsoring stecken und DLSS Exklusivität erzeugen (Plague Tale: Requiem) oder einfach dafür sorgen dass FSR2 etwas stiefmütterlicher behandelt wird und etweder erst viel später (CP2077) oder mit beschnittenen Features (Schärfefilter in Witcher 3 NG) integriert wird. Zum Glück konnten Modder in so einigen DLSS2 Titeln einfach FSR2 reinmodden. Ohne grösseren Aufwand oder Unterstützung durch AMD.
*Hier hatte ich letztens noch den AMD CAS Schärfefilter über Reshade dazugeschaltet. Mittlerweile habe ich gemerkt dass der Treiberseitige Schärfefilter funktioniert, wenn man im Wattman ein Profil für das Spiel erstellt.
Klar, wenn man sich auf die Forendiskussionen versteift wo dann mit der Lupe Details herausgehoben werden, dann kann man sich wunderbar darüber streiten, was jetzt besser ist. Unterm Strich haben beide ihre Vorteile und Macken. Beide werden ja auch weiterentwickelt. Aber wenn Nvidia für grösstenteils vergleichbare Resultate extra Tensor Cores braucht... naja.
Nvidia hat dann noch den Vorteil, dass Sie offenbar mehr Geld in das Sponsoring stecken und DLSS Exklusivität erzeugen (Plague Tale: Requiem) oder einfach dafür sorgen dass FSR2 etwas stiefmütterlicher behandelt wird und etweder erst viel später (CP2077) oder mit beschnittenen Features (Schärfefilter in Witcher 3 NG) integriert wird. Zum Glück konnten Modder in so einigen DLSS2 Titeln einfach FSR2 reinmodden. Ohne grösseren Aufwand oder Unterstützung durch AMD.
*Hier hatte ich letztens noch den AMD CAS Schärfefilter über Reshade dazugeschaltet. Mittlerweile habe ich gemerkt dass der Treiberseitige Schärfefilter funktioniert, wenn man im Wattman ein Profil für das Spiel erstellt.
crustenscharbap
Commodore
- Registriert
- Jan. 2008
- Beiträge
- 5.031
Also ich habe einige Vergleichvideos geschaut (habe keine RTX Karte) und dessen Analysen haben ziemlich ähnliche Ergebnisse zwischen DLSS2 und FSR2 ergeben. FSR flimmert mehr und DLSS hat mehr Ghosting. Ich finde beide Technologien sehr gut und beeindruckend.
Ich bin gespannt wie ein Flitzpiepe auf FSR3 und ob es auf älteren Karten und fremden Karten läuft sowie ob es auf Onbaordgrafik läuft. Ich bin auch gespannt womit Frame Generation läuft. Angeblich braucht man laut NV K.I. Hardware. Naja TVs können das seit 10 Jahren.
Ich bin gespannt wie ein Flitzpiepe auf FSR3 und ob es auf älteren Karten und fremden Karten läuft sowie ob es auf Onbaordgrafik läuft. Ich bin auch gespannt womit Frame Generation läuft. Angeblich braucht man laut NV K.I. Hardware. Naja TVs können das seit 10 Jahren.
GERmaximus
Rear Admiral
- Registriert
- Sep. 2015
- Beiträge
- 5.288
Hach schön, dann kann ich auf meiner "alten" Nvidia Karte ein AMD Feature nutzen, weil das Nvidia Feature nur auf ganz neuen Nvidia Karten läuft...
Zuletzt bearbeitet:
H
HierGibtsNichts
Gast
Ein Test aus Sommer 21 ist wohl in 23 bei voranschreitender Entwicklung in Software die es mit neuen Treiber auch bei Antilag gegeben hat, ist wohl kaum noch zielführend.Bruder_Joe schrieb:Gab bei Igorslab mal nen Test dazu. https://www.igorslab.de/nvidia-null...oost-was-ist-besser-latenzen-in-der-praxis/7/
SirSilent
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.628
Japolyphase schrieb:Was ich immer noch nicht so ganz verstehe ist, braucht das "Upscaling" mit dem ganzen drum herum, wirklich so viel weniger Rechenleistung als das echte Berechnen der einzelnen Pixel.
Kann mir das jemand kurz und knapp einfach erklären?
thepusher90
Lt. Commander
- Registriert
- Nov. 2011
- Beiträge
- 1.576
Auch wenn das nicht direkt on-topic ist, aber was ist eigentlich aus dem Gerücht geworden, dass für RTX 3000 noch DLSS 3.0 kommen soll. Da gab es doch mal vor nem Monat oderso, die Aussage, dass es das geben soll, es wohl aber nicht ganz so performant werden soll wie bei den 4000ern. Ich finde leider die Reddit Threads/Artikel nicht mehr.
sOuLjA4eVeR
Lt. Junior Grade
- Registriert
- Aug. 2011
- Beiträge
- 324
Und wenn FSR 3.0 raus ist, geht DLSS 3.0 plötzlich auch auf RTX 3000er Karten.
Blood011
Fleet Admiral
- Registriert
- Feb. 2011
- Beiträge
- 19.127
Ganz sicher nicht,wie soll was skaliertes besser als nativ aussehen?Iconoclast schrieb:nach Spiel sieht zumindest DLSS sogar besser aus als nativ.
FSR und DLSS sind auch nur kompromisse,vorallem merkt man es an den details die flöten gehen.
Das kommt bei mir nur zum einsatz wenns wirklich anders nicht geht.
Iconoclast
Lt. Commander
- Registriert
- Okt. 2013
- Beiträge
- 1.687
Aber mal sowas von. Wolfenstein Youngblood fällt mir da aktuell ein, was ich vor kurzem noch mal durchgespielt habe. Nativ gehen zum Beispiel feine Stromleitungen in der Ferne verloren, DLSS an und du siehst die Dinger auch in der Ferne noch und das scharf. Nativ gehen die Dinger wie gesagt verloren.Blood011 schrieb:Ganz sicher nicht,wie soll was skaliertes besser als nativ aussehen?
Ich beziehe mich da aber wie gesagt auch nur auf DLSS. FSR auf meiner 6800 XT aktuell schalte ich nie an, selbst die aktuelle Version sieht rotziger aus als DLSS vor 2-3 Jahren.
Syssneck
Lieutenant
- Registriert
- Sep. 2007
- Beiträge
- 796
Es wäre super, wenn wir dann hin und wieder von CB Updates dazu bekommen, wie viele Spiele denn jetzt wirklich schon FSR 3.0 unterstützen. Das mit den 230 Spielen (in absehbarer Zeit) halte ich für extrem optimistisch, wenn ich mir mal die Unterstützung für FSR 2.0/2.1 anschaue. Von den 101 Spielen, die von AMD für FSR 2.0/2.1 genannt werden, sind wir offiziell immer noch ein gutes Stück von entfernt (ja ich weiß, einige Spiele davon sich noch nicht mal released).
Iconoclast schrieb:Ich beziehe mich da aber wie gesagt auch nur auf DLSS. FSR auf meiner 6800 XT aktuell schalte ich nie an, selbst die aktuelle Version sieht rotziger aus als DLSS vor 2-3 Jahren.
Das ist dann wohl Geschmackssache. Ich schalte FSR2 Quality eigentlich in fast jeden Spiel dazu, weil es einfach gut läuft und in den allermeisten Fällen gut ausschaut. Aber wenn ich sowas schon lese wie "rotziger" dann ist mir schon klar dass es für dich ganz ganz schlimm sein muss.
Zuletzt bearbeitet:
(Orthographie)
Wird denke ich noch einiges an Zeit ins Land gehen bis jeder verstanden hat was da im Hintergrund eigentlich passiert und das nicht einfach nur hochskaliert wird (FSR1 und RSR mal ausgenommen), erinnere mich noch an Outriders, wie detailliert es plötzlich war mit DLSS. Ist ja inzwischen bei vielen Spielen so.Iconoclast schrieb:Aber mal sowas von. Wolfenstein Youngblood fällt mir da aktuell ein, was ich vor kurzem noch mal durchgespielt habe. Nativ gehen zum Beispiel feine Stromleitungen in der Ferne verloren, DLSS an und du siehst die Dinger auch in der Ferne noch und das scharf. Nativ gehen die Dinger wie gesagt verloren.
Ich beziehe mich da aber wie gesagt auch nur auf DLSS. FSR auf meiner 6800 XT aktuell schalte ich nie an, selbst die aktuelle Version sieht rotziger aus als DLSS vor 2-3 Jahren.
ArrakisSand
Lieutenant
- Registriert
- Dez. 2019
- Beiträge
- 891
Wenn FSR 3.0 raus ist, kommt als Antwort darauf DLSS 3.1 und fügt anstatt mickrige 2 gleich 4 Fake Frames hinzu.sOuLjA4eVeR schrieb:Und wenn FSR 3.0 raus ist, geht DLSS 3.0 plötzlich auch auf RTX 3000er Karten.
Die Bildqualität wird sich im gleichen Atemzug natürlich auch verbessern und das Orginal bei weitem übertreffen.
Ähnliche Themen
- Antworten
- 195
- Aufrufe
- 17.027
- Antworten
- 153
- Aufrufe
- 12.815
- Antworten
- 121
- Aufrufe
- 12.595
- Antworten
- 353
- Aufrufe
- 41.864
CoD:Modern Warfare 2
AMD FSR ohne Framerate-Boost?!
- Antworten
- 17
- Aufrufe
- 3.397