News FSR 4 vs DLSS 4?: AMDs KI-basiertes Upscaling seit knapp einem Jahr in Arbeit

Bin gespannt, wie es weitergeht. 👌

Nutze immer DLSS(alternativ FSR) auf QualitÀt wenn es geboten wird.

Seh da, ohne penibelst Screenshots zu begutachten, keinen Unterschied zu Nativ. Spare aber Strom/AbwĂ€rme und/oder krieg flĂŒssigeres Gameplay.
 
  • GefĂ€llt mir
Reaktionen: Kommando, ILoveShooter132, JustAnotherTux und 3 andere
ex2j schrieb:
Kann man nur hoffen, dass das wie fsr auf allen Grafikkarten funktioniert. Finde es frech von NVIDIA, dass sie die 3 stufe exclusive fĂŒr die 4000 Reihe anbieten, weil die gpu gen sonst nur maue Steigerungen erbracht hĂ€tte
und die Leute kaufen weiter Nvidia .. Toll
 
  • GefĂ€llt mir
Reaktionen: nyster und SweetOhm
Philste schrieb:
Ich denke, dass das frĂŒhestens mit dem RDNA4 Nachfolger (UDNA) kommt.
Das dauert zu lange. Sie brauchen möglichst bald FSR4. Die Frage ist, ob PSSR Ă€hnlich zu FSR4 funktioniert und damit schon zu RDNA3 (oder zumindest 3.5) kompatibel ist. Ich glaube weniger, dass die "AI-Einheiten" in der PS5 Pro eigens fĂŒr diese Konsole entwickelt wurden und nur auf dieser vorhanden sind.
Und selbst wenn jene Einheiten seit RDNA3 nicht vollwertig sind wie bei Nvidia, vielleicht ist es ausreichend.
Vieles hÀngt davon ab, wann FSR4 kommt. Ob die Aussage von Papermaster ernst genommen werden kann, wird sich sehen lassen. Ich glaube weniger daran.

DrFreaK666 schrieb:
Vielleicht gibt es eine abgespeckte Variante wie bei XeSS
Das wÀre dann FSR2/3.
Ich hĂ€tte ja schon gerne eine einfachere Variante von FSR2/3 fĂŒr Handhelds, die weniger Leistung fordert und sich Inspiration von der FSR2 Version in "No man's sky" auf der Switch holt.
 
Tornavida schrieb:
AMD, die Meister der grossen AnkĂŒndigungen.
Und was hat Intel dann mit ihren 50 Releases von Lunar Lake kann man bis heute und noch lange nicht im Laden kaufen obwohl sie behauptet haben sie hÀtten es released...

Was da fĂŒr ein Hype generiert wurde, dort schaut man nur nicht hin das dieser minderwertige extreme teure arschlangsame 8 Kern als das Nonplusulta gefeiert wird, weil man meint das jeder ohne >20h Akkulaufzeit nicht leben kann.

Die bestechen die Leute, bestechen wie man jetzt sieht auch MS damit sie die Sheduler so bauen das sie fĂŒr Intel besonders gut laufen und fĂŒr AMD extra lahm...

Nein es gibt einen Hype weil es Leute gibt die darauf geil sind, Nvidia Kunden sind ja auch nicht wirklich begeistert, sie haben halt eine Vernunftentscheidung fĂŒr ihre BedĂŒrfnisse getroffen wer kauft gerne von Halsabschneider und lĂ€sst mit Methoden wie Upselling und beschissene Linuxtreiber und proprietĂ€re Techniken und sogar kriminellen offenbar (Untersuchungen USA / Frankreich) irgendwie ein Monopol errichten und dann sagen ja Grafikkarten lĂ€uft bei uns eh unter ferner liefen der Hauptkunden sind Firmen mit K.I. vielleicht geben wir euch noch ein paar Grumen oder fĂŒr 2000 Euro ne brauchbare Karte...
 
  • GefĂ€llt mir
Reaktionen: SweetOhm und Dimensionday
Ripcord schrieb:
Genau, habe auf 120FPS limitiert
Das wird das Problem sein.
Frame Generation arbeitet ja so, dass es die Bilder vom Spiel bekommt und dann Zwischenbilder einfĂŒgt.

Wenn du also in einem Spiel einen Ingame FPS Limiter hast, den du z.B. auf 60FPS setzt, dann wirst du mit FG 120FPS bekommen, da die vom Spiel gerenderten FPS auf 60 begrenzt sind und FG die zusÀtzlichen 60 generiert.
Es gibt auch Spiele, bei denen der Ingame Limiter schon fĂŒr FG voreingestellt ist, sodass du auch bei einem 60FPS Limit mit FG nur 60FPS bekommst, in dem Fall rendert das Spiel dann nur 30FPS.

Wenn du nun aber mit einem externen FPS Limiter die FPS auf 120 begrenzt, dann weiß dieser FPS Limiter ja nicht, ob du FG an hast oder nicht. Die generierten Zwischenbilder bringen ihn dann quasi durcheinander und dadurch entsteht das Ruckeln.

Daher muss man bei Nutzung von FG fast immer ĂŒber den Ingame FPS Limiter gehen, im Fall von DLSS FG kann man die FPS auch ĂŒber den Nvidia Treiber limitieren, das funktioniert auch reibungslos und man bekommt bei einem eingestellten 120er Limit immer 120 ohne und 60+60 mit FG, aber sowas wie RTSS z.B. geht in den allermeisten FĂ€llen nicht.
 
  • GefĂ€llt mir
Reaktionen: Casillas, Quidproquo77, .fF und 3 andere
Dann hĂ€tten die KI Cores vielleicht endlich mal einen nutzen in meiner XTX, diese wurden bis heute wahrscheinlich nicht einmal genutzt. Aber wie dem auch sei, ich nutze weder DLSS am notebook noch FSR am PC, ich halte von sowas einfach nichts, die entwickler sollten einfach mal wieder ihre arbeit vernĂŒnftig machen und gut ist, dann brĂ€uchte es so ein schmarrn auch nicht
 
  • GefĂ€llt mir
Reaktionen: polyphase, SweetOhm und SP-937-215
Quidproquo77 schrieb:
Nunja, die 3080 war schon deutlich schneller als die 2080, weil man auch zum grĂ¶ĂŸeren Chip gegriffen hat.
Die Generation war nicht zuletzt durch DLSS, RT und andere Profi-Schmankerl sehr beliebt, da beißt die Maus keinen Faden ab. Und ich wĂŒrde bis heute einschließlich WQHD eine 3080 der 6800XT vorziehen.
Nvidia hat halt hammerhart geschummelt, indem sie die TDPs angehoben haben. Der Test hier zeigt ĂŒbrigens nochmals schön auf, wie schlecht Ampere unterm Strich war:
https://www.pcgameshardware.de/Gefo...est-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/
Insbesondere Seite drei ist interessant:
https://www.pcgameshardware.de/Gefo...t-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/4/
Selbst in Punkto Raytracing hat Ampere eigentlich kaum etwas liefern können, wenn man die Effizienz ernst nimmt.
Quidproquo77 schrieb:
FrĂŒher (2005-2020) war eine Generation mit ~70% mehr Performance in der Spitze nicht hĂ€ufig, sondern die Ausnahme. Selbst die 4080 ĂŒberflĂŒgelte die 3080 um 50%, bei Pathtracing noch mehr.
Effizienzverdoppelung pro Generation (Achtung, keine Refreshes wie GTX 400 auf GTX 500 oder den Kaudawelch nach der 8800 GTX mitzĂ€hlen!) ist der Standard, an dem sich alles messen lassen muss. Daraus entstanden dann auch ganz automatisch alle frĂŒheren Faustregeln, wie dass die Mittelklasse der nĂ€chsten Gen schneller ist als HighEnd in der Generation davor.
Quidproquo77 schrieb:
FSR kam ein Jahr nach DLSS2.0, ergo ist nicht die erste Iteration von DLSS der Gegner.
Soviel Copium in der Argumentation tut nicht gut, abgesehen davon hatte Nvidia auch einen spatialen Upscaler in ihrem Treiber.
Hat nix mit Copium zu tun, zu dem Zeitpunkt war vollkommen klar, dass der Zug fĂŒr AMD abgefahren ist, dass sie zu spĂ€t waren. Dennoch hat FSR "1" DLSS "1" besiegen können; daran Ă€ndert sich nix.
Quidproquo77 schrieb:
Wenn du Vergleiche anstellst, dann sollten die schon vergleichbar sein, sprich zur gleichen Zeit.
Nein. Vergleiche können auch ansonsten aufschlussreich sein, um das "was wÀre, wenn" zu untersuchen.
Quidproquo77 schrieb:
Von "besser" sehe ich nicht viel und ĂŒber ein Jahr danach, gestartet mit schweren Problemen, die zum Teil immer noch bestehen, willst du nichts wissen. Der Berechnungsansatz ist zwischen AMD und Nvidia schlicht ein anderer. Nvidia setzt auf den Tensor Cores, AMD nicht. Beides ist etwa gleichwertig.

Du hÀttest auch erwÀhnen können, dass FSR3.1 Upscaling etwas mehr Performance als DLSS 3.5 kostet, oder beispielsweise Nvidias verbesserten Denoiser.
Tut mir leid, falls bei dir der Eindruck entstanden sein sollte, ich sei zu gnĂ€dig gegenĂŒber AMD oder nicht wertschĂ€tzend gegenĂŒber Nvidia. Einmal nachgelegt: AMD hat ordentlich was featuretechnisch verpennt. Ja, DLSS 1 nicht ernstzunehmen war kein Fehler, aber sie hĂ€tten dennoch schon damals sagen sollen: Hey, wir machen hingegen was, das wirklich etwas bringt. Und ja, AMD hat zu wenig auf RT gesetzt, auch das ist glasklar. Und ja, RayReconstruction ist ziemlich stark.
Quidproquo77 schrieb:
Korrekt und daher hilft AMD auch das Frame Generation wenig, auch wenn es bei manchen Spielen etwas mehr Performance bringt.
Ja.
 
  • GefĂ€llt mir
Reaktionen: nyster und SweetOhm
CDLABSRadonP... schrieb:
Hat nix mit Copium zu tun, zu dem Zeitpunkt war vollkommen klar, dass der Zug fĂŒr AMD abgefahren ist, dass sie zu spĂ€t waren. Dennoch hat FSR "1" DLSS "1" besiegen können; daran Ă€ndert sich nix.
Aber das ist doch keine Leistung, wenn zu der Zeit DLSS 2 schon ein Jahr draußen war, also 2 Jahre nach DLSS1.
Man stellt sich doch auch nicht in einer Diskussion um RDNA3 hin und sagt "Das Àndert aber nichts daran, dass die 7900XTX die 3090 besiegen konnte"

FSR 1 war zudem auch nur etwas besser als NIS, was es auch schon lÀnger vor DLSS2 gab.

CDLABSRadonP... schrieb:
Nein. Vergleiche können auch ansonsten aufschlussreich sein, um das "was wÀre, wenn" zu untersuchen.
Also was wĂ€re wenn AMD FSR1 sowie FSR2 jeweils 2 Jahre frĂŒher gebracht hĂ€tte?
Was bringt es denn solche theoretischen Szenarien zu betrachten?
Genauso kann man fragen was wĂ€re wenn AMD die erste Generation von RT Karten gebracht hĂ€tte, fĂŒhrt doch zu nichts, weils halt nicht so gelaufen ist.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: ElliotAlderson
Quidproquo77 schrieb:
Nvidias Ansatz ist der Wegbereiter fĂŒr DLSS4 um zukĂŒnftige Frames bereits vorzuberechnen und je nach Bewegungsvektoren ein Bild zwischen zukĂŒnftiges, aktuelles und altes einzufĂŒgen.
Das soll mit Blackwell kommen
Hast du einen Link zur Quelle dieser Information?
 
  • GefĂ€llt mir
Reaktionen: SweetOhm
Taxxor schrieb:
neuen APUs besitzen aber eine NPU
jupp, und das finde ich dann wieder interessant, wenn diese dafĂŒr genommen wird. Da bleibt dann nur die frage wieviel tops die npu braucht.

wobei beim Z1extreme die npu deaktiviert ist. vielleicht wird sie beim Z2extreme dann aktiv sein.
 
Es war an der Zeit. Ohne kĂŒnstliche Intelligenz sind die Ergebnisse einfach nicht zufriedenstellend. Ich verstehe ohnehin nicht, warum AMD sich so lange dagegen gestrĂ€ubt hat. Die einzige Ausnahme scheint TSR zu sein, welche offenbar einen viel tieferen Zugriff auf die Engine (UE5) hat als jede externe Lösung.
 
Wenn fsr (3.1) gut implementiert ist sieht es auch ohne ai ausreichend gut aus. Passiert nur selten.
Daher muss fsr4 unbedingt so gut sein, dass es die Faulheit/UnfÀhigkeit der Studios abfedert. Xess sieht im Schnitt einfach besser aus.
 
  • GefĂ€llt mir
Reaktionen: ropf und SweetOhm
Quidproquo77 schrieb:
Ja, weil Nvidias Ansatz bewusst ein anderer ist.
Korrekt.
Nvidias Ansatz: nur lauffÀhig ab RTX4000
AMDs Ansatz: lauffÀhig auf so vielen Karten wie möglich.

Nvidia hÀtte mit Sicherheit auch AMDs Weg wÀhlen können, wollten sie aber nicht
ErgÀnzung ()

Deinorius schrieb:
Das wÀre dann FSR2/3.
Nein, das abgespeckte XeSS nutzt auch ML
 
  • GefĂ€llt mir
Reaktionen: E2K3, .fF und SweetOhm
Samuelz schrieb:
Ich verstehe ohnehin nicht, warum AMD sich so lange dagegen gestrÀubt hat.
Mit welcher Hardware hĂ€tten sie es nutzen sollen? Potenzielle Einheiten gibt es erst seit RDNA3, falls diese dafĂŒr ausreichend nutzbar sind. Und wer weiß, ob die NPUs von Phoenix oder Hawk Point leistungsfĂ€hig genug dafĂŒr sind. Und rein fĂŒr APUs macht das Ganze auch nur wenig Sinn, auch wenn es fĂŒr Handheld-Besitzer ja etwas sehr Feines wĂ€re.
 
Es wÀre echt schön, wenn AMD mit FSR4 deutlich aufholen könnte.
Raytracing steht zwar meist im Vordergrund, aber eigentlich sind DLSS und FSR die "Killer-Features".
Leider sieht FSR im Moment noch meist ziemlich gruselig aus.

WĂŒrde FSR richtig gut laufen, im Vergleich zu DLSS, wĂŒrde ich mir als nĂ€chstes auch eine Radeon Grafikkarte kaufen. Der Treiber ist schöner und hat einige nette Features.
Leider ist man davon im Moment noch weit entfernt.😒
 
ex2j schrieb:
Kann man nur hoffen, dass das wie fsr auf allen Grafikkarten funktioniert.
Leider nein. (siehe Anhang 1 oder Link)

https://www.pcgameshardware.de/Fide...77617/News/FSR-4-noch-in-diesem-Jahr-1455776/
ErgÀnzung ()

Tornavida schrieb:
AMD, die Meister der grossen AnkĂŒndigungen. :hammer_alt:
Eher INTEL !!
ErgÀnzung ()

CDLABSRadonP... schrieb:
Zum OffTopic:

FSR3 Frame Generation ist schlicht und ergreifend beeindruckend und stellt Nvidia abermals bloß, denn AMD realisiert etwas, wofĂŒr Nvidia Extra-Hardware braucht, einfach so und besser.
Denke auch, dass sie auf einem guten Weg sind ... (siehe Anhang 2 u. 3)
 

AnhÀnge

  • FSR 4.jpg
    FSR 4.jpg
    283,4 KB · Aufrufe: 64
  • FSR 3 vs DLSS 3.jpg
    FSR 3 vs DLSS 3.jpg
    153,3 KB · Aufrufe: 62
  • FSR3 vs DLSS3.jpg
    FSR3 vs DLSS3.jpg
    179,9 KB · Aufrufe: 56
Zuletzt bearbeitet:
Taxxor schrieb:
Gilt aber auch nur fĂŒr den unteren Bereich.
Die 4090 ist 70-80% schneller als die 3090
Die 4080 ist 50-60% stÀrker als die 3080,
Die 4070Ti ist 50% stÀrker als die 3070Ti,
Die 4070 ist 25-30% stÀrker als die 3070
Eher liegt es daran, dass jeder Chip eine Stufe hochgewandert ist in der Mittelklasse.

Bringt NV eine 4070 als 4060 Ti oder direkt eine 4070 Super als 4070 und alle anderen Karten darunter rutschen eben entsprechend auch ab, dann passt der Leistungsgewinn halt auch.

Aber dann hÀtte AMD diese Generation wohl auch schon so gar nichts mehr zu melden gehabt.
ErgÀnzung ()

CDLABSRadonP... schrieb:
FSR3 Frame Generation ist schlicht und ergreifend beeindruckend und stellt Nvidia abermals bloß, denn AMD realisiert etwas, wofĂŒr Nvidia Extra-Hardware braucht, einfach so und besser.
Komisch, dass quasi sĂ€mtliche Reviews sagen, dass DLSS - auch in Bezug auf FG - doch das deutlich bessere Bild als FSR erzeugt. AMDs "ich unterstĂŒtze alle Karten, auch von NV, die nicht auf 3 auf den BĂ€umen sind"-MentalitĂ€t liegt auch eher am eigenen miesen Marktanteil. Wer wĂŒrde denn FSR fĂŒr die paar AMD-Spieler am Markt implementieren, wenn man sie nicht mit Geld zuschĂŒttet?
 
Zuletzt bearbeitet:
Taxxor schrieb:
Das wird das Problem sein.
Da braucht es dringend ein Autotune oder schieberegler oder sowas.... bei diesen Techniken schnallt sonst langsamer keiner mehr durch, außer die deren Lebenshaupt-inhalt das gaming ist.

Seh schon wie sich Leute aufregen das sie die Namen von Intel / AMD Cpus nimmer schnallen, das ist ja pille palle gegen den ganzen mist.
 
  • GefĂ€llt mir
Reaktionen: Coeckchen
ZurĂŒck
Oben