Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsOpen Source: AMD veröffentlicht FidelityFX SDK mit FSR3-Quellcode
Ist auch nicht korrekt. Es betrifft sämtliche HUD Elemente und es ist kein Flimmern, sondern um diese Elemente herum läuft der Bildinhalt nur mit halber Framerate, so z.B. auch der Ausdauer/Lebenspunkte-Bereich unten in der Mitte.
Da hast du dann ständig einen deutlich sichtbaren Kasten drum herum, innerhalb dessen alles mit halber Bildrate läuft.
Das ist die Art, wie Ubisoft Artefakte bei den HUD Elementen verhindern möchte.
Bei DLSS FG hast du sowas nicht. Statische HUD Elemente sind grundsätzlich nicht beeinträchtigt.
Da kann es maximal vorkommen, dass bei dynamischen Elementen wie Missionsmarkern, die sich auch im Bild mit bewegen, Artefakte auftreten können, was aber in den letzten FG Versionen eigentlich so gut wie gar nicht mehr vorkommt.
Hardware ist nicht Closed Source.
Sondern Hardware muss über ihre Treiber genaue OFFENE APIs ansprechen können. Genau so funktionieren APIs wie DX, Vulkan, OpenGL und vieles vieles mehr.
Das sind zwei völlig verschiebende Sachen. Nur weil etwas Standards implementiert, ist es noch lange nicht Open Source. Das gilt für Hard- und Software.
Die meiste Hardware ist NICHT Open Source. Kannst AMD ja mal nach genauen Plänen zu deren Chips fragen, werden die nicht rausrücken.
Ist auch nicht korrekt. Es betrifft sämtliche HUD Elemente und es ist kein Flimmern, sondern um diese Elemente herum läuft der Bildinhalt nur mit halber Framerate, so z.B. auch der Ausdauer/Lebenspunkte-Bereich unten in der Mitte.
Kommt tatsächlich darauf an, wie es implementiert wurde.
"[05:16]LukeFZ: fsr3 provides three different options to render the output ui
[05:17]LukeFZ: either you give it the ui, you give it the output without the ui, or you give it a function that renders the ui"
Nutze FSR3 seit gestern in unter anderem The Last Of Us und bin begeistert. +50% FPS gegenüber gleichwertigen DLSS2-Settings.
Da nehm ich die Artefakte auf dem HUD gern in Kauf.
Hänge mal ein Beispiel für die "Artefaktbildung" beim drehen der Kamera an.
Ich bin erst mal gespannt, wie in zukünftigen Titeln bei deren FMF Implementierung mit HUD Elementen umgegangen wird. Denn das ist weit entfernt von "einwandfrei".
Überzeugt mich ohne entsprechende Belege persönlich nicht. Mal davon abgesehen, dass es überhaupt nicht zeitkritisch ist ein Bild zwischen zwei Bilder einzufügen, wenn die beiden Bilder bereits vorliegen. Die Erstellung des Zwischenframes kostet meinetwegen etwas Vram, aber extra Hardware ist dafür nicht nötig.
Dann bitte den Link zur Quelle mit dem entsprechenden Beweis.
Das läuft nicht auf Ampere. Der Treiber lässt es nicht zu, auch nicht auf Entwicklerebene.
Welchen Hack hat @sEnTinel benutzt und wo sind die Ergebnisse aufgeführt?
Dazu müsste die technische Begründung unabhängig überprüfbar sein.
Bzw. zumindest schlüssig sein. Die Erzeugung des Zwischenbildes erfolgt nach der Berechnung der beiden "echten" Frames und wird mit etwas Verzögerung dann dazwischen eingefügt.
Das ist kein Argument. Die Frage ist nicht, ob man es auch kann, sondern wie gut man es kann und DLSS sieht bekanntermaßen fast immer besser aus als FSR, aber man glaubt auch hier eher an ne Verschwörungstheorie.
AMDs FG läuft erst ab 60 FPS annehmbar. Nvidia empfiehlt 40 FPS.
Woher kommt die Differenz von 20 FPS? Könnte das nicht vielleicht an den OFA liegen?
Natürlich läuft DLSS und FG theoretisch auch auf anderen Karten oder der Konkurrenz, aber dann leidet die Qualität. AMD zeigt ja, dass es geht, aber Nvidia hat einen anderen Anspruch als nur "läuft".
Ist bei XeSS nicht anders. Das sieht und läuft auf Intelkarten am besten, aber dort hinterfragt das niemand.
Quidproquo77 schrieb:
Überzeugt mich ohne entsprechende Belege persönlich nicht. Mal davon abgesehen, dass es überhaupt nicht zeitkritisch ist ein Bild zwischen zwei Bilder einzufügen, wenn die beiden Bilder bereits vorliegen. Die Erstellung des Zwischenframes kostet meinetwegen etwas Vram, aber extra Hardware ist dafür nicht nötig.
Nennt sich Panel-Self-Refresh und das gab schon bei den Laptops, bevor G-Sync angekündigt wurde. Da es ein Bestandteil von eDP 1.3 (Erste Demo soweit ich weiß war September 2011) verpflichtet ist, können theoretisch alle heutigen Laptop "AdaptiveSync", ob die Hersteller es sauber implementiert haben ist eine andere Sache. Der Name AdaptiveSync wurde nur eingeführt für DP, weil die PSR Komponente dort immer noch nur optional ist. Heißt wenn der Laptop-Hersteller ein Display ohne G-Sync Ultimate Modul reinbaut, ist das aber praktisch immer noch Display G-Sync Compatible also AdaptiveSync!
G-Sync hat schlicht bei eDP abgeguckt und dann ein eigenes Modul rausgebracht, bevor die VESA es dann selbst gemacht mit den offiziellen Standard.
Was glaubst wieso AMD nach nicht Mal drei Monaten eine lauffähige FreeSync Demo vorstellen konnten. Es waren tatsächlich die, welche die Idee hatten beim VESA-Gremium, das DP das PSR vom eDP übernimmt. Und die VESA gab das mit mit dem neuen Namen "AdaptiveSync" dann offiziell Mai 2014 frei!
Schade das AdaptiveSync immer noch verpflichtend ist.
Aber immerhin gibt es jetzt eine Zertifizierung seit letztem Jahr!
Die Tatsache, dass FSR FMF auf allen GPUs vergleichbar läuft, zeigt, dass die Erzeugung eines interpolierten Frames nicht so Zeit und Latenzkritisch ist, wie es Nvidia gerne darstellen möchte.
Für mich überwiegen ganz klar die Hinweise, dass Nvidia in diesem Fall Upselling betreibt und eine wirkliche Limitierung auf Ada Lovelace Hardware und dem OFA eine strategische Entscheidung ist, beweisen kann man das aber nicht mit Sicherheit.
Dieser Sentinel ist mir mit seinem Beitrag viel zu unkonkret.
MrHeisenberg schrieb:
DLSS sieht bekanntermaßen fast immer besser aus als FSR, aber man glaubt auch hier eher an ne Verschwörungstheorie.
Die Tatsache, dass FSR FMF auf allen GPUs vergleichbar läuft, zeigt, dass die Erzeugung eines interpolierten Frames nicht so Zeit und Latenzkritisch ist, wie es Nvidia gerne darstellen möchte.
Das kannst du finden wie du willst. Fakt ist, dass FG min. 40 FPS benötigt und FMF min. 60 als Basis, was deine Aussage entkräftet. Es gibt also selbst für den Enduser einen nachvollziehbaren Unterschied. Den kannst du gerne ignorieren, aber damit erledigt sich dann jegliche weitere Diskussion.
FG läuft auch für mich mit 30 FPS oder etwas weniger sehr gut. Einige andere finden das nicht zumutbar.
Ich selbst habe FMF bisher nicht getestet und kann mich nur auf die CB Tests stützen, welche genau das widerspiegeln: 60 FPS sollten die Basis sein.
When using AMD FSR 3 frame generation with any upscaling quality mode OR with the new “Native AA” mode, it is highly recommended to be always running at a minimum of ~60 FPS before frame generation is applied for an optimal high-quality gaming experience and mitigate any latency introduced by the technology.
Heißt wenn der Laptop-Hersteller ein Display ohne G-Sync Ultimate Modul reinbaut, ist das aber praktisch immer noch Display G-Sync Compatible also AdaptiveSync!
"the G-Sync Ultimate Gaming Notebooks range, unlike the desktop GPUs, it’s the Notebook GPU that is directly driving the panel"
"
Moreover, it means no extra cost to laptop manufacturers, as is the case with G-Sync desktop monitors where a separate module is required.."
Naja, die Zertfifizierung wird sich nvidia wohl auch bei notebooks bezahlen lassen, denke ich.
Ergänzung ()
Fegr8 schrieb:
Nennt sich Panel-Self-Refresh und das gab schon bei den Laptops, bevor G-Sync angekündigt wurde. Da es ein Bestandteil von eDP verpflichtet ist, können theoretisch alle heutigen Laptop "AdaptiveSync", ob die Hersteller es sauber implementiert haben ist eine andere Sache.
Ich bezweifle, dass alle heutigen Panels zu adaptivesync fähig sind, die meisten amoled Notebooks unterstützen kein (internes) adaptivesync, auch wenn es eDP an sich tut.
Da müsste CB uns auf die Sprünge helfen, wo genau AMD eine Verbesserung des Upscalers als Neuerung von FSR3 verkündet hat @Jan, @Wolfgang.
Ich finde jedenfalls weder in der Dokumentation noch auf der Website Hinweise, dass der Upscaler sich von FSR 2.2.2 unterscheidet, sondern lediglich, dass dieser gleich bleibt.
Ich bezweifle, dass alle heutigen Panels zu adaptivesync fähig sind, die meisten amoled Notebooks unterstützen kein (internes) adaptivesync, auch wenn es eDP an sich tut.
Wenn sie eDP 1.3 oder höher verwenden ist die Hardwareseitige Unterstützung vorhanden!
Aber vielleicht benutzten diese noch eDP 1.2 oder haben intern sogar nur einfach DP reinbaut.
Kannst du ein Video verlinken wo man solche Probleme sieht?
Diese “ausgeschnittenen” Bereiche in denen FG deaktiviert ist, hab ich bei Nvidia noch nie gesehen
Auch wieder eine Aussage von AMD bzw. Nvidia. Ich finde beides funktioniert gleich gut.
Sprich FSR3 FMF auch mit einer Basis von 40 Frames in Avatar:Frontiers of the Pandora auf einer RTX 4080.
Das ist aber auch das bisher erst zweite Spiel in dem AMDs Frame Generation Lösung funktioniert wie sie soll.
MrHeisenberg schrieb:
Er ist Spieleentwickler und wird mit Sicherheit nicht einfach so irgendwas leaken.
Er sagt ja auch, dass es auf einer 3090 schon ganz gut laufen würde. Dementsprechend müsste es auf einer 3080 oder 3070 doch auch laufen, denn deren OFA Einheit ist auch nicht langsamer.
Brian Cantanzano meint dazu folgendes:
Ich würde so weit gehen und sagen: Ja das läuft auch, aber vielleicht etwas schlechter.
Dann dauert die Erstellung des Zwischenbildes vielleicht etwas länger. Das kann schon sein.
Die Dokumentation von Nvidia hierzu finde ich im Netz nicht mehr.
Es amüsiert mich wie einige User einfach irgendwelche Aussagen eines Boardies ohne Belege für bare Münze nehmen und Unternehmen die häufig damit aufgefallen sind voreilig alte Zöpfe abzuschneiden zu verteidigen.
MrHeisenberg schrieb:
Fakt ist, dass FG min. 40 FPS benötigt und FMF min. 60 als Basis, was deine Aussage entkräftet.
Das sind Marketingangaben von AMD und Nvidia. Der Test hier sagt etwas anderes. Auch die Messungen.
Durch und durch auf demselben Niveau, auch die Latenzen stimmen.
MrHeisenberg schrieb:
Den kannst du gerne ignorieren, aber damit erledigt sich dann jegliche weitere Diskussion.
Ich diskutiere sowieso ungern mit Markenfans, daher passt mir das ganz gut.
Forspoken bzw. Aveum sind alt und erhielten nicht die aktuellen FSR Verbesserungen.
Damit zu argumentieren zeigt mir: Du möchtest warum auch immer, dass FG als besser wahrgenommen wird als FSR FMF ist. Beide Techniken sind aber auf Augenhöhe und damit ist Nvidias Frame Generation ab heute für GeForce Nutzer in neuen Spielen fast nutzlos. AMD müsste lediglich die Kombination mit DLSS freischalten, was sie aber aufgrund des unterlegenen Upscalers noch sperren.
Ergänzung ()
Taxxor schrieb:
Kannst du ein Video verlinken wo man solche Probleme sieht?
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich würde so weit gehen und sagen: Ja das läuft auch, aber vielleicht etwas schlechter.
Dann dauert die Erstellung des Zwischenbildes vielleicht etwas länger. Das kann schon sein.
Ja richtig, aber genau das ist der Punkt. Man will keine schlechtere Lösung, sondern die beste.
Natürlich geht alles irgendwie auch anders, führt aber nicht zum gleichen Ergebnis.
Du kannst Ray Tracing auch via Software auf jeder Hardware laufen lassen, allerdings mit < 1 FPS oder du machst es wie Lumen, verlierst dabei aber massiv an Qualität.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Da geht es um dynamische Elemente, die sich mit der Spielegrafik verschieben, aber selbst da siehst du keine Boxen um diese Elemente, bei denen das Spiel mit halben FPS läuft, sondern es können eben mal Artefakte an den Elementen auftreten.
Und die sind in F1 im Video mit der aktuellen Version auch deutlich weniger auffällig und nur wirklich gut zu sehen bei 3x Zoom und 10% Speed.
Bei Avatar und FMF betrifft es sämtliche HUD elemente, auch die statischen, die nichts mit der 3D-Welt zu tun haben und man sieht es ohne Zoom und Frame by Frame Analyse
Er sagt ja auch, dass es auf einer 3090 schon ganz gut laufen würde. Dementsprechend müsste es auf einer 3080 oder 3070 doch auch laufen, denn deren OFA Einheit ist auch nicht langsamer.
Und ja, Nvidia hatte damals bereits gesagt, dass es, um auf Ampere zu laufen, noch einger weiterer Optimierungsarbeit bedarf.
Es kann also auch sein, dass wir mit RTX5000 nicht, wie von einigen hier heraufbeschworen, ein weiteres Feature bekommen, welches dann nur exklusiv auf den 5000ern läuft, sondern im Gegenteil, mit einem "DLSS4" dann auch Frame Generation von 3000-5000 möglich gemacht wird.
Es kann also auch sein, dass wir mit RTX5000 nicht, wie von einigen hier heraufbeschworen, ein weiteres Feature bekommen, welches dann nur exklusiv auf den 5000ern läuft, sondern im Gegenteil, mit einem "DLSS4" dann auch Frame Generation von 3000-5000 möglich gemacht wird.
Ist aber doch sehr unwahrscheinlich nach hier (und ich glaube sogar von dir selbst) schon öfter ins Feld geführter Logik.
Wenn AMD nur deswegen Sachen großzügig für alle öffnet, weil sie müssen (wenig Marktanteil etc.), dann wird Nvidia doch wohl kaum die 3xxx Serie so aufwerten, dass die Leute weniger 4er und 5er Serie kaufen, wenn sie nicht müssen.
Sein kann natürlich alles, vielleicht verkaufen sie die 5er Serie zum Selbstkostenpreis oder querfinanzieren für die Gamer aus Liebe weil sie eh nicht mehr wissen wohin mit der KI-Kohle 🙄.
Nachdem Nvidia selbst bereits gesagt hat dass es möglich gemacht werden kann, und sie sich mit DLSS 3.5 ja auch dafür entschieden haben, Ray Reconstruction für alle RTX GPUs freizugeben, fände ich das wirklich nicht abwegig.
Und wenn die 5000er rauskommen gibt es auch nichts mehr aus der 3000er zu kaufen