News AMD: FSR 3.0 soll die Framerate im Jahr 2023 verdoppeln

Eli0t schrieb:
Naja, Reflex oder Anti-Lag sollte eigentlich immer aktiviert sein, weil das hilft auch immer. Keine Ahnung warum man das nicht einschaltet.

Weil AntiLag ziemliche Probleme hat?
https://forums.guru3d.com/threads/d...n-anti-lag-why-not-enabled-by-default.438984/

Reflex muss vom Entwickler aktiv ins Spiel implementiert werden und der Low Latency Modus im Nvidia Treiber funktioniert nur bis einschließlich DX11, weil ab DX12 die Anwendung selbst deutlich mehr Kontrolle und Einfluss auf die Latenzen hat (wenn man versucht trotzdem per Treiber einzugreifen, passieren die Probleme wie mit AntiLag, siehe Link oben) Deshalb gibt es für DX12 auch Reflex als Lösung, die der Entwickler dann selber sauber ins Spiel integriert.

Letztendlich willst du also aussagen, dass die Latenzen ohne Reflex auf Nvidia und auf AMD sowieso (da kein Reflex verfügbar und AntiLag probelmbehaftet) generell in allen Spielen unbrauchbar sind. Okay... :rolleyes:


Sorry, aber die Argumentation finde ich völlig banane. Wie hier jeder versucht auf biegen und brechen argumente zurechtzubiegen, um Frame Generation wegen der Latenzen schlecht dastehen zu lassen, obwohl man bisher und in den meisten Spielen NOCH IMMER deutlich höhere Latenzen gewöhnt ist.

Da wird so getan, als wären latenzreduzierende features wie Reflex schon immer der Standard in jedem Spiel sowohl für Nvidia als auch AMD, was einfach völlig falsch ist.
 
Mimir schrieb:
Super Du zitierst etwas, was 1.5 Jahre alt ist.
Also das hat heutzutage genau Null relevanz.

Mimir schrieb:
Letztendlich willst du also aussagen, dass die Latenzen ohne Reflex auf Nvidia und auf AMD sowieso (da kein Reflex verfügbar und AntiLag probelmbehaftet) generell in allen Spielen unbrauchbar sind. Okay... :rolleyes:
Du interpretierst Dinge rein, weil Du Trollen willst.
Wenn Du nicht verstehen willst, dann ist das Dein Problem, aber bitte belästige mich nicht weiter. Danke.
 
Nochmal, du versuchst Argumente zu finden, wo keine sind.

Du argumentierst gegen Frame Generation mit der Aussage, dass 60ms nicht für einen competitive shooter taugen, ohne zu berücksichtigen, dass wir hier von einem Beispiel bei 42 FPS sprechen.

Du tust so als wärst du auf Sentinels Beispiel eingegangen, setzt aber einfach einen willkürlichen Maßstab von absoluten Werten an, nur damit die Methode mit der absolut niedrigsten Latenz gerade gut genug erscheint und ignorierst den Kontext komplett.

Deine 60 ms sind ohne Reflex und co. Idr. erst mit Frameraten jenseits der 120 FPS realistisch. Du nutzt es aber als Argumentation, um die Latenz von Frame Generation bei 42 FPS schlecht zu reden.

Du drehst dir hier die Dinge wie es dir passt. So kann man doch keine ernsthafte Diskussion führen.

Fakt ist, dass wir bei Cyberpunk rund 100 ms Latenz bei 42 FPS sehen, was ein üblicher Wert für diese Framerate ist. Aber letztendlich geht es nicht um absolute Werte, sondern um die Verhältnisse, schließlich sind wir bei höheren Framerates sowohl mit als auch ohne Reflex oder FG bei deutlich geringeren Latenzwerten. Das ist hier nur ein Beispiel, um die Unterschiede aufzuzeigen. Man hätte den Test theoretisch auch bei 120 FPS machen können, dann würde dein Argument schon nicht mehr passen…

Letztendlicn sieht man im Screenshot von Sentinel, dass DLSS Quality mit FG etwas mehr als eine halb so hohe Latenz bei mehr als doppelt so vielen FPS hat.

Die grundlegende Frage war, ob sich die erreichte Framerate mit FG in Sachen Latenzen „echt“ anfühlt oder nicht. Sprich wenn ich mit FG z.B. 120 FPS erreiche, fühlt es sich hinsichtlich eingabelatenz dann wie 120 FPS an? Wenn die Latenz wie im Beispiel von Sentinel mit DLSS3 gezeigt fast halbiert wird, dann muss die Antwort JA lauten.

Wenn du sagst, du willst Reflex nutzen, um die geringstmögliche Latenz zu erreichen, dann ist das eine valide Option. Dann machst du Reflex an und FG aus. Es taugt aber nicht als Argument, um Frame Generation eine vermeintlich schlechte Eingabelatenz oder gar Unbrauchbarkeit vorzuwerfen, denn dann wären die Latenzen in Spielen ohne Reflex folglich schon immer unbrauchbar - was Unsinn ist.


Zudem sei euch gesagt, dass die Latenzreduktion durch den Nvidia Low Latency Modus oder AMD AntiLag idr. deutlich geringer sind, als mit Reflex.
Selbst wenn du also sagst, dass du bei AMD immer AntiLag oder bei Nvidia den Low Latency Modus aktiv hast, kannst du nicht plötzlich die Latenzen die mit Reflex erreichbar sind als allgemeinen Maßstab nehmen und mit AntiLag und Low Latency Modus gleichsetzen und von den Techniken das gleiche erwarten, weil solche Latenzen wie sie mit Reflex zustande kommen, auf AMD Karten und in Spielen ohne Reflex überhaupt nicht erreichbar sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pro_Bro, Taxxor, Pater_Erminold und 2 andere
Eli0t schrieb:
Naja, Reflex oder Anti-Lag sollte eigentlich immer aktiviert sein, weil das hilft auch immer. Keine Ahnung warum man das nicht einschaltet.
Eins meiner Argumente ist ja genau, dass Reflex im Speziellen eben erst grundsätzlich in Titel integriert wird, wenn eben DLSS3+FG dort angeboten wird, da Zwang.
Vorher gibt es diese Option überwiegend einfach in den Softwaretiteln nicht.

Eli0t schrieb:
Cyberpunk ist imho ein schlechtes Beispiel, weil das kein Shooter per se ist.
Es steht stellvertretend für ein Spiel, welches ohne die einführung der Frame- Generation vorher ohne Reflex auskommen musste.

Eli0t schrieb:
Aber als Shooter sind 62ms eigentlich inakzeptabel. Da wären 20ms wünschenswert.
Wir reden hier grundsätzlich nicht von kompetitiven Shootern. Da missverstehen wir uns.
In diesen werden die Grafikoptionen im Normalfall sowieso komplett verbogen um die Synchronisation der einzelnen Tickraten optimal hinzubekommen. Da sind mit der Engine synchronisierte 120-144Hz/FPS mit Reflex ohne FG sicherlich das Optimum.

Eli0t schrieb:
Aber 40ms sind 60ms imho immer vorzuziehen, daher ist DLSS3/FSR3 nur für ausgewählte Titel sinnvoll, wie z.B. Flight Simulator wo es auf Input Lag nicht wirklich ankommt.
Das "imho" kannst Du hier ruhig weglassen. Denn im Grundsatz gilt ja, dass es besser ist, je niedriger die Latenz ausfällt.
 
.Sentinel. schrieb:
Vorher gibt es diese Option überwiegend einfach in den Softwaretiteln nicht.
Da ich nievida benutze, wußte ich nicht, daß man das erst pro Spiel aktivieren muß, was extrem lame ist.
Das funzt bei AMD zum Glück nicht so, unabhängig davon, ob man es optimieren könnte.
.Sentinel. schrieb:
Es steht stellvertretend für ein Spiel, welches ohne die einführung der Frame- Generation vorher ohne Reflex auskommen musste.

Das "imho" kannst Du hier ruhig weglassen. Denn im Grundsatz gilt ja, dass es besser ist, je niedriger die Latenz ausfällt.
Das ist mir schon klar, aber das Problem ist in dem Fall die Engine an sich, nicht auf geringe Latenz ausgelegt.
 
Eli0t schrieb:
Das funzt bei AMD zum Glück nicht so, unabhängig davon, ob man es optimieren könnte.
Zum Glück oder auch "leider". Das AMD Ergebnis in Sachen low latency ist immernoch durchwachsen, um es mal diplomatisch auszudrücken.
Wobei man ihnen zu Gute halten muss, dass sie meines Wissens die ersten waren, die dieses Thema aufs öffentliche Parkett gebracht haben.

Die Lösung nVIDIAS das in Engine zu lösen ist aber die merklich effektivere. Und da muss man wirklich sagen, dass es tatsächlich ein Kreuz ist, wenn die Dinge nicht Herstellerübergreifend standardisiert sind.

Und diesbezüglich muss man Microsoft wieder loben, weil die durch ihre Abstraction- layer aka DX- Versionen doch dafür sorgen, dass weitreichende Mindeststandards erreicht wurden, die herstellerunabhängig funktionieren müssen.

Bei den Graikkartenentwicklern versuchen sich die Firmen gegenseitig eins auszuwischen. Fremdtechnologien, die vielleicht auch wirklich sinnvoll sein können, werden durch diese Grabenkämpfe zum Nachteil des Users nach einer Zeit einfach eingestampft, wenn es nicht gewinnbringend durch die Studios adaptiert wird.

Fluch und Segen. Herstellereigene Lösungen befeuern die Innovation und die (gute) Jagd nach Alleinstellungsmerkmalen. Haben aber im Normalfall den Nachteil, dass es eben Insellösungen bleiben und den User zwingt sich für A oder B zu entscheiden.

Alles legitim, aber nicht immer positiv für den Konsumenten. Einen Tod muss man aber wohl sterben.
 
Hat AMD eigentlich schon ein Konkurrenzprodukt zu Reflex? Wenn man Frame Generation mit FSR3 bringen will, wird das ja zwingend notwendig sein.

Das Treiberseitige AntiLag fällt ja raus, weil es genauso wie der treiberseitige Low Latency Modus bei Nvidia deutlich weniger effektiv ist, als Reflex, teils sogar nahezu wirkungslos.
 
Mimir schrieb:
Hat AMD eigentlich schon ein Konkurrenzprodukt zu Reflex?
Das wird eines der Herausforderungen von AMD gewesen sein, hier auch Hand anzulegen. Wenn man bedenkt wie oft das Thema Latenz zumindest irreführend im Zusammenhang mit FG in der allgemeinen Tech- Presse behandelt wurde.

Nicht umsonst hört die Userschaft inzwischen das Gras wachsen, wenn es um die erhöhte Latenz durch DLSS3+FG geht.
Es wird eben unter den Tisch gekehrt, dass DLSS3 als Paket vom ursprünglichen DLSS 2 mit FG zwingend Reflex voraussetzt und unterhalb der Latenz liegt, die man hätte, wenn man nativ rendern würde.
Nebst dem, dass natürlich massig mehr FPS dabei rausspringen.
 
.Sentinel. schrieb:
Wobei man ihnen zu Gute halten muss, dass sie meines Wissens die ersten waren, die dieses Thema aufs öffentliche Parkett gebracht haben.
ja waren sie, daß es nicht optimal funzt ist leider überall der Fall.
.Sentinel. schrieb:
Die Lösung nVIDIAS das in Engine zu lösen ist aber die merklich effektivere. Und da muss man wirklich sagen, dass es tatsächlich ein Kreuz ist, wenn die Dinge nicht Herstellerübergreifend standardisiert sind.
jein.
Die bessere Lösung wäre es gewesen, wenn beide an einem Standard gearbeitet hätten, aber das kann man bei nievida generell vergessen.
UE 5 und Unity werden das vermutlich eh schon eingebaut haben, von den Konsolen-spezifischen Engines ganz abgesehen, die leider AMD-Optimierungen oft rausschmeissen, damit man eine allinone Lösung für den PC hat.
.Sentinel. schrieb:
Und diesbezüglich muss man Microsoft wieder loben, weil die durch ihre Abstraction- layer aka DX- Versionen doch dafür sorgen, dass weitreichende Mindeststandards erreicht wurden, die herstellerunabhängig funktionieren müssen.
Auch jein, das funzt unter Vulkan weit besser, weil jeder Anbieter eingebunden ist und nicht M$ irgendwas macht, was die Hersteller gar nicht wollen. Aber gut, daß DX12 viel von AMD übernommen hatte.
.Sentinel. schrieb:
Bei den Graikkartenentwicklern versuchen sich die Firmen gegenseitig eins auszuwischen. Fremdtechnologien, die vielleicht auch wirklich sinnvoll sein können, werden durch diese Grabenkämpfe zum Nachteil des Users nach einer Zeit einfach eingestampft, wenn es nicht gewinnbringend durch die Studios adaptiert wird.
Auch jein. Die Grünen machen das ja schon seit über nem Jahrzehnt, siehe sinnlose Tessellation um AMD Karten einbrechen zu lassen. AMD hatte viele Ideen, die torpediert wurden, das beste Beispiel Adaptive Sync. Habe noch nie gesehen, daß AMD etwas torpediert hätte. Aber immerhin mußten die Grünen sich in der Hinsicht beugen.
.Sentinel. schrieb:
Fluch und Segen. Herstellereigene Lösungen befeuern die Innovation und die (gute) Jagd nach Alleinstellungsmerkmalen. Haben aber im Normalfall den Nachteil, dass es eben Insellösungen bleiben und den User zwingt sich für A oder B zu entscheiden.

Alles legitim, aber nicht immer positiv für den Konsumenten. Einen Tod muss man aber wohl sterben.
Ethisch gesehen ist es nicht mal legetim, weil es allen schadet, außer nvidia, weil die Lemminge kaufen das immer noch zu absurden Preisen. 😭🤣
 
Eli0t schrieb:
Ethisch gesehen ist es nicht mal legetim, weil es allen schadet, außer nvidia, weil die Lemminge kaufen das immer noch zu absurden Preisen. 😭🤣
Ah- Also ein Grabenkämpfer bzw. Markenanhänger...
Jetzt dacht ich schon, dass man hier tatsächlich mal vernünftig diskutieren kann und dann kommt wieder so eine "Gülle".

Dem nVIDIA Konsumenten schadet es sicher nicht, wenn sie von einem neuen bzw. vollständigeren Featureset profitieren können.

Die "Lemminge" haben ihre guten Gründe das zu kaufen. Und das zu Preisen, die sie offenbar als Preiswert betrachten. Es gibt viele Gründe eine nVidia Karte zu erstehen.
Ebenso gibt es Gründe AMD Karten den Vorzug zu geben.

Ich halte es für schwierig Leute in Schubladen zu stecken, weil sie sich nicht mit dem eigenen Konsumverhalten bzw. Konsumethik decken zumal die AMD- Lemminge die vermeintliche Preistreiberei ja ebenso mitmachen.
Jeder soll selbst entscheiden, was er kauft.

Es geht aber hier mal wieder in die völlig falsche Richtung. Es geht um FSR 3 und das Replik von AMD zur Frame- Generation. Und diesbezüglich wird AMD gezwungen sein, die Marschrichtung einzuschlagen mit welcher nVIDIA in der Praxis bereits gezeigt hat, dass das ordentlich funktioniert.

Ich bin nur gespannt, wie AMD die Studios überzeugen will, trotz geringer Marktanteile, den Mehraufwand für die Integration auf sich zu nehmen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pater_Erminold und Taxxor
.Sentinel. schrieb:
Vorher gibt es diese Option überwiegend einfach in den Softwaretiteln nicht.
Ich hatte gelesen, dass im Nvidia Treiber die Option Modus für geringe Latenz Ultra = Reflex entspricht
also könnte es auch nur sein, dass man einfach für Unwissende eine Option im Spiel hinzugefügt hat !?
 
0ssi schrieb:
Ich hatte gelesen, dass im Nvidia Treiber die Option Modus für geringe Latenz Ultra = Reflex entspricht
also könnte es auch nur sein, dass man einfach für Unwissende eine Option im Spiel hinzugefügt hat !?
Kurz und knapp:
Dies führt zu Latenzreduzierungen, die über die üblichen reinen Treibertechniken hinausgehen, wie der NVIDIA Ultra Low Latency-Modus.
 
Windell schrieb:
Genau die Aussage meine ich. Ich kenne den genauen Wortlaut nicht, ob es "versuchen" oder "wollen" oder was auch immer war.
Ja. Ich habe das für mich sogar negativ interpretiert. Man sollte erst mal nicht damit rechnen. [Bin vorsichtig bei der Sache]
Es muss aber jedem klar sein. Die KI Units in Hardware wird AMD wohl auch nutzen wollen. Und die haben die 6er eben nicht.
Es kann aber sein das AMD einen Ansatz wählt der generell funktioniert und mit den KI Units dann nur deutlich schneller abläuft.
Ergänzung ()

Taxxor schrieb:
Denn "verschoben" wird das CPU Limit ja dadurch auch nicht, das ist immer noch da wo es vorher war. Es spielt nur nicht in die generierten Frames mit rein.
Doch mit rein spielt es auch da. Wobei man auch mehr als nur ein Zwischenbild berechnen könnte. Hätte halt weitere Nachteile. Aber Fernseher z.B. berechnen meine ich mehr als ein Zwischenbild - da hast du aber keinen Inputlag.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Windell
Eli0t schrieb:
Kannst dir den Test von Hardware unboxed ansehen, 40 ist nur ein "Marketinggag"... es sollten weit mehr sein.
Ich habe mittlerweile wie gesagt 4 Spiele mit Frame Generation und 80 FPS Lock gespielt, da brauche ich kein HUB die sagen, es sollten mehr sein, wenn ich selbst nicht das Gefühl habe, es wäre zu wenig.
 
  • Gefällt mir
Reaktionen: Humbertus
sTOrM41 schrieb:
Kampfpreis xD

Ich kann mich noch an Zeiten erinnern als High-End Grafikkarten bei release 500€ gekostet haben.
Eine 500€ Karte hatte ich auch schon 2005, das war damals irgendwas mit Excalibur und irgend son
Einhorn oder Pferd drauf?🤔 Genau weiß ich es nicht mehr? Aber als ich dann 2006 ein Streifzug durch Atelco machte, sah ich auch schon von Sapphire eine Karte für 700€, kopfschüttelnd bin ich dann natürlich weiter gegang und hab mich damals schon gefragt, welcher Hirni so eine teure Karte braucht? 😄
Und jetzt habe ich Hirni selber in mein Case eine Karte für 1300€ + 170€ für den Wasserkühlblock.
Aber weil das nicht reicht, spare ich jetzt schon für eine 4090 + den Wasserkühlblock,
oder ich entscheide mich für eine RDNA 3 Karte?🤔 Ich kann mich zwischen DLSS und FSR nicht entscheiden?
Jeder verdamte Youtuber sagt was anderes? Was soll ich holen? 4090 oder eine XTX? Manchmal sieht AMD Grafik etwas besser aus? Ich finde das bei AMD alles etwas schärfer aussieht? Der Anisotroper Filter kommt bei AMD besser zur geltung habe ich das gefühl?
 
Aktuell gibts die RX 6950 XT für 699€ auf Mindfactory. Natürlich auch mit The Last of us. Bin grade echt am überlegen, meine 6700 XT zu verkaufen (geht auf ebay noch für über 300€ weg, ist auch erst ein paar Monate alt) und das Last Gen Topmodell zu holen.

Wenn man jetzt wüsste, ob FSR 3 auch für RDNA 2 kommt..
 
130€ mehr hast du die schnelleren 7900XT.... mit 20Gb VRam und evtl. ist FSR 3.0 erst auf die 7900 Karten....
 
  • Gefällt mir
Reaktionen: Wanderwisser
.Sentinel. schrieb:
Ah- Also ein Grabenkämpfer bzw. Markenanhänger...
Jetzt dacht ich schon, dass man hier tatsächlich mal vernünftig diskutieren kann und dann kommt wieder so eine "Gülle".
Du kannst doch vernünftig diskutieren, was hat das anti-consumer Verhalten von nivida mit dieser Diskussion zu tun? Richtig, gar nichts.
.Sentinel. schrieb:
Dem nVIDIA Konsumenten schadet es sicher nicht, wenn sie von einem neuen bzw. vollständigeren Featureset profitieren können.
Es schadet auch dem nvidia Konsumenten, weil es keine einheitlichen Standards gibt. Die gibt es mit Vulkan, wo jeder Vendor trotzdem eigene Sachen machen kann, wenn er will.
.Sentinel. schrieb:
Die "Lemminge" haben ihre guten Gründe das zu kaufen. Und das zu Preisen, die sie offenbar als Preiswert betrachten. Es gibt viele Gründe eine nVidia Karte zu erstehen.
Ebenso gibt es Gründe AMD Karten den Vorzug zu geben.
Die meisten haben keine guten Gründe, sondern nur "Mindshare".
Wie man an den letzten Quartalszahlen sieht, wird nur eine 4090 gekauft, wenn man wirklich das überdrüber Paket haben will, während 4080/4070 Ti wie Steine im Regal liegen.
Die Gründe gibt es im niederpreisigerem Segment.
.Sentinel. schrieb:
Ich halte es für schwierig Leute in Schubladen zu stecken, weil sie sich nicht mit dem eigenen Konsumverhalten bzw. Konsumethik decken zumal die AMD- Lemminge die vermeintliche Preistreiberei ja ebenso mitmachen.
Jeder soll selbst entscheiden, was er kauft.
Richtig, es gibt informierte Menschen und viele uninformierte Menschen. Ich vermute, daß bei informierten Menschen öfters eine AMD Karte im Rechner steckt als umgekehrt.
.Sentinel. schrieb:
Es geht aber hier mal wieder in die völlig falsche Richtung. Es geht um FSR 3 und das Replik von AMD zur Frame- Generation. Und diesbezüglich wird AMD gezwungen sein, die Marschrichtung einzuschlagen mit welcher nVIDIA in der Praxis bereits gezeigt hat, dass das ordentlich funktioniert.
Du hast dieses "Fass" aufgemacht und etwas in meine Aussage hineininterpretiert, was gar nicht da ist. Die Mentalität immer von der selben Firma zu kaufen, ist immer schlecht, wenn man uninformiert bleibt.
.Sentinel. schrieb:
Ich bin nur gespannt, wie AMD die Studios überzeugen will, trotz geringer Marktanteile, den Mehraufwand für die Integration auf sich zu nehmen...
Ähm, so gering ist der Marktanteil gar nicht. So wie einige andere auch, schätze ich ihn sogar höher als gedacht ein. Rechnet man noch die Konsolen hinzu, könnte AMD vor nVidia liegen.
Open Source ist z.B. auch kein Mehraufwand was FSR betrifft, ganz im Gegenteil. Es ist weniger Aufwand, weil DLSS muß erst trainiert werden, FSR funktioniert einfach so. Und jedes Studio kann den Code den eigenen Bedürfnissen anpassen. Für die Konsolen hat es spürbare Verbessungen gebracht, weil nicht jedes Spiel die 60 bzw 120Hz ohne FSR erreichen kann.
 
  • Gefällt mir
Reaktionen: Millennial_24K
Eli0t schrieb:
Du kannst doch vernünftig diskutieren, was hat das anti-consumer Verhalten von nivida mit dieser Diskussion zu tun? Richtig, gar nichts.
Du hast das Thema aufgeworfen, mit den Lemmingen. Sie würden zu absurden Preisen kaufen und es sei nicht legitim. Ab da hast Du den Pfad einer vernünftigen Diskussion verlassen, weil Du mit diesem Satz auf vielen Ebenen Dinge implizierst, die Dir nicht zustehen bzw. unter den Begriff provokante, starke aber nicht haltbare Meinungsäußerung fallen und die wie Du ganz richtig feststellst -> das hat nichts mit dem Thema zu tun.

Und da frage ich mich dann schon, ob sowas dann wirklich sein muss. Du weisst doch, wie schnell durch solche Äußerungen Threads zum Entgleisen zu bringen sind.
 
  • Gefällt mir
Reaktionen: Pater_Erminold, Taxxor und Oudenstekelig
Wenn AMD bei FSR 3 eine ähnliche GPU-Kompatibilität schafft wie schon FSR 2, dann hätten sie rein objektiv betrachtet Nvidia ein weiteres mal erfolgreich gekontert. Es ist aber sehr wahrscheinlich, dass die neuste Iterarion für RDNA 3 optimiert sein wird auf Grund der dort verbauten KI-Beschleuniger. Ich bin auf das finale Ergebnis gespannt!
 
Zuletzt bearbeitet:
Zurück
Oben