News AMD: FSR 3.0 soll die Framerate im Jahr 2023 verdoppeln

Eli0t schrieb:
Du kannst doch vernünftig diskutieren, was hat das anti-consumer Verhalten von nivida mit dieser Diskussion zu tun? Richtig, gar nichts.
Das angebliche Anti-Consumer Verhalten Nvidias wird oft dann thematisiert, wenn inhaltlich die Argumente fehlen um Features und Entwicklungen des Marktführers zu kritisieren.
AMD und Intel steht es frei bessere Lösungen zu produzieren und mit jenen um die Kunden zu werben.
Entscheiden sich die Kunden hauptsächlich für Nvidia Produkte, was seit Jahrzehnten mittlerweile so ist, müssen AMD und aktuell auch Intel besser werden.

Was die Innovationskraft betrifft, sorgte Nvidia mit G-sync, Raytracing, DLSS und jetzt FG die letzten Jahre für sehr starke Impulse, die allen zu Gute gekommen sind. G-sync mündete in Adaptive Sync und DLSS zwang die Konkurrenz zur Entwicklung von FSR 2.0.
 
  • Gefällt mir
Reaktionen: Pro_Bro und sikarr
0ssi schrieb:
Das Einzige was mit FG anders ist, dass sichtbare flüssige 120FPS den fühlbaren Input Lag von 60FPS haben
weil ja nativ nur 60FPS gerendert werden und die bestimmten den Input Lag aber mit FreeSync/G-Sync/VRR
und Reflex/ALLM ist dieser so gering, dass eben nur 60 native FPS ausreichen und das ist der Game Changer.
In der Theorie ist es eine feine Sache. Ich kann mich nur allein auf Testberichte von diversen Hardwareredaktionen beziehen, da bei mir keine RX 4000 im Rechner ist. Und diese bescheinigen FG noch gewisse "Ungereimtheiten" beim Spielen.
Ergänzung ()

Pater_Erminold schrieb:
Was die Innovationskraft betrifft, sorgte Nvidia mit G-sync, Raytracing, DLSS und jetzt FG die letzten Jahre für sehr starke Impulse, die allen zu Gute gekommen sind. G-sync mündete in Adaptive Sync und DLSS zwang die Konkurrenz zur Entwicklung von FSR 2.2.0.
Was Raytracing anbelangt: diese Technik ist fast so alt wie der Wald... Das bedeutet, es ist in Wahrheit keine wirkliche Innovation, auch wenn es für den Gamingbereich eine Premiere darstellte. Und: Nvidia ist hier im Grunde genommen einfach vorgeprescht. AMD kennt die Technik bereits genau so lang, sie waren eben performancetechnisch noch nicht so weit. Hätte es Nvidia nicht zuerst eingeführt, dann wäre es AMD gewesen (eines Tages). Außerdem kommt Raytracing noch längst nicht allen zu Gute, besonders bei von Nvidia gesponserten Spielen. Ich frage mich, ob ich in Zukunft mit meiner RX 7900 XTX in Cyberpunk 2077 überhaupt Raytracing aktiviere, nur um dann fieser Weise hinter einer RTX 3080 10GB "herumzugurken"...
 
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
Was Raytracing anbelangt: diese Technik ist fast so alt wie der Wald... Das bedeutet, es ist in Wahrheit keine wirkliche Innovation, auch wenn es für den Gamingbereich eine Premiere darstellte.
Es gab vor DXR keine API um es in Spiele zu integrieren, Nvidia arbeitete dort federführend mit Microsoft daran.
TigerherzLXXXVI schrieb:
Und: Nvidia ist hier im Grunde genommen einfach vorgeprescht. AMD kennt die Technik bereits genau so lang, sie waren eben performancetechnisch noch nicht so weit. Hätte es Nvidia nicht zuerst eingeführt, dann wäre es AMD gewesen (eines Tages).
Deine Meinung diesbezüglich interessiert mich ehrlichgesagt nicht, mir geht es rein um eine Diskussion auf Basis von Fakten, nicht darum einen IHV unsachlich anzugreifen oder irgendwelche Räuberpistolen zu kolportieren.
 
Pater_Erminold schrieb:
Deine Meinung diesbezüglich interessiert mich ehrlichgesagt nicht, mir geht es rein um eine Diskussion auf Basis von Fakten, nicht darum einen IHV unsachlich anzugreifen oder irgendwelche Räuberpistolen zu kolportieren.
Ich wüsste nicht, dass ich hier einen IHV (für was auch immer diese Abkürzung steht - Internationaler Handball Verband ist es schon einmal nicht) direkt angegriffen haben sollte. Meine Aussage beruht auf eine vernunftsbasierte Betrachtungsweise auf die Dinge. Sollte sich irgendjemand davon provoziert fühlen, dann sollte er sich und seine eigenen Ansichten vielleicht mal hinterfragen. Denn so eine Reaktion steht meist nur für eines: Ich bin ein riesiger Nvidia-Fan und wehe irgendjemand wagt es, meine Lieblingsfirma in Frage zu stellen...
 
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
Und diese bescheinigen FG noch gewisse "Ungereimtheiten" beim Spielen.
Das ist deine Interpretation die auf Unwissenheit und mangelnder Erfahrung basiert denn letztendlich
ist eine Zwischenbildberechnung genau wie Upsampling ein Kompromiss den man für mehr FPS eingeht.

Wer die Erwartungshaltung hat, dass aus 60FPS einfach so 120FPS werden, was sonst gute 1000€ kostet,
dem fehlt das technische Verständnis und vielleicht auch generell das Interesse an solchen Innovationen.

Alleine schon wegen dem geringeren Stromverbrauch sind DLSS und FG für mich Pflicht beim Zocken.
Ob das Bild mit DLSS minimal unschärfer ist oder mit FG hier und da mal ein Bildfehler kommt, ist egal.
 
  • Gefällt mir
Reaktionen: DaHell63 und Pater_Erminold
Pater_Erminold schrieb:
Das angebliche Anti-Consumer Verhalten Nvidias wird oft dann thematisiert, wenn inhaltlich die Argumente fehlen um Features und Entwicklungen des Marktführers zu kritisieren.
AMD und Intel steht es frei bessere Lösungen zu produzieren und mit jenen um die Kunden zu werben.
Entscheiden sich die Kunden hauptsächlich für Nvidia Produkte, was seit Jahrzehnten mittlerweile so ist, müssen AMD und aktuell auch Intel besser werden.

Was die Innovationskraft betrifft, sorgte Nvidia mit G-sync, Raytracing, DLSS und jetzt FG die letzten Jahre für sehr starke Impulse, die allen zu Gute gekommen sind. G-sync mündete in Adaptive Sync und DLSS zwang die Konkurrenz zur Entwicklung von FSR 2.0.
Und Du Trollst. Im Gegensatz zu Dir, kaufe ich deswegern keine nvidia Karte, egal wie gut sie wäre, wenn sie nicht für mich ist. Nvidia hat Adaptive Sync einfach kommerzialisiert, etwas was unter der Aegida der VESA erforscht wurde. Sonst gar nichts. RT hat nicht wirklich für Impulse gesorgt, weil es bis zur 3ten nievida Generation gedauert hat, bis das Feature überhaupt halbwegs sinnvoll eingesetzt worden ist und halbwegs gut funktioniert. Wenn die Framerate um die Hälfte einbricht, ist das Feature relativ sinnfrei. FG gabs schon vor einem Jahrzehnt wird nun aber anders umgesetzt, es ist mitnichten eine "Erfindung". Displayport ist übrigens ein royalty-free Standard von AMD der von der VESA übernommen wurde und eigentlich immer besser (definiert) ist, als HDMI es jemals war. Aber immer schön, wenn der Lederjackenmann auch Mitglied in der VESA ist, dort nicht wirklich etwas weiterbringt. AMD hat mehr für Spieler getan als Du denkst, ohne AMD auch kein DX12 und kein Vulkan. Und dank Vulkan und DXVK (DirectX on Vulkan) laufen alte Spiele besser als nativ, selbiges mit Zink (OpenGL on Vulkan).

Was die Kartenpreise betrifft, sind beide Firmen für den Popsch bei den neuen Produkten. Und da gibts auch keine Argumente dagegen, egal wie toll die Features sein mögen oder die "Innovationskraft".
 
  • Gefällt mir
Reaktionen: Millennial_24K
TigerherzLXXXVI schrieb:
Ich wüsste nicht, dass ich hier einen IHV (für was auch immer diese Abkürzung steht - Internationaler Handball Verband ist es schon einmal nicht) direkt angegriffen haben sollte.
Es hat keinen Sinn gegen Verschwörungstheorien zu argumentieren, da wenn eine widerlegt ist, wieder eine neue aus der Kiste gezogen wird.
Nur mal einen herausgegriffen:

Du redest von Performancevorteilen der aktuellen AMD Generation gegenüber Nvidia und suggerierst die Leute wüssten das nicht, weil sie sich nicht informieren und nur nach dem Namen gehen und deshalb Nvidia kaufen.

TigerherzLXXXVI schrieb:
Man kann dieses Kaufverhalten in Hinblick auf den realen Performancevergleich zwischen einer Nvidia- und AMD-GPU auch mit folgender Metapher ausdrücken: Fast jeder will einen Mercedes fahren, anstatt einen Audi..." (die RTX 4090 mal außen vor gelassen)
Performancevergleiche gibt es hier.
Kurzum AMD ist insgesamt langsamer als die Nvidia Gegenstücke, kein FG.
Die 7900XT verliert gegen die 4070Ti und die 4080 gewinnt deutlich gegen die 7900XTX.
TigerherzLXXXVI schrieb:
Meine Aussage beruht auf eine vernunftsbasierte Betrachtungsweise auf die Dinge.
Deine Aussagen basieren hauptsächlich auf Räuberpistolen.
Du reklamierst für dich objektive Betrachtungsweisen, aber bist nicht informiert, folgender Abschnitt zeigt das am besten und nein darauf gehe ich sicher nicht ein, weil verschwendete Zeit.
TigerherzLXXXVI schrieb:
Speziell im PC-Gaming bedeutet dies, dass sie sich derzeit verstärkt in Spieleschmieden einkaufen, um ihr eigenes "RTX ON" Ziel mit der Brechstange durchsetzen, ohne ein vernünftiges Maß zu finden. Ich bin der Auffassung Nvidia befindet sich in einem regelrechten "Raytracing-Wahn", der die Grafikkartenpreise in die Höhe schießen lässt und die Zukunftstechnologie mehr zur Technikdemo für gutbetuchte Besitzer einer 2000€-Grafikkarte verkommen lässt. Aber das ist schon wieder ein anderes Thema.

Eli0t schrieb:
Nvidia hat Adaptive Sync einfach kommerzialisiert, etwas was unter der Aegida der VESA erforscht wurde.
Auch das ist eine Räuberpistole vice versa, wenn du dich informieren willst, kannst du das hier tun.
Was es durchaus gab war eDP, aber ohne die Funktionalitäten (framedoubling) die das G-sync Modul bereitstellte und ohne nur dann ein Bild darzustellen wenn das mittels vblank Signal gewünscht war.

Es wurde lediglich zum Stromsparen bei Notebooks genutzt, diese Möglichkeit von AMD aufgegriffen und danach ein Standard geschaffen. Effektive Monitore mit der gleichen Funktionalität wie G-sync kamen 2! Jahre später. Das gleiche gilt für deine weiteren Argumente.

Eli0t schrieb:
Im Gegensatz zu Dir, kaufe ich deswegern keine nvidia Karte, egal wie gut sie wäre, wenn sie nicht für mich ist.
Das musst du mir nicht sagen, das hätte ich auch anhand deiner Äußerungen ableiten können.
Ich kaufe den IHV, der mir mehr bietet. Wenn AMD FSR 3.0 und einen Reflex Counterpart gut umsetzt und den Rückstand bei Raytracing aufholt, werde ich mir sicherlich eine Radeon kaufen.
 
Zuletzt bearbeitet:
Pater_Erminold schrieb:
Es hat keinen Sinn gegen Verschwörungstheorien zu argumentieren, da wenn eine widerlegt ist, wieder eine neue aus der Kiste gezogen wird.
Nur mal einen herausgegriffen:

Du redest von Performancevorteilen der aktuellen AMD Generation gegenüber Nvidia und suggerierst die Leute wüssten das nicht, weil sie sich nicht informieren und nur nach dem Namen gehen und deshalb Nvidia kaufen.
Dann hast du meine Metapher nicht verstanden. Sie bedeutet, dass, obwohl es objektiv betrachtet derzeit keine großen Leistungsunterschiede zwischen Nvidia- und AMD-GPUs gibt (Raytracing ist nicht für jeden ein Kaufargument), kaufen die meisten Gamer dennoch stur Nvidia-Grafikkarten. Völlig zu Unrecht, wie ich finde. Das meinte ich mit dem Vergleich Mercedes vs Audi: im Grunde haben beide Hersteller ähnlich gute Autos.

Pater_Erminold schrieb:
Performancevergleiche gibt es hier.
Kurzum AMD ist insgesamt langsamer als die Nvidia Gegenstücke, kein FG.
Die 7900XT verliert gegen die 4070Ti und die 4080 gewinnt deutlich gegen die 7900XTX.
Wie gesagt, Raytracing ist noch lange kein Kaufargument für die meisten Gamer. Zurzeit verzichten etwa laut einer CB-Umfrage die meisten User auf Raytracing zugunsten der Performance. Wer die Bedeutung von Raytracing bereits heute gleichsetzt mit Rasterisierung, der befindet sich in einer Enthusiastenblase oder ist das Opfer eines bewusst geschürten Raytracinghypes.

Außerdem gibt es beim Test von CB zwei Probleme:
Zum einen wurde mit einem Intel-System getestet, weswegen auch kein AMD SAM zum Einsatz kommt (das bringt je nach Spiel einen spürbaren Performancevorteil gegenüber Nvidia-Karten).
Zum anderen waren während des Tests die AMD-Treiber gefühlt noch im Beta-Status. In manchen Spielen war beispielsweise RX 6000 auf Augenhöhe mit RX 7000... Zusammengefasst bedeutet dies: RX 7000 steht besser dar als im Test von CB Anfang Dezember 2022.
[/QUOTE]
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Volvo480
TigerherzLXXXVI schrieb:
Sie bedeutet, dass, obwohl es objektiv betrachtet derzeit keine großen Leistungsunterschiede zwischen Nvidia- und AMD-GPUs gibt (Raytracing ist nicht für jeden ein Kaufargument),
Das ist aber nur deine Meinung und kein Fakt. Daran scheitert deine ganze Argumentation.
Hier ist eine Umfrage und die zeigt, dass etwas über 40% Raster und RT Performance mindestens für gleich wichtig erachten. Daraus lässt sich schließen, dass kaum jemanden die RT Leistung völlig egal ist.
TigerherzLXXXVI schrieb:
Völlig zu Unrecht, wie ich finde. Das meinte ich mit dem Vergleich Mercedes vs Audi: im Grunde haben beide Hersteller ähnlich gute Autos.
Und auch das ist nur deine persönliche Meinung. Die User denken da größenteils wohl anders als du.

TigerherzLXXXVI schrieb:
Wie gesagt, Raytracing ist noch lange kein Kaufargument für die meisten Gamer.
Wenn 40% die Raytracing Leistung als gleichwertig erachten, kann deine Aussage unmöglich korrekt sein.

TigerherzLXXXVI schrieb:
Zurzeit verzichten etwa laut einer CB-Umfrage die meisten User auf Raytracing zugunsten der Performance. Wer die Bedeutung von Raytracing bereits heute gleichsetzt mit Rasterisierung, der befindet sich in einer Enthusiastenblase oder ist das Opfer eines bewusst geschürten Raytracinghypes.
Weil die User keine Karten haben um Raytracing zu nutzen, das geht aus dieser Umfrage hervor.
Nur für 29% ist Raytracing kein Kaufargument, laut deiner zitierten Umfrage.
Mehr als 1/3 hat der User von CB hat nicht mal eine Grafikkarte die es unterstützt, außerdem geht es um einen Neukauf. Informiere dich mal.
 
  • Gefällt mir
Reaktionen: Pro_Bro
Pater_Erminold schrieb:
Das ist aber nur deine Meinung und kein Fakt. Daran scheitert deine ganze Argumentation.
Hier ist eine Umfrage und die zeigt, dass etwas über 40% Raster und RT Performance mindestens für gleich wichtig erachten. Daraus lässt sich schließen, dass kaum jemanden die RT Leistung völlig egal ist.
Wie bereits gesagt, ich habe mir als Grundlage für meine Aussage die entsprechende CB-Umfrage hergenommen (siehe Screenshots). Da sieht es doch ein bisschen anders aus. Besonders die Frage zur Unterstützung von Raytracing in Spielen sagt einiges aus.
Darüber hinaus ist Raytracing nach wie vor alles andere als massentauglich, da ist noch viel zu tun, sowohl auf Hardwareebene als auch bei den Spieleentwicklern. Es geht immer noch zu viel Performance beim Einsatz der Technik verloren. Die Effizienz von Raytracing in Spielen ist aktuell eher schlecht als recht, sofern man einen echten grafischen Fortschritt möchte. Und man muss dafür auch tief in die Taschen greifen.
 

Anhänge

  • Screenshot_20230317_235721_Chrome.jpg
    Screenshot_20230317_235721_Chrome.jpg
    855,2 KB · Aufrufe: 128
  • Screenshot_20230317_235641_Chrome.jpg
    Screenshot_20230317_235641_Chrome.jpg
    923,2 KB · Aufrufe: 127
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
Darüber hinaus ist Raytracing nach wie vor alles andere als massentauglich, ...
RT ist bzw. sind lediglich die Luxus Versionen von Grafikeffekten und Luxus war noch nie massentauglich.
Es gibt unterschiedliche RT Effekte, Jeden in verschiedenen Stufen und für jeden gibt es einen alternativen
Grafikeffekt der RT simuliert und ähnlich gut aussehen lässt. Damit kann man sich ja auch zufrieden geben.

4K, 120FPS, OLED, das neuste Handy, Auto, Eigenheim, Reisen, usw. sind auch nicht immer massentauglich
aber sind wir mal ehrlich, Jeder hätte es schon gerne aber würde es in einer Umfrage wohl kaum zugeben.
Wenn AMD ein gleichwertiges Feature zu Frame Generation bringt, wird das auf jeden Fall gut für uns Alle.
 
TigerherzLXXXVI schrieb:
Wie bereits gesagt, ich habe mir als Grundlage für meine Aussage die entsprechende CB-Umfrage hergenommen (siehe Screenshots).
Und hast sie falsch aus dem Gedächtnis zitiert, habe ich oben bereits anhand deiner Umfrage gezeigt.
Auf den Teil des Beitrags bist du nicht eingegangen.

TigerherzLXXXVI schrieb:
Besonders die Frage zur Unterstützung von Raytracing in Spielen sagt einiges aus.
Sie sagte nicht das aus, was du behauptet hattest. 29% sind von der Mehrzahl sogar sehr weit entfernt.

TigerherzLXXXVI schrieb:
Die Effizienz von Raytracing in Spielen ist aktuell eher schlecht als recht, sofern man einen echten grafischen Fortschritt möchte. Und man muss dafür auch tief in die Taschen greifen.
Die Effizienz ist für das Gebotene weit besser als mit einem Raster Ansatz, mehr muss man meines Erachtens nicht wissen, um das zu bewerten.
 
Zuletzt bearbeitet:
Heul heul, aber nVidia hat ne viel bessere RT-Leistung! Lederjacke über alles!

Jaaa, aber Wein Wein AMD hat ne viel bessere Raster-Leistung. Lara Su 4 President!

- Wollte euch nur mal die nächsten beiden Beiträge vorweg nehmen.

Dann braucht ihr sie nicht zu schreiben! Danke! 🙏
 
  • Gefällt mir
Reaktionen: ToflixGamer, cbmik und Czk666
0ssi schrieb:
RT ist bzw. sind lediglich die Luxus Versionen von Grafikeffekten und Luxus war noch nie massentauglich.
Und genau aus diesem Grund sollte man derzeit die RT-Performance von Grafikkarten nicht über die von Rasterisierung stellen. Oder anders ausgedrückt: Die Rasterisierungsleistung von Grafikkarten ist immer noch die mit Abstand wichtigste Kenngröße, Raytracing spielt hingegen eine untergeordnete Rolle. Eines Tages wird Raytracing im Mainstream angekommen sein, doch bis dahin sollte man bei der Beurteilung einer Grafikkarte deren Rasterisierungsleistung die größere Bedeutung beimessen. Raytracing ist in der aktuellen Form sprichwörtlich mehr Blendwerk als ein tatsächlicher Gamechanger. Dafür ist das Gesamtökosystem noch viel zu unausgegoren.
Die neue Path-Tracing Erweiterung für CP2077 etwa ist nichts weiter als eine marketingträchtige Grafikdemo und nur nutzbar für absolute Enthusiasten, die bereit sind eine extrem teure Grafikkarte zu kaufen.
Außerdem ist das Spiel schon ein außerordentlicher Alleingang Nvidias in der Gamingbranche, welcher ihre proprietäre Denkweise auf die Spitze treibt. Es gibt keinen anderen Titel (außer vielleicht noch The Witcher 3...), der so hervorragend für RTX-GPUs bzw. das eigene Ökosystem optimiert wurde und so miserable für die Konkurrenz. Vergleiche einfach mal die generelle RT-Performance von CP2077 mit Metro Exodus EE. Das Spiel von 4A-Games zeigt, wie man es vernünftig macht.

0ssi schrieb:
Es gibt unterschiedliche RT Effekte, Jeden in verschiedenen Stufen und für jeden gibt es einen alternativen
Grafikeffekt der RT simuliert und ähnlich gut aussehen lässt. Damit kann man sich ja auch zufrieden geben.
Das stimmt. Natürlich hat herkömmliche Rasterisierung ihre Grenzen, aber ich persönlich kann mit den Einschränkungen derzeit wunderbar leben. Wohlwissend, dass Raytracing bzw. Path-Tracing mehr und mehr an Bedeutung in der Gamingbranche gewinnen wird. Aber es ist wie gesagt ein steter und langwieriger Prozess.

Und weil es gerade so gut zum Thema passt: die Unreal Engine 5 ist eine perfekte Übergangslösung beim Thema Raytracing in Videospielen. Der moderne Grafikmotor ist in der Lage ähnlich natürlich ausgeleuchtete Spielewelten weitestgehend mit Rasterisierung zu berechnen, bei minimalem Einsatz von Raytracing selbst. Diese Technik heißt Lumen.
Ergänzung ()

@Kommando Ich war bisher noch nicht genervt genug von diesem Thema. Jetzt habe ich alles gesagt. Du kannst dich freuen.
 
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
Oder anders ausgedrückt: Die Rasterisierungsleistung von Grafikkarten ist immer noch die mit Abstand wichtigste Kenngröße, Raytracing spielt hingegen eine untergeordnete Rolle.
Deine Meinung? Die mag ja für Dich genau richtig sein und sei Dir auch belassen
Aber meine Karte suche ich mir nach meinen Kriterien aus und da ist Raytracing schon der grosse Kaufgrund.
Ich spiele auf 1440p und sehe da absolut keinerlei Grund alleine wegen der Rasterleistung zwischen 800 und 1000€ zu versenken. Da tut es meine RX 6800 schon lange.
 
Sagt mal, ihr versucht auch im gegnerischen Stadion dessen Fans mitten in deren Tribünen zu bekehren, richtig?

Wäre auf jeden Fall Erfolg versprechender als der Kram den ihr hier versucht… 😂
 
  • Gefällt mir
Reaktionen: .Sentinel., DrTimeWaste und Volvo480
TigerherzLXXXVI schrieb:
Es gibt keinen anderen Titel (außer vielleicht noch The Witcher 3...), der so hervorragend für
RTX-GPUs bzw. das eigene Ökosystem optimiert wurde und so miserable für die Konkurrenz.
Sicher ? Ich bin jetzt zu faul Benchmarks rauszusuchen aber selbst mit DLSS packt meine 4090
in 4K keine 120FPS und auch die CPU geht krachen. Die Lösung lautet dann Frame Generation.
Mit Frame Limiter und Undervolting braucht man dann tatsächlich nur 250 Watt für 4K 120FPS.
 
  • Gefällt mir
Reaktionen: Fallout667
Wolfgang schrieb:
Artikel-Update:In kürze“ als Angabe zum Veröffentlichungstermin bleibt bei FSR 3 mindestens noch bis Ende März Programm, darauf weist ein Vortrag hin, den AMD auf der Games Developer Conference 2023 abhalten wird. Unter dem Titel „The FidelityFX SDK (Presented by AMD)“ wird es im Rahmen der einstündigen Präsentation für Entwickler auch eine „spannende kleine Vorschau“ („Sneak Peek“) auf neue FidelityFX-Technologien geben, womit nur FSR 3.0 gemeint sein kann. Doch auch in der Ankündigung für den Vortrag am 23. März bleibt es bei „will be available soon“.

Hat dieser Vortrag überhaupt stattgefunden? Es gibt so gar keine News diesbezüglich...
 
  • Gefällt mir
Reaktionen: Wanderwisser
Ausser heisser Luft gibt es bisher keine neuen Erkenntnisse bei FSR3. Man wird das wohl bis next Gen. einfach aussitzen wie es aussieht.

0ssi schrieb:
Jeder hätte es schon gerne aber würde es in einer Umfrage wohl kaum zugeben.
Typisch deutsche bzw. germanische Eigenschaft .

0ssi schrieb:
Alleine schon wegen dem geringeren Stromverbrauch sind DLSS und FG für mich Pflicht beim Zocken.
Ob das Bild mit DLSS minimal unschärfer ist oder mit FG hier und da mal ein Bildfehler kommt, ist egal.

This !

0ssi schrieb:
Mit Frame Limiter und Undervolting braucht man dann tatsächlich nur 250 Watt für 4K 120FPS.

And This ! Schon lustig wo es doch zeitgleich hitzige Diskussionen gibt wo die Effizienz der AMD CPU in den Vordergrund gestellt wird , die in die Bedeutungslosigkeit im Vergleich hierbei verschwindet 🤣
 
  • Gefällt mir
Reaktionen: Pro_Bro, .Sentinel. und Fallout667
Zurück
Oben