News AMD FSR 3.1: Höhere Bildqualität und Frame Generation auch mit DLSS

Klingt doch super, könnte ja die Alternative für die Karten sein, die noch keine AI Einheit haben. Soweit ich mich erinnere, hat RDNA3 diese doch noch als totes Silizium rumliegen oder?
Dann könnte man FSR 3.1 parallel mit der AI-Version zu den neuen Karten veröffentlichen.

kachiri schrieb:
Frage: Warum sollte NV das tun? Meinst du, AMD gestaltet seine Features so offen, weil sie "nett" sein wollen? Sie müssen, um eine für Spieleentwickler relevante Verbreitung des Features zu sorgen.
Wieso macht Intel seit Ewigkeiten Open Source im Linux Kernel statt binary blobs anzubieten? Warum machen AMD und TI das auch?
Man kann als Unternehmen auch offene Technologien verbreiten, ohne einen Hintergedanken zu haben, Firmenphilosophien sind verschieden. Nvidia will den goldenen Käfig wie Apple, ich gehe sogar soweit und sage, sie sitzen nur in Konsortien wie VESA um anstehende Standards zu erfahren, möglichst lange zu blockieren und ihren eigenen, proprietären Müll schnell auf den Markt zu werfen wie bei GSync.
 
  • Gefällt mir
Reaktionen: Balikon, CableGuy82, edenjung und 10 andere
Simanova schrieb:
Warum sollte ich AMD Framegeneration nutzen, wenn ich eine Nvidia RTX40xx Karte drin habe und nativ DLSS 3.0 läuft? Muss ich das verstehen?

0x8100 schrieb:
stell dir vor, es gibt auch karten abseits der rtx400xx reihe. wenn du aber eine hast, dann ignorier fsr einfach und werde auch so glücklich :)

Stell dir weiter vor, es kann auch Spiele geben, die gar kein DLSS FG bieten aber evtl FSR FG bekommen.
Dann hast du trotz RTX4000 bisher keine Möglichkeit für FG gehabt ohne auf FSR zu setzen.

Demnächst kannst du dann auch DLSS SR + FSR FG nutzen.
Was ja sogar noch den Vorteil hat dass es dir etwas mehr FPS bringt
 
  • Gefällt mir
Reaktionen: Balikon, CableGuy82, SweetOhm und 3 andere
nciht schrieb:
Eine bittere Notwendigkeit, die leider wieder viel zu spät kommt.
Wie soll das so schnell gehen?
Fordern, aber selbst absolut keien Ahnung haben, wie lange und wie schwer so ein Schritt ist...
NVidia hat alleine für das Thema Raytracing schon 10 Jahre Vorbereitung gebraucht.
Intel braucht trotz 30 Jahre Erfahrung für den nächsten diskreten Grafikchip mindestens 5 Jahre mit vielen Fails, obwohl man ja "nur" den Chip vergrößern und auf eine Platine schrauben musste und komtm noch immer nicht in die Puschen udn wird wohl auch langfristig keinen Anwärter für die Leistungskrone bieten, weil NVidia nach Belieben diktiert.
Man muss es einfach ganz klar sagen, dass NVidia mit dem erwirtschafteten Geld als Marktführer das nötige Kleingeld hatte, um "mal eben" nebenher das große und teure Thema aufzugreifen und anzugehen.
AMD hingegen war damit beschäftigt die Sachen wie Vega und HBM auszubügeln und preislich und leistungstechnisch und auch effizienztechnisch attraktive Gegenstücke zu entwerfen, die in Sachen Rasterleistung überzeugen können, um Marktanteile behalten zu können.
Und nebenher tobte der Krieg am CPU Markt, wo man sich ja noch mit dem Ryzen udn dessen Weiterentwicklung von dem bösen Bulldozererwachen zurückkämpfen musste.
Es gab also genug andere Baustellen, wo der Fokus lag.
Dadurch wurden die also quasi völlig überrascht, als die 2000er Serie von nVidia mit Raytracing angekündigt wurde.
Die Planung der eigenen Karten sind zu dem Zeitpunkt aber schon für 2-3 Generationen durch, wo man nicht mal eben das ganze Konzept über den Haufen schmeißt und ganz von vorne beginnt.
Dafür fehlt das Geld, die Zeit, und auch das Know-How, das einem ja nicht sofort zur Verfügung steht, sondern selbst erst einmal mühselig in Gang gebracht werden muss.
Und ein Aufholen an Technik, Leistung, Softwarefeatures etc. ist nunmal sehr kostspielig und mühselig, und kann nur langsam in bestehende Konzepte eingearbeitet werden, ehe man irgendwann dann von Anfang an grundsätzlich auch die Hardware in die Richtung entwickelt und aufgebaut und optimiert bekommt.
Es wird also noch Jahre dauern, ehe man vielleicht von einem gefühlten Gleichstand reden kann.
Bis dahin ist es halt so, dass man bei einigen Dingen eher eine Generation zurückhängt.
Es ist aber halt auch so, dass dieser Vorsprung von NVidia vom Spieler teuer erkauft wird, weil ja eben der gesamte PC dafür hergerüstet werden muss, um das auch genießen zu können.
Bei den Einzelkomponenten kommt man da mal eben locker auf 4000-5000 Euro.
Motherboard und CPU und Kühler 1000 Euro oder mehr, Grafikkarte 2000, Monitor mindesten 1000 Euro, pi pa po 1000 Euro. Geld ist futsch. Und das nur, um Cyberpunk halbwegs flüssig und ohne Kompromisse mit Pathtracing zocken zu können.
 
  • Gefällt mir
Reaktionen: CableGuy82, edenjung, ÖX45 und 5 andere
Tevur schrieb:
Ich hab eine CB-Quelle, die eine MS-Quelle zusammenfasst.
https://www.computerbase.de/2024-02...cht-dlss-fsr-xess-und-co-pauschal-in-spielen/
Verlinkung zum Dev-Blog ist dort auch zu finden.

hmmm, ich kenne diese news schon lange, Deine Behauptungen deines Kommentars werden darin aber weder bestätigt noch irgendwo konkret im Einzelnen beschrieben.

Sprich: Wenn ein Spiel DirectSR unterstützt, wird es in Zukunft immer Nvidia DLSS, AMD FSR oder Intel XeSS unterstützen, ohne dass sich der Spieleentwickler explizit um jede dieser Technologien kümmern muss.
Diese Stelle in der news ist die einzige, die "irgendetwas" darüber aussagt.
Im Prinzip steht hier auch ein Gegenteil zu deiner Aussage drin.
Du schreibst "nur als Schnittstelle" im Sinne von "eigentlich wirds nichts großes, ist klein und hat keine große Auswirkung".

Im Text der news steht dies anders.
Wenn ein Spiel DirectSR unterstützt, wird in Zukunft IMMER Nvidia DLSS, AMD FSR oder Intel XeSS unterstützen...
Das ist eine andere Aussage und auch insbesondere eine andere Qualität in Bezug auf die Tiefe der Integration.
Vermutlich ist dir nicht bewusst, dass jetzt zu dieser Uhrzeit noch niemand konkretes wissen kann...

Das wird sich erst heute Abend ab 21.45 Uhr ändern, da ist nämlich
die aller erste konkrete Erläuterung von Microsoft, Nvidia und AMD zu Direct SR im Rahmen der GDC.
Erst dann wird man erfahren, wie konkret technisch die Integration erfolgt, was dann ein Entwickler machen kann bzw. muss und inwiefern Direct SR in den Grafikoptionen als Standard auftaucht.

Ob es im finalen Release ein "großer Wurf" wird wie "Raytracing für alle" durch DX oder
am Ende doch nur ein "kleines Gschiss" als Mini-Schnittstelle rauskommt,
wird man daher wohl nach der Stunde sehr gut einstufen können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
engineer123 schrieb:
hmmm, ich kenne diese news schon lange, Deine Behauptungen deines Kommentars werden darin aber weder bestätigt noch irgendwo konkret im Einzelnen beschrieben.

This API enables multi-vendor SR through a common set of inputs and outputs, allowing a single code path to activate a variety of solutions including NVIDIA DLSS Super Resolution, AMD FidelityFX™ Super Resolution, and Intel XeSS.
ist doch wohl recht eindeutig.
 
eazen schrieb:
Solche negativen Vorwürfe sind übrigens total unnötig. Kann gut sein das GIF benutzt wurde weil es eben einfach praktischer war. Man merkt das der Autor überall etwas negatives finden will wo er nur kann.
Nein, das ist eine legitime kritische Einordnung. Wenn ein Hersteller bewusst solche Bilder liefert, kann man das nicht übergehen (oder sich selbst Relativierungen ausdenken).
Mir ist AMD tendenziell ja auch lieber als die Konkurrenz, aber Berichterstattung hat nicht die Aufgabe PMs wiederzukäuen, sonst kann man auch direkt den Newsletter von Herstellern abonnieren – der ist dann durchweg positiv.
 
BxBender schrieb:
Bei den Einzelkomponenten kommt man da mal eben locker auf 4000-5000 Euro.
Motherboard und CPU und Kühler 1000 Euro oder mehr, Grafikkarte 2000, Monitor mindesten 1000 Euro, pi pa po 1000 Euro. Geld ist futsch. Und das nur, um Cyberpunk halbwegs flüssig und ohne Kompromisse mit Pathtracing zocken zu können.
Also mein Setup kostet bei weitem keine 5k und PT in Cyberpunk ist mit bspw. 4070S in WQHD kein Problem. Eine AM5 Plattform kostet auch keine 1000€ sondern eher die Hälfte.
 
Simanova schrieb:
Warum sollte ich AMD Framegeneration nutzen, wenn ich eine Nvidia RTX40xx Karte drin habe und nativ DLSS 3.0 läuft? Muss ich das verstehen?
Keiner zwingt dich dazu. Die Idee ist eher für Leute mit älteren NVIDIA GPUs gedacht, die von NVIDIA aus Gier nicht supported werden.

Übrigens, schade das War Thunder es nicht auf die Liste geschafft hat.
Der Vorschlag der Implementierung wurde im Dezember an die Entwickler weitergegeben, aber offziell wurde noch immer nichts angekündigt. Das letzte große Update hat es auch nicht reingebracht. Keine Ahnung warum die so lange brauchen.
Ein Modder hat es schon vor 2 Jahren als Ersatz für DLSS reingebracht und es hat wunderbar funktioniert.
 
  • Gefällt mir
Reaktionen: CableGuy82 und SweetOhm
engineer123 schrieb:
Im Prinzip steht hier auch ein Gegenteil zu deiner Aussage drin.
Du schreibst "nur als Schnittstelle" im Sinne von "eigentlich wirds nichts großes, ist klein und hat keine große Auswirkung".

Im Text der news steht dies anders.
Hmm, da magst du vielleicht recht haben. Meine und die Aussage, auf die ich mich bezogen hab, kann man tatsächlich verschieden interpretieren und gewichten.

Für mich ist es jedenfalls nichts Großes, wenn nur die Implementierung der 3 Technologien in die zukünftigen Spiele vereinfacht wird. Das ist mir als Endkunde ja egal, warum mir FSR zur Verfügung steht, hauptsache es ist da. Und wenn es zukünftig nur auf Windows zur Verfügung steht, dann seh ich gar nichts positives mehr daran.

Wenn ich zukünftig das beste Verfahren (aktuell DLSS-Upscaling bzw. DLAA) auf jeder aktuellen Spiele-Hardware nutzen könnte, das wäre der Knüller, für den ich DirectSR feiern würde. Das wird aber heut Abend leider nicht der Fall sein.
 
  • Gefällt mir
Reaktionen: SweetOhm
Ich warte noch auf Skynet. Echtzeitverbesserungen ohne Schnickschnack, bis es Bomben regnet.:king:
 
  • Gefällt mir
Reaktionen: CableGuy82
Schön zu sehen, dass AMD Gas gibt. Hinsichtlich Marketing absolut notwendig, wenn man sich anschaut, wie hier die Wahrnehmung ist. Für mich haben die letzten Diskussion hinsichtlich der dramatischen Qualitätsunterschiede und der damit verbundenen Sichtung der "Beweise" doch eine erhebliche Entwarnung oder eine heftige Realitätseinordnung ergeben. Dennoch gibt es Probleme, die behoben werden wollen. Schön auch, das hier weiterhin von dramatischen Qualitätsunterschieden gesprochen wird, obwohl die Beweise über dramatisch weiterhin nicht verfügbar sind. Aber gut, daher der notwendige Marketingansatz.
 
  • Gefällt mir
Reaktionen: ÖX45 und SweetOhm
BxBender schrieb:
Wie soll das so schnell gehen?
Fordern, aber selbst absolut keien Ahnung haben, wie lange und wie schwer so ein Schritt ist...
Ahnung, die du natürlich hast, aber in deiner gesamten Wall of Text bringst du kein einziges Argument zur Erklärung, warum das bei einem Upscaler so schwer sein soll und redest stattdessen über alles möglich andere. Beleuchte mir bitte die technischen Hürden im Detail, von denen du so viel Ahnung hast und die AMD nicht schafft zu erzwingen.

Wie schafft es bitte intel (in so kurzer Zeit) einen besseren Upscaler zu entwickeln und das einfach mal neben her, während die deutlich wichtigeres an ihren GPUs zu verbessern haben?

Wie schafft es ein deutlich kleineres Unternehmen als AMD (Epic) einen besseren Upscaler zu entwickeln?

Wie schaffen es bitte also die anderen diese unfassbar "langen und schweren Schritte" zu einem gut funktionierendem Upscaler zu gehen, an denen AMD scheitert.

BxBender schrieb:
Die Planung der eigenen Karten sind zu dem Zeitpunkt aber schon für 2-3 Generationen durch ... Und ein Aufholen an Technik, Leistung, Softwarefeatures etc. ist nunmal sehr kostspielig und mühselig, und kann nur langsam in bestehende Konzepte eingearbeitet werden
Upscaler können völlig losgelöst von der GPU-Technik gut funktionieren, wie TSR eben zeigt. Das ist also absolut kein Feature, welches Jahre im voraus für eine GPU-Gen eingeplant werden muss. Selbst Hardwarebeschleunigtes Upscaling hat intel in so kurzer Zeit gut aufgeholt.

BxBender schrieb:
Es ist aber halt auch so, dass dieser Vorsprung von NVidia vom Spieler teuer erkauft wird, weil ja eben der gesamte PC dafür hergerüstet werden muss, um das auch genießen zu können. ... Motherboard und CPU und Kühler 1000 Euro oder mehr, Grafikkarte 2000, Monitor mindesten 1000 Euro, pi pa po 1000 Euro. Geld ist futsch. Und das nur, um Cyberpunk halbwegs flüssig und ohne Kompromisse mit Pathtracing zocken zu können.
Hä? Warum soll man seine CPU und den Rest aufrüsten müssen um DLSS nutzen zu können? Zudem läuft dieser "Vorsprung" auf Karten von 2020. v.A. Warum behauptest du, man müsse seinen Monitor aufrüsten für DLSS??? - selbst wenn man Pathtracing genießen will läuft das wohl mit nem alten guten Monitor, oder? Und meinst du DLSS/ein Upscaler sei nur sinnvoll, wenn man Cyperpunk mit Pathtracing spielen will?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable
Super es geht weiter... irgendwann, für irgendwelche Spiele....

Grundsätzlich finde ich die Technik sehr spannend, dann lese ich wieder die News und werde erst irgendwann oder garnicht nutzen können.
Na mal schauen, vielleicht bringt aussgerechnet Microsoft frischen Wind bei der Sache rein, wenn ich nicht vorher sowieso alles auf Linux XY umstelle.
 
engineer123 schrieb:
hmmm, ich kenne diese news schon lange, Deine Behauptungen deines Kommentars werden darin aber weder bestätigt noch irgendwo konkret im Einzelnen beschrieben.
Es steht wortwörtlich im DEV-Blog:
This API enables multi-vendor SR through a common set of inputs and outputs, allowing a single code path to activate a variety of solutions including NVIDIA DLSS Super Resolution, AMD FidelityFX™ Super Resolution, and Intel XeSS
Das ist ne Art Wrapper bzw. Abstraktionsschicht für DLSS und co. Sowas ähnliches nutzen andere Studios wie Nixxes schon seit geraumer Zeit:
https://twitter.com/mempodev/status/1673759246498910208

Nichts anderes ist DirectSR auch.
 
  • Gefällt mir
Reaktionen: engineer123
nciht schrieb:
Wie schafft es ein deutlich kleineres Unternehmen als AMD (Epic) einen besseren Upscaler zu entwickeln?
Epic entwickelt neben der Engine noch CPUs, GPUs, Mainboard-Chipsätze usw?
 
  • Gefällt mir
Reaktionen: Balikon, SweetOhm und eXe777
@DrFreaK666 Willst du mir sagen AMD hat eigentlich mit dem "Kerngeschäft" zu viel am Hut um sich vernünftig um nen Upscaler zu kümmern? Für wen ist der gut funktionierende Upscaler wohl wichtiger um seine Produkte zu verkaufen - den GPU-Entwickler, oder dem Engine-Entwickler?
 
nciht schrieb:
@DrFreaK666 Willst du mir sagen AMD hat eigentlich mit dem "Kerngeschäft" zu viel am Hut um sich vernünftig um nen Upscaler zu kümmern? Für wen ist der gut funktionierende Upscaler wohl wichtiger um seine Produkte zu verkaufen - den GPU-Entwickler, oder dem Engine-Entwickler?
Ich will damit sagen, dass Epic eher die Möglichkeit hat ein Upscaler an die eigene Engine anzupassen, während sich AMD um verschiedene Geschäftszweige kümmern muss.
Epics TSR beherrscht übrigens kein FG
 
  • Gefällt mir
Reaktionen: SweetOhm und Abexa
DrFreaK666 schrieb:
Epics TSR beherrscht übrigens kein FG
FG sehe ich als eine vom Upscaler eher losgelöste Tech, die unnötig oft damit beworben wird, als wäre das Bestandteil vom Upscaling.

DrFreaK666 schrieb:
Ich will damit sagen, dass Epic eher die Möglichkeit hat ein Upscaler an die eigene Engine anzupassen, während sich AMD um verschiedene Geschäftszweige kümmern muss.
Genau so hat Epic doch auch unterschiedliche Geschäftszweige (Spiele-Entwicklung, Engine-Entwicklung, Shop, etc) und sind eben das kleinere Unternehmen. Das kann man imho schwer gegeneinander aufwiegen. Zudem gibt es ja auch noch intel, die das irgendwie besser schaffen als AMD...
 
Ein guter Schritt, allerdings kann es nur einen Messias geben, und das ist nunmal Jen-Hsun.
Ergänzung ()

Mircosfot schrieb:
Ich warte noch auf Skynet. Echtzeitverbesserungen ohne Schnickschnack, bis es Bomben regnet.:king:
Ich glaube das kriegen wir bald noch ohne KI hin...
 
  • Gefällt mir
Reaktionen: SweetOhm
Zurück
Oben