News AMD FidelityFX Super Resolution: DLSS-Konter „FSR“ erscheint vielleicht noch dieses Jahr

Jesterfox schrieb:
ML / neuronale Netze und was man damit wirklich alles anstellen kann ist auch noch relativ neu und um darum geht es ja bei DLSS / FSR. Mein Paint Shop Pro hat mit dem diesjährigen Upgrade auch einen KI-Upscaler für Bilder bekommen, ist schon ganz interessant was da auf Basis eines Einzelbildes geht.
Ja sicher. Nur bleibe ich dabei, dass man den Marktführer nicht einfach so mal nebenbei einholt
oder überholt in einem Markt, in dem man selbst bisher praktisch kaum stattgefunden hat.

Aber so hat halt jeder seine Meinung :)
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Warum jammern hier eigentlich so viele wieder nur rum. Es ist doch positiv das etwas passiert, vollkommen egal, ob AMD hinterher hinkt. Wenn man sich mal ein wenig damit befasst was AMD für sich betrachtet in den letzten Jahren unternommen hat, um am Markt wieder in Tritt zu kommen und in welchen Bereiche parallel, dann ist es im Vergleich zu Budget und Marktmacht bewundernswert, dass hier überhaupt schon was am Horizont ansteht. Hätte hier ehrlicherweise noch deutlich später mit Progress gerechnet.

Wenn das dann halbwegs solide funktioniert und vielleicht sogar Hardware übergreifend inklusive Konsolen funktioniert ist das doch mehr als begrüßenswert. Letztlich zählt zwar sehr oft nur die Leistung, aber man darf zumindest auch festhalten, dass sich AMD in der Vergangenheit speziell mit quelloffenen Lösungen positiv hervorgetan hat. Würde überall nur proprietärer Dreck rauskommen, dann würden sich einige schnell umschauen, was das für einen Einfluß auf unsere Auswahl und die Kosten hätte.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Dalu, DrFreaK666 und eine weitere Person
GERmaximus schrieb:
na wenn die Entwickler da mit ran müssen, hoffe ich nur das AMD genügend supporter für Entwickler Studios stellt, sonst haben die da Ruck guck keine Lust mehr drauf
Bei alten Spielen stimmt das, aber zumindest bei neuen Multiplattformentwicklungen wird das für Entwickler sehr attraktiv sein (wenn Aufwand und Nutzen in angemessener Relation stehen). Auch mit den neuen Konsolen ist die Hardware der Konsolen bei vielen Projekten ein wichtiger limitierender Faktor - hier mehr rausholen zu können ist sehr wertvoll. Das ist etwas ganz anderes, als ein Zusatzfeature exklusiv für eine Untergruppe der PC-Kunden zu entwickeln.
 
Wenn das mal nicht wieder was Halbgares wird aus dem Haus AMD. Wäre nicht das erste mal.
Bei den Grafikkarten hat AMD mich noch nie wirklich überzeugt.
 
borizb schrieb:
Aber so hat halt jeder seine Meinung :)
Also ein fettes Überholen erwarte ich auch nicht. Aber wenn AMD bis Ende des Jahres eine allgemeine Lösung liefert die DLSS 2 Qualität hat wäre das auch schon ein sehr guter Erfolg und das halte ich für möglich.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
@Jesterfox dachte ich bis gestern auch. Aber nach den wirren Aussagen von Herkelman, dass es eben kein ML ist und sie noch verschiedenste Technologien evaluieren, wird das eher nicht der Fall sein. Microsoft macht schon seit 2018 an DirectML Superscaling rum und hat noch nichts fertiges.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
@foo_1337 : mal abwarten. Eigentlich ist DLSS auch kein ML wenn man es genau nimmt... der Algorithmus lernt während des Spielens nicht weiter dazu, da kommt ein fertig erstelltes Netz zur Anwendung. Und wir wissen ja auch nicht was AMD alles noch am evaluieren ist. Ich befürchte nach den letzten Aussagen am ehesten das sie dieses Jahr doch nicht mehr fertig werden...
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Jesterfox schrieb:
Eigentlich ist DLSS auch kein ML wenn man es genau nimmt... der Algorithmus lernt während des Spielens nicht weiter dazu, da kommt ein fertig erstelltes Netz zur Anwendung.

Vielleicht ne blöde Frage, aber ist das nicht die Natur der Sache?
Man hat nen fetten Supercomputer wo stehen der das Zeug trainiert und die eigene Karte macht dann nur das Inferencing.
So läuft das ja aktuell auch mit den selbstfahrenden Autos.

Ich dachte mir aber schon am Anfang, dass AMD nicht auf ML bzw. DL setzen wird. Wie auch wenn die Hardware fehlt, das schnell zu beschleunigen. Man muss sich dann aber fragen, ob es überhaupt möglich ist (theoretisch und praktisch) auf die gleiche Qualität zu kommen.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Lurtz schrieb:
...allein schon weil DLSS auf Konsole sowieso nicht funktioniert.

Wieso Zeit und Geld in Arbeit investieren, wenn AMD das schon macht?
FSR wird offen, auch GeForce-Karten werden damit umgehen können
Ergänzung ()

DocWindows schrieb:
AMD halt. Von "Kommt 2021", "Kommt 2022", über "Kommt 01/2022, funktioniert aber erst 6 Monate später" bis "Ach komm, wir lassen es bleiben" ist praktisch noch alles drin. Primitive Shaders@Vega anyone?

Dir Primitive Shaders Hardware war defekt und ist daher kein geeigneter Vergleich dazu! Ist dir nichts Besseres eingefallen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus und Colindo
DrFreaK666 schrieb:
Wieso Zeit und Geld in Arbeit investieren, wenn AMD das schon macht?
FSR wird offen, auch GeForce-Karten werden damit umgehen können
Grundsätzlich wird Nvidia das schlicht nicht interessieren, weil sie im breiten Konsolenmarkt keine Chips bereitstellen. Das Zeug mit Shield hat unwesentlichen Impact und der Tegra in einer Switch wo Leute mit 720p noch zufrieden sind... wieso sollten sie darauf Zeit vergeuden?

Aktuell genügt ihnen der Fokus auf PC/Server und auf ihre dort etablierte Welt die mehr als genug Kohle generiert. Plus, dass Nvidia nicht unbedingt für ihre quelloffenen, charitativen Werte bekannt ist.
 
Jesterfox schrieb:
@foo_1337 : mal abwarten. Eigentlich ist DLSS auch kein ML wenn man es genau nimmt... der Algorithmus lernt während des Spielens nicht weiter dazu, da kommt ein fertig erstelltes Netz zur Anwendung.
Genau das ist das das Problem am ML Begriff. Er suggeriert Dinge, die nicht zwangsweise so sein müssen. Wir sind hier im Deep Learning Bereich Unterwegs (Neuronales Netz), also einer Untermenge von ML. Die Nvidia Server trainieren das Model, welches in den Treiber wandert. Mit Hilfe dieses Models/Neuronalen Netzes, können die Tensor Cores dann das Supersampling vornehmen.
 
  • Gefällt mir
Reaktionen: Klever und Laphonso
Laphonso schrieb:
Es wird spannend, den nächsten Schritt zu verfolgen.
AMDs Ansatz "den Rekonstruktionsfilter gleich für alle Spiele und nicht nur vorab optimierte verfügbar zu machen" ist doch perfekt und im Sinne aller, die Speziallösungen doof finden.

Woher hast du diese Info? Das wäre natürlich super, aber ich glaube nicht dass es global mit jedem Spiel ohne Anpassung funktionieren wird.
 
  • Gefällt mir
Reaktionen: Laphonso
DrFreaK666 schrieb:
Woher hast du diese Info? Das wäre natürlich super, aber ich glaube nicht dass es global mit jedem Spiel ohne Anpassung funktionieren wird.
Hatte Sven so sinngemäß wiedergegeben:

1616079044673.png

Ergänzung ()

foo_1337 schrieb:
Genau das ist das das Problem am ML Begriff. Er suggeriert Dinge, die nicht zwangsweise so sein müssen. Wir sind hier im Deep Learning Bereich Unterwegs (Neuronales Netz), also einer Untermenge von ML. Die Nvidia Server trainieren das Model, welches in den Treiber wandert. Mit Hilfe dieses Models/Neuronalen Netzes, können die Tensor Cores dann das Supersampling vornehmen.

Für Mißverständnisse sorgen oft die Veränderungen zwischen DLSS 1 und 2.

DLSS war quasi "ML", denn die AI wurde für jedes Spiel trainiert.

Das ist bei DLSS 2.0 nicht mehr der Fall:

Ein Netzwerk für alle Spiele – Beim ersten DLSS musste die KI für jedes Spiel neu trainiert werden. DLSS 2.0 stellt ein allgemeines KI-Netzwerk bereit, das in verschiedenen Spielen funktioniert. Das bedeutet schnellere Spielintegrationen und mehr DLSS-Spiele.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Klever, .Sentinel. und eine weitere Person
@owned139 Und? Dank Ihnen gibts das jetzt auf fuer die Normalos. Diese Kategorie "gabs schon" ist halt schon ziemlich fett. resizeable BAR gabs halt vorher fuer die Desktop/Windows-Welt nicht.

@Der Nachbar Danke. Video kenne ich aber schon. Wobei das mir jetzt auf dem Thumbnail eher nach einem externem Cache aussieht (ka hab die Details ausm Video wieder vergessen/verdraengt). Sowas gabs um und besonders vor 2000 eigentlich ziemlich oft.
 
Zuletzt bearbeitet:
Der Nachbar schrieb:
Warum AMD bei der RX6800/6900 USB-C verbauen musste, zeigt wie man in diesem Unternehmen mit den so knappen, verfügbaren Ressourcen umgeht und welche ausgebildeten Entscheidungsträger das Sagen haben.

So viel Offtopic. Muss das sein?
Zu dem Zitierten habe ich folgendes Zitat von Golem:
Nvidias Turing-Grafikkarten nutzen einen Virtual Link. Der USB-C-Anschluss eignet sich für VR-Headsets und Displays, alternativ lädt er Smartphones auf oder ist die Schnittstelle für eine externe SSD mit USB 3.1 Gen2.
Wenn Nvidia es macht, dann ist es ok. Wenn AMD es macht, dann haben die keine Ahnung.

Leg mal deine NV-Fanboybrille ab. Dann wird das Diskutieren mit dir sicherlich angenehmer.

Von Microsoft Oktober 2020:
Through close collaboration and partnership between Xbox and AMD, not only have we delivered on this promise, we have gone even further introducing additional next-generation innovation such as hardware accelerated Machine Learning capabilities for better NPC intelligence, more lifelike animation, and improved visual quality via techniques such as ML powered super resolution.

Da steht dass AMD und MS miteinander daran arbeiten. Oder ist das wieder was anderes?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus, jonderson und bad_sign
Jetzt bin ich aber echt ein gutes Stück enttäuscht !
Hab es vor dem Sommer erwartet .
 
KarlKarolinger schrieb:
Wenn man Dual Monitor und 4K Video betrachtet, leider ja. 🤷‍♂️
Kann dir auch sagen warum. AMD schafft es MAL WIEDER/IMMER NOCH nicht, seinen RAM einfach mal nicht im vollen 3D Modus laufen zu lassen :rolleyes:
Ein Monitor
UHD 60 Hz, RAM bei Bereich von xx MHz, 8W Idle
UHD 120 Hz, RAM bei 2000 MHz (voller Takt), 40W Idle.
Selbes passiert bei Videos in UHD (aber da ist Nvidia auch nicht so viel besser)

Mag für kleine Karten OK sein, aber nicht für Karten vom Schlage 6700+ und 3060TI+
Meine 1080TI war auch nicht erfreut über zwei Bildschirme, UHD einmal 60, einmal 120 Hz, da standen 66W auf dem Tacho :/
 
Das es in allen(oder zumindest vielen) Spielen funktionieren soll, ohne speziell angelernt zu werden klingt sowohl gut, als auch fragwürdig.

Es ist schon blöd, dass DLSS(2.0) nur bei einigen Spielen zur Verfügung steht...könnte AMD da was offenes und unabhängiges erschaffen, wäre das ein riesen Vorteil.

Aber ich bin mir nicht sicher, wie sie das ohne die Tensor Kerne, in eine ähnliche Leistungsregion wie DLSS 2.0 bringen können.
Wenn dann wieder die Shader daran arbeiten, weiß ich nicht wie das was werden soll.
Da wird bestimmt nicht die gleiche Qualität erreicht...denn man bedenke, dass DLSS am Anfang auch kaum besser war als upsampling+TAA.
Jetzt ist DLSS 2.0 schon ebenbürtig und teils besser als natives 4K....das muss für AMD die Messlate sein und da habe ich wenig Hoffnung ohne spezielle Hardswareimplementierung und spezielle Spiele-Profile für den Allgorithmus.

Wobei ich mir vorstellen könnte, dass der Treiber automatisch die Spiele erkennt(macht er ja jetzt schon) und dann bei Bedarf ein entsprechendes Profil zu diesem Spiel herunterlädt.

Naja ich werde mich überraschen lassen.
Es klingt ja so, als würde es 2021 eh nicht mehr erscheinen, und bis dahin kann es auch andere Entwicklungen geben oder AMD baut doch speziele Schaltkreise in die nächste GPU Generation.
 
  • Gefällt mir
Reaktionen: Klever
Zurück
Oben