t3chn0 schrieb:
Ich bin gespannt wie FSR 2.0 wirklich aussieht. Mir fällt es schwer zu glauben, dass sowas richtig gut rein mit Software umgesetzt werden kann, ohne etwas vergleichbares wie Tensor.
Man benötigt nicht mal für KI-Berechnungen dedizierte Tensor-Einheiten. Ist dann nur entsprechend "langsam".
Mit entsprechenden Optimierungen in den "Treibern" was die entsprechenden APIs angeht - kann man auch die Daten entsprechend optimieren für Shader und noch etwas heraus holen.
Es ist an der Stelle auch irrelevant ob man dedizierte Tensor/Matrix-Kerne parallel zu den Shadern nutzen könnte, weil die Schritte sowieso nach einander erfolgen und in der Zeit, in der die Tensor-Einheiten arbeiten, die Shader ungenutzt sind.
Die Frage am Ende ist auch, wie viele TOPS der Algorithmus bei welcher Auflösung wirklich abruft und benötigt und ob die Shader genug Rechenleistung liefern können.
Laphonso schrieb:
Hier ist spannend, was AMD dieser Technologie langfristig entgegensetzen kann.
Da wird sich in dem Fall der "Kauf" von Xilinx für AMD lohnen, die genau in den
Bereichen bereits Entwicklungspartner haben. Auch wenn NVIDIA auf Computerbase und anderen eher an "Spieler*innen" gerichtete Medien in der KI übermächtig scheint, ist da gerade Xilinx echt stark aufgestellt und hat viele Partnerschaften und auch Google ist da entsprechend ja aktiv.
Was aktuell wesentlich interessanter an der Stelle ist, ist die Tatsache, dass AMD erst mal eher klassische Wege geht und bestehende Techniken und Algorithmen verwendet und verbessert und optimiert, bevor sie dann den KI-Nachbrenner zünden.
Es bleibt auf jeden Fall spannend, was AMD bringt und wie man später auch das Know-How von Xilinx einbringt.
Laphonso schrieb:
DLSS 1.0 und 2.3.x haben nicht mehr viel miteinander zu tun.
Was aber auch über viele Seiten schon oft besprochen wurde. 1.0 war wirklich KI-Upsampling, das pro Spiel trainiert wurde mit all den Stärken und Schwächen.
In 2.0 ging man auf "klassischere" Ansätze mit KI-Unterstützung zurück.
Laphonso schrieb:
Daher bin ich umso gespannter, was FSR 2.0 aufs Parkett tanzt!
FSR2.0 wird - wenn die Infos stimmen - nun die aktuellen Ansätze hinter FSR um die temporale Komponente erweitern und wird da durchaus mit "DLSS2.0" vergleichbar sein im grundlegende Aufbau. Frage ist, wie mit der temporalen Komponente umgegangen wird. Man kann auch hier teilweise noch ohne KI agieren, in dem man ggf. mit Grenzwerten was die Bewegungsvektoren und Co angeht, arbeitet um Bilder aus der Rekonstruktion auszuschließen.
Es gibt da viele Möglichkeiten.
gustlegga schrieb:
Soso, da hat also der gute ZeroStrat (Account hier gelöscht oder Name geändert?) also was getwittert....
Hey, man kann ZeroStrat ein paar Sachen vorwerfen, dass er auch gerne etwas einseitig in seiner Betrachtung von Hardware und Software ist - das ändert aber nichts daran, dass er da durchaus gut vernetzt ist und Infos auch mal vorab bekommt.
4to cka3al schrieb:
Das ist per Definition schon unmöglich. Wenn ich solche dreißten Lügen lese, dann war das in der Vergangenheit bisher immer ein Reinfall.
Was ist per Definition unmöglich? Das man mit einer gröberen Rasterung + temporale Komponente am Ende mehr Details in ein Bild in Auflösung x * y bekommt, als wenn man x * y native Rendert?
Wenn das deine Meinung ist, dann ist diese Meinung falsch und das kann man auch nicht irgend wie relativieren. Das hat nämlich mit der Art und Weise zutun, wie Bilder für den Monitor dann gerendert werden und das ist unabhängig ob wir noch von klassischen Rasterizer sprechen oder von modernem Raytracing.
Die bilder werde am Ende in ein Raster mit x * y grepresst und entsprechend können bei diesem Renderschritt dann Informationen verloren gehen, weil eine Koordinate so im Raster liegt, dass sie verworfen wird beim Rendern.
Nimmt man nun eine temporale Komponete - wie auch in DLSS und nun scheinbar FSR2.0 - dann hat man aber für feine Muster in vorherigen Bildern eventuell genug Daten um zu versuchen diese Muster näherungsweise doch darzustellen und schon können Strukturen, die im nativen Rendering verloren gehen, eben sehr wohl doch dargestellt werden und damit hat man ein "bessers" Bild als Nativ.
W0dan schrieb:
Was passiert wenn man ein Spiel für next-gen entwickelt und versucht es auf biegen und brechen auf alter Hardware lauffähig zu machen sieht man doch eindrucksvoll bei Cyberpunk.
Cyberpunkt 2077 hat in der Form eher gezeigt, was passiert, wenn man zwar etwas erreichen möchte, aber in der Entwicklung nicht die passenden Weichen stellt.
W0dan schrieb:
Du kannst die Anforderungen eines Spiels nicht beliebig skalieren, ohne es kaputt zu machen.
Das ist so falsch wie es richtig ist. Natürlich stimmt es, dass man die Anforderungen nicht beliebig skalieren kann, weil man sonst früher oder später vor teilweise gravierende Problemen steht, die es zubewältigen gilt.
Nur ist Cyberpunk 2077 hier mit PS4 und PS5 das falsche Beispiel dafür, denn Cyberpunk 2077 skaliert ja auch auf dem Computer relativ weit hinab und es funktioniert heute sogar sehr gut.
Cyberpunk 2077 wurde während seiner Entwicklungszeit einfach nur nicht - über alle Plattformen hinweg - gut genug getestet, sonst hätte man ein Großteil der Probleme auch bereits vorher bemerkt und gegensteuern können.
Es gibt mehrere Stufen der Skalierung, die auch unterschiedlich aufwendig sind und am einfachsten sind die Skalierungen bei Texturen - da diese primär VRAM-Fressen - als auch bei der Anzahl der Polygone kann man bereits relativ viel machen, zwar teilweise aufwendig, andere Sachen etwas einfacher.
Bei den Shadern und Co sieht es dann etwas anders aus, aber auch hier kann man durchaus verschieden komplexe (vom Rechenaufwand) Shader erstellen, die mal schneller, mal akkurater laufen und doch das gleiche zeigen.
Selbst wenn man DirectX 12 oder Vulkan vorraussetze, ist da dann die Frage, welches Feature-Level, aber selbst Level 12 wird quasi von fast allen GCN-Karte seit Jahren unterstützt und auch von den Karten in der XBox One und PlayStation 4 (Ja ich weiß, PS4 wird nicht per DirectX angesprochen.) und bildet heute den Grundstock dessen, was man braucht. Level 12_1 ist relativ "irrelevant", da damit nicht soviel kam.
Das ist dann aber halt die Frage, wie ran man geht. Geht man direkt mit einem maximalen "Effekt" ran und versucht denn dann runter zu skalieren oder macht man sich die Arbeit und fängt mit einem gut optimierten "kleinen" Shader an und skaliert denn dann nach oben. Das ist dann oft ein Personalaufwand.
Powl_0 schrieb:
Die vorherigen Generationen hatten schlicht nicht die nötige Hardware, um CUDA auszuführen.
Muss man etwas differenzieren. Entsprechende "Fähigkeiten" waren durchaus auch schon in der GeForce 7000er Serie vorhanden, und ebenso in der 6000er Serie. Die entsprechenden Fähigkeiten wurde damals aber über Umwege gentutzt in entsprechende Projekte, aber es zeichnete sich mit den DirectX 8 Karten immer mehr Rechenleistung bereit stellen und man das nutzen will.
Die Hardware war mit den Shadern also durchaus vorhanden. NVIDIA hat damals dann nur und das ist auch verständlich, CUDA zusammen mit dem G80 aka Tesla entwickelt.
AMD hatte damals Firestream noch für die X1900 mit auf den Markt gebracht, aber später auch auf die HD 2900 zugeschnitten.
Beide Firmen haben damas auf den Experimenten von Unis aufgebaut und entsprechend es dann auch für die Entwicklung aufgenommen.
Cat Toaster schrieb:
Ich gehe da seit ein paar Jahren noch ein paar Schritte weiter. Das "native" Bild was viele Entwickler mir präsentieren wird derart mit Postprocessing verunstaltet (und ich meine jenseits "filmisch inszenierter" Cutscenes!), dass ich selbst bei einem sieben Jahre alten Witcher 3 noch mit ner Mod nachhelfen muss
... na, da würde ich aber mal glatt fragen: Du weißt schon, dass Postprocessing quasi der Grundstein der heutigen Grafikengines ist und verantwortlich ist für die grafische Qualität, die wir heute erreicht haben?
AmbientOcculusion, Global Illumination und Shadows sind jetzt nur drei Stichworte die heute über Postprocessing berechnet werden, dann Bump- und Normalmapping verbunden mit SpectularMapping, die auch zu weiten Teilen in Postprocessing ablaufen, weil man sie bei der klassischen Grafischen Pipeline überhaupt nicht beachten konnte und kann.
Auch Spiegelungen - gerade die vielen Screenspace Reflections - wären ohne Postprocessing nicht möglich. Was du also als Verunstaltung bezeichnest, ist der Grundstein jeder modernen Engine, ohne den es nicht gehen würde.
Das sich per Postprocessing auch "sinnlose" Effekte umsetzten lassen ist klar, aber eben weil diese Effekte "möglich" sind, sind auch viele der anderen Effekte heute möglich.