News FidelityFX Super Resolution: AMD FSR 2.0 soll schon bald angekündigt werden

.Sentinel. schrieb:
Es gibt beim Rastern kein "natives" Bild...

Mag sein. So tief steck ich in der Materie nicht drin. Will ich auch gar nicht.
Das jeweilige Spiel bietet Out of the Box ein Bestimmtes Bild. Was ich als "Nativ" bezeichne.
Alles andere ist dann eben "bearbeitet".

Ob das nun gut. besser oder schlechter, aussieht - im Wahrsten Sinne des Wortes ... Ansichtssache.


.Sentinel. schrieb:
Ich finde, dass das derzeit bei AMD sogar löblich gut gehandhabt wird.
Seit Ryzen kann man sich auf die Leistungsvorschau einigermaßen verlassen und viele meiner Erwartungen wurden sogar übererfüllt...

Noch ja. Aber einige Folien werden schon künstlich geschönt ... siehe 3D Center
Gefühlt wird das mehr bei AMD.
Dabei haben Sie das absolut nicht nötig.


.Sentinel. schrieb:
Intel ok... Aber wo hat denn NVIDIA nicht Wort gehalten, was die Leistungsfähigkeit ihrer Produkte anbelangt?

Meine Aussage ist ja nicht nur auf Leistungsfähigkeit bezogen.

nVidias prominentester Fall ist die GTX 970.
Bis heute keine Entschuldigung.
Bis heute werden deren Karten gekauft wie warme Semmeln.

Cat Toaster schrieb:

Ich spiele oftmals noch FullHD.
Meine Regler sind meist auf Standard Settings.
Das Bild auch ... out of the Box.

Ich bin zufrieden.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und .Sentinel.
Zer0Strat schrieb:
"Does not need AI" heißt nicht, dass FSR nicht irgendwann ab einer gewissen Ausbaustufe KI-Techniken nutzen wird. Aber es wird erstmal so sein, dass es (zunächst) keine dedizierte ML Hardware voraussetzt. Das ist ein großer Unterschied, wie ich finde.
Die infos stammen von AMD selber und richten sich an Entwickler, die infos sind atm noch nicht öffentlich.
Und für Entwickler ist es slicht ein großer Vorteil, dass man nicht explizit "ML/KI-Hardware einheiten" vorraussetzen muss sondern dass es auf eine deutlich breiteren Hardwarebasis lauffähig sein wird.

Aus Entwicklersicht ist genau dies (und der proprietäre ansatz von DLSS!) nämlich eines der Probleme warum DLSS nicht noch weiter verbreitet ist.
 
Inxession schrieb:
Mag sein. So tief steck ich in der Materie nicht drin. Will ich auch gar nicht.
Das jeweilige Spiel bietet Out of the Box ein Bestimmtes Bild. Was ich als "Nativ" bezeichne.
Alles andere ist dann eben "bearbeitet".

Auch dein "Out of the Box" unterscheidet sich von dem "Out of the Box" anderer Leute je nachdem, wie das Spiel die Settings beim Start für dich festgelegt hat. AA, AF, VRS, CAS ect. sind alles Optionen, die das Bild bearbeiten und die nicht in irgendeiner Weise vom Entwickler als Standard für alle festgelegt sind.
Und DLSS gehört genauso dazu.
 
Zuletzt bearbeitet:
Inxession schrieb:
Mag sein. So tief steck ich in der Materie nicht drin. Will ich auch gar nicht.
Das jeweilige Spiel bietet Out of the Box ein Bestimmtes Bild. Was ich als "Nativ" bezeichne.
Alles andere ist dann eben "bearbeitet".

Ob das nun gut. besser oder schlechter, aussieht - im Wahrsten Sinne des Wortes ... Ansichtssache.

DLSS ist in erster Linie Deep Learning Super Sampling.
Mit Betonung auf Supersampling.

Grundsätzlich brauchst du für jedes Bild auch eine Form von AntiAliasing, sonst flimmert es wie verrückt.
Früher hat man mit MSAA und SSAA die Grafikkarte aufgefordert einfach nochmal zusätzliche Pixel zu berechnen, um dann anhand der gewonnenen Bildinformationen die Kanten zu glätten und das Flimmern zu vermeiden.
Dann ist man dazu übergegangen, sich diesen Rechenaufwand zu sparen und stattdessen einfach mehrere Frames miteinander zu verrechnen. (einzelne Objekte werden dabei per Bewegungsvektoren nachverfolgt) dadurch hat man quasi "gratis" AntiAliasing erzielt. (bisschen Leistung kostet es natürlich trotzdem). Das nennt man TAA.

Jetzt kommt DLSS und macht im Grunde das gleiche wie TAA. Also im Grunde "nur" AntiAliasing über das kombinieren von mehreren Frames, es ist aber dank Deep Learning so gut und kann aus alten Frames so viele Bildinformationen gewinnen, dass es nichtmal mehr notwendig ist, das Bild in nativer Auflösung zu berechnen, weil man diese fehlenden Informationen auch einfach durch das kombinieren zahlreicher Frames erreichen kann.


Und genau deswegen ist es auch völlig egal, was du als nativ bezeichnest. Es gibt kein Nativ. Das worauf es ankommt ist, wie viele Bildinformationen für den aktuellen Frame verwertet bzw. erzeugt werden können. Und DLSS kann da eben durchaus in der Lage sein, mehr Bildinformationen zusammenzutragen als es TAA in nativer Auflösung kann. In dem Moment sieht dann DLSS eben besser aus.

Technisch ausgedrückt: Es kommt nur drauf an, wie viele Samples du nutzen kannst.

Das schönste Anschauungsbeispiel ist hier am PC Horizon Zero Dawn.
Das Spiel nutzt in nativer Auflösung ein TAA Verfahren bei dem glaube ich nur 2 Frames verrechnet werden. Dadurch wird Kantenflimmern nur ganz grob gemindert, das Bild flimmert trotzdem noch.

Schaltet man DLSS ein, werden jedoch sehr viel mehr Frames verrechnet, der Informationsgehalt der Bilder steigt drastisch an und das Flimmern ist vollständig beseitigt.

Dass DLSS hier intern mit niedrigerer Auflösung rechnet ist da dann nur noch nice to know. Fakt ist, dass DLSS in dem Spiel ein besseres Bild, ein besseres AntiAliasing hat, weil es mehr Bildinformationen zusammentragen kann, als die billige TAA Lösung, die das Spiel standardmäßig nutzt.

Daher gilt: Mehr Bildinformationen > weniger Bildinformationen. Das ist es was zählt.
Was Nativ ist, ist irrelevant.

Klar kann das was du als "nativ" bezeichnest besser sein als das was DLSS liefert. Liegt aber dann einfach daran, dass das Spiel dann in Summe durch die "native Auflösung" + gutes TAA mehr Bildinformationen zusammentragen kann, als es DLSS bei niedrigerer Auflösung kann.

Aber nochmal es geht hier nicht um nativ oder nicht nativ um original oder bearbeitet.
Es geht darum möglichst viele Bildinformationen in einem Frame zu vereinen. Was besser ist liegt an der Menge der Bildinformationen die eine Methode verarbeiten kann und nicht am Unterschied nativ oder nicht nativ.

Aber ich wiederhole mich langsam :)

Klar ist vielleicht ein komplexes Thema und ich bin kein Erklärungskünstler. Auch ich bin nicht tief in der Materie sondern weiß nur oberflächliches. Nur sollte man schon mal bereit sein, seinen Standpunkt zu überdenken.
Das alles ist längst kein "Spaß" mehr, sondern knallharte Wissenschaft die betrieben wird, um solche Verfahren zu entwickeln und umzusetzen. Da fließt unglaublich viel Geld in Forschung. Da kann man dann vielleicht auch ein wenig aufgeschlossener gegenüber Dingen sein, die man im ersten Augenblick vielleicht nicht ganz versteht. Das ist ja auch kein Beinbruch, denn die Informationen über das Zeug findet man auch nicht an jeder Ecke.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge, Czk666, Inxession und eine weitere Person
.Sentinel. schrieb:
Wenn Du einmal weisst, was die "secret sauce" ist, dann kannst Du auch drumrum Programmieren, ohne die originalsource 1:1 verwenden zu müssen.

Deswegen sage ich auch nur, dass der Zeitpunkt der Ankündigung ein ungünstiger Zufall ist bzw. Hintergedanken auftreten lassen könnte.
Wie an anderer Stelle geschrieben. Davon gehe ich auch aus. AMD wird das machen. Mich würde aber auch nicht wundern wenn ihnen vieles schon bekannt ist.
 
@janeeisklar
Was soll ich denn sonst erwähnen außer DLSS. XeSS ist ja noch nicht auf dem Markt. Oder was genau meinst du?

Oder willst du jetzt die ganze Deep Learning Geschichte in Frage stellen? Dann müsste ich aber laut lachen...
 
janeeisklar schrieb:
^^ Das ist zu 100% nvidia speech.
Gott sei Dank sehen das die meisten Entwicklerstudios noch anders.
Einige Entwicklerstudios benutzen bereits eine Form vom temporaler Upsamplng, z.B. TAAU bzw TSR in der Unreal Engine oder die Verfahren auf den Konsolen. Intel XeSS sowie dann FSR 2.0 werden beide in die gleiche Richtung gehen.

Dass dies allgemein der Weg sein wird, darüber dürften sich alle Studios im Klaren sein, bei DLSS mangelt es aktuell eben nur an der möglichen Kundenschicht, was sich mit XeSS und FSR 2.0 ändern wird.
 
  • Gefällt mir
Reaktionen: .Sentinel.
W0dan schrieb:
Dass Nvidia uns in der Hinsicht verarschen will ist einfach Unsinn, denn auch DLSS kommt auf Nvidia Karten trotz Tensor cores mit einem Leistungsverlust, was man auch gut daran sieht, dass FSR bei gleicher internen Auflösung schneller ist als DLSS.
Und wenn das schon trotz Tensor Cores Leistung kostet, dann wird es ohne Tensor Cores sicherlich nicht schnell genug laufen.
Aus der Tatsache, dass DLSS auch auf Tensor Cores berechnet werden muss und somit Zeit kostet, folgt rein gar nichts deinen Erklärungen.
Zur letzten Aussage: Nicht schnell genug <> technisch nicht möglich

Powl_0 schrieb:
PhysX in Software, also auf der CPU, ist nochmal was anderes und ist effektiv eine separate Bibliothek, die als klassische Physikengine dient. Der Name mag mit Hardware-beschleunigtem PhysX gleich sein, aber intern arbeiten die zwei Bibliotheken sehr verschieden.
Was auch immer gemeint ist mit "arbeiten verschieden".

PhysX ist vollständig Open Source. Die gesamte Funktionalität, die zu Anfang nur in HW (erst Agaie, dann nur nVidia GPUs) lief, ist Open Source. Siehe nVidia Seite: PhysX goes open source.
Man kann das laufen lassen wo man will GPU, CPU oder ASICs.
 
DeltaPee schrieb:
DLSS wird wohl immer noch mit etwas Abstand die bessere Technologie bleiben.
Achtung - bessere Technologie? Es wird das Verfahren bleiben das vermutlich das bessere Bild liefert.
Aber Technologie? Schon jetzt Grenzwertig. Geschlossenes System - spezielle Hardware von Nöten - ebenso nicht Fehlerfrei - erfordert spezielle Implementierung...
Wenn FSR 2.0 einige seiner deutlichen Schwächen angeht - könnte schon FSR 2.0 die "bessere" Technologie werden. Obwohl weiterhin DLSS vielleicht das bessere Bild im Zweifel liefert.
 
Wie sieht es aus mit der Verfügbarkeit? Vermutlich zu Beginn wird es nur wieder von wenigen Spielen unterstützt werden.
 
Zer0Strat schrieb:
Ich werde bald einen neun Blogeintrag erstellen, um das näher zu erklären.
  • Der Stuttering Faktor sollte im Bereich von [2.5, 3] liegen. Wir nehmen 2.5 als Default, was das ganze etwas strenger macht.
  • Die Erfahrung hat gezeigt, dass wenn ein Frame nach diesen Regeln als Stuttering eingestuft wird, dann nimmt man das idR als Spieler auch so wahr.
  • Die Regel passt leider nicht mehr so gut, wenn die FPS sehr hoch sind, was z.B. bei Counter Strike der Fall ist.
  • Es gibt somit als noch Raum für Optimierungen: ein adaptiver Ansatz, der das FPS "Grundniveau" besser abdeckt. @Taxxor, denk dir was aus. ^^

Wie jetzt? Wenn ich 10 Frames hätte die alle ja 1ms Frametime hätten (was genau bezeichnet Frametime - die Zeit bis es gerendert wurde oder die reine Anzeigezeit?) und danach würden 2 weitere Frames kommen die je 2,5ms Frametime hätten - würde ich das als Stutterring wahrnehmen? Spielt die absolute Größe der Frametime auch eine Rolle? ( Sind zum Beispiel also 2,5ms gar nicht als Stutterring wahrnehmbar?)
 
Novasun schrieb:
Wie jetzt? Wenn ich 10 Frames hätte die alle ja 1ms Frametime hätten (was genau bezeichnet Frametime - die Zeit bis es gerendert wurde oder die reine Anzeigezeit?) und danach würden 2 weitere Frames kommen die je 2,5ms Frametime hätten - würde ich das als Stutterring wahrnehmen? Spielt die absolute Größe der Frametime auch eine Rolle? ( Sind zum Beispiel also 2,5ms gar nicht als Stutterring wahrnehmbar?)

Du musst die Frametimes schon über einen etwas längeren Zeitraum von ein paar Sekunden betrachten.
Wenn deine Frametimes alle 1ms betragen, dann hättest du 1000FPS, aber der Zeitraum für deine 10 Frames beträgt auch nur 10ms.

Aber um bei diesem theoretischen Bild zu bleiben: Wenn dort 2 Frames dazukommen, die 2,5ms betragen, ist der Schnitt dieser 12 Frames 1,25ms, also würde hier kein Stuttering angezeigt werden, weil 2,5ms weniger als das 2,5-fache von 1,25 sind.

Kommt nun noch ein Frame dazu, der 4ms gebraucht hat, wäre der Schnitt der nun 13 Frames 1,46ms, womit diese Frametime höher ist als das 2,5-fache von 1,54ms.
Für diese sehr kurze Zeitspanne von 13 Frames mit insgesamt 19ms Länge hättest du dann 4ms, also 21% an Stuttering.

Aber wie gesagt, in so einem kleinen Zeitfenster ist das mehr Theorie, hier mal ein Beispiel aus einem 10s Ausschnitt, der ingesamt 7 Frames enthält, deren Frametime über dem 2,5fachen des Schnitts lag und deren Summe ~390ms ergibt.
Bei 10s ergibt das 3,9% der Zeit, die man als Ruckeln empfinden würde, auf die kompletten 75s des Benches sind es dann aber auch nur noch 0,4%.
Screenshot 2022-03-14 180437.png
 
Zuletzt bearbeitet:
Inxession schrieb:
Besser wie nativ, liegt immer im Auge des Betrachters.

Für mich gibt es das originale Bild = Nativ ... und alles andere ist erstmal "aufbereitet".
Ob das nun besser aussieht oder nicht, muss man sehen.

Normalerweise sehen Bilder oft unnatürlich aus.

Vor einiger Zeit noch, war auf die AMD Benchmarks immer Verlass. Oft kam es sogar besser als angekündigt.

Nun aber seh ich sowas wie eine Trendumkehr.

Gefällt mir nicht.

AMD bleib sauber.
Zu der Bild Sache. Deine Denke ist zu sehr auf ein statisches Bild gerichtet. Spiele sind aber ein Stream an Bildern - also bewegt Bilder. In der Bewegung nehmen wir a) vieles ja gar nicht wahr b) dieser Stream ermöglicht es eben Informationen aus benachbarten Frames zu nutzen um das Bild x zu verbessern.

Was meinst du mit den Benchmarks?
Da hat AMD nicht gelogen. AMD kann nichts für wenn MSI das Notebook so betreibt...
Ganz ehrlich regt sich bei CB jemand drüber auf das Intel seinen NB Proziss bis zu 105 Watt TDP genehmigt für kurze Zeit - nur um im Benchmark besser da zu stehen.
 
I'm unknown schrieb:
Puh, irgendwie passt das Update überhaupt nicht zur originalen Meldung.
Ich verstehe auch nicht, warum aus einer Meldung zu FSR, bei der der Typ erstmal ja nur die Quelle war, plötzlich Werbung für dessen Software als Update wird.

Man weiß ja, dass CB eng verbandelt ist mit CapFrameX und den Entwicklern. Offensichtlich besteht da eine persönliche Freundschaft. Was ja erstmal kein Problem darstellt.
Wenn es aber die professionelle Berichterstattung beeinflußt, wird es eins. Und die Berichterstattung zu allem was der Entwickler von CapFrameX macht ist auf CB, sagen wir mal, sehr wohlwollend.
Ergänzung ()

Zer0Strat schrieb:
Ne, passt tatsächlich rein thematisch nicht unbedingt, aber Sven hat halt die Bühne für diese interessante News genutzt, um das Projekt ein wenig zu supporten. Danke dafür @SV3N.

(...)
"Support" hat bei neutralem Journalismus aber nichts zu suchen. Symphatie ebensowenig. Das macht unglaubwürdig und hinterlässt auch für das "Projekt" einen Beigeschmack von Nepotismus.
CB wird, nach meinem Empfinden, immer mehr zur Privatgazette des Chefredakteur, dessen Vorlieben und Freunde, Ansichten und Einstellungen die Berichterstattung mehr prägen als für unabhängigen Journalismus gut ist.

Um das gleich mal klarzustellen, ich sage nicht, CB ist völlig unbrauchbar oder der Chefredakteur liege immer falsch. Nur scheint mir, ich erkenne da einen Trend. Und der gefällt mir nicht.
 
Zuletzt bearbeitet:
Ich möchte an der Stelle auch mal erwähnen, dass ich ebenfalls nicht verstehe, warum diese Info als Update in einen Bericht über FSR 2.0 gepackt wurde.

Da stimme ich Vorrednern zu, dass es einerseits so schwierig zu finden ist für Leute, die nach CX News suchen und andererseits Leute "enttäuscht", die auf ein Update bezüglich FSR 2.0 gehofft haben(so ging es mir als ich den "Update" Zusatz gesehen und draufgeklickt habe^^)

Wenn Fragen diesbezüglich auftreten, werde ich zwar drauf antworten, aber mMn sollten diese Postings dann auch zeitnah in eine eigene Notiz verschoben werden.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und Schinken42
t3chn0 schrieb:
Ich bin gespannt wie FSR 2.0 wirklich aussieht. Mir fällt es schwer zu glauben, dass sowas richtig gut rein mit Software umgesetzt werden kann, ohne etwas vergleichbares wie Tensor.
Man benötigt nicht mal für KI-Berechnungen dedizierte Tensor-Einheiten. Ist dann nur entsprechend "langsam".

Mit entsprechenden Optimierungen in den "Treibern" was die entsprechenden APIs angeht - kann man auch die Daten entsprechend optimieren für Shader und noch etwas heraus holen.

Es ist an der Stelle auch irrelevant ob man dedizierte Tensor/Matrix-Kerne parallel zu den Shadern nutzen könnte, weil die Schritte sowieso nach einander erfolgen und in der Zeit, in der die Tensor-Einheiten arbeiten, die Shader ungenutzt sind.

Die Frage am Ende ist auch, wie viele TOPS der Algorithmus bei welcher Auflösung wirklich abruft und benötigt und ob die Shader genug Rechenleistung liefern können.
Laphonso schrieb:
Hier ist spannend, was AMD dieser Technologie langfristig entgegensetzen kann.
Da wird sich in dem Fall der "Kauf" von Xilinx für AMD lohnen, die genau in den Bereichen bereits Entwicklungspartner haben. Auch wenn NVIDIA auf Computerbase und anderen eher an "Spieler*innen" gerichtete Medien in der KI übermächtig scheint, ist da gerade Xilinx echt stark aufgestellt und hat viele Partnerschaften und auch Google ist da entsprechend ja aktiv.

Was aktuell wesentlich interessanter an der Stelle ist, ist die Tatsache, dass AMD erst mal eher klassische Wege geht und bestehende Techniken und Algorithmen verwendet und verbessert und optimiert, bevor sie dann den KI-Nachbrenner zünden.

Es bleibt auf jeden Fall spannend, was AMD bringt und wie man später auch das Know-How von Xilinx einbringt.
Laphonso schrieb:
DLSS 1.0 und 2.3.x haben nicht mehr viel miteinander zu tun.
Was aber auch über viele Seiten schon oft besprochen wurde. 1.0 war wirklich KI-Upsampling, das pro Spiel trainiert wurde mit all den Stärken und Schwächen.

In 2.0 ging man auf "klassischere" Ansätze mit KI-Unterstützung zurück.
Laphonso schrieb:
Daher bin ich umso gespannter, was FSR 2.0 aufs Parkett tanzt!
FSR2.0 wird - wenn die Infos stimmen - nun die aktuellen Ansätze hinter FSR um die temporale Komponente erweitern und wird da durchaus mit "DLSS2.0" vergleichbar sein im grundlegende Aufbau. Frage ist, wie mit der temporalen Komponente umgegangen wird. Man kann auch hier teilweise noch ohne KI agieren, in dem man ggf. mit Grenzwerten was die Bewegungsvektoren und Co angeht, arbeitet um Bilder aus der Rekonstruktion auszuschließen.

Es gibt da viele Möglichkeiten.
gustlegga schrieb:
Soso, da hat also der gute ZeroStrat (Account hier gelöscht oder Name geändert?) also was getwittert....
Hey, man kann ZeroStrat ein paar Sachen vorwerfen, dass er auch gerne etwas einseitig in seiner Betrachtung von Hardware und Software ist - das ändert aber nichts daran, dass er da durchaus gut vernetzt ist und Infos auch mal vorab bekommt. ;)
4to cka3al schrieb:
Das ist per Definition schon unmöglich. Wenn ich solche dreißten Lügen lese, dann war das in der Vergangenheit bisher immer ein Reinfall.
Was ist per Definition unmöglich? Das man mit einer gröberen Rasterung + temporale Komponente am Ende mehr Details in ein Bild in Auflösung x * y bekommt, als wenn man x * y native Rendert?

Wenn das deine Meinung ist, dann ist diese Meinung falsch und das kann man auch nicht irgend wie relativieren. Das hat nämlich mit der Art und Weise zutun, wie Bilder für den Monitor dann gerendert werden und das ist unabhängig ob wir noch von klassischen Rasterizer sprechen oder von modernem Raytracing.

Die bilder werde am Ende in ein Raster mit x * y grepresst und entsprechend können bei diesem Renderschritt dann Informationen verloren gehen, weil eine Koordinate so im Raster liegt, dass sie verworfen wird beim Rendern.

Nimmt man nun eine temporale Komponete - wie auch in DLSS und nun scheinbar FSR2.0 - dann hat man aber für feine Muster in vorherigen Bildern eventuell genug Daten um zu versuchen diese Muster näherungsweise doch darzustellen und schon können Strukturen, die im nativen Rendering verloren gehen, eben sehr wohl doch dargestellt werden und damit hat man ein "bessers" Bild als Nativ.

W0dan schrieb:
Was passiert wenn man ein Spiel für next-gen entwickelt und versucht es auf biegen und brechen auf alter Hardware lauffähig zu machen sieht man doch eindrucksvoll bei Cyberpunk.
Cyberpunkt 2077 hat in der Form eher gezeigt, was passiert, wenn man zwar etwas erreichen möchte, aber in der Entwicklung nicht die passenden Weichen stellt.
W0dan schrieb:
Du kannst die Anforderungen eines Spiels nicht beliebig skalieren, ohne es kaputt zu machen.
Das ist so falsch wie es richtig ist. Natürlich stimmt es, dass man die Anforderungen nicht beliebig skalieren kann, weil man sonst früher oder später vor teilweise gravierende Problemen steht, die es zubewältigen gilt.

Nur ist Cyberpunk 2077 hier mit PS4 und PS5 das falsche Beispiel dafür, denn Cyberpunk 2077 skaliert ja auch auf dem Computer relativ weit hinab und es funktioniert heute sogar sehr gut.

Cyberpunk 2077 wurde während seiner Entwicklungszeit einfach nur nicht - über alle Plattformen hinweg - gut genug getestet, sonst hätte man ein Großteil der Probleme auch bereits vorher bemerkt und gegensteuern können.

Es gibt mehrere Stufen der Skalierung, die auch unterschiedlich aufwendig sind und am einfachsten sind die Skalierungen bei Texturen - da diese primär VRAM-Fressen - als auch bei der Anzahl der Polygone kann man bereits relativ viel machen, zwar teilweise aufwendig, andere Sachen etwas einfacher.

Bei den Shadern und Co sieht es dann etwas anders aus, aber auch hier kann man durchaus verschieden komplexe (vom Rechenaufwand) Shader erstellen, die mal schneller, mal akkurater laufen und doch das gleiche zeigen.

Selbst wenn man DirectX 12 oder Vulkan vorraussetze, ist da dann die Frage, welches Feature-Level, aber selbst Level 12 wird quasi von fast allen GCN-Karte seit Jahren unterstützt und auch von den Karten in der XBox One und PlayStation 4 (Ja ich weiß, PS4 wird nicht per DirectX angesprochen.) und bildet heute den Grundstock dessen, was man braucht. Level 12_1 ist relativ "irrelevant", da damit nicht soviel kam.

Das ist dann aber halt die Frage, wie ran man geht. Geht man direkt mit einem maximalen "Effekt" ran und versucht denn dann runter zu skalieren oder macht man sich die Arbeit und fängt mit einem gut optimierten "kleinen" Shader an und skaliert denn dann nach oben. Das ist dann oft ein Personalaufwand.
Powl_0 schrieb:
Die vorherigen Generationen hatten schlicht nicht die nötige Hardware, um CUDA auszuführen.
Muss man etwas differenzieren. Entsprechende "Fähigkeiten" waren durchaus auch schon in der GeForce 7000er Serie vorhanden, und ebenso in der 6000er Serie. Die entsprechenden Fähigkeiten wurde damals aber über Umwege gentutzt in entsprechende Projekte, aber es zeichnete sich mit den DirectX 8 Karten immer mehr Rechenleistung bereit stellen und man das nutzen will.

Die Hardware war mit den Shadern also durchaus vorhanden. NVIDIA hat damals dann nur und das ist auch verständlich, CUDA zusammen mit dem G80 aka Tesla entwickelt.

AMD hatte damals Firestream noch für die X1900 mit auf den Markt gebracht, aber später auch auf die HD 2900 zugeschnitten.

Beide Firmen haben damas auf den Experimenten von Unis aufgebaut und entsprechend es dann auch für die Entwicklung aufgenommen.

Cat Toaster schrieb:
Ich gehe da seit ein paar Jahren noch ein paar Schritte weiter. Das "native" Bild was viele Entwickler mir präsentieren wird derart mit Postprocessing verunstaltet (und ich meine jenseits "filmisch inszenierter" Cutscenes!), dass ich selbst bei einem sieben Jahre alten Witcher 3 noch mit ner Mod nachhelfen muss
... na, da würde ich aber mal glatt fragen: Du weißt schon, dass Postprocessing quasi der Grundstein der heutigen Grafikengines ist und verantwortlich ist für die grafische Qualität, die wir heute erreicht haben?

AmbientOcculusion, Global Illumination und Shadows sind jetzt nur drei Stichworte die heute über Postprocessing berechnet werden, dann Bump- und Normalmapping verbunden mit SpectularMapping, die auch zu weiten Teilen in Postprocessing ablaufen, weil man sie bei der klassischen Grafischen Pipeline überhaupt nicht beachten konnte und kann.

Auch Spiegelungen - gerade die vielen Screenspace Reflections - wären ohne Postprocessing nicht möglich. Was du also als Verunstaltung bezeichnest, ist der Grundstein jeder modernen Engine, ohne den es nicht gehen würde.

Das sich per Postprocessing auch "sinnlose" Effekte umsetzten lassen ist klar, aber eben weil diese Effekte "möglich" sind, sind auch viele der anderen Effekte heute möglich.
 
  • Gefällt mir
Reaktionen: foo_1337, Laphonso, .Sentinel. und eine weitere Person
wenn es keine spezialisierte Hardware braucht ist das doch klasse für den fall wenn die Leistung mal nicht reicht.

schauen wir mal was da kommt :)
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Zer0Strat schrieb:
"Does not need AI" heißt nicht, dass FSR nicht irgendwann ab einer gewissen Ausbaustufe KI-Techniken nutzen wird. Aber es wird erstmal so sein, dass es (zunächst) keine dedizierte ML Hardware voraussetzt. Das ist ein großer Unterschied, wie ich finde.
So wie ich das verstehe bedeutet das aber auch nicht dass das Entscheidungsmodell nicht im vorhinein vom Entwickler durch Deep Learning antrainiert wird, oder verstehe ich das falsch? Ich kenne mich im Thema K.I noch zu wenig aus, aber wäre es so viel langsamer mit den aktuellen Frames einen bereits trainierten Entscheidungsalgorithmus ohne ML-HW zu durchlaufen?
 
LordBelakor schrieb:
Ich kenne mich im Thema K.I noch zu wenig aus, aber wäre es so viel langsamer mit den aktuellen Frames einen bereits trainierten Entscheidungsalgorithmus ohne ML-HW zu durchlaufen?
Also nach meinem, ebenfalls bescheidenen, Wissensstand müsste das eigentlich ziemlich genau das sein, was bei DLSS auch passiert. Die Updates seit 2.0 bis nun auf 2.3 dürften eigentlich alle zuerst in den Rechenzentren trainiert und verbessert worden sein, bevor man neue Versionen durch entsprechende dll Dateien rausgegeben hat.
Im praktischen Einsatz beim Kunden selbst kommt dann eher weniger KI zum Einsatz.
Ergänzung ()

@SV3N
da es Videocardz mittlerweile auch gepostet haben, kann man ja nun auch was zur Performance sagen, wenn auch noch nichts zur Bildqualität.

https://videocardz.com/newz/amd-fsr...ally-launches-q2-2022-rsr-launches-march-17th

53 vs 101 FPS in Deatloop 4K Raytracing mit FSR 2.0 "Performance". Das sind +90%.

Schaut man in euren Deathloop Test, bringt FSR 1.0 "Performance" hier +136% in 4K mit RT.

Natürlich wird es nicht die gleiche Szene sein, vielleicht auch nicht die exakt gleichen Settings, aber man sieht hier schon, dass FSR 2.0 generell mehr Performance kosten wird, was durch die temporale Rekonstruktion auch nachvollziehbar ist.
Ich erwarte auch, dass bei gleicher Renderauflösung DLSS diesmal etwas schneller sein wird, im Gegensatz zum Vergleich mit FSR 1.0.
Statt einem 6-8% Performanceverlust vs der niedrigeren Auflösung bei FSR 1.0 dürften es jetzt eher ~20% sein.



PS: Hier findet sich auch die Info, dass RSR am 17. März erscheinen wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Czk666 und SVΞN
Zurück
Oben