News FidelityFX Super Resolution: AMD FSR 2.0 soll schon bald angekündigt werden

Es wird doch trotzdem ein fertig Trainiertes AI Model auf den Tensor Cores ausgeführt.

Klar, das Deep Learning findet im Rechenzentrum statt, da wird das Modell trainiert.
Damit das Modell aber auf dem PC performant lauffähig ist braucht es dafür spezialisierte Einheiten. Bei Nvidia eben die Tensor Cores.


Ich hab in der Vergangenheit mal mit Topaz Video Enhance AI herumgespielt. Das nutzt auch Deep Learning, um Videos hochzuskalieren, zu deinterlacen, zu entrauschen usw.

Auch da kannst du dir verschiedenste AI Models runterladen, die eben vorher auf gewisse Stärken hin trainiert wurden und dann auf der GPU mittels CUDA und Tensor Flow ausgeführt werden.

Ich hab das damals auf einer Maxwell GPU getestet und später auf einer Ampere. Der Performanceunterschied war ungefähr Faktor x10...


Kleiner Einwurf am Rande: Es wäre doch mal ne feine Sache, wenn Computerbase zu solchen Themen Wissensartikel macht. Ich weiß nicht, ob das Know How da ist oder ob es sinnvoll wäre, aber das wäre mal Content für das ich auch mal Pro abonnieren würde (ggf. auch nochmal in einer höherpreisigen Stufe)


EDIT: Okay witzig, ich sehe gerade, auch Nvidia spricht von einem Beschleunigungsfaktor von 10x bei den Tensor Cores. https://www.nvidia.com/de-de/data-center/tensor-cores/
Lag ich also gar nicht mal daneben. :)

EDIT2: Gut, bis zu 20x bei Ampere...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King und LordBelakor
Schinken42 schrieb:
Wenn es aber die professionelle Berichterstattung beeinflußt, wird es eins. Und die Berichterstattung zu allem was der Entwickler von CapFrameX macht ist auf CB, sagen wir mal, sehr wohlwollend.
Oha, da habe ich was losgetreten. Mir ging es rein darum, dass die thematische Einsortierung/Gliederung für meinen Geschmack nicht logisch ist. Wenn mich mein Gedächtnis nicht täuscht hatte ich das die letzten Monate ein paar mal gesehen, den letzten anderen Fall an den ich mich erinnern konnte waren Updates zu einer Linux Distro wo dann plötzlich im Update eine andere Distro ebenfalls erwähnt wurde.
Da würde ich als Leser bei einer News eben nie im Leben darauf kommen dass dort auch so etwas erwähnt wurde. (Und falls ich mich noch weiter auf mein älter werdendes Gedächtnis berufen will glaube ich werden Linux Themen auch von @SV3N betreut.)
Schinken42 schrieb:
"Support" hat bei neutralem Journalismus aber nichts zu suchen. Symphatie ebensowenig. Das macht unglaubwürdig und hinterlässt auch für das "Projekt" einen Beigeschmack von Nepotismus.
Ist für mich eher die Frage ob das überhaupt ohne möglich ist. Wichtiger finde ich es dass bei Tests objektiv bewertet wird - und falls der Tester starke Vorlieben hat darauf je nach Thema diese Erklärt. Das Ganze ist dann jedoch stark vom Gebiet abhängig, eine CPU oder GPU kann man viel objektiver testen als z.B. eine Linux Distro. Bei letzterem werden immer die Vorlieben des Redakteurs einfließen - ob bewusst oder unbewusst (vorzugsweise ersteres).

Falls du ein konkretes Verbesserungspotential bei den von dir angesprochenen Themen siehst gibt es hier einen Feedback Bereich. Nach meiner Erfahrung wird das hier durchaus zur Kenntnis genommen, allerdings werden dafür auch konkrete Beispiele benötigt, ein allgemeines so und so ist das und wirkt das ist nicht zielführend.

Sieht man auch an dem Ursprungsposting von mir zum Updatethema - das ist eher ein Beispiel wie man Kritik nicht gibt. Da hilft auch meine "Ausrede" dass ich ein direkter Mensch bin und gerade wenig Zeit hatte nichts, das geht besser.
 
  • Gefällt mir
Reaktionen: TornA
LorD-AcE schrieb:
Das ist ja auch nur eine Behauptung die einfach mal in den Raum gestellt wird. Leider kein Beweis. Gibt es denn einen objektiven Vergleich von nativ vs "alles andere" der beweist, das die Alternative zu nativ tatsächlich besser ist?
Gibt schon Videos dazu, ja.
Oftmals ist das "besser" aber auch "anders".

Ich hoffe das AMD dran bleibt. Besser ist einfach besser. Und gegen DLSS haben sie definitiv noch Arbeit vor sich...
 
  • Gefällt mir
Reaktionen: Mcr-King
Die Grafikqualität Nvidias war IMO früher AMD (btw ATI) immer unterlegen aber sie war meist schneller. Viele haben behauptet, Nvidia habe die Qualität zugunsten der Performance bewusst verschlechtert. Heute wird so ein Murks als ein Feature verkauft. Klar, im anderen Ausmaß da DLSS schon brauchbare Ergebnisse liefert - trotzdem bleibt es ein kastrieren & kaschieren - ich halte davon nicht viel.
 
  • Gefällt mir
Reaktionen: xRedF und Mcr-King
Wer mal die Suchfunktion bemüht und nach CapFrameX sucht, wird festellen, dass das Projekt auch mit Hilfe der Community hier entstehen konnte.

Ich habe das Update, das thematisch in der Tat nicht passt, mit reingenommen, da der Hinweis zu FSR 2.0 von CapFrameX kam und das Projekt hier einen Community-Backround hat.

Deshalb mal bitte hier nicht aus einer Mücke einen Elefanten machen. Und gerne mal zum mitschreiben:

Ich bin nicht ComputerBase, weshalb ComputerBase hier auch nicht "irgendwie mit CapFrameX verbandelt" ist, wie hier geschrieben wurde. Artikel und Update sind von mir und ich bin freier Redakteur. Ich betreue die Community und habe mir in dieser Funktion erlaubt, ein Update über die neue Version eines Tools zu machen, bei dem die Community hier viel mitgeholfen hat und involviert war.

Ich stehe in keiner privaten oder geschäftlichen Verbindung zu CapFrameX und ich habe deren Update rein zufällig beim Surfen auf Twitter gesehen, da ich dort ja auch deren Post zu FSR 2.0 gesehen habe.

Kritik ist angekommen, Update hat thematisch nicht gepasst - habe ich verstanden. Danke fürs Feedback!

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: TheManneken, TornA, ComputerJunge und 10 andere
W0dan schrieb:
Ich hab das damals auf einer Maxwell GPU getestet und später auf einer Ampere. Der Performanceunterschied war ungefähr Faktor x10...
Du hast also auf einer "unbekannten" Maxwell GPU ein KI-Upsampling laufen lassen und dann das ganze - hoffentlich das gleiche Bild - später auf einer unbekannten Ampere-Grafikkarte noch mal laufen lassen und kommst ungefähr beim Faktor 10 raus und willst damit dann untermauern, dass es spezialisierte Einheiten braucht?

Ähm, nein! Maxwell wurde von NVIDIA 2014 eingeführt, Ampere jetzt gute 6 Jahre später und da liegen so einige Änderungen auch in den verwendeten Datenformaten vor, die theoretisch alleine schon - ohne das man mehr CUDA-Cores geschweige denn diese mit höherem Takt betreiben muss - die alleine schon eine Beschleunigung um den Faktor 2 - 8 bedeuten können, je nach dem welches Zahlen-Format man wählt.

Maxwell beherrscht - sehr stark vereinfacht ausgedrückt - gerade mal FP64, FP32 und INT32, das war es. Alleine das ist bereits ein Problem, weil viele KI-Modelle in ihrer Ausführung heute dann eher mit INT16 oder gar INT8 laufen, das sind Formate die Maxwell 2014 noch gar nicht beherrschte und es gibt sogar erste Modelle, die im fertigen Zustand auf INT4 "reduziert" werden. Erst mit Turing kam ein Großteil der heute verwendeten Formate auch im Consumerbereich an.

Alleine die Unterstützung von INT8 in den CUDA-Cores bei optimaler Ausnutzung kann die Ausführung eines KI-Modells um den Faktor 4 beschleunigen - etwas weniger. Ist es ein FP16-Modell, ist hier schon der Faktor 2 drin.

Nimmt man dann noch an, dass sich die Zahl der CUDA-Cores seit dem quasi verdreichfacht hat und der Takt um ca. 50 % gestiegen ist, dann kommt man selbst bei einem FP16-Modell schnell auf den Faktor 10.

TypeGM200GA102Faktor Basis GM200
CUDA-Cores307210496 3,41
Takt1089 GHz (maximal Boost)1695 GHz (maximal Boost)1,56

Simple Rechnung: 100 % * 3,41 * 1,56 * 2 (für FP16) = 1064 % => Faktor 10 mehr an Leistung. Idealisierte Rechnung. Nehmen wir bei jedem Faktor nur an, dass er zu 90 % skaliert kommt man immer noch auf einen Faktor von 8, der alleine durch die Unterstützung von FP16 und Co drin ist.

Daher auch noch mal: Entscheidend ist am Ende nicht ob Tensore-Cores oder Neural-Cores oder wie man sie nennen mag, vorhanden sind, sondern wie viele TOPS die Hardware als ganzes zu leisten im Stande ist und ob die Anzhal der TOPS ausreichend ist um entsprechnd schnell die Ergebnisse zu liefern, damit man darauf aufbauend, weiter arbeiten kann.

Für das, was DLSS aber auch FSR hier machen, ist es nur wichtig, dass ein gewisser Zeitintervall bei der Berechnung des Bildes eingehalten wird und damit die KI auch in ihrem Zeitintervall die Berechnung abliefert. Dafür wird eine gewisse Menge an TOPS benötigt. Darüber hinaus bringt es aber nichts die TOPS zu steigern, selbst wenn die KI "doppelt" so schnell arbeitet, steigert es nicht Leistung auch um den Faktor 2, sondern deutlich weniger, weil die KI vielleicht nur 10 % der Zeit ausmacht.
 
  • Gefällt mir
Reaktionen: Taxxor und Mimir
W0dan schrieb:
Kleiner Einwurf am Rande: Es wäre doch mal ne feine Sache, wenn Computerbase zu solchen Themen Wissensartikel macht. Ich weiß nicht, ob das Know How da ist oder ob es sinnvoll wäre, aber das wäre mal Content für das ich auch mal Pro abonnieren würde (ggf. auch nochmal in einer höherpreisigen Stufe)
Wenn du mir etwas ausformulierst, was du genau gerne hättest und was davon in den Hintergrundberichten aus 2018, als DLSS eingeführt wurde, fehlt, kann ich das gerne machen :)
 
Artikel-Update: Die Einführung von FSR 2.0 hat AMD zwar noch nicht öffentlich bestätigt, allerdings wurde vor wenigen Minuten ein baldiges Update für die Radeon Software angekündigt, das die „Spielweise verändern“ und für „Next-Level-Erlebnisse“ sorgen soll. Am Donnerstag, den 17. März, wird das Geheimnis, das vielleicht keines mehr ist, gelüftet.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]
 
  • Gefällt mir
Reaktionen: xRedF, DannyA4, fox40phil und 10 andere
Na dann noch 2x Schlafen und dann ist Weihnachten :D
 
  • Gefällt mir
Reaktionen: nato44 und DannyA4
Na hoffentlich taugt das was. Tut mir leid aber die Bildqualität von FSR1 ist für die Tonne...
 
  • Gefällt mir
Reaktionen: audioph1le, xRedF und Mcr-King
Bin gespannt wie ein Flitztebogen mal schauen könnte auch für Konsolen interessant sein und bei der Switch 2 oder Pro kommt ja DLSS 2.0 auch zum Einsatz mal schauen.
Ergänzung ()

Serphiel schrieb:
Na hoffentlich taugt das was. Tut mir leid aber die Bildqualität von FSR1 ist für die Tonne...
Nicht immer da kommt es viel auf dass TAA des Game selbst an und die sind meist für die Tonne.
 
  • Gefällt mir
Reaktionen: daknoll, xRedF, Balikon und eine weitere Person
Bin schon gespannt ob es dann wirklich FSR 2.0 sein wird und was es leistet.
Ich glaube mir ist bei FSR und DLSS am wichtigsten das es ein Recht scharfes Bild sowie keine Grafikfehler Produziert. Die Qualität ist dann nicht ganz so wichtig.
Klar auf einem Standbild sieht man dann ob die Qualität gut ist oder nicht. Aber beim Spielen wenn die Post abgeht sieht man es dann kaum wenn die Qualität etwas abnimmt.
 
  • Gefällt mir
Reaktionen: Mcr-King
Im Spiel Guardians of the Galaxy hatte ich bei 1440p erst die Resolution Scale auf 70/80 gestellt um höhere FPS zu bekommen.
Dann habe ich mal das implementierte FSR 1.0 getestet und es ist echt gut, was Schärfe/Details/Kanten und Performance angeht.
Ich bin dankbar, dass es eine Alternative für nicht RTX Karten Besitzer gibt.
Hoffe, dass immer mehr Spiele das implementieren.
 
  • Gefällt mir
Reaktionen: Axendo, xRedF, Volvo480 und eine weitere Person
Wegen der temporalen Komponente ist es aber sicher wieder schwieriger zu implementieren.
Steht und fällt also wieder mit der Unterstützung - wobei ich immer hoffe, dass sich der freie Standard durchsetzt.
 
  • Gefällt mir
Reaktionen: DannyA4 und Mcr-King
Bin ich ja mal gespannt was in 2 Tagen so auftaucht, wenn das mit DLSS gleichwertig ist dann reicht mir das eigentlich schon, macht die Karten einfach langlebiger.
Was mich seit Heute wundert ist wie extrem AMD beim Treiber nachgeholt hat, ~2018 hatte ich noch ne Vega64 fürn kurzen Zeitraum und da war der ja elendig instabil und voller Fehlern, jetzt hat das Teil einen Nerdumfang vom Feinsten bekommen und läuft scheinbar sauber o.O, also ich staune nicht schlecht.
Hoffentlich bleibt AMD am Ball mit dem ganzen Kram.
 
  • Gefällt mir
Reaktionen: xRedF, DannyA4 und Mcr-King
Serphiel schrieb:
Na hoffentlich taugt das was. Tut mir leid aber die Bildqualität von FSR1 ist für die Tonne...
Wenn man es rein als Upscaler betrachtet ist es ok, das Bild wird mMn etwas besser. Genau das ist es nämlich auch und nicht anderes. Ich habe zwei 4k Monitore und eine viel zu schwache Grafikkarte für die native Auflösung. Früher hätte ich Spiele mit FullHD oder auch QHD laufen lassen. Jetzt lasse ich sie immernoch in der Auflösung laufen aber benutzt FSR als Upscaler wenn möglich.

Diese Vergleiche mit wie viel Performance man mit FSR gewinnt sind komplett sinnlos. Man sollte vergleichen wie viel Bildqualität man bei gleicher Performance gewinnt oder wie viel Performance man bei gleicher Bildqualität gewinnt. Dabei noch die B Probe bei der Bildqualität mit verschiedenen Auflösungen ohne FSR machen.
 
  • Gefällt mir
Reaktionen: xRedF, Beelzebot, Volvo480 und eine weitere Person
Also ich Freue mich sehr drauf, AMD hat es öfters als Nvidia hinbekommen mit einem Wundertreiber.
Ich Denke nicht das es nur FSR 2.0 ist, wenn überhaupt.

Da ich maches RTX übertrieben Finde, was Qualität und Leistung betrifft mit meiner 6900Xt @ XTXH
Freue ich mich sehr über neue Treiber. Keine Game Ready dinger. Schon alleine der Treiber ansich, ist meilenweit weg von Nvidias Retro ding.

Mal sehr gespannt was da drinne ist, ich hoffe auf Direct I/O , RSR und Mehr Performance aus der Karte holen.
Eine Art Wundertreiber wie damals bei der 7970er..
 
  • Gefällt mir
Reaktionen: Mcr-King
eax1990 schrieb:
Bin ich ja mal gespannt was in 2 Tagen so auftaucht, wenn das mit DLSS gleichwertig ist dann reicht mir das eigentlich schon, macht die Karten einfach langlebiger.
Was in zwei Tagen kommen wird ist RSR, nicht FSR 2.0 ^^
Ergänzung ()

janeeisklar schrieb:
Meine Aussage bezog sich auf das was native Auflösung ist und was es nicht ist, das nvidia speech geht nicht nur mir auf den Senkel.
Die Aussage "es gibt kein Nativ beim Rastern", ändert sich dadurch trotzdem nicht. Und wenn AMD mit FSR 2.0 sowie Intel mit XeSS demnächst das gleiche wie DLSS machen, ist es dann immer noch "Nvidia Speech"?
 
  • Gefällt mir
Reaktionen: .Sentinel., CuMeC und Mcr-King
2 Tage, Man. Der Treiber ist sicher längst Fertig. Irgendwo isser doch online. Bin zu Neugierig was da drinne steckt. Mehr Power oder einfach nur das RSR , was natürlich auch Gut ist, aber welche mit einer 6800xt/6900XT nicht wirklich brauchen. Das ist kein Gamechanger wie beschrieben. Ich hoffe echt auf mehr Power, weil das kann sie.
 
Zurück
Oben