Z
ZeroStrat
Gast
Da sieht FSR richtig alt gegen aus. Ich hoffe, dass Intel XeSS für alle GPUs freischaltet, die über die entsprechenden Int4/8 Einheiten verfügen.
Zuletzt bearbeitet von einem Moderator:
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
FSR hat 2 entscheidende Vorteile:ZeroStrat schrieb:Da sieht FSR richtig alt gegen aus. Ich hoffe, dass Intel XeSS für alle GPUs freischaltet, die über die entsprechenden Int4 Einheiten verfügen.
Schön dass das auch schon in einem Video mit 1080p so deutlich zu erkennen ist.ZeroStrat schrieb:Da sieht FSR richtig alt gegen aus.
Ich vermute dafür ist Budget vorhanden und es werden noch News dazu erscheinen. Die hier vorgestellte GPU mit allen (Prozess)Details war sicher sehr teuer in der Entwicklung, da hört man sicher nicht beim Support mit ein paar Entwicklern auf!andr_gin schrieb:und Intel auch nicht das Entwicklerteam hat, das die Implementierungen für die Spielehersteller gratis macht
ZeroStrat schrieb:Da sieht FSR richtig alt gegen aus. Ich hoffe, dass Intel XeSS für alle GPUs freischaltet, die über die entsprechenden Int4 Einheiten verfügen.
Also ich sehe kein Video auf der Artikelseite:der Unzensierte schrieb:Schön dass das auch schon in einem Video mit 1080p so deutlich zu erkennen ist.
Angeblich laufen FP16-Berechnungen bei den größeren Turing-GPUs und vermutlich auch Ampere-GPUs über die Tensor-Kerne, wobei der TU116 dedizierte FP16-Kerne dafür besitzt.Nvidias Turing- und Ampere-Architektur kann INT8 mit DP4a über die Tensor-Kerne beschleunigen, doch ist unklar, ob das von alleine und ohne Codeanpassung mit der maximalen Performance passieren wird
Packed-Math beschreibt das zusammenfassen bzw. das Packen von zwei gleichen Operationen.AMDs RDNA 2 kann INT8 mit Rapid Packed Math über die FP32-ALUs beschleunigen, doch ob dies auch mit DP4a-Instruktionen geht, ist aktuell noch nicht gesichert. Die Redaktion versucht derzeit, diese Information von AMD in Erfahrung zu bringen, ist sich aber ziemlich sicher, dass die neuen Radeons (aber nur RDNA 2) damit umgehen können
Hier geht es nicht so sehr um das Budget. Man muss die Entwickler erst einmal habe. Nvidia hat ja schon seit Jahren ein entsprechendes Entwicklerteam, das die Spieleentwickler unterstützt. Das ist ja kein supportpersonal, das gelegentlich ein paar Anfragen beantwortet. Nvidia schickt hier die Entwickler Vor Ort zu den Spieleentwicklern, wo sie als Teil des Entwicklerteams DLSS in den Source Code des Spiels integrieren und entsprechend optimieren, zumindest war das bei den ersten Implementierungen so. Da kann man einen Spielehersteller schnell überzeugen, da es nichts kostet. Im Best case läuft das Spiel auf Nvidia GPUs besser. im Worst case hat man kostenlose Werbung für das Spiel in Reviews und auf der Nvidia Seite.I'm unknown schrieb:Ich vermute dafür ist Budget vorhanden und es werden noch News dazu erscheinen. Die hier vorgestellte GPU mit allen (Prozess)Details war sicher sehr teuer in der Entwicklung, da hört man sicher nicht beim Support mit ein paar Entwicklern auf!
Das ist wieder einmal geschicktes Marketing:der Unzensierte schrieb:Schön dass das auch schon in einem Video mit 1080p so deutlich zu erkennen ist.
Wie konntest Du das verlinkte Video im Artikel anschauen?andr_gin schrieb:Das ist wieder einmal geschicktes Marketing:
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Die Tensor-Cores können, soweit ich weiß, nur fix die Tensor-Berechnung aus Matrix-Multiply und Matrix-Add. DP4a ist ja, wie du sagst, ein Skalarprodukt, das würde nicht passen. Ich denke die DP4a-Berechnung wird auf den Shadern stattfinden.Locuza schrieb:Angeblich laufen FP16-Berechnungen bei den größeren Turing-GPUs und vermutlich auch Ampere-GPUs über die Tensor-Kerne, wobei der TU116 dedizierte FP16-Kerne dafür besitzt.
FSR ist halt nicht wirklich etwas besonderes. Ein klassischer Shader zum Skalieren und um dann noch eine künstliche Schärfe verleihen - letztendlich kann das jeder aktuelle Fernseher.der Unzensierte schrieb:Schön dass das auch schon in einem Video mit 1080p so deutlich zu erkennen ist.
Wo genau hat AMD keine KI-Funktionen in ihren GPUs? Und wie kann es dann sein, dass in Caffe (eines der bekanntesten Deep Learning Frameworks für KI) eine Radeon Pro 6800 (also quasi eine RX 6800) schneller als eine RTX A5000 (etwas reduzierte 3080) ist (vgl. Test bei Igor's Lab), wenn AMD keine KI Funktionen hat?Wolfgang schrieb:Auf Intels GPUs wird das neuronale Netzwerk mittels der Matrix-Engines und damit dem Äquivalent zu Nvidias Tensor-Kernen beschleunigt, was zu einer optimalen Performance und Bildqualität führen soll, aber auch auf Nvidias GPUs und sogar den GPUs von AMD ohne KI-Funktionen.
Vermutlich unterstützen alle Consumer-Pascals DP4a, also GP102 (1080Ti), GP104 (1080/70), GP106 (1060), etc.Colindo schrieb:@Locuza Erstmal danke für deine Auflistung der Fähigkeiten einzelner GPUs. Eben habe ich noch gesehen, dass Pascal wohl DP4a voll auf den Shadern unterstützt.
Die Tensor-Cores können, soweit ich weiß, nur fix die Tensor-Berechnung aus Matrix-Multiply und Matrix-Add. DP4a ist ja, wie du sagst, ein Skalarprodukt, das würde nicht passen. Ich denke die DP4a-Berechnung wird auf den Shadern stattfinden.
https://www.anandtech.com/show/13973/nvidia-gtx-1660-ti-review-feat-evga-xc-gaming/2Something that escaped my attention with the original TU102 GPU and the RTX 2080 Ti was that for Turing, NVIDIA changed how standard FP16 operations were handled. Rather than processing it through their FP32 CUDA cores, as was the case for GP100 Pascal and GV100 Volta, NVIDIA instead started routing FP16 operations through their tensor cores.
Plattformübergreifend ist sicherlich nicht das Maxime von AMD gewesen, die PS5 ist nicht AMDs Problem und die eigene Hardware, ohne DP4a Support, treibt AMDs Gaming-Umsatz sowieso nicht voran.GerryB schrieb:Warum FSR so ist, wie Es ist hat doch Locuza indirekt mit erwähnt.
Die PS5 kann kein DP4a und daher funzt halt ein einfaches FSR plattformübergreifend für ALL.
(schon mal in Hinsicht auf zukünftige PC-Ports von Sony)
Der große Rest kann sich dann schonmal langsam auf die INTEL-Lösung einschiessen.
Wenn man bedenkt, wie lange der Lebenszyklus eines Playstation SoC ist, wundert mich die Entscheidung von AMD doch sehr. Man wird doch nicht bei AMD davon ausgehen, dass man die nächsten 6 Jahre kein NN fürs Upscaling hat?! Oder eine PS5 Pro wird es können. Alles andere wäre verwunderlich.Locuza schrieb:Plattformübergreifend ist sicherlich nicht das Maxime von AMD gewesen, die PS5 ist nicht AMDs Problem und die eigene Hardware. ohne DP4a Support, treibt AMDs Gaming-Umsatz sowieso nicht voran.
Es ist schlichtweg nicht einfach ein Netzwerk zu erstellen, was gute Resultate liefert, dass ist wohl das Hauptproblem von AMD gewesen und wieso man auf schnellere und günstigere Alternativen gesetzt hat.
Es war nicht AMDs Entscheidung, sondern die von Sony.ZeroStrat schrieb:Wenn man bedenkt, wie lange der Lebenszyklus eines Playstation SoC ist, wundert mich die Entscheidung von AMD doch sehr. Man wird doch nicht bei AMD davon ausgehen, dass man die nächsten 6 Jahre kein NN fürs Upscaling hat?! Oder eine PS5 Pro wird es können. Alles andere wäre verwunderlich.
Hier ist der korrekte Link. Computerbase hatte anscheinend auf das falsche Video gelinked:Tanzmusikus schrieb:@Wolfgang
Wie konntest Du das verlinkte Video im Artikel anschauen?
https://www.computerbase.de/2021-08...dia/#abschnitt_xe_ss_aehnelt_nvidia_dlss_sehr
Ich sehe nur "Dieses Video ist nicht verfügbar."
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Danke für den Hinweis, das ist mir nie aufgefallen.Locuza schrieb:Laut Anandtech verwenden die RTX-Turing GPUs die Datenpfade von den Tensor-Cores für Double-Rate FP16-Durchsatz (Keine Matrix Ops):