News FidelityFX Super Resolution: DLSS-Konkurrenz ab 22. Juni für AMD- und Nvidia-GPUs

NV könnte durch den Treiber, wahrscheinlich die Aktivierung von FSR in künftigen Spielen unterbinden, dass wäre aber Wasser auf die Mühlen ihrer Kritiker.

Somit hat AMD in dieser Sache Nvidia ausmanövriert:daumen:
 
  • Gefällt mir
Reaktionen: Laphonso
Colindo schrieb:
Das Aussehen sollte aber, wie prinzipiell alle Effekte, die im Spiel eingebunden sind, bei beiden Herstellern gleich sein. Wir reden nur über die Prozentzahl, die nachher als Gewinn da steht. Und da sind eben jetzt schon, ohne Optimierungen, alle glücklich.
Die Frage, auf die es sich doch letztendlich reduzieren lässt ist: Läuft es nach Integration out of the box auf allen GPUs (optimierung hin- oder her), oder müsste da seitens NVIDIA oder des Entwicklers dann doch für jedes Spiel Hand angelegt werden.
Und der Gewinn bezüglich Geschwindigkeit muss natürlich im Verhältnis zu den Qualitätseinbußen gesehen werden.

Wir werdens bad erfahren...
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Colindo, ChrissKrass und eine weitere Person
Colindo schrieb:
Wir reden nur über die Prozentzahl, die nachher als Gewinn da steht. Und da sind eben jetzt schon, ohne Optimierungen, alle glücklich.
Die wurde aber auf der 1060 lediglich mit FSR Quality erzielt, was jedenfalls in der Demo schon deutlich schlechter aussieht. Man könnte vielleicht durch Optimierungen auch FSR Ultra Quality für alte GPUs nutzbar machen.
 
  • Gefällt mir
Reaktionen: Laphonso
Nolag schrieb:
Die wurde aber auf der 1060 lediglich mit FSR Quality erzielt, was jedenfalls in der Demo schon deutlich schlechter aussieht. Man könnte vielleicht durch Optimierungen auch FSR Ultra Quality für alte GPUs nutzbar machen.
Diese Szenarien meinte ich. "Funktioniert" ist für mich das Auto starten zu können mit einem anderen Antrieb. "Wie" das Ding fährt, klärt nur die eine Hälfte neben der anderen Frage wie schnell es damit läuft.
 
Nach dem was man bisher gesehen hat, wäre alles unter Ultra Quality sowieso nicht zu gebrauchen, weder bei Nvidia noch bei AMD(sofern beide die gleiche Optik haben in den jeweiligen Settings).

Daher kann man sich von dem "2X average" mit dem Performance Mode auch verabschieden und sich, wenn man wenigstens in der Nähe der nativen Bildqualität bleiben möchte, auch als AMD User wohl auf ~40-50% in RT Games und ~20-30% in non-RT Games einstellen.

Naja, sollte es in Cyberpunk eingebaut werden, könnte ich dann zumindest ne 3 bei den FPS vorne stehen haben :p
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
Ich freue mich auch Computerbase Tests, die den 1:1 Vergleich von DLSS und der FSR Lösung auf dersselben Ampere und Turing GPU durchführen.
Und den FSR Szenen Vergleich einer 3070 und 6700XT sowie der fps Zuwächse.

Auf jeden Fall macht das viel Arbeit gibt das wieder viel content :D
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Tanzmusikus, ChrissKrass und eine weitere Person
Laphonso schrieb:
"Wie" das Ding fährt, klärt nur die eine Hälfte neben der anderen Frage wie schnell es damit läuft.
Hier gibt es auch einen Benchmark von verschiedenen Super Resolution Filtern auf einer RX470: Mathematically Evaluating mpv's Upscaling Algorithms
Dort erreicht eine RX470 bei 960x540 mit SSSR etwa 168 fps. Bei 1080p wären das nur noch 42 FPS. Strukturelle Super Resolution Filter sind ziemlich rechenintensiv, weshalb ich annehme, dass die 1060 im Quality Mode nur noch eine Auflösung von 1280x720 berechnet hat um inklusive Rendering auf ca. 40fps zu kommen. Das würde dann auch die schlechte Qualität erklären.
 
  • Gefällt mir
Reaktionen: eibgeb, Zwiebelsoße, McTheRipper und 2 andere
Nolag schrieb:
Ich meine, wir sprechen über Nvidia.
In der Ampwre Präsentation adressierte Jensen die 1000er Klientel persönlich:
"Pascal Users: It is safe to upgrade now!".
Zwinkersmiley!

Ihr wollt fps, Raytracing, DLSS, RTX Voice? Dann weg von der Vorvorgänger Generation.!
Einfach einkaufen, sobald Ware da ist. Unter 200 % UVP 🤣

TLDR: Nvidia interessiert sich nicht mehr für Pascal oder Maxwell, machen wir uns nichts vor.

Turing bedient die aktuellen Featuresets, aber hier ist die Klammer um die 2000er GPUs gezogen, nicht die 1660er.
Die helfen ja auch nicht bei der DLSS Verbreitung ;)

In diesem Sinne, wie Ihr oben geschrieben habt, setzt AMD mit FSR einen schönen Haufen in den Nvidia Park.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, jonderson und Tanzmusikus
.Sentinel. schrieb:
Weil eben eine teilweise ziemlich eindimensionale Vorstellung von open source und proprietär/nicht proprietär bei den Usern im Kopf schwirrt.

Ging mir nicht anders, als ich reiner User war, was garnicht so ewig lange her ist. Man strickt da einfach diverse Szenarien nicht weiter, bis man selber mal auf der anderen Seite steht.

Insgeheim auch hier der Applaus an AMD, die strategisch mit ihrer Präsentation nvidia auf so vielen Ebenen den Stinkefinger gezeigt haben und teils auch dirty tricks anwenden. Man muss es nur lesen können.
Und dabei ging es eben nicht nur um das Wohlergehen der User ;)

Sie setzen die Nadelstiche nach ihren Möglichkeiten schon an den richtigen Stellen an bzw. wissen um die Wirkung, die diese entfalten werden. FSR auf der 1060 war einer davon.

Ernsthaft? Es gibt ein kostenloses neues Feature für die Konkurrenz und du beschwerst dich noch?
 
  • Gefällt mir
Reaktionen: Fighter1993 und jonderson
foxio schrieb:
Ernsthaft? Es gibt ein kostenloses neues Feature für die Konkurrenz und du beschwerst dich noch?
"Insgeheim auch hier der Applaus an AMD"

Dieser Satz stammt von @.Sentinel. einige Posts weiter oben. In seinen Beiträgen ist keine "Beschwerde" zu erkennen .
 
Gut, mittlerweile hat ja AMD bekannt gegeben das es sich bei der NV Karte bei der Präsentation um eine Machbarkeit Studie gehandelt hat und diese Technik nona primär für AMD GPUs optimiert wird, aber der Schritt es für NV ebenfalls off. frei zu geben ist nicht weit und war sicherlich auch ne Ohrfeige Richtung NV. 😌
 
.Sentinel. schrieb:
Ging mir nicht anders, als ich reiner User war, was garnicht so ewig lange her ist. Man strickt da einfach diverse Szenarien nicht weiter, bis man selber mal auf der anderen Seite steht.
Ich brech ab, also mich hast du heute echt überrascht und ich muss sagen: Ich ziehe meinen Hut vor dir!

Wenn ich bedenke, was wir da für Diskussionen noch vor einem halben Jahr geführt haben, da bin ich echt überrascht sowas zu lesen, finde ich echt klasse.

Am Ende müssen wir halt schauen, was bei rum kommt, denn im Endeffekt - für uns Kunden - darf keiner zu mächtig werden, sonst sind wir die gearschten.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Tanzmusikus, Zwiebelsoße und 2 andere
Laphonso schrieb:
"Insgeheim auch hier der Applaus an AMD"

Dieser Satz stammt von @.Sentinel. einige Posts weiter oben. In seinen Beiträgen ist keine "Beschwerde" zu erkennen .

Dann hast du es nicht verstanden. Er unterstellt AMD schon eine Böswilligkeit.
 
  • Gefällt mir
Reaktionen: jonderson und Colindo
OldZocKerGuy schrieb:
der Schritt es für NV ebenfalls off. frei zu geben ist nicht weit
Freigegeben ist es doch offiziell

Timestamp im Video bei 3:09
"As a matter of fact FSR will work on all GTX 10-Series GPUs to current"
 
  • Gefällt mir
Reaktionen: Laphonso
Nolag schrieb:
Die Tensor Cores sind ja nicht nur sinnvoll wenn sie Berechnungen parallel zu den Shader Cores ausführen. Die Tensor Cores sind bei der DL-Inferenz sicherlich 4-8mal schneller als die CUDA Cores und nehmen dabei nur einen Bruchteil der Leistung auf.
Ja das ist schon richtig, dass es da nen Speedup gibt.
Die Frage ist nur: Warum in Gamer-Hardware verbauen, wenn man sowieso so gut wie keinen Vorteil in Spielen hat, weil alles sequentiell abgefrühstückt wird.
Ich mein die Tensor Cores belegen ein wirklich beträchtliches Maß der Fläche eines Streaming Multiprozessors. Das treibt den Preis des Chips so wie der fertigen Grafikkarte massiv in die Höhe. Warum also verbauen, wenn es keinen nennenswerten Vorteil gibt?

Ich mein wenn hier immer so gegen NVidia wegen der Preise gehatet wird ... naja deren Chips sind ja auch größer und zwar gemessen an den aktuellen Spitzenmodellen ca. 20%.
Das heißt für je 100 AMD Chips bekommst du letztlich nur 83 NVidia Chips auf den Wafer und hast dann auch noch ne geringere Ausbeute, weil die Wahrscheinlichkeit für einen defekten Chip quadratisch mit dessen Fläche steigt. Ok jetzt spielt dafür natürlich auch die leicht unterschiedliche Fertigung ne Rolle, aber eben auch, dass deutlich mehr Einheiten Shader- wie Tensor-Cores irgendwo Platz finden müssen.
Wenn die Tensor-Cores jetzt aber für Gamer quasi überflüssig sein sollten, warum sollte man sie dann verbauen? Um weniger konkurrenzfähig zu sein, weil man seine eigenen Produkte teurer machen muss?
Oder damit man bei gleichem Umsatz weniger Gewinn bekommt? Damit Leute aus dem professionellen DL-Umfeld sich lieber ne günstigere Geforce, als ne teure Tesla kaufen können?

Übrigens ist der Yield etwas, was offensichtlich manche Leute auch immer wieder übersehen, wenn sie sich darüber beschweren, dass es jetzt noch weniger Grafikkarten auf dem Markt geben wird, weil noch ne zusätzliche Grafikkarte auf der selben GPU basiert.
Genaugenommen sorgt die Produktion mehrerer Grafikkarten auf ein und dem selben Chip erst mal nicht für eine Verschlechterung, sondern tendentiell eher für eine Verbesserung der Verfügbarkeit.
Warum? Naja es gibt eben bei jedem Prozess eine gewisse Menge an Ausschussware und wenn ich nur ein voll funktionsfähiges Produkt vermarkte, dann muss ich teildefekte Produkte halt wegschmeißen. Dafür zahlt der Kunde aber ja indirekt auch, weil ich trotzdem die Produktionskosten für die defekten Chips habe.
Wenn ich mir jetzt aber anschaue, an welchen Stellen die Ware besonders häufig defekt ist und hier einfach ein paar abstriche mache und teildefekte Chips dann eben günstiger verkaufe, dann bekomme ich sogar mehr Chips am Ende raus, weil ich einen großen Teil nicht mehr wegschmeißen muss.
 
  • Gefällt mir
Reaktionen: Klever
foxio schrieb:
Dann hast du es nicht verstanden. Er unterstellt AMD schon eine Böswilligkeit.
Ich glaube er nickt nur anerkennend, dass AMD hier taktisch klug agiert.

"Böswillig" ist zu viel Emotion, hier geht es um Portfolio und Feature Strategien. Also business.
 
foxio schrieb:
Er unterstellt AMD schon eine Böswilligkeit.
Klassisches Jain.

Der Hinweis, dass FXSR auf allen Karten seit einschließlich Pascal läuft, gleichzeitig aber sagt, dass man da keinen offiziellen Support gibt, ist durchaus ein kleiner Dickmove von AMD.

Intel hat gegenüber AMD aber auch NVIDIA etwas ähnliches aktuell auch ein wenig im Petto, auch wenn sie es nicht an die große Glocke hängen: oneAPI - läuft auf AMD Grafikkarten.

Das sind kleine aber feine Provokationen, die die andere Firma ein wenig ärgern sollen aber auch animieren. AMD zeigt hier halt den Kunden: Schaut, solche Features kann man auch offen programmieren, wir haben unser Teil bishier getan, jetzt hängts an NVIDIA!

Und NVIDIA wird damit durchaus in Zugzwang gesetzt, obwohl sie ja DLSS haben, jetzt müssen sie sich halt überlegen: Öffnen wir DLSS ähnlich wie FXSR, schotten wir uns ab, oder arbeiten wir an FXSR mit. Egal was NVIDIA aber hier macht, sie haben im gewissen Sinn die Arschkarte.

Ein kleiner, aber feiner Dickmove von AMD.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: LukS, Tanzmusikus, foo_1337 und 3 andere
SimsP schrieb:
Ja das ist schon richtig, dass es da nen Speedup gibt.
Die Frage ist nur: Warum in Gamer-Hardware verbauen, wenn man sowieso so gut wie keinen Vorteil in Spielen hat, weil alles sequentiell abgefrühstückt wird.
Wenn DLSS auf den Shadern 8ms braucht und auf den Tensor Cores nur 1-2ms benötigt, dann führt das zu deutlich höheren Frameraten von denen der User direkt profitiert. DLSS kann sich doch nur lohnen, wenn es sich deutlich schneller berechnen lässt als das Rendering selbst.
 
Zurück
Oben