Test FidelityFX Super Resolution im Test: AMD FSR kann was, schlägt Nvidia DLSS aber noch nicht

Ja, das natürlich. glaub da haben wir jetzt aneinander vorbei geredet.

Wobei ich meine Aussage mit dem Monitor OSD trotzdem nochmal zurücknehmen muss. Auch wenn sich die Desktop Auflösung sichtbar ändert, bevor das Spiel in 720p startet, so zeigt mir mein Monitor im OSD trotzdem die native Auflösung an, obwohl im Treiber steht, dass die Anzeige skalieren darf. Komisch, das war mal anders...


Na ja. Fakt ist trotzdem, dass ein Spiel wie Anno die Desktopauflösung ändert, wenn man die Auflösung umstellt und Mauszeiger, und sämtliche Overlays entsprechend low res sind. Glaube nicht, dass es möglich ist in dem Fall nen Schärfefilter drüberzulegen, der in nativer Auflösung rechnet.

Mein Ziel war es ja FSR zu deaktivieren, Anno auf 720p zu stellen, upscaling zu machen und dann nen Schärfefilter drüber zu legen. Aber das geht halt nicht. Geht nur mit Games, die eine interne Auflösungsskalierung anbieten, wie Riftbreaker.
(Bzw. ja, es geht schon, sieht aber furchtbar aus, weil eben die Schärfe in 720p berechnet wird, was nicht Sinn der Sache ist.)
 
Daggy820 schrieb:
Das kommt auf die Sichtweise an...
Da hast du zu 100% Recht!
Es kommt auch immer auf das persönliche Empfinden an. Ist wie mit den FPS. Der eine muss mindestens 60 FPS haben und ich z.b. finde alles ab 40 FPS flüssig.

Ich finde FSR z.b. ziemlich praktisch wenn ich von meiner nativen Monitorauflösung (WQHD)meine Graka zu sehr beanspruche. Was gerade bei grafisch anspruchsvollen Titeln schnell passiert.
Wenn ich jetzt einfach auf FullHD gehen würde,dann würde die Grafik schnell matschig werden durch die nicht-native Monitorauflösung. Mit FSR habe ich fast die gleiche Bildqualität und trotzdem einen guten FPS Boost (je nach Spiel).
Dafür würde ich und viele andere auch FSR einsetzen.

Und klar ist ein etwas verschwommeneres FSR-FullHD Bild bestimmt besser als vielleicht Nativ 800×600 auf einem Flachbildschirm.

Meine Aussage beziehte sich mehr darauf das bei den Test gesagt wurde das FSR besser bei höheren Auflösungen funktioniert. DLSS hat den Vorteil auch schon bei FullHD sehr gute Ergebnisse zu erziehlen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Ghostfacekalle schrieb:
DLSS hat den Vorteil auch schon bei FullHD sehr gute Ergebnisse zu erziehlen
Kommt aufs Spiel an. Und in den meisten Tests wurde eher davon abgeraten.
 
Ich finde AMD immer cooler ehrlich gesagt. Auch wenn noch nicht alles perfekt funktioniert, immerhin bingen die mit FSR ein neues Feature raus und nicht etwa nur für die neueste AMD Grafikkarten Generation, sondern das ganze soll auch mit verhältnismässig ollen Grafikkarten funktionieren. Nvidia hätte genauso DLSS für ältere Grafikkarten freigeben können, aber hoch zu Ross wie von denen gewohnt wird jede Karte vor der jeweils aktuellen Serie links liegengelassen. Nach Freesync und der SAM Funktion die nächste Watschn für Nvidia oder Intel.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
McSchott schrieb:
Nvidia hätte genauso DLSS für ältere Grafikkarten freigeben können
Und du weißt, ob und wie schnell das ohne Tensor Cores laufen würde?
 
  • Gefällt mir
Reaktionen: A.Xander und foo_1337
Taxxor schrieb:
Und du weißt, ob und wie schnell das ohne Tensor Cores laufen würde?

Eine bestimmte DLSS Version lief doch auch ohne Tensor Cores. Davon ab, hätte ja nVidia durchaus ein DLSS Lite für ältere Grafikkarten bringen können, ähnlich dem FSR von AMD.
 
  • Gefällt mir
Reaktionen: jonderson, Onkel Föhn und Mcr-King
.Sentinel. schrieb:
Und da muss man dann einfach mal realisieren, dass es an den besseren Produkten, zuverlässiger Pflege und Produktpflege, Kompatibilität und vor allem eine gewisse Kontinuität und Verlässligkeit derer liegt.
Naja hatte auch schon NV karten die Müll waren genau zwei tage nach der Garantie so viel dazu. ;)
Ergänzung ()

Taxxor schrieb:
Und du weißt, ob und wie schnell das ohne Tensor Cores laufen würde?
Ja die DLSS 1.0 lief ohne nur auf den Cuda Cores wie RTX Voice auch geht sogar bei mir gut. ;)
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Mcr-King schrieb:
Ja die DLSS 1.0 lief ohne
1.0 lief auf den Tensor Cores, nur 1.9 lief nicht drauf und das wurde nur in einem einzigen Spiel genutzt und benötigte, ebenso wie 1.0 eben immer noch Training für jedes einzelne Spiel.

Ohne den Ansatz von 2.0 hätte man es kaum so gut verbreiten können
 
  • Gefällt mir
Reaktionen: NMA
Einfach mal DLSS1.9 und 2.0 in Control vergleichen. Das spricht schon Bände. Sie haben es versucht ohne die TC auszukommen, aber es war einfach am Limit. Aber die Hater glauben dies nvidia selbstverständlich nicht
 
foo_1337 schrieb:
Einfach mal DLSS1.9 und 2.0 in Control vergleichen. Das spricht schon Bände. Sie haben es versucht ohne die TC auszukommen, aber es war einfach am Limit. Aber die Hater glauben dies nvidia selbstverständlich nicht

Was ändert das nun an der Aussage, dass nVidia ja für seine Kunden durchaus ein DLSS Lite hätte bringen können, ähnlich FSR ?

Oder ist nVidia dazu nun nicht in der Lage?
 
  • Gefällt mir
Reaktionen: jonderson
aldaric schrieb:
Oder ist nVidia dazu nun nicht in der Lage?
Sie wären natürlich dazu in der Lage gewesen, und sie hätten es höchstwahrscheinlich auch getan, wenn sie bei 18% Marktanteil gestanden hätten.

AMD macht dieses "verfügbar für Alle" ja auch nicht aus reiner Nächstenliebe zu den Nvidia Kunden oder den alten Polaris Besitzern, sondern weil sie es aus ihrer Position heraus gar nicht anders machen könnten.

AMD würde sich sicher auch wünschen, dass sie FSR zu einem Selling Feature für RDNA2 hätten machen können, wer würde das nicht?
Oder mit FSR 2.0 ein ausgefeilteres Feature daraus machen, welches dann allerdings auch RDNA3 Hardware voraussetzt. Nur ist mit dem niedrigen Marktanteil ist dann eben auch die Verbreitung viel zu schwer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA, ETI1120, squadric und 2 andere
Coole Sache auf jeden Fall, werde ich mir mal anschauen...

DLSS war bei Cyberpunk schon gut, bei Warzone ist es komplett für die Tonne.
 
Taxxor schrieb:
Sie wären natürlich dazu in der Lage gewesen, und sie hätten es höchstwahrscheinlich auch getan, wenn sie bei 18% Marktanteil gestanden hätten.

AMD macht dieses "verfügbar für Alle" ja auch nicht aus reiner Nächstenliebe zu den Nvidia Kunden oder den alten Polaris Besitzern, sondern weil sie es aus ihrer Position heraus gar nicht anders machen könnten.

AMD würde sich sicher auch wünschen, dass sie FSR zu einem Selling Feature für RDNA2 hätten machen können, wer würde das nicht?
Oder mit FSR 2.0 ein ausgefeilteres Feature daraus machen, welches dann allerdings auch RDNA3 Hardware voraussetzt. Nur ist mit dem niedrigen Marktanteil ist dann eben auch die Verbreitung viel zu schwer.
Das mag ja richtig sein. Nur auf Nvidia bezogen bin ich mir nicht sicher ob deren Haltung langfristig so gut ist. Ein Pferd mag nur so hoch springen wie es springen muss. Aber irgendwann muss es vielleicht doch höher springen, bekommt es dann vielleicht nicht mehr auf die Kette weil es zu satt und eingerostet ist. Hat man ja bei Intel gesehen dass die enorme Mühen auf sich nehmen mussten um wieder in die Spur zu finden.
 
@McSchott Nvidia agiert hier aber doch völlig anders als Intel.
Immerhin hat DLSS bzw die allgemeine Entwicklung in diesem Bereich, das große Potenzial, ein echter Game Changer zu sein, genau wie Raytracing, womit Nvidia auch zuerst kam.
Es ist also nicht so, als würde Nvidia hier irgendwelche Innovationen zurückhalten, weil sie es nicht für nötig halten diese zu bringen. Ganz im Gegenteil, es wurde doch ständig gesagt, dass RT noch nicht ausgereift genug war, als Turing kam.

Ein "DLSS light" würde Nvidia nicht nur finanziell nicht wirklich mehr was bringen, es würde auch in keiner Weise Innovationen vorantreiben, denn die werden idR zusammen mit neuer Hardware und neuen Features gemacht.
Die Arbeit, die man in solch ein DLSS light stecken müsste, ist für Nvidia langfristig viel besser bei DLSS 3.0 aufgehoben.
Denn wenn man dann mal das Ziel erreicht hat, dass DLSS quasi ohne viel Auswand in jeden Titel integriert werden kann, der TAA anbietet, und bis dahin mit RTX 4000 drei Generationen an GPUs hat, die es nutzen können(wobei die älteste GPU dann auch schon 5 Jahre alt sein wird), muss sich in der Zeit schon noch einiges bei FSR getan haben.
Und dieser Umstand wird natürlich dann auch AMD antreiben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA, squadric, ETI1120 und 3 andere
Ich will nicht mal ausschließen dass du recht hast, trotzdem habe ich immer das Gefühl das Nvidia etwas mehr in Richtung Abwärtskompatibilität tun könnte. AMD bekommt das halt ( natürlich wegen der auch von dir aufgeführten Gründe ) einfach besser hin.

Taxxor schrieb:
@McSchott Ganz im Gegenteil, es wurde doch ständig gesagt, dass RT noch nicht ausgereift genug war, als Turing kam.
Das sehe ich tatsächlich auch so. Meine 2070S ist eine immer noch gute WQHD Karte, aber RT tauglich nicht wirklich.
 
  • Gefällt mir
Reaktionen: NMA, Onkel Föhn und Mcr-King
Mcr-King schrieb:
Naja hatte auch schon NV karten die Müll waren genau zwei tage nach der Garantie so viel dazu. ;)
Passt- Zu meinen Systemhaus- zeiten lag die RMA Quote im Schnitt bei 4%.
Und das schon vor dem Garantieausschluss.

War bei AMD aber auch nicht anders.
Wenn man das mit anderer Peripherie vergleicht sind das durchaus solide Werte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA, Laphonso, foo_1337 und 2 andere
@.Sentinel. @jonderson

Auf der Softwareseite hat AMD gar keine andere Chance als auf Open Source zu setzen. In den 2010er hat Nvidia sich auf allen Gebieten der GPU-Software einen großen Vorsprung erarbeitet.

Nvidia betrachtet die Software auch als ein Mittel ihre Hardware zu pushen. Das ist vollkommen legitim.
AMD hat wiederholt selbst erklärt, dass sie auf Open Source setzen, weil Nvidia einen zu großen Vorsprung hat, und niemand auf eine geschlossene Lösung von AMD verwenden würde.

Bei FSR vs DLSS ist die Sache ziemlich klar. Nvidia hat auch hier einen Vorsprung und im letzten halben Jahr hat die Unterstützung ziemlich zugenommen. AMD musste hier schnell etwas nachschieben. Aber AMD muss die Spieleentwickler ins Boot bekommen. Also muss AMD es den Spieleentwickler leicht machen und eine möglichst breite Plattform bieten. Aus diesem Grund hat AMD FSR offen gestaltet und es auch auf Nvidia GPUs lauffähig gemacht.

Es kann auch sein, dass bei einem Erfolg von FSR, die Verbreitung von Fidelity FX erheblicht steigt. D .h., dass viele Entwickler neben FSR auch erstmals die anderen Funktionen von Fidelity FX nutzen/unterstützen.

Die Strategie, mit einer properitären API Software und Anwender an die eigene Hardware zu binden, ist uralt. Oft hat es geklappt, oft ist es gescheitert. Auf der anderen Seite nützt eine "offene" API nichts, wenn sie nur von einem Hersteller unterstützt wird.

Ich halte generelle Debatten über pro und kontra Open Source für witzlos. Das Feld von Open Source reicht von sehr erfolgreicher Software bis zum Friedhof für fehlgeschlagene proprietäre Projekte. Man muss es immer am konkreten Beispiel festmachen. Die Diskussion FSR vs DSSL können wir unter dem Aspekt "ist Open Source ein einscheidender Vorteil" erst in ein oder zwei Jahren sinnvoll führen. Jetzt könne wir uns nur Annahmen und Behauptungen um die Ohren hauen. Macht auch Spass, ...

Es gibt viele Konstellationen bei denen Open Source sehr gut funktioniert. Es gibt viele Konstellationen wo es kläglich scheitert. Und dazwischen ist ein weites Feld.
  • Viele große Projekte wie z. B. Linux haben einen Stamm von bezahlten Entwicklern. Zusätzlich mischen viele begeisterte Studenten mit. Wenn die Studenten ihr Studium abgeschlossen haben, bleiben die wenigsten im Projekt. Aber sie haben ein dickes Plus im Lebenslauf. Einige dieser Studenten finden einen Job bei Unterstützern des Projekts oder bei Unternehmen, die zulassen einen Teil der Arbeitszeit weiterhin für das Projekt zu investieren.
  • Andere Open Source Projekte sind, wenn man genau hinschaut, Kooperationen kleiner Unternehmen. Diese arbeiten gemeinsam an einer Software, die jedes Unternehmen für sich selbst nie erstellen könnte. Die Unternehmen leben dann vom Consulting, von Projekten oder dem Implementieren von Features für zahlende Kunden. Hierunter fallen einige Webframeworks.
  • Andere Projekte werden über mehrere Generationen hauptsächlich von Studenten getrieben. Während des Studiums arbeiten sie am Projekt. Sobald sie einen Job haben, fehlt den meisten die Zeit. Das geht so lange gut wie neue Leute nachkommen. Falls das ausbleibt bleibt die Entwicklung stehen. Siehe ArgoUML
  • Einige Opensource Projekte sind defakto an zu viel Konkurrenz gescheiterte Softwareprojekte. Die Unternehmen schmeißen ihre Software auf GitHub und versuchen mit dem Konsulting zu leben. Mit ein bisschen Glück steigen ein paar Leute von außen ein. Aber da man jede Menge Geld an Marketing etc. spart, kann das funktionieren. Zope, OTRS?
  • Viele kleine Open-Source-Tools sind One-Person-Shows. Nachdem das Tool erstellt wurde, muss nur wenig angepasst werden. Diese Projekte funktionieren und ruhen dann jahrelang, bis eine Anpassung erforderlich ist oder eine neue Funktion eingebaut wird. Auf der anderen Seite können auch solche One-Person-Shows für andere der Startpunkt für eigene Projekte sein.
  • ...

Die Probleme von Open Source Projekten können wie erwähnt sein, dass nicht genügend Entwickler nachrücken und das Projekt schließlich einschläft. Es ist auch kein Open Source Projekt, wenn eine Firma die Source für ein gescheitertes Projekt bei GitHub ablädt, und sich niemand um den Code kümmert.

https://www.openhub.net/ ist eine gute Möglichkeit schnell zu checken, wie aktiv verschiedene Projekte weiterentwickelt werden. Die Tools geben einen sehr guten Einblick wie viele Entwickler an einem Projekt arbeiten und auf welchen Schultern das Projekt ruht. Wenn man nur ein Projekt begutachten will, kann man natürlich auch GitHub besuchen.

@jonderson ich finde, die Diskussion welche Open Source Lizenz verwendet wird, ist oft naiv.
Wenn AMD ihr Fidelity FX unter GPL stellen würde, können es keine Gamedeveloper verwenden, die ihre Games verkaufen wollen/müssen.

Das bedeutet für alle Dinge, die abgeschlossen funktionieren passt GPL. Wenn man mit dem Code der Anwender interagiert, muss man überlegen, ob GPL wirklich passt. D. h. ich kann bewusst mit GPL die Optionen für die Anwender einschränken. Und dann ist frei nicht wirklich frei. Und genau deshalb hat Guido van Rossum ganz bewusst nicht die GPL für Python gewählt.

@.Sentinel. Ich denke Du solltest Dir klarmachen, dass die Leute bei Nvidia erheblich mehr Respekt vor Ihrer Konkurrenz bei AMD haben als Du. Die Arbeit anderer Leute zu kritisieren ist immer einfach.

Aber relevant ist die Kritik erst dann, wenn man die Umstände unter denen die Arbeit entstanden ist, kennt und berücksichtigt. Einige Dinge die AMD unternommen hat, haben nicht so funktioniert wie erhofft und wurden von AMD fallengelassen oder nicht weiterverfolgt. Darunter auch HSA. Hier hat AMD 2015 erkannt, dass sie mit Ihren Resourcen auf diesem Weg nicht mit Nvidia mithalten können. Das ist sehr schade, weil damit ein großes Potential der APUs defakto nicht genutzt wird. AMD hat 2015 unter anderem das GPU-Softwareteam umorganisiert und die Weichen weg von HSA auf ROCm gestellt, mit dem klaren Fokus auf HPC. Es war allen Beteiligten klar, dass sie damit Nvidia in vielen Bereichen das Feld überlassen. Aber für AMD war es die Frage überall zu scheitern oder wenigstens in HPC Fuß zu fassen.

Aber das Scheitern von HSA sagt nicht aus, dass die beteiligten Leute nichts können. Für Erfolg oder Misserfolg spielen viele Faktoren rein. Wie realistische oder unrealistische Ziele, offene oder geschlossene Zeitfenster, Konkurrenz, Können bzw. Erfahrung der Beteiligten, verfügbare Ressourcen, ... Die verfügbaren Resourcen waren 2015 bei AMD auf dem Tiefpunkt und die Konkurrenz (Nvidia) hat gut geliefert.
Phil Rogers der AMD Corporate Fellow, der für HSA zuständig war, hat nach der Umorganisation im Jahr 2015 AMD verlassen. Er ging zu Nvidia. Und ist heute noch dort.

@.Sentinel. Ausgaben für Forschung und Entwicklung:
https://www.statista.com/statistics/267873/amds-expenditure-on-research-and-development-since-2001/
https://www.statista.com/statistics/988048/nvidia-research-and-development-expenses/
https://www.statista.com/statistics/263562/intel-expenditure-on-research-and-development-since-2004/

Bei den Zahlen muss man berücksichten:
  • AMD CPU + GPU Der Sprung 2007 war der Zukauf von ATI, 2009 wurde die Halbleiterfertigung ausgegliedert (der geringe Rückgang der F&E-Ausgaben spricht Bände). Ab 2010 verschärfte sich die große Krise mit mehreren Entlassungsrunden und Umstrukturierungen. Erst der Erfolg von Zen ab 2017 hat die Krise beendet*. 2015 ging übrigens auch Jim Keller wieder. Aber zu diesem Zeitpunkt hatte er das CPU-Team neu aufgestellt und dort eine neue Entwicklungsmethologie verankert.
  • Nvidia GPU + Networking. Der große Sprung der F&E-Ausgaben von 2020 auf 2021 geht auch auf den Mellanox-Kauf zurück, der am 27. 4 2020 abgeschlossen wurde. Das Nvidia Geschäftsjahr 2021 endete am 31. Januar 2021. Im Geschäftsjahr 2015 hat Nvida ca 80 % Umsatz im GPU-Segment gemacht. Nvidia hat konsequent die F&E-Ausgaben erhöht und sich damit neue Geschäftsfelder erschlossen.
  • Intel hat den eindeutigen Schwerpunkt CPU, von dem nach meiner Rechnung ca. 14 Mrd $US der 18,6 Mrd $US Umsatz im Q1 2021 herkommen. Intel hat in den letzten Jahren erheblich in GPUs investiert. Intel hat große F&E-Ausgaben für Halbleiterfertigungstechnologie. Aber die absoluten F&E-Ausgaben sind enorm.

Auch wenn man berücksichtigt, dass Intel und Nvidia auch andere Entwicklungen wie CPU und GPU abdecken, ist klar, dass AMD mit einem (erheblich) kleinerem Entwicklungs-Budget für CPUs und GPUs als Intel bzw. Nvidia arbeiten musste.

@foo_1337 D. h. Dir ist bekannt, dass die Treibersituation unter Linux momentan für AMD-Grafikkarten weit besser ist als für Nvidia-Grafikkarten. Und dass Nvidia dafür massiv kritisiert wird. Wieso zündest Du so viele Nebelkerzen?
Ich denke auf Dauer hat Nvidia keine andere Chance als hier nachzuziehen.

@foo_1337 so wie ich es sehe, wird die LGPL-Lizenz sehr selten verwendet. In den meisten Fällen wird eher die MIT-Lizenz oder ein Derivat der MIT-Lizenz verwendet.


* Natürlich hat 2017 auch die erste Miningblase geholfen. AMD konnte damit ihre eigentlich nicht konkurrenzfähigen GPUs in großer Stückzahl absetzen. Der Rückschlag 2018 tat AMD weh. Deshalb sind die F&E-Ausgaben 2019 nicht stark gestiegen. Da 2018 die CPU-Umsätze schon höher waren, brachte der Rückschlag AMD nicht in größere Probleme. Er hat aber die Wachstumsstory verhagelt und den Aktienkurs gedrückt.

McSchott schrieb:
Das mag ja richtig sein. Nur auf Nvidia bezogen bin ich mir nicht sicher ob deren Haltung langfristig so gut ist. Ein Pferd mag nur so hoch springen wie es springen muss. Aber irgendwann muss es vielleicht doch höher springen, bekommt es dann vielleicht nicht mehr auf die Kette weil es zu satt und eingerostet ist. Hat man ja bei Intel gesehen das die enorme Mühen auf sich nehmen mussten um wieder in die Spur zu finden.
Wenn ich das Interview mit Jim Keller bei anandtech lese, komme ich zu einem ganz anderen Schluss. Bei Intel hatte sich die Einstellung "Moore's Law is dead" breitgemacht. D. h. es kann nur noch kleine Fortschritte in der CPU-Technik geben. Und dann kam das Prozessdesaster dazu. Vielleicht hat auch hier die Einstellung "Moore's Law is dead" zugeschlagen, so dass Intel wichtige Maßnahmen zu lange hinausgezögert hat.

https://www.anandtech.com/show/16762/an-anandtech-interview-with-jim-keller-laziest-person-at-tesla

Es gibt da einen Abschnitt: Kontext ist, dass Jim Keller erklärt dass Interviews zu geben auch ein guter Weg war viele Leute bei Intel zu ereichen: Like everybody thought Moore's Law was dead, and I thought ‘holy crap, it's the Moore's Law company!’.It was really a drag if [as an engineer] your main thing was that [Moore’s Law is dead], because I thought it wasn't. So I talked to various people, then they amplified what I said and debated it, and it went back inside.

Dieses Interview ist absolut genial. Es hat unglaublich viele Facetten und Einsichten. Es ist ein Meisterstück von Ian Cutress.

@McSchott
Man kann Nvidia einiges vorwerfen. Aber ganz sicher nicht sich in den letzten Jahren ausgeruht zu haben. Es ist ganz einfach so, Nvidia ist der Marktführer und ein Technologietreiber bei GPUs. Nvidia hat die Option Defacto-Standards zu setzen. Also tun sie es. Sie haben damit auch einige offene Standards beerdigt.
 
  • Gefällt mir
Reaktionen: NMA, EAT1963, jonderson und 9 andere
aldaric schrieb:
Was ändert das nun an der Aussage, dass nVidia ja für seine Kunden durchaus ein DLSS Lite hätte bringen können, ähnlich FSR ?
DLSS "lite" hatte enorme probleme bei nicht 100% horizontalen und vertikalen Bewegungen.
Lässt sich sehr schön in Control, was ja die einzige Implementation war, die das ganze auf Shadern laufen liess beobachten.
Ghosting aus der Hölle bei nicht linearen Bewegungen lassen grüssen.

Allerdings bin ich auch dafür, dass sie eine shader- gestützte Variante von DLSS auf den Markt werfen.
Kann ruhig closed source sein, aber für alle Karten ansprechbar.

Dann wird für die Userbase nämlich klar, was Tensor- Cores zu leisten vermögen.

Ist wie bei den RT- Einheiten. Da haben alle so lange "fake" geschrien, bis NVIDIA (im Gegensatz zu AMD) DX12 RT aka DXR auf Pascal freigegeben haben.
AMD hat damals getönt, dass die Karten (NAVI) im Stande wären das zu berechnen, hat aber dann aus guten Gründen einen Rückzieher gemacht
Ergänzung ()

ETI1120 schrieb:
Erstmal vielen Dank, dass Du etwas ausgeholt hast und die Umstände von open source & co eingehender behandelt hast. Einer der Wenigen, die sich überhaupt damit auseinandersetzen und nicht blind dem Stammtisch folgen.

Eine tiefgreifende Auseinandersetzung habe ich mich in diesem Thread nicht getraut, da wir ganz scharf an der Grenze zum Off- Topic rangieren.

Wenn ich dann hier eine Abhandlung loslassen würde, wie sich das Thema für einen Entwickler darstellt....
-> Womöglich viel Mühe für das Aquarium (welches ich in Sachen Meinungsfreiheit mehr als schätze). Deswegen spare ich mir das aber an dieser Stelle.

Das Thema ist in vielerlei Hinsicht WEIT komplexer, als dass es sich hier in irgendeinem kurzen Forenaustausch diskutieren liesse.

Weil auch hier nichts weiter auseinanderliegen könnte als ein Theorem/Wunsch/Vorstellung im Gegensatz zur Praxis/Realität/Umsetzung.....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA, ETI1120 und Mcr-King
Man muss nur etwas experimentieren welches VSR-FSR am Besten zu den Pixeln vom Moni passt!
Wenn VSR zu sehr von nem glatten Vielfachen abweicht, gibts halt Pixelbrei.(doppelte Interpolation)

Mit ner richtigen Graka am PC dann FHD@4k-VSR-FSR und mit WQHD@5k-VSR-FSR.
Durch die FSR-Modi bekommt man ja noch die Möglichkeit die Performance anzupassen.
Beim 4k-Moni ist eh 4k-FSR Ultra das einzig sinnvolle.(sofern die Graka Das drauf hat)

Um das oben Gesagte mal zu verdeutlichen kann man evtl. schon Was im Video auf unterschiedlichen Monis erkennen.

Am WQHD-Moni das 5k-FSR Video anschauen.
Mit FHD und UHD bitte das 4k-FSR-Video anschauen.
(für UHD fehlt leider 4k-FSR ultra, ... als Ersatz 8k FSR Quality)

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sun-Berg, rumpeLson und Mcr-King
@ETI1120 Natürlich ist mir das bekannt. Zu meiner Linux Gaming Zeit war seitens ATI noch fglrx aktuell. Den hat man damals noch mehr gemieden als jetzt nvidia :) Jetzt habe ich damit nur selten und wenn, dann im DC Kontext zu tun. Aber da spielt die Musik meist nvidia, wegen Cuda. Und bei rhel/ubuntu lts mit mehr oder weniger gleichbleibender Kernel Version ist das kein großes Problem.
Wegen LGPL: Der Vorschlag eines Users war, FSR unter die GPL zu stellen. Das wäre eine denkbar schlechte Idee, denn dann müsste sämtliche Software, die dagegen gelinkt wird, auch GPL‘ed werden. Das ist auch der Grund, weshalb die glibc unter der LGPL steht.
 
Zurück
Oben