News Nvidia GeForce RTX: Neun weitere Spiele erhalten DLSS-Kantenglättung

Wenn ich dann in ein paar Jahren auch tatsächlich mal etwas Nachhaltiges spielen sollte, was DLSS unterstützt, ist die Generation vielleicht auch für mich interessant. Aber sicherlich nicht vor 2020/21, wahrscheinlich noch später, wenn ich ohne Defekte bleibe.
 
StefVR schrieb:
Aber son bsichen sich informieren bringt teilweise schon was. Der grosse Vorteil von DLSS ist ja gerade das das Bild im Gegensatz zu TXAA eben scharf bleibt, da es supersampled dh es werden Bilder mit einer vielfachen Auflösung vorberechnet und die AI kann das dann aufs Bild anwenden, wie es aussieht ohne die klassiche Renderpipeline zusätzlich zu belasten. Damit hat man besseres AA ohne Schärfeverlust und ohne grosse Leistungseinbussen. Nur muss das ganze halt von einem Supercomputer vorbereitet werden, da die Tensorcores nur vorher antrainiertes anwenden können.

Sowas ist wirklcih der letzte Schrei und war bis vor kurzem nichtmal denkbar. Ob das jetzt in der Praxis auch wirklich schon so funktioniert werden wir ja jetzt die Tage Wochen sehen, aber wenn die technik nicht absolut faszinierend ist für jeden Technikbegeisterten weiss ich auch nicht...

Sollte das stimmen was du hier erzählst wäre es tatsächlich der hammer... quelle?,

aber hardware unboxed hat ganz klar gesagt, dass es ein upsampling ist und kein downsampling .... also bin ich gespannt wer recht behält .... upsampling supersampling zu nennen führt offensichtlich dazu, dass alle denken die karte hat ein wunder feature, hoffe die ernüchterung kommt nicht zu hart
 
Sun-Berg schrieb:
Anders gesagt, ein Teil wird durch das neuronale Netzwerk berechnet und von den Tensor Cores auf das jeweilige Spiel angewendet. Somit kann nicht mehr behauptet werden, die GPU alleine würde die Berechnung der Grafik auf sich nehmen. Also ist sie auch nicht mit einer GPU vergleichbar, die das muss/kann.

Ich nehme schon an, dass man in den reviews die Balken entsprechend kennzeichnen wird, wenn DLSS aktiv ist.

Sun-Berg schrieb:
Einige Fragen bleiben allerdings. Und die kann bestimmt jemand beantworten: Muss das neuronale Netzwerk dauernd mit Daten des jeweiligen Spiels geupdatet werden? Was ist wenn Spiele Updates kommen oder Erweiterungen? Muss man dann darauf warten ein Update von Nvidia zu erhalten? Wie lange muss/kann/wird das neuronale Netzwerk ein Spiel supporten? Was ist, wenn in 3-4 Jahren der Support wegfällt? Läuft dann DLSS nicht mehr? Oder reichen alte Daten?

Rein aus logischen Gesichtspunkten heraus würden Updates nur notwendig werden, wenn auch an der Optik des Spieles gedreht wird, z.B. der Renderer geupdated wird. Nicht bei reinen Content-oder Balancing-Patches. Genauso würden alte Daten nach "Support-Ende" des Spieles/bzw. der Karte reichen, außer NV deaktiviert den DLSS- Support über den Treiber/Geforce-Experience für bestimmte Spiele bzw. Karten aktiv. Eher schwer vorstellbar, aber who knows...

Richtig ist in jedem Fall, dass DLSS eine zusätzliche Schicht an Supportbedarf und ein weiteres Programm (Geforce Experience) benötigt. Höhere Komplexität hat immer das Potential für einen gewissen Ärger.

Bin auf Tests der Bildqualität gespannt, interessant finde ich die Idee nämlich trotzdem.
 
wenn man mal bei den konsolen schaut, welch krasse software technologie da verwendet wird (dynamische auflösung die in "echt" gerendert wird, upscaling, usw.) um die fps halbwegs zu halten und trotzdem hohe auflösungen am endgerät zu stemmen, weiß man, wo der weg bei den pc´s hingehen wird, bis raytracing endlich soweit ist.

das endbild wird immer die vom user gewünschte auflösung und fps zahl haben. dann arbeitet die software/hardware im hintergrund und passt die vom user eingestellten render einstellungen dynamisch an. aktuell funktioniert das halt nur gut bei AA. durch die immer besser werdenden bild aufbearbeitenden effekte sieht der endkonsument nix oder es sieht im zweifel sogar besser aus - wie damals bei glide.

das ganze dann in hardware und the sky is the limit.

mfg
 
Zuletzt bearbeitet:
nebulus schrieb:
NVIDIA hat es geschafft das Eigenkapital von 2017 auf 2018 um 2Milliarden $ zu vergrößern.
Das sagt ja nur aus, dass sich das Vermögen der Firma um 2Mrd erhöht hat. Aber die Vermögensänderung kommt nicht alleine durch Gewinne zustande.
 
milliardo schrieb:
[...]

Bin auf Tests der Bildqualität gespannt, interessant finde ich die Idee nämlich trotzdem.

Ich bin auch auf die Tests gespannt.

Ich finde es nicht gut, wenn wir in Zukunft darauf angewiesen sein sollten, dass Berechnungen zur Bildausgabe am eigenen PC durch AI/Cloud-Computing unterstützt werden müssen. Denn nicht nur der Client muss zwingend eine Verbindung mit Nvidia eingehen sondern auch die Entwickler.

Es geht hier zwar nur um Kantenglättung, aber damit wird es wohl nicht aufhören. Entweder wir sin an einem Punkt wo man mit Consumer Hardware ein Limit erreicht hat oder man hat gemerkt, dass es billiger ist den Consumern die Rechenarbeit abzunehmen und gleichzeitig zu zwingen eine dauerhafte Verbindung einzugehen. Es verändert schliesslich das ganze Geschäftsmodell. Aber ich gehe hier womöglich zu weit. Es ist ja nur Kantenglättung.
 
dein ansatz ist schon richtig, aber hier geht es wirklich nur um kantenglättung.

der server cluster im hintergrund wird quasi 1mal gebraucht, bei dem die "perfekten" einstellungen für kantenglättung ausgelotet werden, um z.b. leistung zu sparen wenn der user rennt oder sich schnell dreht und dafür bei "blick in die ferne im stehen" voll aufzudrehen. dein auge ist ja auch nicht immer auf alle entfernungen gleich scharf eingestellt :D

wenn der cluster dann erst mal fertig ist und etwas berechnet hat, was vergleichbar ist mit einer shadow map oder light map, wird diese dann von den tc´s "abgearbeitet". so habe ich das ganze system bisher verstanden.

die berechnung im rechnenzentrum kann halt gerne mal 1tag bis 4 wochen dauern und rechenleistung fällt nicht vom himmel. für so einen "kinderkram" holt man doch keinen großrechner ran.


mfg
 
Btw, ob eine dauerhafte Verbindung zu NV vorliegen muss ist nicht geklärt. Bei Bedarf anmelden, Paket runterladen, abmelden könnte genauso reichen, halte ich sogar für wahrscheinlicher.

Eine zwingende Dauer-Onlineverbindung lehne ich stark ab, dann wäre das Feature und die Karten für mich auch ziemlich sicher hinfällig.
 
Ja das mit der dauerhaften Verbindung ist auch nur ein Gerücht. Ich hoffe auch, dass es nicht so sein wird. Sonst könnte ich wohl keine Nvidia Hardware mehr empfehlen.
 
[wege]mini schrieb:
dein ansatz ist schon richtig, aber hier geht es wirklich nur um kantenglättung.

der server cluster im hintergrund wird quasi 1mal gebraucht, bei dem die "perfekten" einstellungen für kantenglättung ausgelotet werden, um z.b. leistung zu sparen wenn der user rennt oder sich schnell dreht und dafür bei "blick in die ferne im stehen" voll aufzudrehen. dein auge ist ja auch nicht immer auf alle entfernungen gleich scharf eingestellt :D

wenn der cluster dann erst mal fertig ist und etwas berechnet hat, was vergleichbar ist mit einer shadow map oder light map, wird diese dann von den tc´s "abgearbeitet". so habe ich das ganze system bisher verstanden.

die berechnung im rechnenzentrum kann halt gerne mal 1tag bis 4 wochen dauern und rechenleistung fällt nicht vom himmel. für so einen "kinderkram" holt man doch keinen großrechner ran.


mfg

Dieser „Kinderkram“ ist ein Milliardengeschäft, da holt man durcjaus den Grossrechner raus
 
timboboy123 schrieb:
Jo, aber es würde der Gaming-Welt besser tun. Aus den Open-Source-Features kamen echt tolle Sachen für die Allgemeinheit raus. Mantle hat sich gut rentiert nachdem es jetzt ja Vulkan gibt. Und DirectX 12. Was beides eigentlich ne feine Sache ist und AMD auch entgegen kommt. Haben halt alle was von.

Seien wir ehrlich:
-OpenSource ist nur für echte Nerds!

Alle anderen können damit quasi nichts anfangen. Designer sehen in der Regel vom eigentlichen Programmcode recht wenig. Da wird mit Editoren wie der Unreal-Engine ein Konstrukt erzeugt und es muss laufen. Die eigentlichen Programmierer sind einzelne Positionen, aber selten größer als ein kleines Team.

AMD unterstützt diese Gruppen zu wenig, verlangt aber dass genau diese anderen Leute die Arbeit für die Radeons machen. Anstatt sich auf die Zuarbeit anderer zu verlassen, sollte sich AMd endlich am Riemen reißen und endlich fertige Produkte, Entwicklertools und Lösungen zu bringen.

timboboy123 schrieb:
Gameworks läuft jetzt auf kleineren Nvidia-Karten nicht so super geil und auf AMD-Karten gleich 3x nicht. Ich seh wenig Grund zur Freude wenn man Gameworks-Effekte in nem Game liest.

Wundert dich etwa wenn Bildverbesserungen nicht auf sämtlicher Hardware läuft?
Das sollte es nicht! Wer diese Effekte und Bildmodi haben möchte, kann dies tun. Falls nicht, einfach abschalten. Wo ist das Problem?

timboboy123 schrieb:
Wenn Nvidia eine weiße Weste hätte wären die Leute halt eher bereit ihnen das Abzukaufen.

Die Leute sind viel zu anspruchsberechtigt geworden. Die große Gier geht um und man will prinzipiell alles und möglichst umsonst. In der IT gibt es übrigens keine Firmen mit weißwer Weste. Das ist Unsinn und wird es immer sein, egal für wen.

timboboy123 schrieb:
Heißt übrigens auch nicht, dass AMD nie scheiße baut. Hatten wir auch schon, fanden wir auch nicht geil.

Und jetzt? Diese Diskussion nutzt keinem etwas. Kauf das Produkt oder lass es sein. Mehr geht nicht. Sich täglich im Forum ausheulen zeigt nur wie verweichlicht unsere Community geworden ist.

Sun-Berg schrieb:
Darf man zum Schluss kommen, dass DLSS nicht zum Performancevergleich hinzugezogen werden kann, da ja prinzipiell die Nvidia Hardware nur mit einer serverseitigen Unterstützung zu ihrer Leistung kommt? Anders gesagt, ein Teil wird durch das neuronale Netzwerk berechnet und von den Tensor Cores auf das jeweilige Spiel angewendet. Somit kann nicht mehr behauptet werden, die GPU alleine würde die Berechnung der Grafik auf sich nehmen. Also ist sie auch nicht mit einer GPU vergleichbar, die das muss/kann.

Du hast das Prinzip nicht verstanden.
Nvidia gibt ihrem Supercomputer über Deep Learning Beispiele wie die Ergebnisse auszusehen haben und lässt diese tausende Male durchrechnen. Dieser Supercomputer lernt über sein Neurales Netz wie das Ergebnis mit den gezeigten Beispielen und entwickelt Muster dafür. Am Ende gibt Nvidia die Ergebnisse an die Entwickler und die fügen den Modus in ihren Spielecode ein. Bei Erstimplementierung dauert das vielleicht ein paar Wochen.

Als Endkunde aktiviert man das in den Grafikoptionen wie alle anderen Modi auch. Updates gibt es möglicherweise entweder über den Entwickler selbst oder per Geforce Experience, falls es von Nvidia selbst kommt.

Du brauchst keine Dauerverbindung. Die Downloads sind wie Patches / Treiber. Einmal installiert, sollte Turing das für immer können. Die Turing-GPU berechnet die Ergebnisse selbst, allerdings benutzt sie die Raytracing/Tensor-Cores mit den vordefinierten Algorithmen des Neuronalen Netzwerks.

Das ist wie das benutzen einer Blaupause.
 
nebulus schrieb:
Das lässt sich anhand des Börsenkurses ermitteln!

NVIDIA hat es geschafft das Eigenkapital von 2017 auf 2018 um 2Milliarden $ zu vergrößern. Und hat im gleichen Zeitraum Waren im Wert von 3,1 Milliarden (nach Steuern) verkauft. Das macht ein Verhältniss von 3 zu 2. Von 3$ hat es Nvidia geschafft, 2$ Gewinn zu machen!

Nein, das rechnet man so nicht ;)

Du musst jeweils das operative Ergebnis anteilig von Gesamtumsatz rechnen. Heißt, 2 zu 7 Mrd. und 3 zu 9,7 Mrd.

Das ergibt eine Umsatzrentabilität von

2017: 2Mrd / 7 Mrd = 28,57%
2018: 3Mrd / 9,7 Mrd = ~31 %

Die Rentabilität des umgesetzten Kapitals ist im Verhältnis also gerade mal um 3% gestiegen. Dies ist relativ wenig, bedenkt man, dass sich die Fixkosten der Produktion degressiv zur abgesetzten Menge verhalten und der Mining-Boom sein übliches tut / tat.
Börsentechnisch gesehen ist die Eigenkapitalerhöhung für das nächste Jahr nicht einmal unbedingt positiv zu sehen. Stichwort Eigenkapitalrentabilität. Wenn ich mein EK fast verdoppel, sinkt die Eigenkapitalrentabilität entsprechend um den gleichen Faktor.

Das sieht man an der Börse in der Regel überhaupt nicht gerne.

Beispiel

2017: 2Mrd Gewinn ggü. 5,7 Mrd Eigenkapital = 35,1% Eigenkapitalrentabilität
2018: 3 Mrd Gewinn ggü. 7,4 Mrd Eigenkapital = 40,54% Eigenkapitalrentabilität

Die haben ihre Effizienz / Effektivität des eingesetzten Kapitals gerade mal um 5% gesteigert, nicht um 50%, wie die Rechnung 2 zu 3 eigentlich suggeriert.

Warum hat NV dies getan? Ganz einfach. Wäre das EK bei 5,7 Mrd stehen geblieben, hätte die Rentabilität des Eigenkapital 3Mrd / 5Mrd = 60% betragen (!). Das wäre dann ne dicke Dividenden-Ausschüttung geworden.
Aus Aktionärssicht, war die Aktion also nicht so wirklich toll.

Theoretisch müsste man noch hingehen, die 1,7 Mrd Erhöhung mit dem durchschnittlichen Bankzins berechnen und diesen Wert von 3Mrd $ Gewinn abziehen. Der Gedanke dahinter ist, man hätte das Geld (diese 1,7 Mrd Erhöhung) ja auch zur Bank bringen und dort verzinsen lassen können, ohne etwas dafür zu tun. Diesen "sicheren" Erlös müsste man kalkulatorisch eigentlich vor Berechnung der EK-Rentabilität abziehen (Leaverage Effekt). Oder umgekehrt einfacher ausgedrückt, ein Unternehmen könnte sich ja auch für 4% Zins 1,7 Mrd Dollar leihen. Solange damit, wie oben, 40% EKR generiert werden, sollte man dies auf jeden Fall tun. Die Zinsen dafür wären theoretisch bereits in der GuV vom Gewinn abgezogen.

Der Effekt ist aber so gering, das man ihn in der Rechnung hier nicht unbedingt einbeziehen muss.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stevefrogs und nebulus
Hardware_Hoshi schrieb:
Seien wir ehrlich:
-OpenSource ist nur für echte Nerds!

Das ist maximaler Bullshit. Open Source ist oft besser verwendbar weil man den Code Debuggen kann. Open Source ist nicht Properitär und jeder kann es verwenden. Für Open Source kann jeder optimieren nachdem er den Code ansehen kann. An Open Source kann weiterentwickelt werden und es ist oft die Basis für neue Features, wie z.B. PureHair. Open source ist leichter zu Dokumentieren nachdem man den Quellcode nachvollziehen kann. Open Source ist besser zu integrieren nachdem es selbst kompiliert werden kann und nicht nur als dll oder lib file verfügbar ist. Open Source kann z.B. auf die PS4 portiert werden nachdem der Code offen ist. Open Source Code ist idR. Royality Free.

Open Source hat so viele Vorteile. Ist mir doch scheiß egal ob ich den Code seh, mir geht'sdarim, dass der Enteickler der den Code nutzt ihn sieht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stevefrogs
timboboy123 schrieb:
Das ist maximaler Bullshit. Open Source ist oft besser verwendbar weil man den Code Debuggen kann. Open Source ist nicht Properitär und jeder kann es verwenden. Für Open Source kann jeder optimieren nachdem er den Code ansehen kann. An Open Source kann weiterentwickelt werden und es ist oft die Basis für neue Features, wie z.B. PureHair.

Siehst du nicht, inwiefern das lediglich eine Art Outsourcing für AMD ist?

Die Entwickler haben die Arbeit, jedoch keinerlei Rechte an dem Entprodukt. PureHair hat eine schrecklich niedrige Einsatzquote. Außer ein paar Partnertiteln kommt da einfach nichts nach.

timboboy123 schrieb:
Open source ist leichter zu Dokumentieren nachdem man den Quellcode nachvollziehen kann. Open Source ist besser zu integrieren nachdem es selbst kompiliert werden kann und nicht nur als dll oder lib file verfügbar ist. Open Source kann z.B. auf die PS4 portiert werden nachdem der Code offen ist. Open Source Code ist idR. Royality Free.

Klingt fast wie eine Windows VS Linux Diskussion ... hatten wir leider zu oft!

Royalty Free ist außerdem nicht ganz simpel. Das bezahlen die User und Programmierer mit ihrer Freizeit und ihrem Einsatz. Meistens verlaufen sich solche Projekte mit der Zeit aufgrund von Finanz- und Zeitproblemen im Sand und keiner entwickelt sie mehr weiter. Zu oft erlebt und wiederholt sich ständig!

timboboy123 schrieb:
Open Source hat so viele Vorteile. Ist mir doch scheiß egal ob ich den Code seh, mir geht'sdarim, dass der Enteickler der den Code nutzt ihn sieht.

Der Entwickler sieht den Code, nur darf AMD ihn nicht direkt sehen. Das ist ein himmelweiter Unterschied! DLSS wird für AMD ebenfalls eine Blackbox werden. Macht aber letztendlich keinen Unterschied, da die Radeons nicht einmal die Hardwareeinheiten dafür hätte.

AMD muss zusammen mit Microsoft und DXR eine eigene Lösung entwickeln. Das Leben ist keine Ponyhof. Wie wäre es zur Abwechslung einmal wieder sich selbst zu helfen? So richtig reinknien ... hat die RTG seit Jahren nicht mehr gemacht.
 
@
Hardware_Hoshi

Nee, das ist schon so. Um auf die gewollte Bildqualität zu kommen muss erst durch den "Supercomputer" diese "Blaupause" berechnet werden. Ohne Supercomputer kommt man also nicht zu der selben Bildqualität wie mit. Also besteht die Abhängigkeit die ich beschrieben habe mit allen genannten Problemen.

Auch wenn man nicht direkt dauernd verbunden sein muss, so ist doch ein Teil der Berechnung der Grafik auf Seiten von Nvidia notwendig.
 
Sun-Berg schrieb:
@
Hardware_Hoshi

Nee, das ist schon so. Um auf die gewollte Bildqualität zu kommen muss erst durch den "Supercomputer" diese "Blaupause" berechnet werden. Ohne Supercomputer kommt man also nicht zu der selben Bildqualität wie mit. Also besteht die Abhängigkeit die ich beschrieben habe mit allen genannten Problemen.
Auch wenn man nicht direkt dauernd verbunden sein muss, so ist doch ein Teil der Berechnung der Grafik auf Seiten von Nvidia notwendig.

Das ist nicht richtig!
Nvidia bietet Lösungen für Deep Learning Entwicklung an. Jeder kann das theoretisch selbst tun. Natürlich nur falls entsprechende Erfahrungen mit Neuronalen Netzwerken vorhanden ist. Die Hardware bieten diverse Anbieter. Es steht also jedem Entwickler frei selbst Hand anzulegen.

Die Nummer mit dem Supercomputer ist lediglich ein Dienst von Nvidia. Es wird auch niemand gezwungen DLSS einzusetzen. Bessere Bildqualität bei mehr Leistung ist allerdings zu verlockend um es nicht zu nutzen.
 
Scr1p schrieb:
Ich kann mich da noch an was von AMD erinnern, das nannte sich "Mantle". Das hier wird bestimmt genauso erfolgreich :daumen:

Mantle war effektiv die Basis für Vulkan.
 
Hardware_Hoshi schrieb:
Siehst du nicht, inwiefern das lediglich eine Art Outsourcing für AMD ist?

So ein stuss. AMD sourced da garnichts aus. Die stellen Libraries die JEDER verwenden darf. Entwickelt werden die aber immernoch von AMD. Es ist nur angenehm das die Entwickler die als Grundlage für eigene Features verwenden können wie den Realtime-Baker in Unity. Und der ist halt wirklich hilfreich weil du halt jetzt statt eine Lightmap in 1.5h in der glechen Zeit hunderte schaffst. Was sourced AMD da aus?

Oder bei Vulkan-EZ? Das ist nichts als ein Vulkan Wrapper der das ganze einsteiger-freundlicher macht. Oder generell GPUOpen. Das ist halt ein SDK das die Arbeit für Entwickler erleichtert. AMD outsurced da garnichts. TressFX kann man einbauen und fertig, hat in Tomb Raider super geklappt. Was hat AMD da outsourced. Oder in Deus Ex MK.

AMD hat in ProRender einen OpenSource Renderer. Der ist fertig benutzbar. Wenn jemand aber was spezielles braucht kann er ihn anpassen. Wo liegt das Problem.

RadeonRays bietet Raytracing. Ist toll für Entwickler. Statt den scheiß selbst zu bauen wenn sie's brauchen nutzen sie das. Ist doch toll. Wenn sie ne bessere Idee haben können sie's verändern. Welcher Nachteil ergibt sich damit?

https://gpuopen.com/games-cgi/

Ich mein, schau es dir an. Da sind halt Features die Entwicklern das leben erleichtern. Und wenn sie was dumm finden können sie's für sich ändern (auch wenn das nicht ratsam ist).

Ich weiß nicht wie man aus so eine beknackte Aussage kommt. Echt mal. Sourced QT seine Probleme jetzt auch zu den Entwicklern aus weil sie eine OpenSource Version anbieten?

Soll AMD statt Vulkan-EZ zu bauen jetzt den Entwicklern einen Fertigen Vulkan Renderer bauen. Mach das denn Nvidia so? Haben die den Leuten fertige Vulkan und DX12 Backends zur Verfügung gestellt, dass die keine Renderer mehr Programmieren müssen? Das hab ich anders gehört.

Oder soll AMD TressFX für die Entwickler integrieren? Automatisch? Mach das Nvidia denn mit Hairworks so? Wenn nein, was macht Nvidia dann anders außer die Features freier zugänglich zu machen.

Libs bei sich integrieren müssen Entwickler schon selbst machen. Ist ja ihr Projekt.

Hardware_Hoshi schrieb:
Die Entwickler haben die Arbeit, jedoch keinerlei Rechte an dem Entprodukt. PureHair hat eine schrecklich niedrige Einsatzquote. Außer ein paar Partnertiteln kommt da einfach nichts nach.

Was für ein Unsinn.

"Copyright (c) 2017 Advanced Micro Devices, Inc. All rights reserved. Permission is hereby granted, free of charge, to any person obtaining a copyof this software and associated documentation files (the "Software"), to dealin the Software without restriction, including without limitation the rightsto use, copy, modify, merge, publish, distribute, sublicense, and/or sellcopies of the Software, and to permit persons to whom the Software isfurnished to do so, subject to the following conditions: The above copyright notice and this permission notice shall be included inall copies or substantial portions of the Software. THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS ORIMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THEAUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHERLIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS INTHE SOFTWARE."

https://github.com/GPUOpen-Effects/TressFX/blob/master/LICENSE.txt

Das ist ne fuckin' MIT Lizenz.

https://de.wikipedia.org/wiki/MIT-Lizenz

Die ganze GPUOpen initiative ist übrigens so ziemlich MIT: https://en.wikipedia.org/wiki/GPUOpen

Natürlich hat der Entwickler die Rechte an dem Zeug was er damit Entwickelt. Das ist normal mit Open-Source. AMD hat 0 Ansprüche auf PureHair oder den Baker von Unity. Das ist völliger Blödsinn. Der Code (bis auf die Lib) ist eigentum der Entwickler. Bei PureHair halt SquareEnix und beim Baker Unity.

Verdammt, selbst Nvidia dürfte GPUOpen für Gameworks verwenden und trotzdem ihre Blackbox bauen.

Der niedrige Einsatz von PureHair kommt daher das Square den Source-Code halt nie öffentlich gemacht hat. War halt denen ihr Feature.

Hardware_Hoshi schrieb:
Klingt fast wie eine Windows VS Linux Diskussion ... hatten wir leider zu oft!

Das ist auch so ein Stuss. Das hat halt nichts miteinander zu tun. Windows vs Linux ist halt Benutzerfreundlichkeit gegen Erweiterbarkeit. Hier geht's um kann man erweitern, jeder kann's optimieren portieren und adaptieren und nicht um - hier kann ich alles mit Rumclicken lösen - gegen - ich will meine bash haben -.

Was hat das eine mit dem anderen zu tun. So ein Bullshit.

Hardware_Hoshi schrieb:
Das hat nichts damit zu tun. Der unterschied zu Linux und Windows ist, dass Libraries einfach anders verwendet werden. Windows ist halt benutzerfreundlicher, dafür ist Linux leichter erweiterbar. Hat seine Vor- und Nachteile, hat mit dieser Diskussion aber einfach nicht das geringste zu tun.

Royalty Free ist außerdem nicht ganz simpel. Das bezahlen die User und Programmierer mit ihrer Freizeit und ihrem Einsatz. Meistens verlaufen sich solche Projekte mit der Zeit aufgrund von Finanz- und Zeitproblemen im Sand und keiner entwickelt sie mehr weiter. Zu oft erlebt und wiederholt sich ständig!

Und bei properitären Libs kann dir das nicht passieren? Was ist denn wenn der Publisher der Lib Pleite geht? Wer führt die dann weiter? AMD supported die Libs immer sehr lange.

Hardware_Hoshi schrieb:
Der Entwickler sieht den Code, nur darf AMD ihn nicht direkt sehen.

Das stimmt nur bedingt. Es gibt für Gameworks verschiedene Lizenzmodelle. Das ist wie mit Unity. Den Source-Code Zugriff bekommst du halt nur mit ner Pro-Lizenz.

Hardware_Hoshi schrieb:
Das ist ein himmelweiter Unterschied! DLSS wird für AMD ebenfalls eine Blackbox werden. Macht aber letztendlich keinen Unterschied, da die Radeons nicht einmal die Hardwareeinheiten dafür hätte.

Macht's das in irgend einer Form besser?

Hardware_Hoshi schrieb:
AMD muss zusammen mit Microsoft und DXR eine eigene Lösung entwickeln. Das Leben ist keine Ponyhof. Wie wäre es zur Abwechslung einmal wieder sich selbst zu helfen? So richtig reinknien ... hat die RTG seit Jahren nicht mehr gemacht.

AMD baut eine DXR-API. AMD kniet sich mit seinen Open-Source-Projekten rein. Ist dir nur einfach egal^^

Ohne Witz, was für einen Stuss du da zusammenredest über OpenSource oder AMDs "Outsourcing". OpenSource ist was gutes. Ist ja schön für dich wenn du für jeden scheiß zahlen willst. Aber allgemein ist OpenSource eigentlich nur positiv.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stevefrogs, Ernie75 und Thraker
Hardware_Hoshi schrieb:
[...]

Die Nummer mit dem Supercomputer ist lediglich ein Dienst von Nvidia. Es wird auch niemand gezwungen DLSS einzusetzen. Bessere Bildqualität bei mehr Leistung ist allerdings zu verlockend um es nicht zu nutzen.

Bessere Bildqualität bei mehr Leistung im Rückgriff auf die Berechnung des "Supercomputers" bei Nvidia. Mit DLSS ist die gebotene Leistung/Bildqualität nur in Abhängigkeit von Nvidias Supercomputer zu erreichen und nicht mehr nur das Resultat von Berechnungen auf der eigenen GPU.

Genau das was ich gesagt habe.
 
Sun-Berg schrieb:
Bessere Bildqualität bei mehr Leistung im Rückgriff auf die Berechnung des "Supercomputers" bei Nvidia. Mit DLSS ist die gebotene Leistung/Bildqualität nur in Abhängigkeit von Nvidias Supercomputer zu erreichen und nicht mehr nur das Resultat von Berechnungen auf der eigenen GPU. Genau das was ich gesagt habe.

Der Wetterbereicht im Fernsehen ist auch das Ergebnis unzähliger Berechnungen, Sateliten und Auswertungen. sollte man das in Zukunft nicht mehr verwenden?

Jedes Ergebnis aus dem Neuronalen Netz des Supercomputers ist nur ein weitere Option. Mit der Zeit füllt sich garantiert eine Datenbank für Einstellungen. Je mehr Berechnungen gemacht werden, desto eher lassen sich allgemeine Schlüsse und Vergleich anstellen.

Diese Datenbank wird dann evtl. in Unterkategorien aufgeteilt. Z.B. Grafikstile und Artwork. Daraus könnten sich Standards bilden.

a.) Fantasy
b.) ScienceFiction
c.) Gritty / Gothic
d.) Realistische.
e.) Horror
f.) Comic / gezeichnet
g.) andere Stile

Je höher die Anzahl der Beispiele und Ergebnisse, desto mehr Möglichkeiten hat letztendlich deine RTX Grafikkarte unter DLSS. Der Supercomputer muss theoretisch das Ergebnis pro Spiel einmal durchgehen und die Resultate bleiben für die Ewigkeit. Du bist nicht davon abhängig, kannst aber die Erkenntnisse jederzeit wieder und weiter verwenden.

Ich sehe nicht wo hier das Problem liegt?
 
Zurück
Oben