News Nvidia GeForce RTX: Neun weitere Spiele erhalten DLSS-Kantenglättung

LyGhT schrieb:
Komischerweise sind mir von den 9 Spielen ebenfalls keines ein Begriff bzw 1-2 vielleicht mal von gehört aber das wars dann auch schon. Nichts interessantes dabei. Da musst du ihn nicht als "nicht gamer" abstempeln.
Naja von SCUM liest man doch schon öfter mal, da es ja auch derzeit die Steam Charts anführt.
Und Hellblade wurde seit Release auch schon öfter als "Geheimtipp" angepriesen, dazu kam erst vor Kurzem die VR Version dazu raus, wozu es hier auch einen Test auf CB gab.
Darksiders ist mir dann auch noch ein Begriff, beim Rest hört es dann für mich aber auch auf.
 
  • Gefällt mir
Reaktionen: Phear
StefVR schrieb:
Damit hat man besseres AA ohne Schärfeverlust und ohne grosse Leistungseinbussen.

Wenn DLSS nur als Upsampler verfügbar ist, ist es für 144 Hz-Spieler ziemlich nutzlos, solange 4k-Monitore mit hohen Bildwiederholfrequenzen nicht drastisch im Preis fallen.
 
Aldaric87 schrieb:
Du kannst davon ausgehen das es hochskaliert wurde, denn nur so kommt es ja zu den "Performance-Vorteilen" von DLSS. Ohne hochzuskalieren würden sich die FPS ja nicht steigern, da die GPU trotzdem die 4k rendern muss. Daher sehe ich auch momentan noch nicht die riesigen Vorteile von DLSS. Denn wer 4k spielt, will die höchstmögliche Bildqualität und die scheint bei DLSS eben doch zu leiden, so zumindest die Screenshots von der Gamescom.
Hier geht es um AA und nicht um Upscaling. Ich glaub da hast du noch nicht so ganz verstanden wie DNN funktionieren. Mal vereinfacht gesprochen:

Auf den NVIDIA-Servern wird das Spiel für Zeit x gerendert - einmal z.B. FullHD ohne AA, einmal 4K. 4K wird dann auf FullHD gebracht - hat dann entsprechend weniger Treppeneffekte im Ergebnis.

Das Neuronale Netzwerk bekommt das normale FullHD ohne AA als Ausgangspunkt und das optimierte FullHD als gewünschtes Ergebnis und wird damit trainiert. Danach „weiß“ es was mit dem normalen FullHD zu machen ist um zu entsprechendem Ergebnis zu kommen. Dieses „Wissen“/Rechenregeln werden dann von den Tensor-Cores angewandt um lokal zum AA-Ergebnis zu kommen. FullHD bleibt aber FullHD.

Bei 4K muss entsprechend vorher mit noch höherer Auflösung gerendert oder irgendwelche anderen Hardcore-AA-Verfahren angewandt werden um zu einem entsprechenden 4K-Material für das Training zu kommen.

Da die Tensor Cores die AA-Berechnung übernehmen, braucht der klassische Teil der Grafikkarte das nicht mehr machen. Entsprechend mehr Leistung kann für andere Berechnung genutzt werden. Da liegt der Vorteil.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Flo42, Lübke82 und KunzeW
@Malmi Aber das Prinzip bleibt doch immer noch Upscaling, denn es wird ja ein Bild berechnet, welches durch vorheriges Downsampling entstanden ist.
Daher wird das FullHD Bild, welches mit DLSS geglättet wird, durch ein 4K Bild erzeugt, somit könnte man schon sagen dass es Upscaling ist.
 
Wie sie das machen ist doch Wurst, was raus kommt ist wichtig.
Morgen kommt eine News über Variable Rate Shading und es geht von vorne los :p
 
  • Gefällt mir
Reaktionen: Lübke82
rg88 schrieb:
Dieser Artikel liest sich wie eine 1:1 übernommene Werbe"news".
...
It smells like "undeklarierte Werbung".

Ich zitiere aus der NDA:
"Der Empfänger verwendet vertrauliche Informationen ausschließlich zu Gunsten von Nvidia"

DLSS dürfte noch als "vertraulich" einzustufen sein, viel mehr als das wiederzugeben was Nvidia dazu gesagt hat ist also eh nicht drin.

Bald sehen wirs eh selbst, dann ist Ruhe. Da sind noch viele Fragen offen wie/was/wie lange/auf welches Target hin trainiert wird usw., ka. wieviel Aufwand (=Kosten) Nvidia da reinsteckt in ihren Servern und welche Fehlerquote für sie akzeptabel ist (1/10? 1/30?)
 
Zuletzt bearbeitet:
Aldaric87 schrieb:
@m.Kobold
Auch das es nicht groß erwähnt wurde bei der Präsentation, spricht nicht grade für DLSS. :D

Hast du geträumt bei der Präsentation? Da wurde doch mehrere Minuten drüber gefaselt!? Und die Vergleichsbilder die ich gesehen habe mit DLSS sahen deutlich besser aus als ohne! Kann deinen Eindruck leider absolut nicht nachvollziehen.
 
@Taxxor: Nein, das neuronale Netz hat gelernt, wie es zu dem geglätteten Ergebnis kommt. Das läuft viel effizienter ab als das ganze in 4K lokal zu rendern und das auf FullHD herunterzuskalieren. Das ist ja der Witz bei den neuronalen Netzen. Sonst bräuchte man die ja nicht.

Auf dem Server braucht man aber halt Trainingsmaterial, damit das Neuronale Netz weiß zu welchem Ergebnis (geglättetes FullHD) es kommen muss. Darum FullHD-Material ohne AA und geglättetes FullHD als Trainigsmaterial - ob NVIDIA da jetzt 4K mit oder ohne zusätzlichem AA oder FullHD mit 64x AA für nimmt oder sonst was, wissen wir nicht genau.

Lokal braucht es das aber in jedem Fall nicht nicht. Da braucht es nur das irgendwie geartete individuelle Traingsergebnis als Modell.
 
  • Gefällt mir
Reaktionen: Lübke82
xexex schrieb:
Das funktioniert ganz simpel überall auf dieser Welt.... Nvidia stellt ein paar Mitarbeiter ab, die dabei helfen die API besser für das eigene Spiel zu implementieren, als Gegenleistung blenden die Spiele tolle Nvidia Werbung ein.

Man nennt sowas zwar Sponsoring, aber Geld braucht dabei nicht zu fließen. Letztendlich profitieren beide Unternehmen davon. Die Entwickler beim Spielstudio können sich auf das wesentliche konzentrieren, Nvidia bekommt Feedback aus erster Hand von den Entwicklern, mit den sie die eigenen Engines weiter entwickeln können.

Klar fliest da Geld und das ist auch nicht verkehrt. Entwicklerteams mögen es übrigens idR. garnicht wenn Externe in ihrem Projekt Ansprüche stellen oder rumpfuschen. Aber Sponsoren sind nunmal gerne gesehen und bekommen mehr Freiheiten. Die API-Integrierung macht Nvidia übrigens erst recht nicht. Wenn's hochkommt können die Libs stellen oder Shader optimieren. Code von externen ist ein ziemlicher Albtraum für die Wartbarkeit weshalb man sowas vermeidet.

lalelu schrieb:

Ich weiß nicht was das mit Aluhüten zu tun hat. Ich hab das weder negativ angelastet noch verurteilt. Wenn du überall Verschwörungstheoretiker siehst solltest du deinen Kopf evtl. mal nach einem Aluhut absuchen, vielleicht geht dir dann mal ein Licht auf. z.B. das ich auch beide Partner genannt hab. So ein sinnfreier Beitrag, also mal ernsthaft...^^

Das bei Sponsorships Geld fliest ist völlig normal. Deshalb zieht Nvidia auch mehr Partnerschaften an Land. Die ham halt das größere Budget. Sponsoring ist gut angelegtes Geld. Man hst bei der Entwicklung was zu Melden und bekommt Werbung.
 
Zuletzt bearbeitet:
Malmi schrieb:
@Taxxor: Nein, das neuronale Netz hat gelernt, wie es zu dem geglätteten Ergebnis kommt. Das läuft viel effizienter ab als das ganze in 4K lokal zu rendern und das auf FullHD herunterzuskalieren. Das ist ja der Witz bei den neuronalen Netzen. Sonst bräuchte man die ja nicht.
Das ist mir schon klar, mein Punkt war ja wie dieses geglättete Ergebnis entsteht. Sollte es wie gesagt durch das Training mit den gleichen Inhalten in 4K funktionieren, so ist das geglättete FullHD Bild, welches die Karte letztendlich berechnet doch nichts weiter als ein Upscaling der Kanten auf 4K, auch wenn die insgesamt notwendigen Schritte dafür nicht lokal auf der Karte passiert sind.
 
mal schauen wie es sich durchsetzen wird. genauso raytracing.
Ich erinnere mich noch gut wie nvidia ihr hairworks feature riesig angekündigt haben und bis jetzt nur farcry 4, witcher 3 und ein paar andere Spiele die API überhaupt nutzen. Und das obwohl es open source ist und über nvidia gameworks einfach geladen und implementiert werden kann.
 
Hairworks ist nicht Open Source^^
 
  • Gefällt mir
Reaktionen: rg88
DLSS schön und gut aber das erfordert die Experience Spyware und ich habe nur sehr ungern zusätzlichen Müll im Hintergrund laufen. Alles in Bezug auch Telemetrie-Daten von NVIDIA wird so oder so konsequent aus der Registry und der Platte entfernt.
 
AncapDude schrieb:
Ich kann den AA-Hype eh nicht nachvollziehen, es ist das Erste was ich immer ausstelle, Pixel stören mich überhaupt nicht und bringt übelst Performance und mehr Schärfe. Und "Deep Learning" und "neuronales Netz" sind eh wieder so Buzzwords wo ich erstmal auf Distanz gehe. Sollte hier wirklich was serverseitig berechnet werden ist das für mich sowieso ein No-Go. Aber schön, dass es wieder neue Grakas gibt die die alten billiger machen ;)
1. AA ist mitunter das wichtigste, was es gibt.
Und Post Processing AA mit Temporaler Komponente kostet nicht viel und sieht schon hervorragend aus. Wenn das hier noch besser (schärfer) ist und weniger Leistung zieht, ist das ein Killer-Feature (sofern supportet).

2. Das wird mit 100%iger Sicherheit nicht auf einem Server berechnet. Keine Ahnung, wie man auf so einen Käse kommt. Wenn überhaupt wird der Algorithmus vorher auf einem Nvidia-Rechner trainiert, und dann mit in den Gamecode (oder Treiber) gepackt. Ka, wie das nun konkret läuft.
 
@Taxxor: Ich weiß nicht, ob NVIDIA sich dazu geäußert hat, wie das auf dem Server gemacht wurde. Aber letztlich ist das in der Praxis ja egal, ob mit Runterrechnen von 4K(und für 4K dann mit 8K), 128x AA klassischer Art oder anderem. Wichtig ist, dass das entsprechende Material für das Training gut genug war.
 
  • Gefällt mir
Reaktionen: Lübke82
Hardware_Hoshi schrieb:
Wie ironisch!
Das sind bisher mehr Spiele vor Release mit DLSS-/Raytracing-Unterstützung angekündigt als AMD mit Fiji/Vega im gesamten Produktzyklus hatten. Verbreitet sich anscheinend rasend schnelle!

wenn genug "Unterstützung" fließt damit man "Features" die die Öffentlichkeit noch gar nicht testen kann reinbastelt, damit wieder die Konsumzombies die überhypten und überteuerten Grakas vorbestellen obwohl nocht nicht mal die Realität bekannt ist .... ja dann hast du recht ....

ist nun wie bei Apple, bis zu 1650 € treures Smarti .... und wieder rennen die Zombies denen die Bude ein, und diesmal sogar mit vorbestellung.

ist genau wie das Kerbsgeschwür Gameworks .... nur Nvidia Besitzer haben eventuell was davon ... für alle anderen isses ne künstliche Bremse
 
  • Gefällt mir
Reaktionen: Thraker, fox40phil und rg88
StefVR schrieb:
Und dein Beitrag "smellt" nach Dr. Aluhut. Ist doch nur ne Newsmeldung die überall die Runde macht und nichts weiter sagt als das ein paar mehr Spiele unterstützt werden als vorher.
Exakt das ist das Problem. Es ist keinerlei "news", wenn es nur eine Pressemitteilung ist, welche 1:1 Kritik und sogar Kommentarlos übernommen wird. Das hat rein gar nichts mit Aluhut zu tun, viel mehr mit fehlendem Journalisten Tiefgang (wenn man das hier überhaupt als Journalismus bezeichen will). Die mittlerweile durchaus bekannten NDA-Klauseln passen hier perfekt wie die Faust aufs Auge.
Willst du das etwa abstreiten?
Ergänzung ()

TNM schrieb:
Ich zitiere aus der NDA:


DLSS dürfte noch als "vertraulich" einzustufen sein, viel mehr als das wiederzugeben was Nvidia dazu gesagt hat ist also eh nicht drin.

Bald sehen wirs eh selbst, dann ist Ruhe. Da sind noch viele Fragen offen wie/was/wie lange/auf welches Target hin trainiert wird usw., ka. wieviel Aufwand (=Kosten) Nvidia da reinsteckt in ihren Servern und welche Fehlerquote für sie akzeptabel ist (1/10? 1/30?)
Womit wir beim davor befürchteten und zu erwartetet Ergebnis kommen: Im Vorfeld wird kritiklos und ausführlich positiv berichtet. Nvidia wusste schon, wieso sie sowas machen. Man veröffentlicht auf dem Papier eine neue Generation, lässt die Medien ausführlichst die Werbetrommel rühren, kassiert jede Menge an Vorbstellungen ein und verbreitet gleich mal einen positiven Gedanken in der Breit der potentiellen Käufer. Wenn das Teil dann die Erwartungen nicht erfüllt ist trotzdem schon jede Menge Vorarbeit geleistet an positiver Publicity.
Absolut durchschaubar und wirklich PFUI, wenn sich Redaktionen diesen billigen Praktiken sogar noch anbiedern und davon reden, dass sie keinerlei Einfluß auf die Berichterstattung hätten. Dass dies absolut gelogen war, sieht man an diesem einseitigen Artikel hier noch krasser, als ich es damals für möglich gehalten hätte. Dass dies den größten Teil hier nicht interessiert oder wenigstens auffällt spricht Bände.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sebbi, Thraker, matraj63 und eine weitere Person
Ich raffe immernoch nicht, was Kantenglättung mit Deep Learning zu tun haben soll. Entweder es wird vernünftig geglättet oder nicht. Was gibt es denn von einer KI denn da groß zu "lernen"?
 
timboboy123 schrieb:
Klar fliest da Geld und das ist auch nicht verkehrt. Entwicklerteams mögen es übrigens idR. garnicht wenn Externe in ihrem Projekt Ansprüche stellen oder rumpfuschen.

So ein Quatsch. Die Entwicklerteams moderner AAA Spiele sind sogar im Gegenteil darauf ANGEWIESEN, dass Externe (von AMD und nVidia) ihnen helfen, das Spiel auf gängiger Hardware zum Laufen zu bekommen, Features zu implementieren und die Performance zu optimieren.

Seit vielen Jahren sind bei AAA Entwicklungen völlig unabhängig von speziellen Features wie GameWorks insbesondere in den letzten Monaten der Entwicklung ständig Mitarbeiter von AMD und nVidia vor Ort, um als Schnittstelle zur heimischen Treiberentwicklungsabteilung zu fungieren.

Wenn man sich zum Beispiel die 'Prey' Credits anschaut, dann sieht man, dass dort (IIRC) sieben Mitarbeiter von AMD separat erwähnt werden, die Arkane bei der Grafikprogrammierung unterstützt haben.
Auch so findet man in den Credits quasi jeden x-beliebigen Spiels eine Passage, wo AMD und/oder nVidia für ihren Support gedankt wird.

Es ist doch klar, dass die Entwickler dafür natürlich extrem dankbar sind. Für den ohnehin schon stark belasteten Graphics-/Engine-Programmierer ist es in der Regel unmöglich, alle Neuerungen stets auf dem Schirm zu haben. Die Leute haben neben ihrer normalen, sehr anspruchsvollen Arbeit kaum Zeit, sich fortzubilden oder sich dieses Wissen selbst anzueignen. Die sind auf die externe Hilfe absolut angewiesen.

Die sind froh, wenn sie dann gestandene Software Engineers von AMD oder nVidia neben sich sitzen haben (oder per remote support 24/7 kontaktieren können), die bei der Komplexität der Anforderungen heutiger Entwicklungen mit Rat und Tat zur Seite stehen, um Probleme zu beheben, Features zu implementieren oder die Performance zu verbessern.

Im Falle spezieller Features wie GameWorks oder jetzt RT(X) und DLSS dürfte nVidia statt der normalen handvoll von Entwicklern vermutlich gleich eine kleine Abteilung abstellen, um die Entwickler zu beraten und zu unterstützen. Für die Spieleentwickler ist das ja auch #neuland .
 
  • Gefällt mir
Reaktionen: indy1138 und xexex
Zurück
Oben