News Nvidia GeForce RTX: Neun weitere Spiele erhalten DLSS-Kantenglättung

Werden wir jetzt jeden dritten Tag etwas neues über NVIDIA erfahren? Ich kann es nicht mehr lesen! Es ist echt zum k***** wie CB bei dieser Werbekampangne von Nvidia mit macht.

Die NVIDIA RTX Karten sind ÜBERTEUERT ! Und ich würde mir mehr Kritik in der Hinsicht wünschen! Und nicht jeden Tag einen Lobgesang auf Nvidia.

Auf anderen Webseiten wird ausdrücklich davor gewarnt eine RTX Karte zu kaufen! Damit NVIDIA merkt wie gering die Nachfrage bei dem Preis ist! Aber hier liest man ja nur gutes !
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sebbi, Thraker, matraj63 und 4 andere
Marflowah schrieb:
Ich raffe immernoch nicht, was Kantenglättung mit Deep Learning zu tun haben soll. Entweder es wird vernünftig geglättet oder nicht. Was gibt es denn von einer KI denn da groß zu "lernen"?

Es hört sich einfach total geil an und die Fanboys springen drauf an! Hat AMD halt nicht ^^

Ganz ehrlich - Kantenglättung hat bei mir beim zocken noch keine Rolle gespielt, da lasse ich meist alles auf Standard. Und ich spiele schon auf WQHD. Allerdings macht das bei schnellen Shooter kaum Sinn, wo man lieber mehr auf fps achtet und diese braucht.

Die Wenigsten spielen 4K auf >30" wo sich das bei "langsamen" Bildwechseln bemerkbar macht.

Soll ja nicht bedeuten, das es unsinng ist, sondern es halt eine begrenzte Zahl Anwendungsfälle gibt. Die meisten Fanboys und MöchtegernProGamer spielen alle auf FullHD (alle = ~>80%).

@nebulus

iPhones sind auch überteuert, von Jahr zu Jahr immer mehr. Es gibt aber eine "eingeschworene Stammkundschaft", die bereit ist, diese Preise zu bezahlen, egal was geliefert wird.
 
  • Gefällt mir
Reaktionen: Thraker
Marflowah schrieb:
Ich raffe immernoch nicht, was Kantenglättung mit Deep Learning zu tun haben soll. Entweder es wird vernünftig geglättet oder nicht. Was gibt es denn von einer KI denn da groß zu "lernen"?

Die KI einheiten können quasi erahnen welche samples zum glätten der kannten benötigt werden. Grob gesagt. Das ist, wenn es wie gewünscht funktionier, wirklich eine klasse sache. Aber es hängt halt an der Unterstützung von Nvidia.
 
CastorTransport schrieb:
@nebulus
iPhones sind auch überteuert, von Jahr zu Jahr immer mehr. Es gibt aber eine "eingeschworene Stammkundschaft", die bereit ist, diese Preise zu bezahlen, egal was geliefert wird.

Das Problem ist nur, Nvidia ist der einzige Anbieter von High End Grafikkarten und macht 300% Gewinn pro verkaufter Einheit. Bei Handys gibt es mehrere Hersteller unter denen ich wählen kann im High-End Bereich.

Außerdem finde ich es unethisch, wenn eine Firma ein Produkt mit so hohen Gewinn verkauft! Aber die Käufer sind ja alle dumm und geben das Geld aus! Ich weiss nicht was schlimmer ist, der Drogenverkäufer oder der Konsument.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dimos
  • Gefällt mir
Reaktionen: Flo42
nebulus schrieb:
und macht 300% Gewinn pro verkaufter Einheit.
Das ist eine falsche Aussage. Man macht niemals x% Gewinn mit irgendeinem Produkt. Man hat eine Marge, und um die geht es. Der Gewinn ergibt sich dann aus der Marge abzüglich aller Kosten. Die 300% sind auch einfach mal willkürlich da reingesetzt nehm ich an? Oder weißt du, was die ECHTEN Herstellungskosten von Nvidia sind? Bei 1200Euro VK-Preis abzüglich Mwst wäre das enorm teuer in der Herstellung, wenn da "nur" 300% draufgeschlagen wären.
 
Darkscream schrieb:

Die Tensor- Cores sind zu erstaunlichen Dingen fähig (Gerade wenn es um Artefakte wie z.B. Aliasing, artificial supersampling oder Noise geht):
https://www.dpreview.com/news/0229957644/nvidia-researchers-ai-grain-noise-images-photos
Einfach mal das Video anschauen.

Die Tensor Core der 2080TI kommen da lt. nVidia auf 114 TFlops. Damit lässt sich einiges anfangen (deren Haupt- Cores kommen rechnerisch auf knapp 14 TFlops). Alles ungenutztes Potenzial...

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lalelu
rg88 schrieb:

Das lässt sich anhand des Börsenkurses ermitteln!
1536873379111.png


NVIDIA hat es geschafft das Eigenkapital von 2017 auf 2018 um 2Milliarden $ zu vergrößern. Und hat im gleichen Zeitraum Waren im Wert von 3,1 Milliarden (nach Steuern) verkauft. Das macht ein Verhältniss von 3 zu 2. Von 3$ hat es Nvidia geschafft, 2$ Gewinn zu machen!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lalelu
Moriendor schrieb:
So ein Quatsch. Die Entwicklerteams moderner AAA Spiele sind sogar im Gegenteil darauf ANGEWIESEN, dass Externe (von AMD und nVidia) ihnen helfen, das Spiel auf gängiger Hardware zum Laufen zu bekommen, Features zu implementieren und die Performance zu optimieren.

Seit vielen Jahren sind bei AAA Entwicklungen völlig unabhängig von speziellen Features wie GameWorks insbesondere in den letzten Monaten der Entwicklung ständig Mitarbeiter von AMD und nVidia vor Ort, um als Schnittstelle zur heimischen Treiberentwicklungsabteilung zu fungieren.

Wenn man sich zum Beispiel die 'Prey' Credits anschaut, dann sieht man, dass dort (IIRC) sieben Mitarbeiter von AMD separat erwähnt werden, die Arkane bei der Grafikprogrammierung unterstützt haben.
Auch so findet man in den Credits quasi jeden x-beliebigen Spiels eine Passage, wo AMD und/oder nVidia für ihren Support gedankt wird.

Es ist doch klar, dass die Entwickler dafür natürlich extrem dankbar sind. Für den ohnehin schon stark belasteten Graphics-/Engine-Programmierer ist es in der Regel unmöglich, alle Neuerungen stets auf dem Schirm zu haben. Die Leute haben neben ihrer normalen, sehr anspruchsvollen Arbeit kaum Zeit, sich fortzubilden oder sich dieses Wissen selbst anzueignen. Die sind auf die externe Hilfe absolut angewiesen.

Die sind froh, wenn sie dann gestandene Software Engineers von AMD oder nVidia neben sich sitzen haben (oder per remote support 24/7 kontaktieren können), die bei der Komplexität der Anforderungen heutiger Entwicklungen mit Rat und Tat zur Seite stehen, um Probleme zu beheben, Features zu implementieren oder die Performance zu verbessern.

Im Falle spezieller Features wie GameWorks oder jetzt RT(X) und DLSS dürfte nVidia statt der normalen handvoll von Entwicklern vermutlich gleich eine kleine Abteilung abstellen, um die Entwickler zu beraten und zu unterstützen. Für die Spieleentwickler ist das ja auch #neuland .

Nein, idR. sind die Leute über Externe nicht umbedingt dankbar, aber wie gesagt bei Sponsoren wird das eben geduldet. Aber es ist unschön Code in einem Projekt zu haben von jemandem der nicht mehr da ist und ihn in einem Wartungsfall fragen zu können. Abgesehen davon, dass Render-Backends über mehrere Spiele wiederverwendet werden, die Engine wird verbessert aber nicht jedes mal neu gemacht.



Das ist genau das was du in der Softwareindustrie im Allgemeinen vermeiden willst.

Gameworks-Code zu integrieren ist übrigens sehr einfach nachdem man sich einfach aus der Gameworks-Lib einen eigenen RenderContext zieht und auf dem rendert.

https://docs.nvidia.com/gameworks/content/gameworkslibrary/visualfx/hbao/product.html

Das ist nicht so kompliziert und an Gameworks wird auch nicht rumoptimiert.

Die meisten Optimierungen die von Grafikherstellern kommen sind wie gesagt Shadetoptimierungen. Am eigentlichen Render-Backend wird da nicht so viel gedreht.

Ich weiß nicht ob du schonmal in nem größeren Softwareprojekt mit Code von Externen Entwicklern arbeiten musstest die du nicht mehr fragen konntest was sie da getrieben haben.

Mal aus Erfahrung: Ist ne scheiß Situation und kostet nen Arsch voll Zeit. Die Mitarbeiter die Nvidia und AMD zu den Studios schickt haben meistens eher (nicht ausschließlich) beratende Rollen oder geben Schulungen über Features. Du weißt, dass man in jeder Software-Firma die anständig arbeitet neues Personal erstmal einlernen muss? Dass ist zeitintensiv und umständlich. Es gibt Coding-Guidlines, Firmen-Best-Practices, in der Spieleindustrie dann noch Eigenheiten der Engine. Ein AMD/Nvidia-Entwickler hat doch keine Ahnung von der Frostbyte-Engine oder den Id-Tech Coding-Style-Guides. An den APIs drehen die schonmal garnicht und für Gameworks brauchst du auch keine Hilfe, das könnte ein Azubi im ersten Lehrjahr einbauen.

So wie du dir das vorstellst funktioniert die Software-Industrie einfach nicht.

Einen neuen nur für's Render-Backend einzulernen lohnt sich nicht wenn der nach 3 Monaten wieder geht und AMD und Nvidia haben garnicht genug Leute, dass senen ihre Entwickler das GANZE Projekt mitbetreuen könnten. Ein Spiel zu bauen dauert halt oft mal 1-X Jahre und gerade bei Reihen beginnen die Entwicklungen von Teil X sogar schon zum Ende der Entwicklung des Vorgängers. Sonst ginge sowas wie das Jährliche Assasins Creed Teilweise garnicht.
 
Zuletzt bearbeitet:
Marflowah schrieb:
Ich raffe immernoch nicht, was Kantenglättung mit Deep Learning zu tun haben soll. Entweder es wird vernünftig geglättet oder nicht. Was gibt es denn von einer KI denn da groß zu "lernen"?
Die Idee dahinter ist ganz grob folgende:

* Ein Spiel mit einem sehr gutem Antialiasing läuft nur noch halb so schnell -> minus 50% FPS
* Alternativ kann man PostProcessing Antialiasing nutzen. Das Spiel läuft dann nur noch 10% langsamer, sieht aber komplett verschmiert aus.

Bei DeepLearning, zeigt man einer künstlichen Intelligenz jetzt 100.000 verschiedene Bilder ohne Antialiasing. Danach zeigt man ihr die gleichen 100.000 Bilder mit sehr gutem Antialiasing (was eigentlich -50% bedeutet). Die künstliche Intelligenz lernt dann, was sie an einem Bild ohne Antialiasing verändern müsste (per PostProcessing), damit es genau so gut aussieht, wie ein Bild mit sehr gutem Antialiasing.

Diesen gelernten Algorithmus, speichert man nun ab und gibt sie dem Spiel/Treiber mit. Danach kann eine RTX dann ein Spiel komplett ohne Antialiasing berechnen (100% Geschwindigkeit), es wird aber "kostenlos" (natürlich hat man vorher 20% der gesamten Chipfläche dafür verbraten), sehr gut geglättet.

In dem man den Chip dann 25% größer gebaut hat, ist die Karte in der Lage, sehr gutes Antialiasing zu liefern, wofür z.B. eine AMD-Karte 100% schneller sein müsste.
 
  • Gefällt mir
Reaktionen: Marflowah, Flo42, ZeusTheGod und 4 andere
"Eine weitere technische Neuerung bei Nvidia Turing ist Raytracing. Hier hat Nvidia bisher elf Titel angekündigt. Zum Start der Grafikkarten-Serie wird aber nach aktuellem Stand keines bereits so weit sein."

Macht natürlich Sinn :freaky:
 
Ist genau so wie mit dem Huhn und dem Ei ;)
Ergänzung ()

nebulus schrieb:
Das lässt sich anhand des Börsenkurses ermitteln!
Falsch!! An der Börse kann ich auch aus nichts Geld machen wenn die Leute daran glauben.... und auch gleich wieder verlieren. Das hat mit dem Gewinn eines Unternehmens gar nichts zu tun.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rg88 und anexX
nebulus schrieb:
NVIDIA hat es geschafft das Eigenkapital von 2017 auf 2018 um 2Milliarden $ zu vergrößern. Und hat im gleichen Zeitraum Waren im Wert von 3,1 Milliarden (nach Steuern) verkauft. Das macht ein Verhältniss von 3 zu 2. Von 3$ hat es Nvidia geschafft, 2$ Gewinn zu machen!
Sorry, aber du hast nicht im Geringsten eine Ahnung wie man eine Bilanz liest, geschweige denn davon, was die Kennzahlen überhaupt bedeuten :D
 
Bin echt gespannt was DLSS wirklich kann. Andere post processing AA Modi haben das Bild ja eher verschlechtert. Für mich gibt es im Game nichts nervigeres als Treppeneffekte und Kantenflimmern. V.a. bei Shootern nervt mich das. Dann lieber 90 statt 130 fps.
Vielleicht ist es nicht nur Marketinggeschwätz und es funktioniert. Die Hoffnung stirbt zuletzt, auch wer es mir egal sein kann... bei den Preisen.
 
Bei 4K muss man aber die Kantenglättung/Antialiasing deaktivieren, sonst sieht alles unscharf aus.

Die meisten haben selbstverständlich auf mehr Leistung/Fps gewartet und nicht auf irgendwelche Effekte
welche man wie bei Dx12 nicht mal sieht.
 
timboboy123 schrieb:
So wie du dir das vorstellst funktioniert die Software-Industrie einfach nicht.

Ich denke eher, dass Du über völlig antiquierte Vorstellungen verfügst. Die Zeiten, in denen Entwickler sich in der Garage eingeschlossen, nicht geduscht und für Jahre jeglichen Kontakt mit Sonnenlicht, Außenwelt und Mitmenschen gemieden haben, sind lange vorbei.

In der modernen Softwareentwicklung ist Teamfähigkeit gefragt. Die soft skills sind extrem wichtig. Die Komplexität und die Anforderungen machen es absolut notwendig, dass man sich neben Middleware auch Know-How (consulting) und onsite hands-on development support einkauft.

Nochmals: Schau Dir einfach die Credits eines x-beliebigen AAA Titels an. Unzählige Firmen tragen zum Gesamtergebnis per Middleware oder "additional engineering" bei.
AMD und nVidia spielen natürlich eine gewichtige Rolle. Die Spieleentwickler sind darauf angewiesen, dass ihr Spiel mit aktueller Hardware und Software (Treiber usw.) der Grafikkartenhersteller harmoniert.

Das können die Spieleentwickler gar nicht selbst leisten. Die brauchen die software engineers von AMD und nVidia vor Ort in der täglichen Arbeit, um das auf die Kette zu bekommen. Oder warum sonst nehmen die diesen Support wohl gerne in Anspruch? Es gibt ja keine Pflicht dazu, aber die großen Entwickler, die es sich leisten können (AAA-Budget) machen es quasi alle.

Was Prey angeht, hatte ich mich übrigens falsch erinnert. Es waren nicht sieben Entwickler von AMD, sondern nur zwei, aber dafür acht von nVidia (siehe hier).
Das fällt unter "additional engineering". Man beachte übrigens wie viele Firmen hier per "additional engineering" beteiligt waren. Bei den ganzen Einträgen in den Credits könnte man fast meinen, das Projekt wäre mehr von Externen als von Arkane selbst gestemmt worden ;) .

Einen neuen nur für's Render-Backend einzulernen lohnt sich nicht wenn der nach 3 Monaten wieder geht und AMD und Nvidia haben garnicht genug Leute, dass senen ihre Entwickler das GANZE Projekt mitbetreuen könnten.

Wer redet(e) vom "ganzen Projekt"? Ich sicherlich nicht. Ich habe auch ausdrücklich vor allem von der Schnittstelle von AMD und nVidia Entwicklern zur heimischen Treiberabteilung gesprochen.
In den letzten Monaten sind -falls vom Entwickler erwünscht- von beiden Herstellern normal AMD und nVidia Entwickler vor Ort, die da mit Rat und Tat zur Seite stehen.

Darüber hinaus kann es natürlich noch intensiveren Support geben, z.B. für GameWorks usw.
Das unterliegt vertraglichen Absprachen. Die Entwickler würden solchen Support sicher nicht "buchen" bzw. in Anspruch nehmen, wenn das ein ach-so großer Störfaktor wäre.

Es ist definitiv auch kein Störfaktor, sondern Arbeitserleichterung. Während sich der z.B. nVidia Ingenieur damit rumschlägt, einen speziellen Shadereffekt auf Pascal mit aktuellen Treibern lauffähig zu bekommen, kann der Spieleentwickler sich um andere Baustellen kümmern.

Du glaubst doch nicht ernsthaft, dass das so funktioniert wie von Dir beschrieben, dass der Spieleentwickler einfach die GameWorks Library nimmt und in sein Projekt "einstöpselt".
Das ist eine reichlich weltfremde Vorstellung. Ohne Anpassungen und Extraarbeit wird man GameWorks niemals einfach so integrieren können.

Das wird in der Regel mit keiner Middleware funktionieren. Die Middleware als Tool kann Arbeit erleichtern, Arbeitsaufwand verringern, aber einfach so... *plop*... läuft, wird so gut wie nie funktionieren. Ein gewisser Aufwand für Integration in eigene Prozesse und Entwicklungen wird immer vonnöten sein.

Und woher willst Du wissen, ob AMD (ca. 9000 Angestellte) oder nVidia (immerhin knapp 12000 Angestellte!) nicht genug Leute haben? Bitte mit Quellenangabe. Nochmals: Man muss nur die Credits moderner AAA Games anschauen und dann springen einem die Namen der von AMD und nVidia abgestellten Entwickler ins Gesicht.

Bei nVidia hält sich übrigens das Software- zu Hardware-Engineer Verhältnis mit ca. 50% zu 50% die Waage (hier auf Seite 58). Die haben also tausende von Software-Entwicklern (viele natürlich auch in den Nicht-Gaming-Bereichen). Der Gaming-Support, inklusive onsite support, wird hier auf der nVidia Seite auch näher beschrieben...

Our support for game developers on PC, Android, Console and VR platforms includes sample code and tools, in addition to documentation and training. We offer tools and authoring frameworks that allow developers to create and run complex physical simulations in an intuitive and flexible manner. We also work directly with game teams to help them sustainably and creatively optimize their inventions.
 
  • Gefällt mir
Reaktionen: indy1138 und lalelu
DLSS könnte noch viel bahnberechender und vor allem leichter durchzusetzen sein als Raytracing.
Ein neuronales Netz mit x hundertausend "perfekten" Frames zu jedem Spiel in 8-16k Downsampling vorsetzen während dann das Netz versucht die Differenzen zwischen perfekten Referenzframe und FHD/4k Frame zu ermitteln. Wenn das dann erledigt ist kann DLSS mit dem neuronalen Netz (wenige MB groß per Spiel) lokal von den Tensorkernen angewendet werden.

Ergebniss:
Statt das ganze "Bild" aus mehreren Richtungen (bzw. Temporalaspekt) zu glätten, erkennt das neuronale Netz exakt die Kanten die flimmern und glättet nur diese (Bäume, Zäune diagonale Pixeltreppen mit Kontrast aller Art). Der Geschwindigkeitsgewinn gegen komplett mit AA gesampelte Frames dürfte gigantisch und quasi ohne Leistungsverlust (abzüglich TDP) sein.

Auf Youtube gibt es genügend Videomaterial die einem die Theamtik allgemein näher bringen. Dann merkt man das da viel Potential ist. Wir sind längst von unzähligen neuronalen Netzen umlagert. Auch die von Youtube vorgeschlagenen Videos basieren darauf (Zielstellung: den User möglichst lange auf Youtube begeistern).

Ich erwarte nach einigen Kinderkrankheiten da wirklich sehr großes, das Raytracing dagegen ist meiner Meinung noch schwer zu handhaben, vieleicht fallen den Entwicklern nach und nach noch Ideen ein die Rechenlast weiter zu senken.
 
Zuletzt bearbeitet:
SavageSkull schrieb:
Ich bin gespannt wie sich die Technik entwickelt.
für VR braucht man derzeit Downsampling für gute Grafik und eine performantere Lösung wäre super.

Bei VR muss man noch vieles ändern, bei eine richtige VR mit Laufband müssten sehr viele kotzen,
weil der Gehirn die VR als eine Vergiftung/Drogen wahrnimmt :)
 
Zurück
Oben