Notiz Deep Learning Super Sampling: Unreal Engine 4 unterstützt Nvidia DLSS jetzt nativ

Kommt darauf an wie man älter definiert. In ACC zB wäre das Mega.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Mcr-King, cbtaste420 und Krautmaster
Mir wäre eigentlich am liebsten wenn es DLSS endlich als natives AA geben würde, oder vergleichbar. DLSS in ultra Quali, ähnliche Performance wie native aber eben wieder downscaled für super AA bei wenig Performance Einbußen.

Irgendwas universelles was bei alten Strategie oder Anno Titeln zb gutes AA bedeuten würde wäre auch was feines.
 
  • Gefällt mir
Reaktionen: OZZHI
Krautmaster schrieb:
Irgendwas universelles was bei alten Strategie oder Anno Titeln zb gutes AA bedeuten würde wäre auch was feines.
Da scheitert es doch am Ende immer an der CPU Leistung. Da sollte eher KI basierte Zwischenbildberechnung eingesetzt werden.
 
MMIX schrieb:
Das ist zurecht für Nvidia fast ein Glücksgriff und das muss man klar anerkennen. Wer eine Generation voraus ist, das Thema Raytracing und KI Upscalling so pusht, hat es nicht anders verdient. Jetzt wird es für AMD umso schwerer, erst muss Fidelity FX Super Sampling überhaupt mal Fuß fassen, von einer nativen Engine Unterstützung sind wir da weit von entfernt. Von daher hat Nvidia das sich erarbeitet und verdient. Respekt und gut gemacht! Die Zukunft wird spannend bleiben!
Das hatte rein gar nichts mit Glueck zu tun. Das hat sich nVidia wie immer schoen erkauft.
 
  • Gefällt mir
Reaktionen: eXe777 und m4c1990
Hoffentlich werden weitere große Engines folgen und auch das ein oder andere ältere Spiel nachträglich mit DLSS versorgt. Cyberpunk hab ich mit DLSS Quality gespielt, COD:Cold War hab ich sogar auf Performance laufen im Multiplayer, weil mir da die grafischen Abstriche recht egal sind, Hauptsache konstant viel fps.
 
  • Gefällt mir
Reaktionen: Klever
thepusher90 schrieb:
Das hatte rein gar nichts mit Glueck zu tun. Das hat sich nVidia wie immer schoen erkauft.
Eigentlich hängt es mehr mit rechtzeitiger und durchdachter Innovation und Forschung im Bereich von KI und Raytracing zusammen in Verbindung mit physikalischen Berechnungen auf den von Nvidia entwickelten Tensor-Kernen, die schon im professionellen Bereich vor Turing in den Volta-Karten zum Einsatz kamen. Wo AMD mWn da vergleichbar weder mit eigenen Entwicklerbüros geforscht oder in vergleichbare Forschung investiert hat.

Deswegen kann ich so eine Behauptung nicht nachvollziehen, auch meiner Meinung nach sollte man gute Innovation von einem Hersteller, in dem Fall Nvidia die zum spürbaren Fortschritt führt da anerkennen. DLSS ist dabei auch ein überaus nützliches Feature für die Anwender.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MP X10L, Serinox, adAstra und 11 andere
  • Gefällt mir
Reaktionen: USB-Kabeljau, MoinWoll, Kryss und 9 andere
Es ist doch egal, woher bzw. von wem es kommt.

Es ist der zukünftige Weg, wie diesem unsäglich ineffizienten Brute- Force- Rasterizing bei hohen und höchsten Auflösungen das Handwerk gelegt werden kann.

Es ist doch albern, dass nach jedem Clearscreen/Frame jedes Pixel neu berechnet werden muss, wenn eine KI die Pixelpositionen immer treffsicherer für eine weitergehende Nutzung bestimmt.

Bereits jetzt liefert DLSS ja ordentlich ab. Und eins ist sicher- Mit fortschreitendem Training der KI kann es nur immer noch besser, fehlerfreier werden... Insofern ist das der "way to go".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Teeschlürfer, empsim, Bright0001 und 11 andere
foo_1337 schrieb:
Nvidia hat sich überhaupt nichts erkauft. Zudem haben sie Microsoft das Model zur Verfügung gestellt. MS hat das dann via DirectML implementiert: https://on-demand.gputechconf.com/s...-gpu-inferencing-directml-and-directx-12.html Ab ca Minute 16 sieht man das bei Forza Horizon 3 in Aktion.
Als ob das in die UE4 eingeflossen waere wenn nicht Geld bei Epic von nVidia gelandet waere...
Ergänzung ()

Klever schrieb:
Deswegen kann ich so eine Behauptung nicht nachvollziehen, auch meiner Meinung nach sollte man gute Innovation von einem Hersteller, in dem Fall Nvidia die zum spürbaren Fortschritt führt da anerkennen. DLSS ist dabei auch ein überaus nützliches Feature für die Anwender.
Kann man natuerlich anerkennen...ist aber kein Glueck gewesen. War reines Kalkuel und gute monetaere investitionen in Entwickler die das dann implementiert haben.
 
thepusher90 schrieb:
Als ob das in die UE4 eingeflossen waere wenn nicht Geld bei Epic von nVidia gelandet waere...
Es war erst ein eigener von nvidia gepflegter Branch und jetzt ist es lediglich noch ein Plugin.

Wieso sollte man dafür Geld an Epic zahlen? Die freuen sich doch, wenn die Hersteller ihre Karten und Technologien kostenfrei in die Engine integrieren...

Beide Seiten profitieren.
 
  • Gefällt mir
Reaktionen: Bright0001, Col.Maybourne, foo_1337 und 2 andere
MMIX schrieb:
Das ist zurecht für Nvidia fast ein Glücksgriff und das muss man klar anerkennen.

nvidia hat sich schon vor jahren bei epic eingekauft und die unreal engine ist die "hausengine" von nvidia. ich sehe weder einen glücksgriff noch irgeneinen grund für anerkennung. dass das so kommt war so sicher wie das amen in der kirche.
 
  • Gefällt mir
Reaktionen: eXe777 und bad_sign
thepusher90 schrieb:
Kann man natuerlich anerkennen...ist aber kein Glueck gewesen. War reines Kalkuel und gute monetaere investitionen in Entwickler die das dann implementiert haben.
Wie gesagt sehe ich da keinen Anlass für so eine Sichtweise die eine vollkommen normale Entwicklung und Forschung plötzlich als etwas negatives darstellen soll.

Erstens lässt es außer Acht dass KI Forschung bei Nvidia schon seit Anfang vorigen Jahrzehnts betrieben wird, 2015 kam der erste KI-Chip für den professionellen Einsatz auf den Markt, entwickelt von Nvidia, die anderen Herstellern dabei um Jahre voraus waren. Dabei schließt es viele andere Hersteller als AMD mit ein wie z.B. HP die selber an KI und Deep Learning Systemen forschen und arbeiten.

Seitdem ist der Vorsprung von Nvidia größer geworden, nachdem sie umgesetzte KI-Systeme nicht nur im professionellen Bereich an Universitäten oder Forschungseinrichtungen für wissenschaftliche Berechnungen anbieten, sondern auch mit KI umgesetzte Features auf ihren Consumer Grafikkarten welche sie kontinuierlich weiterentwickeln. Was zusätzlich für eine für den Anwender vorteilhafte Implementierung und Verbesserung sorgt.

Zweitens hat AMD in der Vergangenheit genauso wie Nvidia oder andere Hardwarehersteller zu bestimmten Zeitpunkten entweder investiert oder bestimmte Unternehmen übernommen. So ist die gesamte Grafiksparte von AMD dazugekauft, die den Grafikchip und Chipsatzentwickler ATi für 5.4 Milliarden Dollar in 2006 aufgekauft haben. Warum mich das jetzt bei AMD oder ihren Grafikkarten stören sollte, erschließt sich mir dabei nicht, was aber nichts an der Tatsache ändert dass sie bei der KI und DXR Entwicklung hinter Nvidia um Jahre zurückfallen weil letztere mit der innovativen Implementierung neuer auf KI basierten Deep Learning Systemen viel früher als andere angefangen haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra, USB-Kabeljau, Lemiiker und eine weitere Person
duskstalker schrieb:
nvidia hat sich schon vor jahren bei epic eingekauft und die unreal engine ist die "hausengine" von nvidia. ich sehe weder einen glücksgriff noch irgeneinen grund für anerkennung. dass das so kommt war so sicher wie das amen in der kirche.
Deswegen hat man auch die UE 5 auf einer PS5 vorgestellt und vermarktet weil da Nvida...ups...AMD Chips drin stecken.^^
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, Bornemaschine, Klever und eine weitere Person
  • Gefällt mir
Reaktionen: eXe777
Wie ich da einfach keinen Unterschied sehe...
 
duskstalker schrieb:
Sweeney hat schon, als er die Unreal Engine geschrieben und veröffentlicht hat, Glide (3dfx) bevorzugt und über OpenGL und D3D hergezogen. Sicher wurde er auch von 3dfx damals dafür bezahlt..... Bevor man Dinge behauptet, sollte man die Historie kennen. Und ATI hat sich damals einfach einen scheiss für diverse Studios (außer natürlich id) interessiert, weswegen man auch schon zu UE3 Zeiten mit Nvidia gepartnet hat. Vielleciht auch schon bei der UE2, müsste ich aber nachrecherchieren.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Bornemaschine
Tolle Neuigkeiten, auch wenn es mir aktuell nichts nützt :)

Gebsu das ist der richtige Weg und wird die Verbreitung ordentlich steigern. Genau der richtige Weg!
 
Nvidia hat im Softwarebereich einfach deutlich bessere Entwickler und mehr Budget. Das war schon so als AMD noch ATI waren.

Was die Unreal Engine angeht: Diese will man ja verkaufen und da ist nativer DLSS Support vor allem bei den kleineren Spielen ein großes Thema. Damit kann man deutlich mehr Effekte bieten selbst bei schwächeren Karten wie die 2060.
 
  • Gefällt mir
Reaktionen: foo_1337
Faust II schrieb:
Wie ich da einfach keinen Unterschied sehe...
Besser kann es ja auch fast nicht laufen. Kein Unterschied in der Bildqualität, dafür aber ein ordentliches Plus an Performance.
 
  • Gefällt mir
Reaktionen: Xidus und Recharging
DLSS ist halt das Killerfeature welches jegliche Diskussionen über 0-10% mehr oder weniger FPS zwischen Graka x und y der letzten Jahre ad absurdum führt.

Nvidia hat nur 2 Probleme, es in mehr Spiele zu bringen und vorallem den Leuten die Technologie zu erklären.

Jedes Mal wenn sie einen DLSS Beitrag auf ihren Socials posten antworten etliche User „was für ein scheiß da sieht man ja null Unterschied, was soll das?“ .... und das sind ihre Fans die ihnen folgen.

Fragt mal einen Mediamarkt Käufer eines RTX Notebooks ob er weis was DLSS ist....oder nein fragt mal den Verkäufer.
Beide werdens nicht wissen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: empsim, ChrissKrass, Klever und 5 andere
Zurück
Oben