Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NotizNvidia: Unity-Engine erhält dieses Jahr DLSS „Out of the box“
Die Unreal Engine 4 hat es vorgemacht und nun soll im Laufe dieses Jahres die Unity-Engine folgen. Die Rede ist von Nvidias DLSS, das nativ Einzug erhalten wird. Wann genau dies so weit sein wird, ist unklar, der Wortlaut „noch vor Ende des Jahres 2021“ lässt aber vermuten, dass die Integration noch einige Monate dauern wird.
Gibts da Infos zu wie das funktioniert? Müssen die Spiele nicht mehr wie zuvor in 16K oder what ever auf servern gerndert werden um den Algorithmus zu trainieren?
Ich hoffe vielmehr, dass es eine systemübergreifende Lösung geben wird.
So wie jetzt ist man auf PC und Nvidia beschränkt. Konsolen sind völlig außen vor. Auf breiter Front wird die Technik es schwer haben, sich durchzusetzen.
DLSS die größte Seuche der Neuzeit. Wer meint man sieht da keinen Unterschied hat Tomaten auf den Augen. Wenn man vielleicht Motionblur, DoF und Co nicht ausschaltet, dann sieht man vielleicht keinen Unterschied. Wenn man aber ein knackiges Bild haben möchte, dann sieht man definitiv einen. High Polygon Models, High Res Texturen sind mit nichts zu ersetzten und dennoch wird genau hier geknausert. Hauptsache Blend und Bling Effekte können die Grafik "verbessern". Für mein Geschmack eindeutig der falsche Schritt.
Deaktiviert mal bitte alle Post Processing Effekte und dann vergleicht mal entfernte Objekte mit und ohne DLSS. Auch bei DLSS 2.0 sieht man einen unterschied. Upscaling ist immer Mist, heute gab es nur ein tolles Marketing Namen oben drauf und alle feiern es.
Habe diverse Spiele auf 3440x1440 in DLSS gespielt und immer sah es deutlich schlechter aus. Entweder in 21:9 nicht zugebrauchen und das funktioniert nur sauber in 16:9 oder das Feature ist Mist und nur ein Blendwerk.
@shoKuu
Warum Seuche? Oder wird man dazu gezwungen es zu benutzen?
Welche Spiele hast du denn mit DLSS 2.0 gespielt? Es gibt ja wirklich gute Implementierungen, die dementsprechend nicht zu unterscheiden sind.
Also Raytracing als Blend und Bling Effekte zu bezeichnen ist genauso "Tomaten auf den Augen".
Bevor ich darauf verzichte, lebe ich mit kleinen Nachteilen.
Streitet wohl auch niemand ab, dass die Qualität trotzdem schlechter ist. Ich denke aber vor allem Grafikkarten für die Masse, wie z.B. eine RTX 2060 oder künftige RTX 3050/Ti werden davon sehr viel profitieren. Und wenn man sowas kauft, ist man auch meist bereit, Einschränkungen in der Qualität in Kauf zu nehmen. Das verlängert ja auch ungemein die Lebensdauer der GPU.
Ich glaube, diese Spiele haben auf den meisten Konfigurationen kein Problem mit
der Performance , aber vielleicht geht bessere Optik durch höheren Schärfegrad.
Zu dumm, dass ich noch eine der wenigen Turing Karten ohne RT Cores hab
Kann sowas nicht grundsätzlich (rein theoretisch) auch die CPU handeln? Also nicht das
proprietäre Nvidia DLSS , sondern die Technik an sich, vorausgesetzt die CPU hat die Power?
Was ist RT denn sonst? Vorallem angesichts des Leistungsverlustes?
Dafür bis zu 70% FPS opfern und deshalb die Auflösung massiv runterzudrehen oder Texturen und Co. Richtung Minimum zu stellen ist für mich ziemlich albern. Ich bevorzuge auch hochaufgelöste, scharfe Details ggü. irgendwelchen überbordenden Effekten. Wenn RT nur minimal Leistung kosten würde, könnte man es mitnehmen, aber aktuell ist das für mich nicht nachvollziehbar, dafür die eigentliche Bildqualität zu opfern. DLSS 2.0 mitigiert die negativen Effekte zwar schon stark, ist aber eben auch nicht perfekt. Eine brauchbare Notlösung wenn es nicht anders geht, aber mehr auch nicht. Wenn DLSS und AMDs hoffentlich bald mal kommendes Pendant es schaffen den Qualitätsverlust wirklich extrem nahe an "nicht sichbar" zu bringen, wäre das super und eine tolle Sache. DLSS 2.0 hat einen großen Schritt gemacht, ist von diesem Ziel aber auch im Optimalfall noch deutlich entfernt.
DLSS die größte Seuche der Neuzeit. Wer meint man sieht da keinen Unterschied hat Tomaten auf den Augen. Wenn man vielleicht Motionblur, DoF und Co nicht ausschaltet, dann sieht man vielleicht keinen Unterschied.
Die große Seuchenflut begann schon viel früher, und zwar mit den ganzen blurry Post AA Modi. Die neue Generation an Zockern weiß heutzutage schon gar nicht mehr, wie ein scharfes Bild aussieht. Und wenn es dann zu weichgespült wird, gibt es dafür natürlich auch gleich eine Lösung. Ein Image Sharpener, also noch ein "Bildverbesserer".
DLSS nutze ich aktuell in Control und Qutriders in der qualitativ besten Stufe. Bei beiden Spiele fällt es mir persönlich nicht negativ auf und erfreue mich über ca. 30% mehr FPS.
Bei einer Auflösung von 3840 x 1600 merke ich keine Nachteile. Muss aber auch klar sagen, hätte ich je nach Spiel (Shooter, RPG,...) auch ohne DLSS die mind. FPS welche für mich optimal wäre, dann würde ich auch darauf verzichten.
super Idee, da es nur mit Nvidia-Karten funktioniert
Ergänzung ()
Excel schrieb:
Ich hoffe vielmehr, dass es eine systemübergreifende Lösung geben wird.
So wie jetzt ist man auf PC und Nvidia beschränkt. Konsolen sind völlig außen vor. Aus breiter Front wird die Technik es schwer haben, sich durchzusetzen.
DLSS die größte Seuche der Neuzeit. Wer meint man sieht da keinen Unterschied hat Tomaten auf den Augen. Wenn man vielleicht Motionblur, DoF und Co nicht ausschaltet, dann sieht man vielleicht keinen Unterschied.
Das ist halt vollkommen belanglos wenn man die Mehrleistung außer acht lässt.
Allein dass DLSS auf kleinere Unterschiede bei der BQ reduziert wird, wie zB von dir, spricht eigentlich eher dafür als dagegen. Viel mehr FPS für hier und da etwas weniger Quali, unterm Strich aber wesentlich mehr Quali als wenn man über den klassischen Weg auf dieselbe Performance kommen will.
Ich frage mich eher wo AMDs Lösung bleibt.
Ergänzung ()
DrFreaK666 schrieb:
super Idee, da es nur mit Nvidia-Karten funktioniert
Klar ist es ne super Idee auch wenns nur bei Nvidia aktuell rennt.
Steht AMD frei ja die eigene Lösung zu präsentieren aber dennoch gönnt man doch jedem Käufer dass er seine Karte gut einsetzen kann.
DLSS die größte Seuche der Neuzeit. Wer meint man sieht da keinen Unterschied hat Tomaten auf den Augen. Wenn man vielleicht Motionblur, DoF und Co nicht ausschaltet, dann sieht man vielleicht keinen Unterschied.
Gut zu wissen...dann bin ich doch nicht so in freudiger Erwartung irgendwann mal eine nVidia GPU zu normalen Preisen kaufen zu koennen. Denn Post Processing kommt bei mir immer komplett aus. Ich gehe sogar so weit, dass ich Ambient Occlusion ausschalte weil es in Verbindung mit Screen Space Effekten oftmals Halos erzeugt, sowohl schwarz, weiss, als auch transparent, je nach Hintergrund (Siehe Witcher 3). Das finde ich Immersionsbrechend. Ich wuerde gerne Ambient Occlusion anlassen, aber in 95% der Games kann man Screen Space Effekte nicht abschalten. Und die empfinde ich erst recht als Seuche. Screen Space Reflections sind einfach nur grottig schlecht...die Reflektion die mit dem Kamerawinkel wandert...is klar...
Ein Grund mehr vielleicht doch auf AMD zu schielen. Aber wer weiss...vielleicht haben wir bis zum Ende der Krise sogar potente Intel GPUs.