Rechtfertigt DLSS die Bevorzugung einer RTX 30xx vor einer RX 6xxx ?

19chris80

Cadet 4th Year
Registriert
Dez. 2007
Beiträge
85
Hallo,

ich denke die ganze Zeit darüber nach mir nach langer Zeit (gtx 1060 6 gb :freak:) eine neue Karte zum zocken zu holen und von 1080 P auf QHD umzusteigen. Nachdem ich die Benchmarks gesehen habe war ich Anfangs doch sehr auf eine AMD Karte festgelegt. Dann habe ich mich etwas in Raytracing und DLSS eingelesen und mir mal angeschaut wie krass sich DLSS in einigen Spielen in denen DLSS denn vorhanden ist auf die FPS auswirkt.
Bin ziemlich begeistert von dieser Technologie. Aber davon abgesehen würde ich rein von der Preis-Leistung zu einer AMD greifen.

Wie wird das denn hier das Thema DLSS und Raytracing allgemein gesehen ? Bin total raus aus dem Thema, habe mich jahrelang nicht damit beschäftigt.

 
Würde mich auch interessieren
 
Also im Moment ist das noch so. Das soll sich aber in Zukunft ändern. Nvidia hat da lediglich einen Vorsprung der aber immer weiter schmelzen wird.
Durch DLSS können, vom Spiel abhängig, schon mal Steigerungen bis zu 50% oder vielleicht noch etwas mehr drin sein. Deswegen hat man ja zum Release der 3090 gesagt das sie doppelt so schnell sein kann, wie eine 2080ti.
 
Tramizu schrieb:
Durch DLSS können, vom Spiel abhängig, schon mal Steigerungen bis zu 50% oder vielleicht noch etwas mehr drin sein.

Und damit auch die "Lebensdauer" im Sinne von Spielbarkeit kommender Grafikkracher einer Karte erhöhen oder ?

Das Video hier fand ich so beeindruckend.
 
Raytracing ist genauso wie vernünftiges 4k gaming Schnee von übermorgen.
Wegen den paar Spielen die das unterstützen und dem meist kaum sichtbaren visuellen mehrwert würde ich
da aktuell beim Kauf keinen großen Wert drauf legen.
World of Warcraft mit Ray Tracing sieht immernoch scheisse aus.
 
  • Gefällt mir
Reaktionen: Harpener, Toprallog und wolve666
Wegen RT nicht. Da ist klar, dass es sehr Rechenintensiv ist. Und daran wird sich auch nicht viel ändern. Klar die Programmierer der Spiele lernen auch dazu. So war vor zwei Jahren bei FHD kaum mit der RTX 2080ti Battlefield spielbar, wenn RT aktiviert war. Aber auch das hat sich schon deutlich verbessert.
Bei DLSS ist es aber genau das Gegenteil. Das macht ohne Qualitätsverlust die Spiele schneller. Egal welche Auflösung.
 
  • Gefällt mir
Reaktionen: captain kirk
Für mich eindeutig und der Grund wieso ich dann doch zur 3080 greife anstelle der 6800xt.

DLSS ist die Zukunft.

jede Wette, dass in 5-10 Jahren jedes Spiel mit Auflösung XYZ berechnet wird und auf dem Monitor dann 4K, 8K oder mehr ausgegeben wird.

Die Zeiten von immer mehr Rohleistung neigen sich langsam dem Ende.

jetzt stellt euch mal vor der M1 von Apple könnte DLSS ... mind blown.
 
  • Gefällt mir
Reaktionen: captain kirk und darkspark
Das ist ja gerade einmal die zweite DLSS Iteration. Es wird mit weiterer Forschung besser. Heute ist es aber bereits sehr gut, daher würde ich nicht darauf verzichten wollen, denn verschwinden wird es sicher nicht. Mittelfristig durch einen offenen Standard ersetzt, aber auch der wird dann auf nvidia Karten laufen.
 
  • Gefällt mir
Reaktionen: captain kirk
RT würde ich in einen Satz mit Hairworks und Physx (oder wie das hieß, in BL2 kam es zum Einsatz) nennen. Früher oder später eher Nebensache. DLSS ist das killer Feature schlecht Hin aktuell aber amd arbeitet ja schon am Pendant. Wie gut dieser arbeitet bestimmt den Erfolg der Technologie.

Falls du viel streams Inhome zB mit steam Inhome oder auch andere Programme, da ist nvididia mit nvec einfach auch noch Welten weiter vorn
 
Naesh schrieb:
jetzt stellt euch mal vor der M1 von Apple könnte DLSS ... mind blown.
Nvidia und Arm wird es zuerst auf die Switch HD auf dann auf die Smartphones bringen. Die werden 4k ausgeben und dabei 5W verbrauchen.
Ergänzung ()

zakuma schrieb:
RT würde ich in einen Satz mit Hairworks und Physx (oder wie das hieß, in BL2 kam es zum Einsatz) nennen. Früher oder später eher Nebensache.
RT verkürzt die Entwicklungszeit und liefert immer die bessere Qualität. Die dx12 Variante wird in Kürze Standard sein.
 
  • Gefällt mir
Reaktionen: captain kirk
mkbftw schrieb:
Raytracing ist genauso wie vernünftiges 4k gaming Schnee von übermorgen.
Wegen den paar Spielen die das unterstützen und dem meist kaum sichtbaren visuellen mehrwert würde ich
da aktuell beim Kauf keinen großen Wert drauf legen.
World of Warcraft mit Ray Tracing sieht immernoch scheisse aus.
Die Spiele werden immer mehr. Das ist eben die Zukunft...was ja auch AMD erkannt hat.
Ich wüßte jetzt keinen Grund, warum ich auf RT verzichten sollte, daß Dank DLSS auch jetzt schon
gut spielbar ist. Momentan wird Metro Exodus in 1440p RT/DLSS mit einer RTX 3070 gespielt. Zwischen
80 und 120 FPS. Gerade in Innenräumen oft ein gewaltiger Unterschied zu non RT.
Man kann sich auch natürlich einreden, daß man visuell keinen Mehrwert hat.
https://www.nvidia.com/de-de/geforce/rtx/
 
  • Gefällt mir
Reaktionen: captain kirk und steve127
kurz nein
ursprünglich war dlss fürs denoising bei dxr gedacht da dies leider mit den tensor cores nicht in Echtzeit umsetzbar wurde hat man es für einen upscaler genutzt.
DLSS reduziert die Qualität auf größeren Auflösungen und entspricht einen TAA filter bei der nativen Auflösung somit ist nativ überlegen.
Sofern keine filter genutzt werden. zudem kommt es oft zu Darstellungsfehlern.
Ein scharfes bild erreicht man am einfachsten mit nativer texturen die voll im vram geladen werden.
Da aber 8gb vram oft nicht reichen reduzieren engines die texturbittiefe bei entfernten Objekten was diese unscharf macht und genau da profitiert dlss.
Indem man die benötigte vram menge auf einer kleineren Auflösung heraus reduziert.
Bedeutet aber nicht das man Grundsätzlich mit dlss weniger vram braucht sondern man skaliert ja das bild von einer kleineren Auflösung zur größeren.
Somit ist dlss erforderlich bei 8gb vram, das kann kein Vorteil sein gegen amd üppigen 16gb vram.
lediglich amd schwächere dxr Leistung spricht dagegen.
Sowie amd treiber die sich noch auf fehlerfreies dxr einstellen muss.
Das braucht wie üblich bei neuen gpu etwa nen Jahr
 
  • Gefällt mir
Reaktionen: 0ssi
Wenn du vor hast Spiele zu zocken die DLSS und/oder RayTracing bieten, dann Nvidia.

AMD ist bei RT ein gutes Stück langsamer als Nvidia und das wird sich mit der aktuellen Generation auch nicht ändern.

DLSS hat AMD gar nicht, die arbeiten zwar daran aber das wird 1. garantiert noch eine ganze Weile dauern und 2. mit Sicherheit nicht an Nvidias Lösung rankommen.
Nvidia ist einfach sehr Stark auf dem KI-Sektor, die haben da haufenweise Produkte. Das kann AMD nicht mal eben aufholen und schon gar nicht in der aktuellen Generation.

Allerdings gibt es noch nicht sehr viele Spiele mit RT oder DLSS. Wenn dich davon keine interessieren und du mit der nächsten Generation 2022 wieder aufrüsten wirst, dann würde ich zu AMD raten.
 
  • Gefällt mir
Reaktionen: captain kirk
Wenn man, so wie bei dem neuen COD, das HD Texturpaket aktiviert, dann reichen 8GB bei keiner Karte.
Wenn man sich aber die Texturvergleiche ansieht.....null Unterschied. Nur sinnloses VRam verballern.
Genauso bei Wolfenstein. Texturstreaming auf Über killen den VRam. Nur auf Ultra zurückgestellt, reicht
schon eine RTX 2060 super, um in 1440p samt RT auf ultra, zum performanten zocken.
 
Macht DLSS alleine in Games Sinn? Also ohne Zuschaltung von Raytracing. In Fortnite habe ich mit RTX Effekte 30-45 FPS mit DLSS. Ohne DLSS hab ich 20 bis 30 FPS. (RTX 2060) . Der Witz is ja die FPS bleiben so selbst wenn ich Raytracing auf low stelle. Kan doch irgendwas nicht stimmen.
 
Ob es sich für dich lohnt kannst du sicher an besten einschätzen. Schau dir an welche Spiele es mit RT und DLSS gibt und welche bald kommen werden. Wenn da was dabei ist, was du mit RT spielen willst, ist das eine Überlegung wert.


Ansonsten ist es für die jetzige Entscheidung irrelevant, ob DLSS in 5 oder 10 Jahren Standard sein wird. Bis dahin brauchst du ohnehin mindestens eine neue GPU. Und der weiß ob du dann noch zockst...
 
  • Gefällt mir
Reaktionen: LencoX2
19chris80 schrieb:
Aber davon abgesehen würde ich rein von der Preis-Leistung zu einer AMD greifen.
Huch? Die RTX 3060 Ti hat doch das beste Preis-Leistungsverhältnis aller aktuellen Karten - so sie denn lieferbar wäre :D

Auch sonst würde ich momentan lieber zu einer RTX 30XX greifen. AMD arbeitet zwar auch an einer DLSS-Alternative, die irgendwann kommenden Jahres vorgestellt wird, doch die Raytracing-Leistung der RX-6000-Serie ist eher bescheiden und liegt auf dem Niveau einer RTX-2000-Karte. Zudem haben die Nvidia-Karten eigene Recheneinheiten für RTX und für DLSS, so dass keine Rasterperformance geopfert werden muss.
 
Stimmt ja, die Idee und auch die Umsetzung sind Klasse.
DLSS wird aber m.E. den gleichen Weg gehen wie PhysX und andere. Also anfangs gehypt und teuer bezahlt, dann immer weniger und dann still und ohne Aufsehen eingestellt.
Warum?
Der offene Standard Resolution Scalingwird im Jan mit PS5 und Xbox live gehen.
Während DLSS Pferdefuss bleibt: es sind HW und Hersteller abhängige Funktionen die separat für jedes Game programmiert werden muessen.

Wenn ich die Wahl habe : A für 3-4 Plattformen Xbox, PS5, PC (alle GPUs) und B für nur PC nur nvdidia welche setze ich als erstes um?
Lohnt es sich dann, nur für Gruppe B zusätzliches Geld nachzuschiessen, für ein paar Detailunterschiede nur bei B?
 
  • Gefällt mir
Reaktionen: n4rti
Ich halte nichts von DLSS da die Grafik je nach Implementierung einfach schlechter ausschaut. Außerdem ist es proprietäre Implementierung und wird kaum unterstützt. Und selbst wenn es unterstützt wird, dann weiß keiner in welcher Form und wie lange. BF V hat DLSS 1 und das ist grottig, wird nie aktualisiert werden. Ich hab's überall deaktiviert.
AMD wird sowas offen herausbringen. Ob das taugt kann ich nicht sagen.

Aber Nvidia wird gut Geld reinbuttern damit DLSS genutzt wird.
 
Zurück
Oben