Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
BerichtRaytracing und DLSS: RTX 2070, 2080 und 2080 Ti im Techdemo-Benchmark
tl;dr:Raytracing und DLSS sind zwei der wichtigsten Neuerungen von GeForce RTX 2070, RTX 2080 und RTX 2080 Ti. Bis jetzt gibt es aber nur Techdemos und noch keine Spiele. Im Benchmark-Test bestätigen sie das Potential von DLSS, können Fragen zur Qualität beider und der Leistung der RTX-Technologie aber noch nicht beantworten.
Dass die 2070 teils stark unter die 25 FPS fällt ist schon hart, in anbetracht des Kaufpreises.
Raytracing ist momentan leider einfach nur ein teures Hobby für den enthusiastischen Gamer.
JA anhand von Demos kann man jetzt wenig sagen. DLSS klingt sehr spannend. Wenn es wirklich gut funktioniert, könnte es 4K Gaming ein gutes Stück voran bringen. Wäre noch gut, wenn die tatsächlich berechnete Auflösung dynamisch ist und man so wirklich das maximum rausholt, aber wenn aktuell nur eine feste auflösung geht ist das wohl wunschdenken.
Bis jetzt hinterlassen die neuen Features bei mir einen Durchwachsenen Eindruck. Viel potential, aber wirklich toll nutzen wird man es mit der aktuellen Generation nicht können. Und so viel geld für etwas Zahlen, was ich eh nie wirklich voll ausnutzen kann...? Muss jeder selbst wissen.
Ich gebe @Shoryuken94 absolut recht. Die Technikfeatures sind bestimmt nice, aber halt nicht existent. Auf der anderen Seite möchte Nvidia aber dafür jede Menge Talerchen sehen...iwie passt das dann doch net zusammen
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Also hat je nach Anwendung die 2080 Ti fast die doppelte Leistung einer 1080Ti... hätte man jetzt entsprechende Spiele auf dem Markt, wäre der Preis sogar fast gerechtfertigt...
Coca_Cola schrieb:
Durch Raytracing werden die Spiele auch nicht besser.
Warum nimmt man die Werte bei RT mit DLSS (z.B.) GeForce RTX 2080 Ti @ 2.560 überhaupt mit rein? Es ist doch offensichtlich, dass DLSS mit der Auflösung speziell antrainiert wurde und höchstwahrscheinlich nicht! zur Verfügung stehen wird. Für mich ist das kein Test über die Leistungsfähigkeit, weil dieser nix aussagt (außer dass alles unterhalb der TI wahrscheinlich zu langsam für RTX sein wird).
GeForce RTX 2080 Ti @ 3.840 (DLSS) was nix anderes als Rendering bei 1080p ist mit 34 FPS (mit drops auf 23FPS) spricht imo Bände und das bei einem Bench der immer gleich abläuft. Ernüchternd!
DLSS also (vorerst) nur für UHD und ohnehin nur bei ausgewählten Spielen. Damit dürfte sich das Feature für die meisten erledigt haben. Für anständiges Raytracing ist eine 2070 definitiv zu langsam, eine 2080 auch nicht das wirklich Wahre. Wenn man wie in BFV dann noch die Effekte zurückfahren muss, dann fragt man sich was von der Technik eigentlich noch übrig bleibt.
Damit hat es Nvidia wirklich geschafft, die Zielgruppe der neuen Karten zu minimieren. Ich würde behaupten, dass deutlich über 90% mit der alten Generation besser bedient sind. Einfach weil die Neue nur in Ausnahmefällen einen spürbaren Vorteil bringt und dafür einen saftigen Aufpreis hat.
Damit ist die 2070 auch die unsinnigste Karte seit Jahren, da sie Features hat, die man in der Praxis nicht nutzen kann (für RT zu lahm und für DLSS ebenfalls, da UHD benötigt wird).
Also hat je nach Anwendung die 2080 Ti fast die doppelte Leistung einer 1080Ti... hätte man jetzt entsprechende Spiele auf dem Markt, wäre der Preis sogar fast gerechtfertigt...
Blödsinn. Selbst mit 3facher Leistung kann es nicht gerechtfertigt sein. Die Leistung wird ja durch den Kauf einer neuen Grafikkarte gerechtfertigt, nicht mit einer Preiserhöhung. Willst du in 5 Jahren dann 5000€ für das Topmodell zahlen wärend dann eine 7070 dann 1500€ kostet?
Und wo ist der Vorteil, wenn durch die deutlich höhere Auflösung die Performance einbricht? Damit gebe ich den Vorteil durch DLSS doch direkt wieder ab. Zweitens ist unklar, ob DLSS auch mit DSR funktionieren wird.
Der Vorteil liegt wohl darin das man keine Performance fressende Kantenglättung mehr braucht die meistens auch nicht gut Glättet sondern die nur das Bild matschig macht.
Die Spiele werden etwas hübscher und das ist ja auch schon mal was.
Ich bin jedenfalls nicht grundsätzlich abgeneigt gegenüber neuen Funktionen, auch wenn sie nur für mehr Eye-Candy sorgen.
Ein anderes Argument ist, dass extrem realistische Lichteffekte mit Raytracing viel einfacher für die Entwickler umzusetzen sind, bzw. quasi einfach als Nebenprodukt abfallen.
Allerdings greift das Argument nur, wenn die Entwickler keinerlei Wert mehr darauf legen würden, wie ihre Spiele auf allen Grafikkarten ohne Echtzeitraytracing-Fähigkeiten aussehen. (Tatsächlich konnte man bei den RTX-on/off-Demos diesen Eindruck gewinnen. )
Realistischerweise werden die Spiele-Entwickler aber wohl noch für viele Jahre auch weiter klassische Lichteffekte für alle anderen Graifkkarten in ihren Spielen anbieten müssen. Also muss die Arbeit sowieso gemacht werden.
So gut DLSS sein könnte, abhängig ist es ja soweit ich verstanden habe von der Cloud Berechnung/Bereitstellung seitens NV als auch die Unterstützung der Engine selber, oder sehe ich das jetzt falsch...?
@Häschen
Die brauchst du bei DSR aber auch nicht mehr zwangsläufig. In jedem Fall sollte eine leichte Kantenglättung locker reichen, falls überhaupt nötig.
Minutourus schrieb:
So gut DLSS sein könnte, abhängig ist es ja soweit ich verstanden habe von der Cloud Berechnung/Bereitstellung seitens NV als auch die Unterstützung der Engine selber, oder sehe ich das jetzt falsch...?
So sieht es leider aus. Nicht universell und muss von Nvidia für jedes Spiel in jeder Auflösung separat bereitgestellt werden. Die Daten bekommst du nur über GFE.
DLSS wäre für mich ein Argument wenn es auch für andere Auflösungen funktionieren würde (z.B. 21:9) und die Qualität auch entsprechend der höheren Auflösung ist was nicht immer der Fall ist siehe Infiltrator Demo.
@ CB habt ihr bei Nvidia mal nachgefragt warum die Quaität bei der Infiltrator Demo nicht gerade überzeugt. An was liegt das?