Bericht Raytracing und DLSS: RTX 2070, 2080 und 2080 Ti im Techdemo-Benchmark

Dice hat bereits angekündigt, dass die Raytracing-Effekte in der finalen Version zurückgefahren werden.

Warscheinlich waren die Erwartungen an Turing doch höher. Bevor der Shitstorm jetzt an BFV geht, lieber zurückrudern ;)
 
Wenn ich mir die Posts so ansehe, stell ich mir schon die Frage, ob ich der einzige bin, der keine 700-1200€ für ne neue Graka rumliegen hat.
Natürlich macht Nvidia alles richtig solange sie ein Monopol auf Spitzengrafikkarten haben. Das Heißt aber noch lange nicht dass ich mir nen Mikrokredit nehme und gleich nach dem kauf eines 1200€ Telefons eine 1000€ Graka besorge.
Und ich sags wies ist: Die Leute, dies genau so machen treiben für mich die Preise unnötig in die Höhe. Das ist einfach kacke, sonst nichts.
Jahrzente lang hat sich die Preisgestaltung von Hardware an gewisse Richtlinien gehalten. Aber anscheinend haben einfach zu viele Leute zu viel Kohle, oder zu wenig Gehirn.
 
  • Gefällt mir
Reaktionen: caparzo, floh667, Hatch und 11 andere
Chesterfield schrieb:
ich schlage mal in eine andere kerbe als viele hier und gebe den RTX eher eine kaufempfehlung, denn dieses sind mal features hin oder her, mehr leistung für unswesnitlich mehr geld. AB 519€ ( vllt eher sinkende preise zu erwarten wenn verfügbar) und leistung über einer 1080 ( 499€) sind gut nvestierte 20 € !!

auch die 2080 zum preis einer gering güsntigeren 1080ti ( trotz 11gb ) ist gut aufgestellt, da die karte einfach das vollwertigere produkt ist ( features, leistung und effizienz).

2080ti ist zweifels ohne (zu) teuer aber für absolut highend stellt sich preis oft nicht, wenn man die ganzen Titan pascal und so weiter anschaut ist selbst der proes noch okay

Nach der aktuellen Preispolitik liegt die Mid-Range-Karte aber auf dem Preislevel der aktuellen High-End-Karte, was für mich auf keinen Fall eine Kaufempfehlung ist. Da wird in meinen Augen ganz klar die Monopolstellung ausgenutzt.

2080 und 2080TI sind in meinen Augen gar nicht vergleichbar. Zweitere ist ein ganz anderes Level. Die Anzahl der CUDA-Cores und 11GB Speicher mit 384Bit gegenüber der deutlich abgespeckten 2080 sind schon ein krasser Unterschied. So gesehen ist eher die 2080 eine hochgetaktete 2070 mit ein paar mehr Cores :)

Leider sind alle Karten bisher auf dem Markt noch nicht geeignet für 4K Gaming. Alle krebsen sie am untern FPS Limit rum. Bin gespannt, wann mal ein ordentlicher Leistungsschub kommt.
 
Neronomicon schrieb:
"Nvidia hat bekannt gegeben, dass DLSS in Spielen zunächst nur für die Auflösung 3.840 × 2.160 zur Verfügung stehen wird. Man benötigt also mindestens einen Ultra-HD-Monitor, um DLSS nutzen zu können. "

Eben, schränkt die Nutzerzahl unnötig ein und der Nutzer ist zusätzlich auf die Güte von NVIDIA angewiesen das diese ein DLSS Profil für sein Lieblingsspiel anbieten werden.

Mich würde auch mal ein Vergleich von 4K ohne jegliche Kantenglättung vs. DLSS interessieren.
Ich schalte AA üblicherweise aus weil ich grafisch kaum einen Unterschied feststelle, aber die Performance etwas nach oben geht.
RT wird erst interessant wenn dies mehr Spiele unterstützen, unter den angekündigten Spielen interessiert mich gerade mal eins und das ist mir deutlich zu wenig.
Ebenfalls bleibt die Frage offen ob RT auch in ältere, aber von sehr vielen Spielern gespielten, Games implentiert wird.
Auch das hängt wohl von der Güte von NVIDIA ab und da hab ich wenig Hoffnung.
 
Der Ansatz von DLSS gefällt mir persönlich sehr gut, der Zuwachs an fps kann sich durchaus sehen lassen.

Raytracing überzeugt mich noch überhaupt nicht und wenn dann nur in Ansätzen auf einer GeForce RTX 2080 Ti, alle anderen GPUs sind einfach zu schwach dafür.

Aktuell würde ich jedem bis 800,- Euro zu einer GeForce GTX 1080 Ti raten, wer noch mehr will (und braucht), sollte zur RTX 2080 Ti greifen. Die 2080 und vor allem die 2070 können mich nicht wirklich überzeugen.

Man darf aber auch nicht vergessen, DLSS und vor allem Raytracing stecken noch in den Kinderschuhen. 1-2 Generationen sieht das vielleicht schon ganz anders aus.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: BVB2016
25fps passen wie

JeverPils schrieb:
für den enthusiastischen Gamer.

zusammen?

Computerbase macht einfach zuviele Tests (ich sage Werbung dazu) für ein Feature,
welches noch nicht eingesetzt werden kann.
Zudem wurde im Vorfeld jedes kleineste Gerücht genommen.
Schlimmer noch: Es wurden die häppchenweisen Infos von nV weitergegeben.
Weiter geht es mit den Überschiften: Gaukeln dem Leser teilweise etwas anderes vor.

Wie im "Vorfeld" zu sehen ist, ist für das nicht vorhandene feature Raytracing die Leistung viel zu langsam.
In Zeiten mit 4k und 144Hz will ein
JeverPils schrieb:
enthusiastischer Gamer.
das auch nutzen. Dauernd jammern viele hier wie kleine Babys, dass 4k viel besser sei als Full HD (auch die Hz-Zahl weiter steigen soll + Frametimes) und jetzt sowas.

Nun hat nV wieder ein nettes "Feature", welches aktuell null Nutzen hat.
 
  • Gefällt mir
Reaktionen: Zero_Point
Irgendwie macht sich mit jeder weiteren News zu Turing nur noch die Ernüchterung breiter.

Wer ist denn die Zielgruppe für diese GPU Serie?

Die " min. 144 FPS/Hz Freaks" und die "4K + alle Regler auf Max Freaks" kaufen das doch Teil nur wegen der höheren Performance, wer von denen hat denn Bock wieder auf 60 FPS und 1080p zu wechseln? Geschweige denn UHD bei 30 FPS.. Da kann ich mir ja gleich ne Konsole kaufen. :D

Nur Techniknerds? Ich mein, aus technischer Sicht bin ich auch scharf auf ne Turing Karte. Aber den Preis kann ich für mich selbst einfach nicht rechtfertigen.. Ich gebe echt (zu) viel Geld aus für PC Kram, aber es gibt halt noch ganz andere Spielzeuge. Imho ist mein Geld dort besser aufgehoben...

Mein GPU-Budget für dieses Jahr ist diese Woche in CPU und RAM upgrades geflossen. Mit dem Wechsel auf 2700X + dicken B-Die Ram mache ich im CPU Limit auch gut Leistung frei und der Rest der Kohle ging in diverse Spielereien mit dem Hauptthema VR.
 
  • Gefällt mir
Reaktionen: Oceanhog
Der Vergleich in der FF XV Demo hinkt doch, da man hier eine "nicht allzu gute" Kantenglättung implementiert hat und diese dann mit DLSS gegenüber stellt.

Wenn die Reise dahin geht, dass von Nvidia gesponsorte Title die tradiotionelle Kantenklättung vernachlässigen, nur damit DLSS nicht schlechter aussieht, dann ist das definitiv kein Fortschritt.
 
Warum keine Vega 56/64 mit im Test?
 
Ich meine, je größer ein Level ist, desto größer müßte der Datensatz für das neuronale Netz auch werden, alles andere würde meiner Meinung nach informationstheoretisch an ein Wunder grenzen. Zumindest bei gleichbleibender Qualität.
Damit wäre entweder die Größe des Levels oder die Qualität der Kantenglättung limitiert.

Sollten diese Daten direkt in die Tensor-Cores gehen (keine Ahnung, aber ich kann mir nicht vorstellen, dass die ins RAM der Karte gehen), dann würde die Anzahl dieser Kerne die maximale Größe eines Levels bestimmen oder eben die bestmöglich erreichbare Qualität der Kantenglättung.

Oder aber, es wird nachgeladen. Ich frage mich dann aber, wie aufwändig es sein mag, diesen Datensatz zu erstellen.
 
Zuletzt bearbeitet:
Zero_Point schrieb:
DLSS also (vorerst) nur für UHD und ohnehin nur bei ausgewählten Spielen. Damit dürfte sich das Feature für die meisten erledigt haben.

Dafür gibt es das, was ich gehofft hatte:

DLSS2X rendert dagegen in der eingestellten Auflösung und versucht dann per KI-Algorithmus die Qualität von 64× Super-Sampling-Anti-Aliasing zu erreichen. Von DLSS2X gibt es noch keine Demos.

Dass jetzt bitte für Full HD, und Datensätze für Overwatch, Witcher 3 und AC: Origins, dann wird es langsam interessant.

Ich warte trotzdem mindestens bis zur nächsten Generation.
 
Ich für meinen Teil bin wirklich geheilt, das ist die schlechteste Vorstellung die Nvidia je gebracht hat, noch dazu ist die Rohleistung der RTX Karten wirklich nicht berauschend. Schade das ich die Titan XP übersprungen habe hätte für meine noch gutes Geld bekommen jetzt wäre ich über ein paar Prozent mehr Leistung Glücklich aber die RTX wird es nicht. Wenn der Chip Shrink kommt wird es vielleicht intressant aber so nicht.
 
JMP $FCE2 schrieb:
Dass jetzt bitte für Full HD, und Datensätze für Overwatch, Witcher 3 und AC: Origins, dann wird es langsam interessant.
Das Problem bleibt, dass für jede Auflösung ein Datensatz benötigt wird. FullHD wäre damit auch nur partiell geholfen, da auch deine (zukünftigen) Lieblingsspiele erst unterstützt werden müssen.
Durch die Auflösungsabhängigkeit sehe ich für DLSS in der aktuellen Form keine Zukunft. Stellt dir vor du kaufst dir einen neuen Monitor mit WQHD anstatt FullHD und DLSS hat sich wieder erledigt.
Wenn man Spiele und Auflösungen für jedes Spiel selbst trainieren lassen könnte (unabhängig vom Ergebnis, solange das im Normalfall besser wäre als bisher), dann wäre das ein echtes Killerfeature. So bleibt es für mich ein totales Nischenfeature.
 
  • Gefällt mir
Reaktionen: cele
Botcruscher schrieb:
2028 mit der Playstation 6. Selbst auf dem PC wird es mindestens 5nm benötigen um die_aktuelle_ RT Leistung in eine 200€ GPU zu bringen. Unterhalb von Mainstreamverbreitung ist es nicht mal einen Gedanken wert...
Wird sich zeigen. Noch kenn ich keine Benchmarks zu ersten richtigen Effekten und wie die skalieren - du etwa?

Die Techdemo läuft in meinen Augen eher überraschend fix, für 4k, wenn auch DLSS genommen wird. Und die dürfte kaum die Referenz sein.

Problem seh ich eher dass bei üblichen Methoden viel Leistung verpufft. Gute Grafik gab es auch schon zb mit Battlefront 1, und anderen Titeln an die heute selbst schlecht laufende Games mit 1000 Euro GPU kaum rankommen. Die Mehrleistung wird kaum in Optik umgesetzt weil es zu aufwendig ist. Also erschlägt man Grafik zumeist mit Rechenleistung. Das bezahlt jeder hier.

Deswegen begrüße ich den Technologie Wechsel der eh schleichend sein wird. Zb sollte es vergleichsweise einfach sein diese STAR Wars Techdemo zu einer ganzen Welt auszubauen, die Basis Effekte + Engine stehen schon. Aufwand wäre es die Welt zu designen und die Materialien zu definieren, was bei Raytracing ja essentiell ist. Beleuchtung, Spiegellungen, ambient light, das löst RT dann recht einfach.
 
  • Gefällt mir
Reaktionen: Lübke82
Leute von CB:
Was habt ihr in euren Tests jetzt verglichen ?
UHD vs. UHD+DLSS
oder
UHD+TAA vs. UHD+DLSS
 
Zuletzt bearbeitet:
Eines verstehe ich nicht:

PCler haben sich immer über Konsolen lustig gemacht, weil die zum Teil Spiele in halber Auflösung gerendert und anschließend nur hochskaliert haben.
Und jetzt kommt nvidia mit DLSS für den PC, pfuscht ebenso mit niedrigeren Auflösungen und Skalierung herum, würzt das ganze mit ein bisschen "KI", verlangt dafür einen irren Preis und alle jubeln?

Ach nööö.
 
  • Gefällt mir
Reaktionen: Alphanerd, Recharging, russianinvasion und 2 andere
Zurück
Oben