News Nvidia GeForce RTX: Neun weitere Spiele erhalten DLSS-Kantenglättung

AncapDude schrieb:
Ich kann den AA-Hype eh nicht nachvollziehen, es ist das Erste was ich immer ausstelle, Pixel stören mich überhaupt nicht und bringt übelst Performance und mehr Schärfe.

Mich nerven Pixeltreppen und Krümeltexturen, allerdings sind die normalen Verfahren meist nicht so wirksam, wie ich das gerne hätte. Bei Overwatch z.B. fallen die Treppen erst dann nicht mehr auf, wenn ich eine höhere Auflösung downsample (Render Scale 141% im Spiel). Und das frisst zu viel Leistung.

Aber solange Overwatch keine DLSS-Unterstützung bekommt, wird mir die RTX sowieso nichts bringen.
 
@m.Kobold

Das wurde schon von CB in einer News extra erwähnt. GeForce Expierence + Login sind pflicht um die "Profile" für Spiele herunterzuladen.

Zudem hört sich DLSS erstmal natürlich gut an. Wie gut es wirklich ist wird sich zeigen, denn die Screenshots die man bisher von der Gamescom sehen konnte waren nicht so toll. Man konnte deutlich den Qualitätsverlust sehen (verschwommen) und das 4k DLSS Material konnte bei weitem nicht mit normalem 4k Material mithalten.

Auch das es nicht groß erwähnt wurde bei der Präsentation, spricht nicht grade für DLSS. :D
 
Zuletzt bearbeitet:
m.Kobold schrieb:
Hast du ne Quelle für mich die das belegt?

Das Inferencing findet dann auf der Turing-Hardware im Gaming-Rechner statt und wird durch die Tensor Cores unterstützt. Die dazu notwendigen Daten werden per GeForce Experience an den Rechner übertragen und sind nur wenige Megabyte groß. Allerdings würde damit auch die Installation der GeForce Experience zusätzlich zum Treiber notwendig und zudem verlangt dieser nach einem Login und kann nicht mehr einfach so betrieben werden.
https://www.hardwareluxx.de/index.p...dlss-erlaeutert-und-erste-leistungsdaten.html

Wurde behaupte ich aber auch schon von CB so erklärt.

EDIT: Wurde von CB noch nicht so berichtet, könnte aber auch durchaus an der NDA liegen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: m.Kobold
dermatu schrieb:
es wird Zeit für Benchmarks

Morgen fällt die Sperre. Allerdings nur für die Berichterstattung der Turing-/RTX-Technologie und nicht für die Karten selbst, oder?
 
Aldaric87 schrieb:
Wie gut es wirklich ist wird sich zeigen, denn die Screenshots die man bisher von der Gamescom sehen konnte waren nicht so toll. Man konnte deutlich den Qualitätsverlust sehen (verschwommen) und das 4k DLSS Material konnte bei weitem nicht mit normalem 4k Material mithalten.

Dazu müsste man zuerst einmal wissen, in welcher Auflösung da tatsächlich gerendert wurde. War das nun 4k oder hochge-DLSS-tes WQHD oder FHD ?
 
JMP $FCE2 schrieb:
Dazu müsste man zuerst einmal wissen, in welcher Auflösung da tatsächlich gerendert wurde. War das nun 4k oder hochge-DLSS-tes WQHD oder FHD ?

Du kannst davon ausgehen das es hochskaliert wurde, denn nur so kommt es ja zu den "Performance-Vorteilen" von DLSS. Ohne hochzuskalieren würden sich die FPS ja nicht steigern, da die GPU trotzdem die 4k rendern muss. Daher sehe ich auch momentan noch nicht die riesigen Vorteile von DLSS. Denn wer 4k spielt, will die höchstmögliche Bildqualität und die scheint bei DLSS eben doch zu leiden, so zumindest die Screenshots von der Gamescom.
 
AncapDude schrieb:
Ich kann den AA-Hype eh nicht nachvollziehen, es ist das Erste was ich immer ausstelle, Pixel stören mich überhaupt nicht und bringt übelst Performance und mehr Schärfe. Und "Deep Learning" und "neuronales Netz" sind eh wieder so Buzzwords wo ich erstmal auf Distanz gehe. Sollte hier wirklich was serverseitig berechnet werden ist das für mich sowieso ein No-Go. Aber schön, dass es wieder neue Grakas gibt die die alten billiger machen ;)

Aber son bsichen sich informieren bringt teilweise schon was. Der grosse Vorteil von DLSS ist ja gerade das das Bild im Gegensatz zu TXAA eben scharf bleibt, da es supersampled dh es werden Bilder mit einer vielfachen Auflösung vorberechnet und die AI kann das dann aufs Bild anwenden, wie es aussieht ohne die klassiche Renderpipeline zusätzlich zu belasten. Damit hat man besseres AA ohne Schärfeverlust und ohne grosse Leistungseinbussen. Nur muss das ganze halt von einem Supercomputer vorbereitet werden, da die Tensorcores nur vorher antrainiertes anwenden können.

Sowas ist wirklcih der letzte Schrei und war bis vor kurzem nichtmal denkbar. Ob das jetzt in der Praxis auch wirklich schon so funktioniert werden wir ja jetzt die Tage Wochen sehen, aber wenn die technik nicht absolut faszinierend ist für jeden Technikbegeisterten weiss ich auch nicht...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Flo42, ZeusTheGod, Lübke82 und eine weitere Person
Nun wenn DLSS es tatsächlich schafft die Kanten ordentlich zu glätten ohne dass es dabei zu der nervigen Unschärfe kommt, dann wird es recht interessant. Allerdings bin ich immer noch der Meinung, dass das alles erst mit der nächsten (vielleicht auch übernächsten) RTX-Generation lohnenswert wird.
 
  • Gefällt mir
Reaktionen: stevefrogs
Dieser Artikel liest sich wie eine 1:1 übernommene Werbe"news".
Ist das Teil der neuen NDA, dass man das genau so übernehmen muss, ohne auch nur einen einzigen Satz zu schreiben zu den Grafiken oder gar zur wahrscheinlichen Technik und der realistsichen Einschätzung der übernommenen Bilder? Aleine schon beim ersten Blick würden sich da ziemlich viele Schlüße ziehen lassen auf die reale Leistungssteigerung im Vergleich zur alten Generation. Warum das überhaupt nichts kommt? Sehr "verdächtig"

It smells like "undeklarierte Werbung".
 
  • Gefällt mir
Reaktionen: Muxxer und LyGhT
Und dein Beitrag "smellt" nach Dr. Aluhut. Ist doch nur ne Newsmeldung die überall die Runde macht und nichts weiter sagt als das ein paar mehr Spiele unterstützt werden als vorher.
 
  • Gefällt mir
Reaktionen: Lübke82, MichaG, Oneplusfan und eine weitere Person
Dass es offensichtlich funktioniert hatte CB ja schon gesehen. Das stimmt mich erstmal positiv. Gerade in langsamen Titeln wie Anno in 4k könnte das für Leistungsschub sorgen, bzw ähnlich wie ohne AA laufen.
 
  • Gefällt mir
Reaktionen: Lübke82
Phear schrieb:
Sorry, aber da muss man echt unterm Stein, hinterm Mond oder alternativ 0,0 mit Spielen zu tun haben, um so eine Aussage zu tätigen ;)
:king:

Komischerweise sind mir von den 9 Spielen ebenfalls keines ein Begriff bzw 1-2 vielleicht mal von gehört aber das wars dann auch schon. Nichts interessantes dabei. Da musst du ihn nicht als "nicht gamer" abstempeln.
 
Hardware_Hoshi schrieb:
Nein, es fließen keine direkten Geldwerte soweit bekannt. Man kann es eher als echten Mehrwert und Unterstützung für die Spieleentwickler bezeichnen. Ich glaube DLSS ist das eigentliche Highlight für die Turing-Generation. Raytracing gibt es wohl als Bonus obendrauf.

Nicht wirklich, die sponsorn halt die Spiele oder was meinst du wozu es das Gameworks oder AMD Evolved Programm gibt? Sicher nicht aus Nächstenliebe. Natürlich fließen bei Games wie Shadow of the Tomb Raider Geld. Und genau deshalb werden halt Nvidias Wunschfeatures verbaut. Die Entwickler machen sich doch für die 0.05% der Leute die mit ner RTX aufwarten "freiwillig" die Mühe.

Was glaubst du denn warum bei BF V und SotT dick Nvidia draufsteht?
 
  • Gefällt mir
Reaktionen: LyGhT
timboboy123 schrieb:
Was glaubst du denn warum bei BF V und SotT dick Nvidia draufsteht?

Das funktioniert ganz simpel überall auf dieser Welt.... Nvidia stellt ein paar Mitarbeiter ab, die dabei helfen die API besser für das eigene Spiel zu implementieren, als Gegenleistung blenden die Spiele tolle Nvidia Werbung ein.

Man nennt sowas zwar Sponsoring, aber Geld braucht dabei nicht zu fließen. Letztendlich profitieren beide Unternehmen davon. Die Entwickler beim Spielstudio können sich auf das wesentliche konzentrieren, Nvidia bekommt Feedback aus erster Hand von den Entwicklern, mit den sie die eigenen Engines weiter entwickeln können.
 
  • Gefällt mir
Reaktionen: tidus1979, Lübke82, Oneplusfan und eine weitere Person
spiele derzeit auf den acer x34p ohne kantenglättung sieht trotzdem besser aus als früher 24 zoll 1920x1200 mit vollen aa :D also lohnt wechsel noch nicht gut hab meine auch erst seit kurzen karte und bildschirm vll gewöhnt man sich dran und will mehr :D
 
Zurück
Oben