Notiz GeForce 417.35 WHQL: Grafiktreiber unterstützt DLSS in Final Fantasy

Postman schrieb:
Wenn du Prioritär-Features in den Mund nimmst fällt mir als erstes "Freesync" von AMD ein, die es genauso gemacht hatten. Warum ist es dann NVIDIA verpöhnt sich auf Softwarebasis ein eigenes Konzept zu entwickeln?
Als G-Sync Nutzer kann ich hier nur sagen, dass es ein leichtes wäre auf G-/Free-Sync zu verzichten oder zur Konkurrenz zu wechseln, da man freie Wahl bei der Leistung hat. Ich bin genau, wie du bei Nvidia gelandet, weil man damals, wie heute die stärkere Karte und fast schon das bessere P/L geboten bekommen hat. Das P/L Argument ist mit Turing natürlich flöten.

4K DLSS, sofern es funktioniert und Nvidia Studios mitnehmen kann, würde den Markt so stark aufmischen, dass AMD ohne ähnliche Tricks gar nicht aufschliessen könnte. Aber zu welchen Preis? Ein kleiner TU-106 Chip in der billigsten Ausführung kostet jetzt schon 500€. Und wie sieht es in Zukunft aus? Muss man sich bei jedem Spiel dann informieren, ob meine teure Midrange Karte mit oder über der Konkurrenz liegt?

Postman schrieb:
Dass man NVIDIA Käufer dann als "elitär" abstempelt ist blanker Neid.
Wo habe ich den Nvidia Käufer als elitär abgestempelt? Dann wäre ich und jeder GT1030 Käufer auch einer. ;) Mein Wort richtete sich an die RTX Fanatiker, die das aktuelle Geschäftsgebaren von Nvidia mit allen Mitteln verteidigen und mit dem (selbstverständlichen) technischen Fortschritt das absurde Preisgefüge von Nvidia rechtfertigen möchten. Als Antwort bekommt meist: "Wenn man es sich nicht leisten kann, soll man sich raus halten." Das passt zu einem elitären Verhalten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rambo5018
Das Video im Artikel ist übrigens super.

4k Bildqualität vergleichen in einem komprimierten 1080p(oder i?) Video...
Da kann ich auch den Vergleich zwischen Schallplatte und CD auf einem Grammophon hören wollen...
 
  • Gefällt mir
Reaktionen: Rambo5018 und Baal Netbeck
Die Frage ist ja auch immer von wo man kommt, wenn man eine GTX 1070 seit 2016 sein eigen nennt, macht ein Upgrade auf eine RTX 2070 und 2080 keinen Sinn. Die RTX 2070 ist eine RTX-Ready Grafikkarte die man zur einer reinen Mittelklasse Grafikkarte degradiert hat, mit dem kleinen TU-106 Chip, das aber zum Preis der gehobenen Oberklasse!

Die RTX 2080 gerade mal auf dem Niveau der GTX 1080Ti und dazu noch mit weniger Speicher, hier darf man jetzt den Preis für Enthusiasten bezahlen. Lohnt sich für einen GTX 1070 und 1080 Besitzer auch nicht, wenn man sich den Leistungszugewinn contra Preis den man dann bei einem Verkauf einer der beiden genannten Grafikkarten, den man draufzahlen muss, anschaut!

Also einzig die RTX 2080Ti von der Leistung her und mit dem minimalen Gesamtpacket, um RTX-Features einigermaßen vernünftig in FHD [1080p] Auflösung zu nutzen, würde sich wirklich als Upgrade lohnen. Dafür müsste man aber dann bereit sein, einen Preis in der Region einer Titan zu bezahlen, was wirklich keinen Sinn macht, da dieser Preis bei den meisten Usern, den Preis für ihr PC-Gesamtsystem übersteigt!

Der reine Leistungszugewinn bei der RTX-Turing Serie ist im Vergleich zur Vorgänger Generation in Form eines Pascal Chips, zu gering. Also hat man der Turing Serie ein paar neue Features in Form von RTX verpasst [Raytracing / DLSS], um auch den völlig überzogenen Preis zu rechtfertigen. Das Problem ist, das bis heute, gerade mal ein Spiel mit Battlefield V Raytracing bietet und jetzt ein Spiel, Final Fantasy XV DLSS implementiert hat / bekommt.

Jetzt habe ich gehört, es soll doch wirklich User geben, für die Battlefield V nicht die Erleuchtung und Final Fantasy XV, jetzt auch nicht so der Kracher ist [auch nicht mit DLSS!]. Diese User haben leider nach wie vor die Arschkarte gezogen und dürfen weiter in der Hoffnung leben, das Nvidia vielleicht irgendwann in der Zukunft, mal ein Game ihrer Wahl mit einem der neuen Features ausstattet, damit diese User dann auch mal Live zu Hause sehen können, für was sie eigentlich die 48. Monatige Finanzierung getätigt haben!

Alles in allem, ist alles nicht wirklich zufriedenstellend und mach die neue RTX-Turing Serie für viele, die schon eine GTX 1070 / 1080 und 1080Ti in ihrem System hatten, nicht wirklich interessant und reizvoll. Dafür wird man von Nvidia zu sehr in einem Beta Tester verwandelt, der ständig in der Hoffnung leben muss, vielleicht kommen ja recht bald neue Games mit RTX-Features, damit man selbst auch mal in den Genuss der neuen Technik kommt, diese auch selbst erleben zu dürfen.

Und hoffentlich ist die entsprechende Spieleschmiede gut im Programmieren, damit dann diese Feature auch den gewünschten Mehrwert bringen und der erhöhte Leistungshunger der Grafikkarte mit den neuen Features nicht zu groß ist, weil man ja dachte, die Zeit der 70er / 80er Jahre mit Dia-Vorführungen sei vorbei!
 
  • Gefällt mir
Reaktionen: Orcon und grossernagus
ich gebe dir recht das ein upgrade für leute mit einer 1080 oder 1080ti absolut sinnlos ist.
wenn ich allerdings von einer 1060 fullhd auf 144hz wqhd wechsle sieht das ganze anders aus.

desweiteren ist das "weniger speicher argument" gegen die 2080 auch ein wenig an den haaren herbeigezogen, zum einen hat turing eine weitaus bessere speicherkomprimierung und cachearchitektur im gegensatz zu pascal, zum anderen ist ddr6 in seiner architektur anders als ddr5 und somit schwer zu vergleichen.
bisher gibt es keinerlei anzeichen dafür das 8gb ddr6 nicht völlig ausreichend für eine 2080 in 4k sind.

das raytracing und dlss noch nicht breit adaptiert ist stimmt und ist ärgerlich, war aber zu erwarten. vor ende 2019 rechne ich zumindest nicht damit.

das raytracing nur auf einer 2080ti in fullhd sinn macht hingegen ist kompletter blödsinn. selbst die erste adaption in bf5, welche sich noch weit von einer fertigen implementierung befindet, beweist doch das raytracing sowohl auf der 2070 als auch 2080 (sogar in wqhd) problemlos nutzbar ist.
ob bf5 der richtige titel für so ein feature ist bleibt allerdings fragwürdig.
 
  • Gefällt mir
Reaktionen: Luzifer71
Fraggball schrieb:
wenn sie adaptiert werden hab ich was davon, ansonten hab ich genau die richtige GPU um mein 144hz wqhd display und meinen 4k oled zu befeuern.
Raytracing als zum scheitern verurteilt darzustellen halte ich für etwas fragwürdig wenn ich das mit 70-100 fps in wqhd nutzen kann und defintiv einen optischen mehrwert erkennen kann.

Ich möchte Raytracing ja nicht verteufeln, es ist nur so, dass Raytracing wie es jetzt umgesetzt ist, nicht meiner Logik standhält und ich diesem deswegen nichts abgewinnen kann.

Ich sehe das so.
Wir haben bis jetzt ein Spiel in dem Raytracing möglich ist und die Befürchtungen wurden wahr, Raytracing kostet enorm Leistung obwohl man sich nur auf Reflektionen beschränkt. Außerdem ist es nicht einmal "richtiges" Raytracing.
Es sieht also nicht gut aus wenn Licht und Schatten noch hinzu kommen sollten.
Und das gilt für eine 1000€+ Grafikkarte.

Im Endeffekt tricks man genauso wie beim üblichen Screen Space Reflection um Reflektionen zu erhalten, opfert dafür aber massiv Leistung für ein unruhigeres Bild.
Manche Entwickler bekommen Licht, Schatten und Reflektionen auch ohne Raytracing traumhaft hin.

Neben der enorm höheren benötigten Leistung kommt auch noch der Preis hinzu.
Die RT Leistung kann ja anscheinend nur durch mehr RT Cores erhöht werden. Normale Shader spielen da ja anscheinend keine große Rolle bei der Raytracing Berechnung.
Das heißt, auch bei einem Nachfolger im 7nm Prozess wird es einen riesigen DIE benötigen um die Leistung dafür zu steigern.
Das dürfte alles andere als günstig werden einen 600+mm^2 DIE in 7nm zu fertigen. Das Raytracing mit einer ~200€ Karte in 1080p, 60FPS machbar ist sehe ich nicht sehr bald kommen.

Kurz gesagt:
Raytracing = "Realistischeres" Bild, unruhigeres Bild, massive kosten an Performance
DLSS = Schöneres Bild, Leistungsgewinn

Punkt für DLSS
 
r4yn3 schrieb:
Hä? DLSS ist nur unter 4K auswählbar. So ist der Satz etwas irreführend.
Das Ausgegebene Ergebnis ist halt 4K.
Man berechnet quasi halt nur 2/3, der Rest ist Quick and Dirty über die Tensorcores.

so meinte ich. Ja vllt etwas missverständlich ausgedrückt. Es wurde ja gefragt ob man auch native 4k + DLSS aktivieren kann.
 
TheUngrateful schrieb:
Ich möchte Raytracing ja nicht verteufeln, es ist nur so, dass Raytracing wie es jetzt umgesetzt ist, nicht meiner Logik standhält und ich diesem deswegen nichts abgewinnen kann.

Ich sehe das so.
Wir haben bis jetzt ein Spiel in dem Raytracing möglich ist und die Befürchtungen wurden wahr, Raytracing kostet enorm Leistung obwohl man sich nur auf Reflektionen beschränkt. Außerdem ist es nicht einmal "richtiges" Raytracing.
Es sieht also nicht gut aus wenn Licht und Schatten noch hinzu kommen sollten.
Und das gilt für eine 1000€+ Grafikkarte.

Im Endeffekt tricks man genauso wie beim üblichen Screen Space Reflection um Reflektionen zu erhalten, opfert dafür aber massiv Leistung für ein unruhigeres Bild.
Manche Entwickler bekommen Licht, Schatten und Reflektionen auch ohne Raytracing traumhaft hin.

Neben der enorm höheren benötigten Leistung kommt auch noch der Preis hinzu.
Die RT Leistung kann ja anscheinend nur durch mehr RT Cores erhöht werden. Normale Shader spielen da ja anscheinend keine große Rolle bei der Raytracing Berechnung.
Das heißt, auch bei einem Nachfolger im 7nm Prozess wird es einen riesigen DIE benötigen um die Leistung dafür zu steigern.
Das dürfte alles andere als günstig werden einen 600+mm^2 DIE in 7nm zu fertigen. Das Raytracing mit einer ~200€ Karte in 1080p, 60FPS machbar ist sehe ich nicht sehr bald kommen.

Kurz gesagt:
Raytracing = "Realistischeres" Bild, unruhigeres Bild, massive kosten an Performance
DLSS = Schöneres Bild, Leistungsgewinn

Punkt für DLSS
naja, der look von raytracing in bf5 ist eben geschmackssache.
mir persönlich gefällt es sehr gut und ich spiele auch bf5 gerne damit. bin letztens zurück auf dx11 ohne rtx und fand das bild einfach nicht so ansprechend. merke auch keinen wirklichen skillunterschied wenn ich jetzt mit 70-100fps oder rund 130 fps spiele, aber ich bin auch kein "pro bf5 gamer" bei dem das einen unterschied machen würde.
das wir die nächsten jahre nur hybrid raytracing bekommen werden ist bei der berechnungsmenge auch kein wunder, aber es ist erfreulich das die klassische renderpipeline endlich mal aufgebrochen wird.
 
Shoryuken94 schrieb:
2. Das weiß keiner so wirklich. Nvidia sagt, dass die Tensorcores dafür genutzt werden, allerdings so rein von der Funktionsweise sollte es theoretisch auch mit Pascal gehen. Die eigentliche Optimierung findet ja bei Nvidia auf den Servern statt. Die entsprechenden Profile müssten theoretisch auch auf Pascal laufen, aber da muss man sich keine Hoffnung machen bei Nvidia

die Tensor Cores sind ja speziell dafür da das neurale Netzwerk auszuführen. Das hat mit Nvidias Berechnung rein gar nichts zu tun. Man muss schon ein gewisses Grundverständnis von Deep Learning haben um die Sache zu verstehen...

Ein Neurales Netzwerk besteht quasi erstmal nur aus Knoten + Verbindungen zwischen diesen (wie Gehirnzellen auch), diese Verbindungen haben Gewichtungen. Allein über diese Gewichtungen sind also manche Verbindungen stärker, manche schwächer. Man definiert was den Eingang darstellt, zB die Bildpixel der letzten zwei Bilder (um noch ne zeitliche Komponente zu haben), jagt diese Werte durch ein statisch aufgesetztes Wert von Matrizen (die davor von Nvidia asynchron errechnet wurden) und erhält dann einen Output der zB das AA 8/ Upscaling steuert, für Bildbereiche (also zb Kanten glättet, Texturen aber nicht damit diese scharf bleiben).

Bei den Tensor Cores geht es darum eben dieses statische Matrizen Konstrukt möglichst schnell zu multiplizieren, also den Vektor den ein Eingangswert durch das Neuronale Netzwerk nimmt. (so habs ich verstanden).

Das geht wie die meisten Rechenoperatione, Raytracing oder beliebig andere Operationen auch, natürlich mit einem Fallback, nur eben deutlich langsamer. Eventuell zu langsam um dann hier einzusetzen.

Alternativ könnte man zB das Final Fantasy Netzwerk in Hardware gießen, als eigener Chip. Das wäre dann nochmal schneller als Tensor Kerne die ja flexibel und zugleich fix sind.

Es geht einfach darum diese Rechnung schnell zu erledigen, sodass du ausgehend vom aktuellen Bild schnell auf das nächste kommst (die geupscalte Variante). Und das können in erster Linie Tensor Kerne hinreichend schnell.

1:1 läuft die Sache beim Entrauschen im Raytacing Fall. Hier rechnet Nvidia offline Raytracing Bilder mit hoher Auflösung und wenig Rauschen. Das mag dann 5 min / Bild brauchen. Dann braucht man einen statischen Algorithmus der den Fehler in einen Wert fasst. Also den Fehler "rauschendes Bild ohne Denoise vs korrektes Bild, rauschfrei". Das macht man 1 mio mal, jedes mal passt man die Gewichtungen im Neuronalen Netzwerk minimal an und versucht den Fehlerwert zu minimieren. Dadurch lernt diesen Set aus "Nervenzellen" ohne konkrete Programmierung wie das entrauschte Bild auszusehen hat. Oder eben bei Google wie ein Baum aussieht.
Am Ende vom Tag schiebt man dann nur noch das rauschende Bild "in die Tensor Cores" und hinten purzelt ein nahezu rausch-freies Bild raus, ohne dass man sich darüber nen Kopf macht was dazwischen alles passiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck und TheUngrateful
Lübke82 schrieb:
Dann sollte man vlt. nicht so einen Schwachsinn rausposaunen! Was fürn Müll!
Du kannst auch nicht das Gegenteil beweisen. Also schön ruhig bleiben.
 

so als Einführung ganz gut


hier etwas konkreter, Zahlen erkennen. Ein Programmieraufwand von an sich wenigen Minuten und erstaunlich guter Erkennungsrate.
 
  • Gefällt mir
Reaktionen: TheUngrateful
Mal aus Interesse da das Wissen von einigen doch sehr tiefgehend ist.
Nvidia ist ja tief im Thema Deep Learning drin.
Schaue ich mir jetzt AMD an, haben die ja ebenfalls Wissen auf welches Nvidia nicht zurückgreifen kann, nämlich CPU bzw APU.
Da AMD die Kernzahl fleißig nach oben schraubt und auch weiter tun wird, ist es da möglich, dass die über ihre CPU Kerne etwas ähnliches realisieren wie NVidia es mit den Tensor und RT Cores macht? Nicht jetzt aber irgendwann mal? Dann wären solche Features theoretisch ja auch für die Konsolen nutzbar
Oder ist sowas nicht möglich?
 
Fraggball schrieb:
zum einen hat turing eine weitaus bessere speicherkomprimierung
Wo gibts hierzu Tests?

@Krautmaster naja, es geht NUR 4K + DLSS. Was wie wo intern dann gerendert wird, kann dank des vergleichbaren Ergebnisses einem ja egal sein.
 
r4yn3 schrieb:
Wo gibts hierzu Tests?

whitepaper zu turing lesen.

oder technikartikel die sich damit auseinandergesetzt haben.

https://www.techpowerup.com/reviews/NVIDIA/GeForce_Turing_GeForce_RTX_Architecture/4.html

"Effectively, color compression means less data to write to, and transfer from VRAM to the L2 cache. This reduced traffic propagates down the line with fewer data transfers between clients, including the aforementioned game texture, and the memory framebuffer. With Turing, NVIDIA has developed the 5th generation of the color compression technique which improves the compression ratio by over 25% relative to the Pascal microarchitecture, which in turn already had a 20% improvement over Maxwell for further context."
 
Ja, Bandbreitenkompression. Lesen ist das eine.
 
r4yn3 schrieb:
Ja, Bandbreitenkompression. Lesen ist das eine.

gut, wenn zitate von technikmagazinen und recherchen zum thema als argument aufgrund von aluhüten nicht mehr gewertet werden kann ich auch nix machen.
wie soll man denn die speicherkompression deiner meinung nach testen?
ich spiele auf meiner 4k glotze und meinem 1440p monitor mit meiner 2080, und bisher gab es keinerlei probleme mit dem "absolut unzureichenden 8gb ddr6".
mehr als referenzen zu whitepapers, techinkmagazinen und eigenen erfahrungsberichten kann ich als normalsterblicher nunmal nicht bieten.
wenn das nicht reicht kann ich nichts mehr tun, trotzdem viel spass noch!
 
  • Gefällt mir
Reaktionen: Luzifer71
Vergleich Vram Auslastung Pascal zu Turing. Das ist zu viel verlangt? Respekt.
Den Aluhut darfst du behalten.
 
TenDance schrieb:
Quizfrage: für Pascal-Systeme ist wohl immer noch der letzte 391er Treiber die beste Wahl oder?
Die bugfixwelle der 400er muss man sich ja nicht antun ohne RTX-GPU wie es aussieht.
Ja ich bin auch wieder zurück auf unter 400. Ich finde die alten modelle wurden langsamer mit den neuen treibern. Und da bin ich glaube ich nicht der einzigste.
 
Ist DLSS nur für 4K Spieler verfügbar oder wurde der Algorithmus auch für 1440p zusätzlich antrainiert? Nvidia wollte ja über die zusätzliche 1440p Option nachdenken.
 
Steini1990 schrieb:
Du kannst auch nicht das Gegenteil beweisen. Also schön ruhig bleiben.

Ich muss auch nichts beweisen, da ich keine Anfangsbehauptungen aufstelle! Ich sehe aber das native Material und kann mir meine Meinung bilden, bei euch wird nur spekuliert auf Grund komprimierten YT-Videos. Schon wenn hier über das TAA diskutiert wird. Schaltet TAA ab und vergleicht natives UHD mal mit UHD@DLSS, dann hat DLSS kilometerweit das bessere Bild. mit einer deutlich gesteigerten Geschwindigkeit.
Ergänzung ()

SKu schrieb:
Ist DLSS nur für 4K Spieler verfügbar oder wurde der Algorithmus auch für 1440p zusätzlich antrainiert? Nvidia wollte ja über die zusätzliche 1440p Option nachdenken.

NUR für UHD. auf 1440p würd es auch kaum Sinn ergeben, da die Karten da schnell genug sein sollten.
 
  • Gefällt mir
Reaktionen: Luzifer71
Zurück
Oben