Bericht Raytracing und DLSS: RTX 2070, 2080 und 2080 Ti im Techdemo-Benchmark

McFly76 schrieb:
Bestimmt wegen dem Grafikkartentreiber ( noch kein DXR Support implementiert )
Aber sobald es zu Verfügung steht, wird auch der 3DMARK für Raytracing-GPUs rauskommen https://www.computerbase.de/news/grafikkarten/3dmark-directx-raytracing.62919/
Wenn ich den Artikel das sehe frage ich mich immer wie Unreal 1998 bessere Reflexionen hinbekommen hat als diese Demo in RTX off. Irgendwer will mich hier richtig verarschen.

Anno 1998 mal zur Erinnerung:
 
  • Gefällt mir
Reaktionen: cele, Zero_Point und GINAC
Mercsen schrieb:
DLSS läuft ja nur auf RTX Karten?
Er meinte als Vergleich. Eine 1080Ti unterschützt bekanntlich auch kein DLSS und ist im Test dabei.
Aber ich denke, dass die Vega64 ohnehin ganz unten wäre. Von daher konnte man sich das auch gleich sparen.
 
  • Gefällt mir
Reaktionen: Lübke82
R1ng0 schrieb:
Ich meine, je größer ein Level ist, desto größer müßte der Datensatz für das neuronale Netz auch werden, alles andere würde meiner Meinung nach informationstheoretisch an ein Wunder grenzen. Zumindest bei gleichbleibender Qualität.
Damit wäre entweder die Größe des Levels oder die Qualität der Kantenglättung limitiert.

Sollten diese Daten direkt in die Tensor-Cores gehen (keine Ahnung, aber ich kann mir nicht vorstellen, dass die ins RAM der Karte gehen), dann würde die Anzahl dieser Kerne die maximale Größe eines Levels bestimmen oder eben die bestmöglich erreichbare Qualität der Kantenglättung.

Oder aber, es wird nachgeladen. Ich frage mich dann aber, wie aufwändig es sein mag, diesen Datensatz zu erstellen.

Ich glaube nicht, dass die Größe der Level einfluss darauf hat. Ich würde mal behaupten, dass der Datensatz für sämtliche Spiele ähnlich groß ist. Im Endeffekt kommt halt nach dem ganzen KI Training auf den Nvidia Servern ein Algorithmus raus, der beim jeweiligen Spiel ein Upscaling erzeugt, das an natives 4K im jeweiligen Spiel rankommen soll. Dieser Algorithmus dürfte bei allen Spielen ähnlich groß sein.

Aber auch bei den Rohdaten, die der Nvidia Server zum Trainieren bekommt dürfte es keine großen Unterschiede zwischen den Spielen geben. Im Endeffekt muss ja "nur" analysiert werden, wie die Bildqualität in dem Spiel typischerweise ist und wie sie sich in 4K verändert.

Ich meine jeder Mensch kann das doch auch. Man sieht, dass Spiel x vielleicht allgemein etwas unscharf ist, das Graß zum flimmern neigt usw. das sind alles Eigenschaften, die man unabhängig der Levelgröße anhand relativ weniger Bilder bekommt. Vor allem, wenn man ein 4K Referenzbild hat, dann kann man sehr genau sagen, was genau die besonders auffälligen Schwachpunkte und Problemstellen der Niedriger aufgelösten Version sind. Und genau an diese Besonderheiten passt sich eben die KI an und versucht das beim Upscaling so zu beseitigen, dass man möglichst nahe an das Referenzmaterial rankommt.

Der Punkt ist, dass sich halt für jedes Spiel ein relativ typisches Muster ergibt, wie mit dem Bild zu verfahren ist, damit es nach dem Upscaling besser aussieht, als vorher.

Und dieses Verfahren bzw. dieser Algorithmus kann halt immer auf das Spiel angewendet werden, egal, ob das Spiel und dessen Map jetzt 2x2 km groß ist oder ob es durch Addons um mehr Fläche und content auf 10x10 km erweitert wird. Es wird ja nicht für jeden erdenklichen Bildausschnitt der Spielwelt ein AntiAliasing prerendered und dann an die User verschickt. Nein, es werden die eigenheiten des jeweiligen Renderers und dessen Bildqualität analysiert und auf Basis dessen ein Upscaling bzw. AntiAliasing Algorithmus auf Nvidias Servern errechnet, der dann auf den Tensor Cores läuft.

So zumindest mein Verständnis der ganzen Sache. Leider gibt es zu wenig Infos darüber, was genau passiert.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Digitalzombie
Botcruscher schrieb:
Wenn ich den Artikel das sehe frage ich mich immer wie Unreal 1998 bessere Reflexionen hinbekommen hat als diese Demo in RTX off. Irgendwer will mich hier richtig verarschen.

Anno 1998 mal zur Erinnerung:

Das war bestimmt dieser 3dfx Voodoo Zauber. :D
Spaß beiseite aber ich weiß was du meinst. Seit die RTX Karten angekündigt wurden und mit vergleichen um sich werfen was Lichteffekte anbelangt, scheint es ja vorher keine Fake Rasterisation Effekte gegeben zu haben.
 
KCX schrieb:
@SKu
Stimme dir zu was die 2070 angeht. Allerdings wenn ich heute eine Graka kaufen müsste, würde ich die 520€ für eine 2070 ausgeben und nicht für eine 1080...

MSI GeForce RTX 2070 Armor 8G, 8GB GDDR6, HDMI, 3x DP, USB-C (V373-014R)
MSI GeForce GTX 1080 Armor 8G OC, 8GB GDDR5X, DVI, HDMI, 3x DP (V336-004R)
https://geizhals.de/?cat=gra16_512&...0_9+8920+-+28rtxxb&sort=p&hloc=at&hloc=de&v=e

das ist doch bei 1080ti und 2080 dasselbe Spiel. Mittlerweile gleicher Preis. Ich würde hier auch eher die neue Generation nehmen.
 
  • Gefällt mir
Reaktionen: Fliz und KCX
Laggy.NET schrieb:
Ich glaube nicht, dass die Größe der Level einfluss darauf hat. Ich würde mal behaupten, dass der Datensatz für sämtliche Spiele ähnlich groß ist. Im Endeffekt kommt halt nach dem ganzen KI Training auf den Nvidia Servern ein Algorithmus raus, der beim jeweiligen Spiel ein Upscaling erzeugt, das an natives 4K im jeweiligen Spiel rankommen soll. Dieser Algorithmus dürfte bei allen Spielen ähnlich groß sein.
Denke auch nicht dass die Größe Einfluss drauf hat.

Es geht darum dass sich in jedem Game ja diverse Muster erkennen lassen. Diverse Dinge sind immer gleich. Im Prinzip ist das ja auch zb eine Mischung aus Kantenerkennung und AA, zb die ganzen Texturen selbst haben ja auch lernbare Muster. Wird mal besser, mal weniger gut funktionieren. Je eintöniger das Design, umso besser vermutlich.

In einem Shooter wäre die Glättung im direkten Sichtfeld um das Fadenkreuz zb wichtiger, genauso kann die KI zb unscharfe Bereiche erkennen, gerade mit Depth of field, muss man nicht aufwendig scalen.

Aber das zu entscheiden, das überlässt man eben dem Deep Learning und das muss man aufwendig trainieren.
 
Marflowah schrieb:
PCler haben sich immer über Konsolen lustig gemacht, weil die zum Teil Spiele in halber Auflösung gerendert und anschließend nur hochskaliert haben.

Was ich mich auch frage, wann soll das für Konsole kommen und wann? Hardwareseitig doch erst in der Playsi 500/ XBox 2050.
Hieß es nicht immer, es wird hauptsächlich für die Konsole entwickelt, da größerer Profit...und jetzt so ein PC Feature.
Von der Sache her freu ich mich ja auch, das es mal was neues von der Hardware Front gibt. Aber so wie es aussieht sind die 2 neuen Sachen nur was für UHD Spieler mit der Bereitschaft min. 800 Öcken auszugeben.
Na dann mal Prost.:lol::cool_alt:
 
Neronomicon schrieb:
Aber so wie es aussieht sind die 2 neuen Sachen nur was für UHD Spieler mit der Bereitschaft min. 800 Öcken auszugeben.
Na dann mal Prost.:lol::cool_alt:
Es sogar so, dass beide Features sogar unterschiedliche Zielgruppen haben. RTX eher die FullHD-Nutzer, DLSS ausschließlich die UHD-Nutzer. Man muss sich also schon fast entscheiden, welches der beiden Features man nutzen will, sofern überhaupt möglich.
 
  • Gefällt mir
Reaktionen: Oceanhog
Bei all dem Geschimpfe über den versauten Start, die Preisgestaltung und dem Mangel an Software, muss man nVidia wirklich zugute halten, dass sie wirklich starke Möglichkeiten für grafische Verbesserungen (auch für den Sound) und auch höherer Performance eingebaut haben.
Deswegen tut es ja im Technikerherzen irgendwie weh, wenn die Karten trotz dieser Möglichkeiten zu Recht in alle Richtungen niedergemacht werden.

In den RT und Tensor- Cores liegt großes Potenzial.
Die Restrukturierung der Pipelines versprechen bei zukünftiger Ausrichtung der Software darauf noch einmal deutliche Leistungssteigerungen.
Für deutlich komplexere Szenen in Rastergrafik sorgt das Mesh- Shading für eine Verzehnfachung der FPS (nutzt nur auch noch kein Spiel).

Bis jetzt gibt es meines Wissens immernoch keine Demo eines Spiels, das die RT Anteile paralell zur Standard- Rasterberechnung durchführt. Und das obwohl man viel Mühe in die Restrukturierung der Pipelines für die parallele Berechnung und das dafür benötigte Speichermanagement gesteckt hat.

Ich kann immer nur wieder sagen: Schade, schade, schade....
Es fehlt einfach eine Hammerapplikation, die zumindest in Grundzügen zeigt, was die Technik bei einer sauberen Implementierung zu leisten imstande ist.

So wird Raytracing in den Köpfen der User als "für korrekt spiegelnde Pfützen muss ich auf 80% der ursprünglichen FPS Leistung verzichten" im Kopf manifestiert. Das hat nVidia leider wirklich ordentlich vergeigt.

Grüße
Zero
 
Deswegen muss Nvidia ordentlich investieren und mal eine kleine Techdemo zum selber spielen bringen, bei der man dann zb dynamisch Lichter ändern kann, Spiegelungen, mit Physik die Objekts verformt und alles reagiert darauf :)

Sodass man auch sieht was in Echtzeit machbar ist wenn man will. Statische Demos wie das Star Wars Ding gab es eben vergleichbar auch schon so mit diversen Engines, in denen natürlich extremer Aufwand für die eine Szene investiert wurde. Das muss man gegenüber stellen zu dem was man auch als Entwickler nun ggf beachten muss.

Mich würde da eine Sandbox interessieren in der ich Objekte und Materialien definieren kann und mal beide Techniken vereint und auch für sich betrachten kann. Dass RT nie zum Einstand an Rasterizing Performance rankommen wird war doch sonnenklar...

Es muss halt klar sein dass wir hier ganz am Anfang stehen. Beim Wechsel von 2D auf 3D Grafik wurde sicher auch erstmal FPS und Auflösung reduziert um spielbare Grafik zu produzieren.
 
  • Gefällt mir
Reaktionen: Lübke82
Edit.
Hier stand Mist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82
Wolfgang schrieb:
Mhm? Klar ist das Spiel draußen. Der Raytracing-Patch aber noch nicht. Und ohne den gibts kein Raytracing, also kann mans noch nicht nutzen.
Aphelon schrieb:
Es unterstützt die neue Technik aber noch nicht. Das soll erst mit einem Patch nachgereicht werden. Bis dahin können wir das Potential eben nicht beurteilen.

Edit: Wolfgang war schneller
Sorry ihr zwei, wusste ich nicht und stand ja auch so nicht im Beitrag. Ich lese nur kein Spiel ist draußen, dann sehe ich in der Liste das neue TR und denke ok, dass hast du doch schon an der XOX durchgespielt also ist es doch draußen da es ja zeitgleich auch für den PC erschienen ist....
 
@Krautmaster
Wenn man die Demo von Remedy nimmst:https://segmentnext.com/2018/10/17/nvidia-rtx-2080-ti-remedy/
in der sie alle Register ziehen, kommen die auf Berechnungszeiten von 2.3ms für Schatten, 4.4ms für Reflexionen und 2.5ms für den Denoiser.

Sind 9.2ms, womit bei Einsatz all dieser Techniken eine theoretische FPS Rate von knapp über 100FPS möglich wäre, wenn die Berechnung komplett parallel zum sonstigen Rasterisierungsverfahren laufen würde (da wird es sicher noch irgendwelche Verluste durch Abhängigkeiten bzw. nicht- parallelisierbare Vorgänge geben).

Dennoch - Selbst wenn "nur" 80 FPS in 1080P und "nur" 60FPS in 1440P gingen, hätte nVidia in diesem Punkt, nämlich dass die Technik marktreif ist, nicht geflunkert...

Aber wie gesagt... Hätte, könnte, wäre etc. reicht bei diesen Preisen einfach nicht aus.

Grüße
Zero
 
Zuletzt bearbeitet:
ich weiß noch wie damsls bei den tnt grakas über die sinnlosigkeit von 32-bit rendering hergezogen wurde und die tnt2 (ultra) war ja soooo teuer.
dann kam die geforce 256 und die t&l engine war das was jetzt bei den rtx das raytracing ist. wurde anfangs nur von einer handvoll spielen unterstützt und die ddr variante der geforce256 war ja angeblich soooo überteuert... ;)
 
Zuletzt bearbeitet: (typo)
  • Gefällt mir
Reaktionen: SavageSkull und Lübke82
cypeak schrieb:
ich weiß noch wie damsls bei den tnt grakas über die sinnlosigkeit von 32-bit rendering hergezohen wurde und die tnt2 (ultra) war ja soooo teuer.
dann kam die geforce 256 und die t&l engine war das was jetzt bei den rtx das raytracing ist. wurde anfnags nur von einer handvoll spielen unterstützt und die ddr variante der geforce256 war ja angeblich soooo überteuert... ;)

Als ich meine erste 3D Karte gekauft habe, gab es noch kein 3D-Spiel, nur ein paar Benches. Kumpels angerufen und im Kreis gestaunt, nur spielen konnte man noch nicht ;)
 
  • Gefällt mir
Reaktionen: Lübke82 und Oceanhog
wird eventuell bei der nächsten oder übernächsten Generation interessant. Ist bekannt ob SC es irgendwann mal unterstützen wird, wäre genau dafür gemacht.
 
Mich machen diese Demos nicht wirklich an. Nennt mich einen Ignoranten aber stabile 60FPS in 4K hätten meine Augen eher zum glänzen gebracht. Ich finde diese Generation die enttäuschende seit Jahren und Raytracing ist ein hübsches Gimmick aber mehr auch nicht. Zumindest eben bei ignoranten Gamern wie mir!
 
Zurück
Oben