News DirectX 12: Futuremark zeigt DirectX Raytracing (DXR) am 3DMark

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.912
Wow, das sieht ja tatsächlich auffällig besser aus. Nicht schlecht. Fragt sich nur wie lange es dauern wird bis gängige Software das unterstützt und gängige Hardware das zu berechnen in der Lage ist. Eine Titan V halte ich nicht für "gängige" Hardware ;)
 
Sieht schon toll aus. Performance sollte da aber etwas stark einbrechen wenn keine Tensor-Cores zum Zuge kommen, denke ich mal.
 
Acrylium schrieb:
Wow, das sieht ja tatsächlich auffällig besser aus. Nicht schlecht. Fragt sich nur wie lange es dauern wird bis gängige Software das unterstützt und gängige Hardware das zu berechnen in der Lage ist. Eine Titan V halte ich nicht für "gängige" Hardware ;)
Sobald Volta-GPUs für den Massenmarkt kommen. Die Tensor-Recheneinheiten eignen sich wohl besonders gut für Raytracing, und die gibts bisher nur mit Volta, soweit ich weiß.

Es gab hier auf CB auch mal ein paar Gastbeiträge zum Thema Raytracing. Das kocht immer mal wieder hoch und dann hört man nichts mehr davon. Vielleicht setzt es sich jetzt mal durch im Spielebereich.

https://www.computerbase.de/2007-01/bericht-raytracing-in-spielen/
https://www.computerbase.de/2008-03/bericht-raytracing-in-spielen-2.0/
https://www.computerbase.de/2009-01/bericht-quake-wars-mit-raytracing/
https://www.computerbase.de/2011-02/bericht-ray-tracing-4.0/
https://www.computerbase.de/2012-03/bericht-ray-tracing-5.0/
 
Zuletzt bearbeitet:
Bin ich der einzige, der sich wünscht, dass stattdessen endlich mal DoF-Effekt gescheit aussehen soll? Aktuell wirkt der praktisch ausnahmslos wie die Software-Portrait-Funktion des IPhones*. Auf den allerersten Blick okay, dann fallen einem die Unzulänglichkeiten sofort auf und bleiben auch. Gerade an den Rändern von Vordergrund-Figur zu unscharfen Hintergrund kommt soooo ein erbärmlich hässlicher, flimmernder, und einfach nur falscher Übergang zum Einsatz... jedem Foto- und Videographen blutet da das Herz.

*Und wo ich die technischen Hintergründe dafür beim IPhone nachvollziehen kann, gibts in einer 3D-Engine keinerlei Ausreden - außer "Performance". Aber gerade in einem Benchmark ist das wohl das letzte Kriterium...
 
Zuletzt bearbeitet:
Die Schatten sehen überwältigend aus, hoffe das setzt sich wirklich in der Spieleindustrie durch.:)
 
in der Spieleindustrie schon, nur bis dafür nur annährend brauchbare hardware vorhanden ist werden noch jahre vergehn....ich glaube wir reden schon seit 10 jahren über Raytracing und passiert ist nicht viel.

naja, wenigstens tut sich was ;)
 
Zuletzt bearbeitet:
AndrewPoison schrieb:
Bin ich der einzige, der sich wünscht, dass stattdessen endlich mal DoF-Effekt gescheit aussehen soll? Aktuell wirkt der praktisch ausnahmslos wie die Software-Portrait-Funktion des IPhones*. Auf den allerersten Blick okay, dann fallen einem die Unzulänglichkeiten sofort auf und bleiben auch. Gerade an den Rändern von Vordergrund-Figur zu unscharfen Hintergrund kommt soooo ein erbärmlich hässlicher, flimmernder, und einfach nur falscher Übergang zum Einsatz... jedem Foto- und Videographen blutet da das Herz.

*Und wo ich die technischen Hintergründe dafür beim IPhone nachvollziehen kann, gibts in einer 3D-Engine keinerlei Ausreden - außer "Performance". Aber gerade in einem Benchmark ist das wohl das letzte Kriterium...

neben Motion Blur halte ich Chroma und DOF in nahezu jedem Spiel für absolut uberflüssig und störend. Das sind die drei ersten die auf Off gehen bei mir. Lieber Energie und Entwicklung in anderes stecken, als diese sinnlosen Effekte.
 
Zuletzt bearbeitet:
Also ja, das Raytracing sieht super aus, aber gefühlt haben die bei dem Render ohne Raytracing die Shadowmaps bewusst unterirdisch schlecht gesetzt..
 
"Futuremark hofft, noch bis Ende dieses Jahres die DXR-Sequenz in den 3DMark zu integrieren." sicher nicht genau zum Launch einer Neuen, 1K++ Euro teuren Nvidia Karte. Nein, sicher nicht. Ein Schelm wer böes denkt.

Weckt vermutlich nicht nur bei mir die Erinnerung ein ein gewisses "Tesselation" Benchmark, wo absichtlich die Tesselation so idiotisch hoch geschraubt wurde, damit die Konkurenz (nicht nur aus eigenem Hause) maximal schlecht dasteht. Und was hat es optisch gebracht? Fast nix.

Trau mich wetten, dass sich die Geschichte wiederholt. Nvidia wird das Raytracing über den grünen Klee loben und uns mit Marketing Müll überschütten. Und wie hier in diesem Beispiel wird man Szenen vergleichen in denen der konventionelle Renderer absichtlich möglichst schlecht aussieht, damit die angeblichen Vorteile einer neuen Technologie hervorstechen. Anders würde es nämlich niemand bemerken bzw. sich niemand darum scheren.

Mark my words. Genauso wird es kommen.
 
Ich würde gerne mal den Vergleich mit ordentlich integriertem VXAO sehen. 3DMark sieht ja echt nicht mehr zeitgemäß aus.
 
Ic3HanDs schrieb:
Also ja, das Raytracing sieht super aus, aber gefühlt haben die bei dem Render ohne Raytracing die Shadowmaps bewusst unterirdisch schlecht gesetzt..

das starke Gefühl habe ich auch! Vergleich von Szenen wo die eine Seite absichtlich möglichst schlecht aussieht, damit das "neue" besser dasteht.
 
AFAIK müssen Rasterizer und Geometriepipeline anders sein bei RT. Das hat mit den Tonsorcores 0 zu tun. Volta hat einfach ne flexiblere Geometriepipeline.
Übrigens eignet sich auch Vega sehr gut dafür, vor allem dank der flexibleren Primitiv-Shader-Geometrieeinheit.
Nur die starren Pascal/Maxwell und Polaris eigenen sich denke ich nicht sonderlich gut dafür. Ich bin mal gespannt, wie das nachher aussieht von der Performance her. Ich könnt mir vorstellen, dass Futuremark die DXR-Variante von Timespy in Kürze in die 3DMark einbaut. Dann sehen wir mehr.
 
Zuletzt bearbeitet:
HOT schrieb:
AFAIK müssen Rasterizer und Geometriepipeline anders sein bei RT. Das hat mit den Tonsorcores 0 zu tun.

Die Erklärung gabs doch schon in einer anderen News. Die Raytracingberechnungen werden per DirectCompute gemacht, oder im Falle von Volta über die Tensor-Cores, denn die sind zig-fach schneller bei diesen Berechnungen als die gewöhnlichen Computeeinheiten.
Das was Pascal, Maxwell, Vega und Polaris nutzen können ist ein Fallback-Modus im Schneckentempo.
 
Achtung noob alarm:

Wäre es möglich mit RT die jetzige Art und Weise der Grafikberechnung völlig zu verändern und das eine Grafikkarte nur noch "RT-Einheiten" hat?
 
Die vierfache Rechenleistung einer 1080ti sollte bereits einiges ermöglichen, dazu hochgetaktete 8Kerner mit optimierten Engines, 32GB VRam, 32/64GB Ram, 10tb ssd's, sonstige hardwaretechnische Verbesserungen..

4k Raytracing wäre aber bissl hart, aber schon mit obigem wird man in ein paar Jahren rechnen können.
 
Lübke82 schrieb:
Sieht schon toll aus. Performance sollte da aber etwas stark einbrechen wenn keine Tensor-Cores zum Zuge kommen, denke ich mal.

Kommt auf die GPU an.
GP104 jopp, bei Vega10 nicht so sehr da DXR auch gebrauch von FP16 machen kann.
Ein GP102 ist wohl aber immer noch schneller gegen ein Vega10 64 ohne PS, wenn man z.b. Wolfenstein 2 sieht.
Dürften aber so oder so beide ein gute Stück hinter V100 liegen mit seinen TensorCores, das ding kommt mit fast doppelter DIE Size an und nutzt damit auch die TC die wohl auch darauf ausgelegt sind durch RTX.
3k€ ist die neue Titan Voodoo aber immer noch nicht wert, auch wenn es mich juckt die fetteste GPU DIE ever im Haus zu haben. :D
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben