Notiz Techdemo: Echtzeit-Raytracing mit Nvidia RTX im Video

Das ist kein echtes raytracing, dafür würde die power von 1000 x GTX1080 nicht reichen. Das was dort gemacht wird ist Raytracing simulieren, so etwas wie Audi A7 mit einem Trabant vergleichen, oder holländische Tomaten, das sind keine echte Tomaten, die wachsen auch nur im Süden und haben eine komplett anderen Geschmack. Genauso hier, echtes Raytracing sieht um Welten viel besser aus. Das was dort gezeigt wird kann auch Blender 3D 2.8 Eevee jetzt mit einer gtx1050...Fake Raytracing
 
Nvidia selbst gibt ja zu, das es fake raytracing ist.

Das "Spiel" läuft weitestgehend mit rasterisierung.

Nur die Beleuchtung und Reflexionen werden mit raytracing berechnet.
Und auch da werden nur wenige Pixel korrekt per raytracing berechnet und der Großteil wird durch eine KI dazu erfunden..
 
Hi,

und weil nicht alles vollständig Raytracing ist ist es "Fake" Raytracing? Ich glaube, wir verwenden da die Begriffe wohl ein wenig anders...

VG,
Mad
 
Also, bitte echtes Raytracing nicht mit diese Fake Darstellung vergleichen, es ist so
ein Riesenunterschied zwischen Fake und echt...ich habe eine Szene hier, die wird mit 1080gtx ca. 10 min/Frame berechnet, also für 20Frames/s müssten 10 x 60 x 20 , also theoretisch 12000x 1080gtx gleichzeitig berechnen...ich denke, auch ein Quantencomputer hätte damit Probleme, vielleicht in 300-500 Jahren werden wir echtes Raytracing in Echtzeit haben...Klar, bestimmte einfache Szenen werden schneller berechnet, aber komplexe Szenen können wie hier nur gefaked werden, es ist sehr schön mit der Phantasie der "Raytracing-Gläubiger" zu spielen...Fastfood fürs Auge...es ist trotzdem schön zu sehen...aber bitte nicht Raytracing in Echtzeit nennen, das ist nicht richtig.
 
Lol, von exponenziellem Anstieg hast du wohl noch nie was gehört oder? Weil sonst kämst du nicht auf mehrere Hundert Jahre.

Ausserdem geht es nicht um komplettes Raytracing an sich, sondern darum, einzelne Effekte mit Raytracing korrekter und besser darstellen zu können. Wo ist dein Problem? Nenn es wie du willst, fakt ist, dass hier Raytracing genutzt wird. Wenn dir nicht klar ist, dass Raytracing auch in sehr kleinem und vereinfachtem Maßstab nützlich ist, dann solltest du es vielleicht einfach gut sein lassen...

Alleine dass du es als Fake Rayracing betitelst zeigt doch, dass du scheinbar keine Ahnung hast, was hier eigentlich bezweckt werden soll. Kleiner Tipp: Jedem hier ist klar, dass das hier demonstrierte Raytracing nicht mit einem vollständig per Raytracing berechneten Bild vergleichbar ist. Captain Obvious...
 
  • Gefällt mir
Reaktionen: Baal Netbeck
@taxishop

Naja ganz so hard sehe ich das nicht.
Die einzelnen Pixel, die genutzt werden um damit die KI zu füttern werden durchaus in Echtzeit korrekt per Raytracing berechnet werden.
Es ist also schon Raytracing vorhanden.

Aber es ist eben kein Spiel in Raytracing sondern nur eine Reihe Effekte, die mit Raytracing verbessert werden.

Selbst pures Raytracing ist denke ich auch gar nicht so weit weg.... von der Machbarkeit her.
Bis jetzt gab es keine Hardware, die auf diese Art von Berechnung spezialisiert war.
Die großen Vorteile von Rasterisierung waren in der Vergangenheit, das das "projezieren der Dreiecke auf die Bildschirmebene" mit einer Projektion gleich einen ganzen Bereich des Bildschirms auf einmal fertig hat.
Richtiges Raytracing hingegen muss jeden Pixel einzeln berechnen.
Aber um so komplexer die Szene wird, um so geringer der Vorteil der Rasterisierung.
Irgendwann ist der Punkt erreicht, wo Raytracing weniger Aufwand ist...da sind wir natürlich noch nicht, aber es wäre sicherlich ein leichtes eine 3D Szene zu entwerfen, wo Raytracing besser läuft.
Vor allem runde Objekte, können mit Raytracing problemlos perfekt rund sein....mit Rasterisierung sind es (abhängig von der kleinsten Schrittweite), schier unendlich viele Flächen, die projeziert werden müssten.

Wenn Nvidia jetzt "Raytracing cores" entwickelt hat, dann wäre es ein leichtes daraus eine GPU mit vielen tausend dieser Processoren zu bauen, die dann ein Spiel in echtzeit stemmen könnten.

So wie ich Raytracing verstehe, ist die komplexität dabei eher zweitrangig. Es wird nur das berechnet, was auch von "Strahlen" getroffen wird. Die Achilisferse ist die Auflösung.
 
taxishop schrieb:
Also, bitte echtes Raytracing nicht mit diese Fake Darstellung vergleichen,.
Definiere "echtes Raytracing". Wahrscheinlich meinst du eine Variante vom Raytracing die globale Beleuchtung berechnet wie Path Tracing oder Monte Carlo Raytracing. Eine solche Variante werden die Nvidia Leute auch für ihre Demo verwendet haben.....

Baal Netbeck schrieb:
@taxishop
Selbst pures Raytracing ist denke ich auch gar nicht so weit weg.... von der Machbarkeit her.
Bis jetzt gab es keine Hardware, die auf diese Art von Berechnung spezialisiert war.
Die großen Vorteile von Rasterisierung waren in der Vergangenheit, das das "projezieren der Dreiecke auf die Bildschirmebene" mit einer Projektion gleich einen ganzen Bereich des Bildschirms auf einmal fertig hat.
Richtiges Raytracing hingegen muss jeden Pixel einzeln berechnen.
Aber um so komplexer die Szene wird, um so geringer der Vorteil der Rasterisierung.
Irgendwann ist der Punkt erreicht, wo Raytracing weniger Aufwand ist...da sind wir natürlich noch nicht, aber es wäre sicherlich ein leichtes eine 3D Szene zu entwerfen, wo Raytracing besser läuft.
Vor allem runde Objekte, können mit Raytracing problemlos perfekt rund sein....mit Rasterisierung sind es (abhängig von der kleinsten Schrittweite), schier unendlich viele Flächen, die projeziert werden müssten.

Der Vorteil vom Raytracing sind weniger runde durch Splines approximierte Objekte (die bekommt man auch mit rasterisierung gut hin) sondern globale Beleuchtungseffekte. Diese sind auch das was höllisch viel Rechenleistung kostet. Geht es einem mit Raytracing nur darum nur einfach die Objekte auf die Bildfläche zu projezieren, so ist es nicht wesentlich aufwändiger als Rasterisierung, da es nur einen einigne Primärstrahl (AA ignoriere ich hier mal) pro Pixel benötigt. Wenn dieser Primärstrahl aber die Oberfläche trifft, muss man für globale Beleuchtung noch Sekundarstrahlen erstellen, die wenn sie wieder irgendwo auftreffen wietere Sekundärstrahlen erzeugen können. Im Prinzip ist das eine Rekursive Integration die für ein gutes Ergebnis, je nach Szene, mehrere Hundert bis Tausend Sekundärstrahlen benötigen kann.
 
Raytracing ist der megafail überhaupt, Directx12 only ist einfach nur lächerlich... die billig API nutzt eh kein Spiele-Entwickler. Selbst Vulcan was um einiges besser ist wird nicht von den Entwicklern benutzt... weil man sich einfach die Zeit für die zusätzlichen Optimierungen sparen kann und greift deswegen auf DX11 zurück.

Und mal ehrlich, wenn ich mir die Effekte/Texturen angucke dann sieht man da kaum verbesserung zu DX11 ohne Raytracing.
 
Raytracing ist nicht DX12-only, hört mal auf so Halbwissen zu verbreiten...
 
Zuletzt bearbeitet:
Ja ist das so?

Dann lass mal hören... worüber wird denn Raytracing unterstützt?

Bitte angaben mit quelle, bis jetzt wird "nur" von DX12 gesprochen.
 
Vulkan zb.

Mir ist übrigens egal ob du es mir nicht glaubst, nicht mein Problem, such dir selbst eine Quelle!
 
Untermstrich ändert sich auch nix groß an meiner aussage... halt "nur" low level api... solange kein DX11 support besteht, ist und bleibt es ein Papiertiger.
 
Dx11 hat aber keinen Vorteil außer viel Erfahrung der Entwickler.
Ich gehe davon aus, das die dx12 Schwäche der Nvidia Karten mit der neuen Architektur Geschichte ist und irgendwann müssen die Entwickler eh Low Level APIs gehen.
Da ist RT eine gute Gelegenheit damit anzufangen.

Durch die Art wie dx11 die drawcalls behandelt, wird es einfach immer problematischer wenn immer mehr Objekte und Effekte in den Spielen vorkommen.
Nvidia trickst da ganz gut drum rum aber es ist eben doch nur eine Notlösung.

Wir werden nicht mehr so viel Steigerung bei der single thread Leistung sehen, aber es finden immer mehr CPU Kerne Einzug in die Spielerechner.

Low Level APIs machen es möglich diese mit verminderter inter core Kommunikation zu nutzen
Die Threads können die Daten direkt an die GPU senden, ohne erst alles aufzuteilen und wieder zusammen zu führen. Um so mehr Kerne um so länger werden ja die inter core latenzen...nicht nur bei AMD sondern auch bei Intel an den X299 CPUs zu sehen....da ist es nötig anders zu Programmieren, sonst verpufft die Mehrleistung durch die vielen Kerne.

Ich weiß nicht warum man an dx11 festhalten möchte außer Man hat Angst, dass die Entwicklung die eigene Hardware benachteiligt.
 
Hill Ridge schrieb:
Warum gehst du davon aus?
Weil Nvidia RT bringt und RT mit DX12 kommt.....Und wer extra Ausführungseinheiten für RT erfindet und erstellt, der wird auch in der Lage sein einen ordentlichen Hardwarescheduler für DX12 zu implementieren.
Wenn AMD das seit Jahren schafft, sollte das für Nvidia kein Problem sein...bis jetzt gab es halt keinen Grund für Nvidia, was sich aber mit RT ändert.

Hill Ridge schrieb:
Low-Level APIs gibt es aktuell aber nur auf den Konsolen.
Soweit ich weiß sind DX12, Vulkan und Mantel alles drei low level APIs....und zumindest ich nutze DX12 am PC in AotS, ROTTR und Hitman.
 
DonnyDepp schrieb:
Remake von dem hier?
Sieht auch Geiler aus :-D
 
Baal Netbeck schrieb:
Und wer extra Ausführungseinheiten für RT erfindet und erstellt, der wird auch in der Lage sein einen ordentlichen Hardwarescheduler für DX12 zu implementieren.
Turing basiert aber noch immer auf G80.

Soweit ich weiß sind DX12, Vulkan und Mantel alles drei low level APIs....
DX auf der XBone ist low-Level.
DX für den PC ist nicht Low-Level.

Vulkan und Mantle ist auch nicht Low-Level.
 
Hill Ridge schrieb:
DX auf der XBone ist low-Level.
DX für den PC ist nicht Low-Level.

Vulkan und Mantle ist auch nicht Low-Level.
Au weia, da hat aber jemand Ahnung. Also wenn die anderen 1.009 Beiträge, die du in gerade mal 3 Monaten verfasst hast, eine ähnliche Qualität haben... :rolleyes:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: m.Kobold und Baal Netbeck
Zurück
Oben