News Intel zeigt Projekt „Wolfenstein: Ray Traced“

Vidy_Z schrieb:
Das es machbar ist, wissen wir doch nach über 10 Jahren Machbarkeitsstudie. Wo geht also die Reise hin?

Vor 10 jahren hätte man so eine "sequenz" aber in mehreren Tagen berechnen lassen müssen. Hätte man da was von Echtzeit gesagt, wäre man ausgelacht worden.

Einigen Leuten hier scheint die komplexität und der damit verbundene Rechenaufwand solcher Berechnungen nicht klar zu sein.

In meinen Augen eine bemerkenswerte Leistung.
 
Mann Stelle sich Metro2033 mit solchen Spiegelungen auf den Lampen vor,oder auf Metallen.
Alles noch weit entfernt von Alltagstauglichkeit,aber dennoch faszinierend.
 
Das ist ja genau das, was mir nicht wirklich klar wird. Vor acht oder zehn Jahren wurde an der Uni Saarbrücken bereits Raytracing in echtzeit berechnet, wenn ich mich richtig erinnere mit einem Cluster von 80+ Rechnern. Das war geradezu revolutionär. Spiegelungen in Quake gab es damals auch schon zu bewundern, sogar noch mehr: eine wirkliche indirekte Beleuchtung. Auch eine einfache Voxelgraphik war auf der Uniwebseite zu bewundern. Das hat damals eingeschlagen wie eine Bombe und darauf wurde Intel ja schließlich auch aufmerksam. Was ist inzwischen hinzugekommen? Refraktion, der Wechsel von Quake auf Wolfenstein, die Vervielfachung der Geometrie wärend die Indirekt Illumination wieder verschwunden ist. Vielleicht habe ich ja was übersehen, aber bis auf die Refraktion sehe ich da nicht viel mehr als die Optimierung bzw. Portierung des vorhandenen Codes ohne irgendwelche neuen Ideen oder Techniken einfließen zu lassen. Was damals beeindrukte sieht aber heute ziemlich altbacken aus. Dabei soll das Raytracing auf der Intel Cpu doch die Neugier von Spieleentwicklern und Renderinganwendern wecken.

Ob bei Nvidia Cuda, ob bei AMD Stream oder bei unabhängigen Engineentwicklungen, überall werden derzeit neue Fortschrittserfolge beim RealTime RayTracing präsentiert, welche zum Teil umwerfend Ergebnisse zu Tage fördern. Die Konkurrenz schläft halt nicht!

Was ich bei dem RT Projekt also bewundere, ist das mutige und beherzte Vorgehen, mit dem damals das Problem der akkuraten Lichtberechnung angegangen wurde(eine Pioniertat!) und die gute Dokumatation dessen. Was ich dabei jedoch schmerzlich vermisse, ist eine Lösung für die GI. Denn noch so viele Spiegelungen und noch so viele Refarktionen können eine akkurate Lichtverteilung nicht ersetzen. Ich würde sogar noch weiter gehen und behaupten, dass eine gute Implemetation der GI viel entscheidender ist dafür, Zuschauer zu beeindrucken und im selben Moment die Attraktivität der Intelplattform zu steigern.
 
Könnte es doch noch ein Hoffnungsschimmer geben das es mal Grafikkarten (GPUs) von Intel geben wird? Wenn das gut ankommt in Servermarkt könnte sich ja Intel noch mal dazu entscheiden. Ich hoffe es sehr.
 
Ich wäre schon froh wenn jeder Frame für meinen Kurzfilm nicht 30 min rendern müsste...
 
So, ich möchte auch mal meinen Senf dazugeben (eine Warnung vorweg, ich bin ein Raytracing Fan und verfolge die Entwicklung schon seit Jahren und ich habe natürlich selber ne kleine Raytracing Engine geschrieben).

Das GPU Rendering Program smallLuxGPU ist zwar nett und scheint schnell zu sein, allerdings benutzt es das ("unbiased", heißt nur, das nicht getrickst wurde und das Licht realistisch von der Lichtquelle zum Auge geraycastet wurde) Forward Raytracing, was den Nachteil hat das man immer ein Bildrauschen hat und die Rendering zeit extrem lange dauern kann bis man ein brauchbares Bild hat. Biased Backward Raytracing (was Intel macht) hat für mich mehr Zukunft weil man ein "perfektes" Bild sehr "schnell" bekommt(auch wenn man für GI und Photon-mapping tricksen muss).

Die Sache mit dem GI ist son Ding, bei GI sind die Speicherzugriffe ziemlich zufällig weshalb es sicher noch nicht gezeigt wurde...

Funktioniert da eigentlich Nvidias Cuda-Raytracer besser?
GPUs schwächeln aufgrund des kleinen/fehlenden caches _extrem_ bei Reflektionen weil die Speicherzugriffe nicht koherent (also ungeordnet) sind, aber Grakas haben dafür spezielle Hardware zum Texturen filtern was auch extrem viel Rechenzeit braucht was eine schwäche der reinen CPU renderer darstellt.

Ajo und der Typ in dem Vid hat nen "feines" Englisch. Und so schön abgelesen. Am besten noch, dass er die Army-Leuts als "Monsters" bezeichnet hat. Und ich frag mich warum der Crap trotz 38 fps ruckelt...
>Microruckler

Das sind keine Microruckler, liegt warscheinlich am Video aber apropos,
Raytracing lässt sich extrem gut parellelisieren(anders als bei der Rasterisierung, weshalb man bei den mutli-GPU techniken immer Microruckler haben wird) und das ist einer _der_ Vorteile von Raytracing weil die GPU's immer höher Takten um die Polygone wegstampfen zu können aber das wird nicht ewig so weitergehen können weil es Physikalische Grenzen gibt (15nm Grenze, Kühlung usw.).

Ich stell mir das in Zukunft so vor das man eine GPU/CPU haben wird deren 100/1000 Kerne niedrig getacktet sind (um nicht so viel Energie zu verheizen), die Architektur wird auch noch Hardware Textur-Filter Einheiten haben und eventuel Raytracing Hardwareeinheiten (kd-Tree, BVH wanderung usw) besitzen *Träum*.

Ich hoffe mal das auch bald only Raytracing effekte gezeigt werden (ich rede hier von echten Volumetrischen Rauch/Effekten) was natürlich extrem viel Rechenleistung verschlingt aber auch Hammer aussieht.

Die Entwicklung ist einfach erstaunlich und ich bin gespannt was in zukunft so noch auf uns zu kommen wird.
 
Zuletzt bearbeitet:
2020 sieht nen gamingrechner dann so aus

1 cyrix pentacore 5ghz :D
2 amd sli grafikkarten
1 intel raytracing karte
1 nvidia phys-x karte
 
So an die leute die dauernd sowas posten wie, diese licht effekt gabs schon in dem spiel, diesen kameraeffekt in steam usw

Der Vorteil an Ray Tracing ist allerdings dass man für all diese effekte keine 300 Seiten Code mehr braucht, die auch noch fein aufeinander abgestimmt sein müssen damit sie au funktionieren

Korrigiert mich wenn ich das damals falsch verstanden hab =]
 
Du hast das schon richtig verstanden. Korrekte Reflexionen und der Kram entsteht bei Raytracing mal so eben nebenbei.

Leider ist das Problem die Anzahl der Strahlen, die man verfolgen muss. Beim klassischen Raytracing sendet jeder Pixel auf dem Monitor einen Strahl aus. Der trifft dann irgendwann auf ein Polygon o. ä. Je nach Beschaffenheit der Kollisionsstelle, wird der Strahl geschluckt und damit wäre die Farbe des Pixel bestimmt oder es werden Sekundärstrahlen im korrekten Winkel ausgesendet. Das passiert zB bei Reflexionen. Wenn man jetzt noch schicke Lichteffekte wie Global Illumination haben will, braucht man eine ganze Menge mehr Sekundärstrahlen.
Man hat dann ganz schnell einen unübersehbaren Haufen an Strahlen, die berechnet werden müssen. Und das bringt leider im Moment jeden normalen PC in die Knie.

Nehmen wir mal ein kurzes Beispiel:
1024 x 768 Pixel, je ein Primärstrahl.
Da, wo die Primärstralhen auftreffen, werden 20 Sekundärstrahlen erzeugt. Die Sekundärstrahlen schicken jeder noch 5 Strahlen zu 5 Lichtquellen aus (ich nenne sie mal Tertiärstrahlen), damit es nicht ganz so duster ist.

1024 Pixel x 768 Pixel x 20 Sekundärstrahlen x 5 Tertiärstrahlen x 30 fps = 2.359.296.000 Strahlen für eine Sekunde flüssiges Bild.

Spinnen wir das mal weiter: Angenomen im Raum befinden sich 100 Objekte (Stühle, Wände, Bilder etc.), auf die die Strahlen treffen können. D. h. bei jedem Strahl, der berechnet werden muss, muss geprüft werden, ob und mit welchen Objekt er kollidiert. Das macht 235.929.600.000 Kollisionsabfragen in der Sekunde.

Bei jeder Kollision ändern sich die Lichtinformationen (Farben werden gemischt, Helligkeiten ändern sich, die Oberfläche des Kollisionsobjekts spielt auch noch eine Rolle, usw.). Pro Kollision kommen dann also auch noch weitere Berechnungen in der Hinsicht dazu.

Für FullHD (1920x1080 Pixel) hätte man 6.220.800.000 Strahlen und damit 622.080.000.000 Kollisionsabfragen pro Sekunde.
Kurz gesagt, im Moment braucht man dafür noch einen Supercomputer.
Intel forscht daran, wie man die Algorithmen und Datenorganisation optimieren kann, dass man keinen Supercomputer dafür braucht.
 
Zuletzt bearbeitet:
Hello, im german, my inglisch is not very gut^^
 
KAOZNAKE schrieb:
IMO dauert das noch minimum 10 Jahre, bevor wir davon auch nur annähernd was auf unseren PCs zu sehen bekommen. Evtl. wird eine neue (nicht die nächste!!) Konsolengeneration den Zeitenwechsel einläuten, denn auf so einer geschlossenen Plattform geht sowas ja bekanntlich leichter.
Gar nicht mal so unschlecht hervor gesagt
 
  • Gefällt mir
Reaktionen: KAOZNAKE und Karre
Zurück
Oben