Intel zeigt Raytracing-Engine für PC-Spiele
Prozessorprimus Intel stellte auf der Games Convention Developer Conference (GCDC) eine eigens entwickele Raytracing-Engine vor, die nicht nur Ausblick auf zukünftige Spielegrafik geben könnte, sondern auch demonstriert, dass die Raytracingtechnik durchaus für flüssige Echtzeitberechnungen herhalten kann.
So ist weniger verwunderlich, dass sich mit Raytracing überaus exakte Computergrafiken erzeugen lassen – immerhin wird diese Technik bereits seit Jahren bei Animationsfilmen angewendet, deren Detailgrad jenen aktueller PC-Spiele bei weitem übersteigt. Weit oberhalb von Computerspielen war und ist jedoch auch der Anspruch an die Hardware angesiedelt: Ein einzelnes Bild für einen aktuellen Animationsfilm wird auch heute noch in mehreren Stunden oder Tagen von ganzen Rechnerlandschaften zusammengesetzt; für ein flüssiges Spielen an einem Durchschnitts-PC empfahl sich die Technik daher bisher kaum. Die auf der GCDC gezeigte Raytracing-Engine ändert dies jedoch und demonstriert, dass nicht nur auf potenten PCs, sondern auch auf Handhelds und portablen Konsolen Raytracing-Grafik möglich ist.
So demonstrierte Daniel Pohl, der bereits Raytracing-Versionen von Quake 3 und Quake 4 entwickelte, zusammen mit Intel eine Engine, die flüssig auf einem Test-PC mit zwei Quad-Core-Prozessoren lief. Die Bildwiederholrate soll hierbei bei 127 FPS liegen, für den heimischen PC sind diese Werte jedoch auch bisher nicht schaffbar. So skaliert die Raytracing-Engine beinahe linear mit den zur Verfügung stehenden Kernen – in diesem Falle also acht Stück. Das heißt, dass gegenüber einer Single-Core-CPU die 7,8-fache Geschwindigkeit – so der errechnete Wert von Daniel Pohl – mit dem Acht-Kern-Gespann auf der GCDC erreicht wird. Ein-Kern-Prozessoren würde der selben Szene folglich nur zu etwa 16 FPS verhelfen können.
Auch aktuelle Grafikchips oder der Cell-Prozessor von IBM könnten keine besseren Ergebnisse bei Raytracing-Berechnungen liefern, da sich diese bisher nicht für den alternativen Renderweg empfehlen. Raytracing würde auf einem aktuellen G80 oder der IBM-CPU deutlich langsamer laufen, so Daniel Pohl, weswegen bisher auch ausschließlich der Prozessor die Render-Arbeit übernimmt.
Dass dieser aber so exzellent mit mehreren Kernen skaliert, macht zusammen mit anderen Eigenschaften der Raytracing-Technik Mut auf zukünftige Computerspiele mit extrem detaillierter Grafik: So konnte Daniel Pohl einerseits mit einem Versuchssystem, dem insgesamt vier Quad-Core-CPUs, verbunden via Gigabit-Ethernet, zur Verfügung standen, nachweisen, dass die insgesamt 16 Kerne zu einer 15,2-fach höheren Geschwindigkeit im Vergleich zu einem Single-Core führten. Auf der anderen Seite wächst der Rechenaufwand bei der Darstellung mit Hilfe der Raytracing-Technik nicht linear, wie es derzeit bei der Rasterisierung der Fall ist, sondern logarithmisch. Ab einem bestimmten Detailgrad ist also Raytracing schneller als die Darstellung der 3D-Umgebung mit Hilfe von Polygonen. Das zudem korrekte Spiegelungen, pixelgenaue Schattenwürfe und aufwändige Lichteffekte quasi nebenbei ermöglicht werden, spricht ebenso für diese Render-Technik.
Linear verhält sich hingegen der Rechenaufwand für Raytracing-Darstellung in Bezug zur Anzahl der Pixel. Dies eröffnet besondere Möglichkeiten für den Handheld-Markt: So würde ein und dieselbe Szene, die bei einer Auflösung von 1280 x 720 Pixeln noch mit 30 FPS lief, in einer Auflösung von 256 x 192 Pixeln bereits mit 563 FPS dargestellt werden können. Die nötige Hardware für die Bildberechnung könnte also beinahe um den Faktor 19 langsamer sein und dennoch bei gleichem Detailgrad eine anspruchsvolle Szene abbilden – nur auf kleinerem Monitor.
Daniel Pohl nannte noch keinen genauen Zeitplan, wann die Raytracing-Engine von Intel fertiggestellt wird. Er deutete jedoch an, dass bereits 2009 erste Spiele auf Basis der neuen Render-Technik erscheinen könnten.
Für einen detaillierten Einstieg in die Welt des Raytracing empfiehlt sich der von Daniel Pohl für ComputerBase verfasste Artikel zu diesem Thema.