Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Ein Jahr nach seinem ersten Bericht gewährt unser Gastautor Daniel Pohl, Experte in Sachen Raytracing in Spielen, einen Einblick in Fortschritte auf diesem Gebiet. Insbesondere werden die Vorteile des alternativen Rendering-Verfahrens gegenüber der heutzutage ausschließlich verwendeten Rasterisierung aufgezeigt.
Sehr schön geschriebener, äußerst informativer Artikel
Besonders gut finde ich, dass hier auch mal recht ausführlich über die mathematischen Hintergründe informiert wird. Das führt einem unweigerlich vor Augen, wie theoretisch es beim Rendering zugeht, bevor überhaupt ein Gedanke an die praktische Implementierung verschwendet werden kann.
Ich würde mich freuen, wenn es in Zukunft mehr Artikel dieser Art hier geben würde
Bei der Funktion die von der Anzahl der Dreiecke auf den Rechenaufwand abbildet, würde mich interessieren ob die allgemein gilt. Sobald die Szene Spiegelungen enthält, muss doch eine zusätzliche Lichtstrahlberechnung durchgeführt werden. Das bedeutet die Suche muss nochmal durchgeführt werden.
Naiv würde ich behaupten, dass bei einer Spiegelungstiefe k der Rechenaufwand auf f(x)=O((log x)^k) wächst.
es kommt zwar darauf an, was er jetzt mit HD-Auflösung meint (der Logarithmus macht sowieso die Unterschiede zwischen 1280x800 und 1920x1020 ziemlich klein), aber 45 Frames auf einem "normalen" Quadcore verglichen damals mit 57 Frames bei einer ATi Radeon X1950 XTX 1600er Auflösung 4AA/16AF, lässt den Break-Even schon erwarten, wenn er nicht sogar schon da ist.
Und so wie ich den Artikel verstanden habe, sollte sich die Programmiererei auch(z.B. Portale, Türen) vereinfachen.
das größte Problem ist wohl alles umzustellen. Wer jahrelang "normal" programmiert hat, soll plötzlich raytracen...?
Was bis jetzt von Intel kam, war lediglich der Versuch Raytracing sinnvoll als Prestige-Projekt auf der CPU laufen zu lassen. Nicht ganz so gloreich wie ich finde.
@ChiliConCarne:
Spiegelungen gehen linear in die Berechnung ein, dass heißt, wenn die Anzahl der berechneten Spiegelungen verdoppelt wird, verdoppelt sich der Rechenaufwand.
Ich hoffe doch wirklich, dass die Bestrebungen von Intel und besonders weiterer Hardware-Entwickler in Richtung hochspezialisierter CPUs mit vereinfachten aber vervielfachten Cores geht.
Imho ist das doch der beste Weg zu Raytracing.
Was mich jedoch beunruhigt, ist, wie nvidia und ATI dabei am Ende stehen werden. Können sie mit entwickeln? Wird Intel da vielleicht den Ausschlag geben und es der Konkurrenz schwer machen? (Was eh blöd von denen wäre, sonst gäbe Probleme mit dem Monopolgesetz)
Wirklich erstaunlich, was Raytracing ermöglichen kann.
Ich hoffe es gibt große Schritte bei der Grafik von Spielen.
Mal sehen, ob mit der Larrabee da etwas passiert.
Und hoffentlich kommen schnell CPUs mit mehr Kernen, denn das ist wirklich der einzige Weg zum allgemeinen Raytracing.
Interessanter Artikel, interessantes Thema.
Bis sich das durchsetzt wird das leider noch dauern.
Geredet wird über RT in Spielen ja schon seit Ewigkeiten.
Schade, dass nicht auf Raytracing-Beschleuniger sondern nur CPUs mit x Kernen eingegangen wurde. Raytracing ist ja wie Rasterisierung ein spezialisierter Prozess, der sich mit speziell darauf ausgerichteter Harware stark beschleunigen lässt (schließlich lasse ich Crysis auch nicht von meiner CPU rendern )
Ich Wette, dass es in 5 Jahren Raytracing-Beschleunigerkarten und erste kommerzielle Spiele dafür geben wird.
Wer steigt ein?
2020? Das sind noch 12 Jahre bis dahin! Vor 12 Jahren hatte man noch nen P166 mit 32-64MB RAM und 3D-Karten gab es auch noch nicht so wirklich! Jetzt vergleicht man mal das mit dem was wir heute haben...