@florymonth
Glaube nicht alles, was die Leute schreiben. Der Rechenaufwand bei steigender Polygonzahl ist bei Raytracing logarithmisch. Das ist ein Fakt, der sich ohne Probleme mathematisch beweisen läßt.
Angenommen man hat eine Auflösung von 400x300. (Diese Zahlen nehme ich nur, weil es sich einfacher damit rechnen läßt.) Bei Raytracing wird von jedem Bildschirmpixel ein Strahl in die Szenerie ausgestrahlt und geschaut, worauf er trifft. Nun, er trifft irgendein Polygon. Die Strahlen von 2 oder mehr Bildschirmpixel können auf dasselbe Polygon treffen. Das bedeutet, bei 400x300 (=120.000) treffen alle Strahlen auf 120.000 Polygone oder weniger. Aber niemals mehr. Ein Strahl kann ja nicht plötzlich aufgabeln oder sowas.
Es macht logischerweise also rechnerisch kaum einen Unterschied, ob die Szenerie nun aus 1 oder 2 Mio. Polygonen besteht, da davon eh nur maximal 120.000 Polygone für die aktuellen Bildberechnungen interessant sind.
Der logarithmische Anstieg der benötigten Rechenleistung durch mehr Polygone kommt nur durch den erhöhten Aufwand der Speicherverwaltung und Ermittlung der interessanten Polygone zustande. Da braucht es dann ausgefuchste Algorithmen, um einigermaßen schnell zu sein. Und diese Algorithmen brauchen logarithmisch mehr Rechenpower.
(Ok, es können schon mehr als 120.000 Polygone sein, da Strahlen ja abgelenkt und dabei verfolgt werden, bis sie eine Lichtquelle treffen. Die Zahl hängt sehr davon ab, welche Effekte man gerne im Bild haben will.)
nVidia zeigt mit dieser Demo lediglich, dass GPU-beschleunigtes Raytracing machbar ist. Nur darum geht's im Moment eigentlich. Dass die Demo graphisch nicht wie Crysis aussieht, liegt an der Entwicklungszeit. Für die volle Optik müsste man ein paar Monate mehr in Engine und Design stecken. Das ist hier unnötig.
Ich empfehle allen, die hier posten (wollen), sich mal kurz in die Raytracingtechnik einzulesen. Sie ist sehr simpel aufgebaut.