Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
na, hat schon Potential, aber ausgereift ist was anderes. Interessant ist find ich die Tatsache, dass der Berechnungsaufwand nur logarythmisch steigt. Bei genug Speicher lässt sich bei jeder verdopplung der leistung von Grakas die Komplexität der Spielegrafik verzehnfachen.
Aber im Moment ist die Rasterisierungstechnik einfach schon so verbreitet und optimiert, dass es RT noch lange schwer haben wird, zumal sich die konventionelle Technik ja rasend schnell weiterentwickelt(siehe DX10). All diese Effekte auf RT zu portieren (wenn überhaupt effizient möglich) allein muss ja eine Ewigkeit dauern und brauch noch dazu ne Menge Entwickler, die es im Moment noch gar nicht gibt.
RT ist ausgereift. Diese Art, ein Bild zu erzeugen, ist älter als DirectX, da haben sich schon Generationen von Forschern daran beteiligt. Man kann allerdings an den Algorithmen nicht mehr viel optimieren. Die Hardware ist einfach zu schlapp.
Krass wäre es, wenn so ein Raytracing-Chip zukünftig auf jeder Grafikkarte wäre. Wenn ein 90 MHz Chip so viel Leistung in dem Bereich bringt wie ein P4, dann wäre so ein Chip mit GPU-Takt (400+ MHz) gerade zu wahnsinnig leistungsfähig.
Das Beste an der Sache ist der (relativ) geringe Anstieg des Berechnungsaufwandes bei steigender Polygonzahl.
Angenommen ein RT-Chip schafft 50 fps bei 1 Mio Polygonen. Dann schafft der sicher auch 40 fps bei 2 Mio Polygonen. Der Anstieg an Qualität und Detailreichtum bei der Grafik wäre aber immens!
Ich freu' mich drauf, wenn Raytracing in ~10 Jahren für den Heimnutzer interessant wird (man muss ja realistisch bleiben).
Wie sieht es aus mit einer Kombination aus Echtzeit-Raytracing und "traditioneller" Rasterisierung? Denke das ist ein vielversprechender Ansatz und der wahrscheinlichere Weg in naher Zukunft.
Das Bild aus den Herr der Ringe Filmen, welches auf der ersten Seite abgebildet ist , ist allerdings ungünstig gewählt, denn genau diese Szene ist mit Schauspielern und Masken gemacht, und nicht per 3D. Es gibt aber natürlich hunderte anderer Szene aus Herr der Ringe die Tatsächlich mit Raytracing gerendert sind.
@e-laurin
Mit "ausgereift" meinte ich nur RT als Echtzeit Rendering Methode, da gibt es anscheinend noch Probleme mit z.B.: sehr dynamischen Szenen, die erst noch effizient gelöst werden müssen, bevor das Verfahren für PC Spiele interessant wird. Und genau deshalb forschen/entwickeln eben noch vergleichsweise wenige an RT Engines für spiele
Wichtig ist, dass die Firmen an sowas drannbleiben, wie sieht das denn aus? Er sucht ja noch nach Firmen, die sich dafür interessieren könnten.
Also ist das Problem nicht in der Technik, sondern mit der Bereitschaft der Firmen auf diese möglichkeit umzusteigen. Da müssen noch viele Verträge abgeschlossen werden.
Denn wenn der Wille seitens der Hw-Hersteller und der Programmierer da ist, sollte das kein Problem mehr sein es in kürze auf dem Markt zu sehen.
Das ist wirklich Zukunftsmusik, die schon sehr bald Realität werden könnte, leider kann sie genauso schnell von der Bildfläche verschwinden..
Ist sicher ein interessanter Ausblick, allerdings bezweifel ich stark dass wir das in den nächsten 10 Jahren erleben werden. Okay, ich hab zwar hier noch kein Quad-Core, aber eine fertige Szene zu berechnen dauert (bei Auflösungen ab 1280x1024) bei mir mit Cinema allerdings noch einige Minuten/Stunden pro Frame, bei Animationen gern mal ein paar Tage... Aber das sollte man nach Möglichkeit auch nicht auf nem PC machen Dafür gibt es Renderfarmen. Aber es ist klar worauf ich hinaus will? Auf 30 Frames pro Sekunde kommt man auch mit Quad- oder Octa-Core nicht...
Das ist auch mal ein gutes Beispiel für die Leute die sich wundern "wozu es Quad-Cores gibt, wenn kein SPIEL das unterstützt"... Selbst die Jungs von Pixar brauchen mit ihrer wohl kaum zu toppenden Ausstattung teilweise bis zu 90 Stunden für einen Frame. Guter Bericht, aber so schnell wird das nichts. Die meisten hier werden dann vielleicht ganz andere Hobbies haben.
@ Hosenstahl: Nochmal zum besseren Verständnis: Es ist keine Frage von Verträgen oder irgendwelcher Vorhaben, es ist technisch einfach nicht möglich zurzeit, auch nicht "sehr bald". Oder glaubt hier ernsthaft jemand daran, dass die CGI-Spezialisten in der Filmindustrie das dann nicht schon längst gemacht hätten? Nee, die sitzen gern doof in der Gegend rum und gucken beim Rendering zu, kostet ja auch alles kein Geld
heist dass das man sogar keine grafikakarte mehr brauchen würde für die games da ja alles über den Prozessor berrechnet wird bzw. wenns mal eine Spezielle Hardware die das übernimmt