Quake 3 mit Raytracing-Technik in Echtzeit? Die Zukunft der Computergraphik?

  • Ersteller Ersteller Green Mamba
  • Erstellt am Erstellt am
Also, bei der herkömmichen Technik werden Polygone gezeichnet, und von diesen Polygonen die Lage zur Lichtquelle berechnet. Je nach Lage erhält das Polygon seine Beleuchtung.
Zusätzlich zu dieser Beleuchtung gibt es einen Ambienten Beleuchtungsanteil, der immer da ist, selbst wenn das Licht aus wäre.
Dabei ist es nicht ohne weiteres möglich Interaktionen zwischen Polygonen darzustellen. Wenn z.B. eine Gelbe Kugel auf einem Weißen Blatt Papier liegt, wird das Blatt in der Umgebung der Kugel auch gelb beleuchtet. Das sind effekte, welche nicht mit herkömmlicher Technik realisierbar sind.
Beim Raytracing hingegen wird der komplette Lichtfluss berechnet, und somit sind auch Interaktionen zwischen Geometrien möglich. Auch sind nur auf diese Weise Lichtbrechnungen in einem Modell aus Glaß oder ähnlichem darstellbar. Man sieht das ja eindrucksvoll bei einigen Screenshots.
Es ist eben eine Technik die physikalische Grundlagen hat, viel mehr als die herkömmliche Technik.
 
Zuletzt bearbeitet:
Wow, hört sich beeindruckend an, auch wenn ich nicht in allen Punkten bis ins Detail folgen kann.
Ließe sich denn eine solche Technik als GraKa-Chip entwickeln, der heute schon genug Power hat, das darzustellen? Denn heute muß ja wohl noch die CPU alles berechnen, wenn es um Raytracing geht, richtig?
 
Ja genau, so siehts aus. Es wurde bereits ein spezieller Raytracing-Chip entwickelt, der mit einer einzigen Pipeline und 90 MHz Takt die Raytracing-Leistung eines Intel 12GHz erreicht hat.
Ist aber alles noch in der Testphase, bzw. Kinderschuhen.
 
Hehe, momentan sicherlich, aber wenn sowas mal Marktreif ist, und in entsprechenden Stückzahlen hergestellt wird, dann wird sehr wahrscheinlich auch der Preis moderat sein, ist ja nix anderes wie bei anderen Grafikkarten.
Effizienter ist diese Technik leider nicht, viel mehr der Chip der entwickelt wurde dafür.
Ich habe ja bereits oben beschrieben wie Raytracing prinzipiell funktioniert. es müssen also Etliche Lichtstrahlen berechnet werden für nur einen Pixel. :o
 
Man wird den Unterschied ja wohl nicht merken zwischen Raytracing und bekannten Techniken....so arg kann der garnicht sein, denn die jetzigen Techniken sind mehr als genügend und auch ziemlich glaubwürdig.....das einzig was mich stutzig macht ist die Tatsache das ein 90Mhz Chip einen 12Ghz Intel Prozessor das Wasser reichen kann.....das würde bedeuten das Hersteller von Grafikkarten und Prozessoren bis jetzt in die völlig falsche Richtung gegangen sind.....
 
Und ob der Unterschied markant ist! Was glaubst du mit welchen Techniken Kino-Effekte erzeugt werden!? Sicher nicht mit GF-FX-Karten! ;)
Was man bei Terminator 2 oder nachfolgern sieht ist auch mittels Raytracing gemacht worden. Dabei muss man allerdings erwähnen dass Raytracing nicht gleich Raytracing ist.
Der Vergleich der GPU und CPU ist nicht ganz fair, denn die GPU ist eben nur auf diese eine Aufgabe spezialisiert worden, und kann nix anderes. Die CPU hingegen ist universell einsetzbar.
 
Zuletzt bearbeitet:
@Skyline:
Die jetzigen Techniken sind aber leider von der Variabilität kaum mehr aufrüstbar. Raytracing ist völlig frei. Jede Art von Material kann Abhängig von Oberfläche, Struktur und je nachdem wie viel Licht es schluckt oder reflektiert berechnet werden und alles andere beeinflussen.
Man kann Licht z.B. auch ein Volumen verpassen und mehrere Lichtquellen beeinflussen sich gegenseitig.

Dieses Bild hier ist ein gutes Beispiel. So etwas ist mit dem Prinzip der heutigen GPU nach meinem Kenntnisstand nicht möglich (radiosity).

erklärung radiosity
 
Oh, vorsicht! ;)
Radiosity wird sehr wohl schon seit langem bei Spielen eingesetzt. Allerdings nicht bei der Animation, sondern bei der Blickpunkt-Unabhängingen Beleuchtung von Szenen.
Praktisch alle Räume bzw. Welten in Spielen sind mit diesem Verfahren bei der Erstellung der selben mit Radiosity-Verfahren ausgeleuchtet worden.
Es ist aber Prinzipiell ähnlich dem Raytracing, aber dennoch ganz unterschiedliche Verfahren. Beim Radiosityverfahren wird der Beobachterstandpunkt normalerweise außer acht gelassen. Es wird die Energieverteilung der Lichts im Raum errechnet.
Spiegelungen, Highlights und Caustics sind damit nicht möglich.
 
Nun, das ist klar. Aber nicht in diesem Umfang (sogar quake 1 fing ja schon damit an) und eben Blickpunktunabhängig. :)
 
Wow, als ich diesen Threads und die Screenshots sah sagte ich nur, was soll den das für ein *******?!
Die Grafik ist ja zum :kotz:
Und nachdem ich mir das Video angeschaut habe sage ich nur :love:
Die Licht/Farb effekte ist der Hammer! Genau wie bei der Unreal 3 Engine mit diese Lichteffekt, allerdings noch nicht in Real Time gesehen.
Aber bei der einen Stück mit diese Massive Auslastung und gemischte Farb Blau/Rot ist echt der Wahnsinn, genau wie diese Stück bei dem sich das Farb verläuft :eek: DER HAMMER!
Einfach Geil!
 
Project-X schrieb:
Wow, als ich diesen Threads und die Screenshots sah sagte ich nur, was soll den das für ein *******?!
Die Grafik ist ja zum :kotz:
Ich find die Screenshots schon beeindruckend, aber wo du das Video so lobst, werd ich mir das mal angucken.
Was mir bei den Screenshots auffällt: Die Schatten sind absolut unrealistisch scharf gezeichnet. Die Lichtquellen werden also als Punkte angenommen, was es in der Realität nicht gibt...
 
Zuletzt bearbeitet:
Der ist sehenswert! Mit grosse Empfehlung von mir! Und für solche die es noch nicht gesehen haben, hier der Link zum Downloaden des Clips:

http://graphics.cs.uni-sb.de/~sidapohl/egoshooter/

//edit by Green Mamba
Super, der war übrigens auch schon im Eingangspost von mir! :daumen:
 
Zuletzt bearbeitet von einem Moderator:
Raytracing ist eine Hammer Technik die insbesondere Physikalisch korrekt!
(sein kann)

Und wie @Mamba schon sagte, an sich schon um einiges an Jahren Alt, erinnere
mich noch daran wie zu Amiga Zeiten (yip das waren mit die GFX Pioniere),
die erste realistischen vom Computer Generierte Prisma Lichtbrechungs- Effekte
berechnet wurden (MCinema 4D, Lightwave, Imagine, Real3D ...).

Zu der Zeit hat so etwas noch mit unter bis zu 48Stunden und mehr (pro Bild)
dauern können bei noch Moderaten Auflösungen wie 320x256 oder 640x512.


Und Raytracing wird zweifellos auch eines Tages die Zukunft in der Echtzeit
berechneten Grafik. Da Qualitativ besseres gibt es nicht, mittels Raytracing
Verfahren ist so gut wie alles möglich Umzusetzen. Bis hin das man die
Realität bis auf die kleinsten Physikalischen (optischen) Merkmale
widerspiegeln lassen kann. Ebenso man die Universelle Natur auch völlig
auf dem Kopf stellen und außen vor lassen kann (eben alles Virtuell).

Technisch erklärt ist es so wie @GreenMamba bereits sagte, es werden Virtuelle
Strahlen von der Renderengine ausgeschickt und dessen Verlaufs Geschichte von
Anfang bis Ende verfolgt (auch je nach dem wie genau es Sein soll!), und am
Ende wird dann das Ergebnis, der Bildpunkt gesetzt.

Raytracing ist sozusagen die Kopie eines Verhaltes, dessen was man auch in
unseren (bekannten) Universum findet, das Licht und seine Physikalische
Beschaffenheit. Ja solch so genannte Raytracer sind heut zu tage sogar schon
soweit Fortgeschritten das u.a. auch korrekt mit und auf Lichtpotonen Ebene
gearbeitet werden kann. (gibt auch einfacherer genauso wie aber auch noch
wesentlich komplexere Verfahren)

Physiker und vor allem auch Grundlagen Forscher haben ihre helle Freude daran,
Dingen damit (im Experiment) nach zu gehen.
(is allerdings noch nicht alles Möglich!)

Und um auf Deine letztere Frage zu kommen, wenn es Dunkel und man nix sieht
sind Objekte dann natürlich immer noch vorhanden. Geht ja auch schon aus dem
vorangegangenen hervor. Besagte Virtuelle Strahlen werden dann noch immer
genauso in die Szene gesandt und ausgewertet. In der Regel ist die Berechnung
dann aber um sehr viel schneller, da bei Null Licht natürlich auch nix weiter
zu verfolgen gibt, etwa wie in der Realität. Aber was meinst was für Ultra
Realistische Dunkel zu Lichtübergänge damit Möglich.


Und ich muß hier am Ende leider einwenig den Schwung raus nehmen, wer hier
glaubt das so (komplex) Raytracing bis Ende 2009 dann bestimmt schon Standart.
Dem fehlt einfach der Hintergrund um die Komplexität der Materie von der hier
gesprochen, hoffe konnte es Ansatzweise deutlicher Darstellen?

Raytracing Grafik in Echtzeit mit etwa 1024x768 mit 25FPS oder gar mehr und
höheren Auflösungen. Das wird vielleicht zu derzeit dann ein Rechner Cluster
Verbund vermögen? Aber ganz gewiss noch nicht die Systeme die wir dann so zu
Hause stehen haben werden. Im übrigen ist das Firmen wie ATI & NVIDIA auch
klar, von daher ist das Raytracing verfahren (von dem hier die Rede) auch
noch überhaupt kein Thema.

Ich möchte mich da gerne auf eines Irrtums Pfade begeben aber ich glaube
leider nicht das dem so Sein wird?

Davon mal ab, bewegt sich ja auch im herkömmlichen Bereich noch einiges,
und wenn ich Spiele so wie FarCry sehe. Die sind doch auch schon Optisch,
so gesehen keine weck kucker und bis 2009 wird sich da noch einiges tun!
 
Zuletzt bearbeitet von einem Moderator:
L.E.D schrieb:
Und um auf Deine letztere Frage zu kommen, wenn es Dunkel und man nix sieht
sind Objekte dann natürlich immer noch vorhanden. Geht ja auch schon aus dem
vorangegangenen hervor. Besagte Virtuelle Strahlen werden dann noch immer
genauso in die Szene gesandt und ausgewertet. In der Regel ist die Berechnung
dann aber um sehr viel schneller, da bei Null Licht natürlich auch nix weiter
zu verfolgen gibt, etwa wie in der Realität. Aber was meinst was für Ultra
Realistische Dunkel zu Lichtübergänge damit Möglich.
Das werte ich mal als kleinen Scherz. ;) Wenn das Licht aus ist, hast du höchstens einen ultra-realistischen schwarzen Bildschirm, aber ansonsten hast du recht. :)
Ich könnte mir schon vorstellen dass sowas in 5 Jahren möglich sein wird, denn mit der richtigen Hardware, die für sowas entwickelt wird ist das schon denkbar.
Aber ist halt meine Meinung.
Hatte ja oben schon geschrieben, dass eine 90Mhz GPU existiert, die die Raytracing-Leistung einer virtuellen 12Ghz Intel-CPU besitzt.
 
Nu ich gebe zu das mir bisher noch nicht genau klar was gemeint,
bei 90MHz Gpu mit 12GHz Intel Leistung?

Was Versucht wird damit zu Umschreiben, ein weiterer oder der CPU
Cluster vielleicht? (von daher die Bezeichnung Virtuell?)

Das Raytracing Prinzip wie man es (heute?) kennt und von dem hier
die Rede, wie ich Denke? Basiert doch fast gänzlich und alleine
auf CPU Leistung, so das Theoretisch fast jede Grafikkarte ab
24Bit und 8MB (wegen Puffer) es genauso gut bringen täte.

Ich Denken mir auch das die Entwicklung von GPU's dann irgendwann
mal Stark in Richtung Architekturen von CPU's wandert?
Ja sogar muß!, wenn es denn Tatsache das hier besprochene
Raytracing Prinzip dann mal sein soll was Anwendung findet?!


Ähm ... das mit dem Dunkel, da hast recht! Theoretisch kann der
Programmierer natürlich noch um einiges (und muß) auch an einer
Raytracing nebst Programm Engine, Tricksen und Optimieren.

Wäre ja Leistungsverschwendung bei Absolut 0 Licht die Virtuelle
Strahlen dennoch aus zu Senden. Die Frühen Raytracing Enginen
waren allerdings so, und so ist es auch heute noch zum Teil
(Prinzip bedingt) sobald man in der Szene auch nur eine minimal
Art von Licht bringt. Wird wieder fast der gesamte Bereich mit
Virtuellen Strahlen abgetastet. Je nach dem wie genau man es
braucht (Strahltiefe).

Allerdings gehe ich davon aus das man für Spiele wirklich
andere Raytracing Verfahren Entwickeln wird als sie etwa in
heutigen Film oder Labor Renderern gängige Praxis.

Da kann man noch viel und besser dann Tricksen.


Und ich würde es nur begrüßen wenn in 5 Jahren es schon soweit
sein soll. Nur glaube ich nicht das die Hardware Industrie
überhaupt ein Interesse hat es so schnell in den Haushalten
voran zu treiben? Man möcht ja schließlich noch ein paar Runden
Geld verdienen und das verdient man am meisten, wenn man halt
in gewissen Langsameren schritten schreitet.
 
Naja, das mit der GPU ist eben so gemeint, dass diese besondere GPU mit 90 Mhz soviele Raytracing-Berechnungen pro Zeiteinheit erledigt wie eine Intel-CPU, die mit 12 Ghz getaktet ist.
Das schafft sie durch Hardwareseitige Optimierungen, denn es ist ja eine GPU, die in dem Fall nur Raytracen kann, und sonst nix. Daher die enorme Leistung.

Ob der Algorithmus bei "Licht aus" abtastet oder nicht, hängt von der jeweiligen Implementierung ab. Ist aber eher nebensächlich.

Allerdings gehe ich davon aus das man für Spiele wirklich
andere Raytracing Verfahren Entwickeln wird als sie etwa in
heutigen Film oder Labor Renderern gängige Praxis.
Langfristiges Ziel sollte es ja sein eine ebenbürtige Qualität zu erreichen. :)
Natürlich wurden bei Quake, im gegensatz zu den in der Filmindustrie verwendeten Algorithmen, wesentlich einfachere Berechnungen benutzt.
Die Renderer in der Filmindustrie erzeugen (Richtmass) ca. ein Bild/h.
Es ist ja auch nur prinzipiell die selbe Technik, bei dem High-End Raytracing werden noch beliebig viele Berechnungen auf den jeweiligen Oberflächen berechnet, mit echter Umgebungsbeleuchtung, sowie unendlich vielen Spezialtechniken.
Beim Quake hingegen werden auf den Oberflächen ja i.d.R. nur 2d-Texturen verwendet.
 
Zurück
Oben