Bericht Raytracing in Spielen V: Neues aus der Strahlenwelt

@dcobra ich danke dir für diese Worte, denn du hast den Nagel auf den Kopf getroffen.
 
Hi,

Deinen Kommentar hätte man fast ernst nehmen können, nur leider hättest du dir das 2. Bild (den Inhalt deines Geschirrspülers, der mit ner schlechten Handykamera aufgenommen wurde) sparen können um deinem Post doch einen Seriösen Hauch zu verleihen...

@ph0enX

Mehr als diese Seite braucht's nicht... Peinlich dein Post.

Aber man sieht daran wenigstens wie echt Raytracing wirken kann...

VG,
Mad
 
Zuletzt bearbeitet:
Ist halt eben kein Echtzeit-Raytracing. Aber wenn RT in Echtzeit und der Qualität mal funktioniert sind wir froh :)
 
Ein Forschungsprojekt mit alter Technik... wirklich vergleichbare "Ergebnisse" kann man hier nicht erwarten und sind auch nicht das Ziel. Es ist ein reines Showcase zur Imagepflege für die gebeutelten und bisher gescheiterten Versuche Intels etwas im High-End-Grafikbereich zu reissen.

Jedoch finde ich es gut, dass man nicht nur kurzweilige Pressemeldungen kopiert, sondern es dem Leser hier auch ermöglicht eine lange Entwicklungshistorie mit zu verfolgen. Dass die Wenigsten hier damit etwas anfangen können und nicht wirklich etwas Greifbares gezeigt wurde, ausser ein paar geglätte Pixeltreppchen steht auf einem anderen Blatt. Carmack hat recht, wenn er druch die Blume sagt, dass man gut mit Hacks leben kann, wenn nur der User das Ergebnis, wie auch immer erstellt bzw. techn. gefaket, für "bombastisch" hält.

Das Thema Cloud ist natürlich das Zugpferd für finanzielle Interessen, da man somit jeden User zum Kauf der SW zwingen kann und unter Kontrolle hat. Dafür bedarf es aber einer leistungsstarken Infrastruktur und so lange diese nicht gegeben ist, bleibt es Zukunftsmusik. Die Bandbreiten dürften jedoch zumindest bei VDSL Verfügbarkeit gegeben sein. Der erste Schritt in diese Richtung ist die Bindung von Offline-Games an Online-Portale wie Origin und Steam mit der Rechtfertigung durch DLC.
Der Weg ist klar: Alles überall und ohne große Hardware-Anforderungen an die Endgeräte und eine möglichst hohe Abhängigkeit und Transparenz der angehängten User. Zum Glück fehlt mir entzwischen aber die Zeit, so dass ich mich sehr gut diesen "Honigtöpfen" der Spieleindustrie entziehen kann.


Ich denke jedoch, dass das Thema RT noch eine ganze Weile im Schatten der Versuchslabore bleiben wird. Denn ohne entsprechende konkurrenzfähigen Consumerstandards keine kommerzielle Zukunft.
 
Zuletzt bearbeitet von einem Moderator:
ph0enX schrieb:
Deinen Kommentar hätte man fast ernst nehmen können, nur leider hättest du dir das 2. Bild (den Inhalt deines Geschirrspülers, der mit ner schlechten Handykamera aufgenommen wurde) sparen können um deinem Post doch einen Seriösen Hauch zu verleihen...

Haha.
Danke für den Beweis, dass Raytracing auf dich toll wirkt. Die Gläser und das Gitter kommen aus Cinema4D und wurden mit VRay gerendert. Doch gar nicht so schlecht, diese Technik, oder?

Hier die Quelle: http://www.3d-ring.de/3d/3d-galerie.php?img=87

Da es dir zu gefallen scheint, noch ein paar andere Sachen

http://content.luxology.com/gallery/50e1cf8b72958116057a5757ccf515e1.jpg
http://www.chaosgroup.com/gallery/quarto_dog_1330096009.jpg
http://www.chaosgroup.com/gallery/LOCUS2_1324551086.jpg
http://content.luxology.com/gallery/6b3241d7058a46c40244febdbe0774ac.jpg
http://www.chaosgroup.com/gallery/MackevisionC_218_VORTEILE_360_1410_1318853356.jpg
http://content.luxology.com/gallery/304c2c77065fd3ac17499cbba4d80554.jpg
http://content.luxology.com/gallery/2f28debe53a6870c6b4deece22a43252.jpg
http://www.3d-ring.de/3d/gl/bilder_img/2396_dcf6070a.jpg
 
Zuletzt bearbeitet:
Soll da nicht eine Karte auf PowerVR basis noch dieses Jahr kommen? Irgendwo hab ich da was gelesen.

Najo auf die Caustic One wartet man ja auch immer noch
 
@Madman & dcobra:

Ok mag sein. Aber trotzdem finde ich bleibt die Tatsache bestehen, dass sich im Vergleich zum Vorjahr eigentlich nichts getan hat. Der Bericht wirkt trotzdem noch immer wie der den ich letztes Jahr schon gelesen habe!
 
Flasht mich jetzt alles nicht so.

Vor allem mit den Fahnen, wo wohl im Original mal Hakenkreuze drauf waren...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
@anteru: Sicher gibt es Beschleunigungsmöglichkeiten für einen Rasterizer, diese kommen jedoch nicht mal ansatzweise an die eines Ray Tracer heran. Und die von dir genannten diffusen Reflektionen haben nichts mit einem Ray Tracer zu tun, sondern mit Path Tracing, welches zwar ähnlich arbeitet, aber nicht das Gleiche ist: http://de.wikipedia.org/wiki/Path_Tracing
 
Zuletzt bearbeitet:
Das ganze ist ein Technologie-Konzept ... kein fertiges Produkt. Der Unterschied in der Technik, bezogen auf heutige grafische Darstellung z.Bsp. in Spielen, ist, dass Ray Tracing eher reales interepretiert wobei heutige Spieledarstellung eher eine Illusion ist.

Beides ist natürlich künstlich. Dennoch lässt Ray Tracing realere Berechnung zu. Die Frage ist, entwickelt sich klassisches Rendering so schnell und effizent, dass die Illusion perfekt werden kann oder braucht es komplett neue Ansätze...und da kommt halt, unter anderem, Ray Tracing ins Spiel.

Weil hier so oft BF3 genannt wird. Es sieht für ein künstliches Produkt, in sich, stimmig und gut aus. Aber hier wird eher Verglichen. Also BF mit Rage, GTA4 und anderen Spielen. Vergleicht mal BF 3 mit einem Blick ausm dem Fenster. Bewegt euch in BF auf einen Felsen zu und dann in der Realität. Die Kluft dazwischen ist so groß, dass niemand sagen kann, welche Technologie diese Lücke schließt. Reine Potenzierung der Power, à la "Auf der Playstation5 siehts dann echt aus" muss nicht unbedingt der goldene Weg sein.

Also, erwartet vom aktuellen Stand der Ray Tracing Technik nicht BF3 x 5! Hier gehts um die Möglichkeiten!
 
@ dcobra

Ja sieht wirklich unglaublich gut aus. Und so eine Bildqualität ist nur mit RT zu erreichen.
Aber der ganze Artikel dreht sich ja um Echtzeit-RT. Und wie man auch der Beschreibung des Geschirrspülers entnehmen kann, brauchte das Bild über 2 Stunden zum rendern.
Aber man braucht sicher 30FPS, ums in Spielen einsetzen zu können.

Und deshalb ist der Bericht ja auch so überflüssig. Zusammengefasst sagt dieser eigendlich nur aus:
- Echtzeit RT brauch viel Rechenleistung, und dank über-Intel haben wir jetzt einen Bruchteil der benötigten Leistung
- Wir können auch durschnittliches AA (für das man aber nochmal 30% mehr Leistug braucht)
- Und wir können jetzt ein paar Standarteffekte, die auch kaum Rechenleistung brauchen.

In 10 Jahren dürfte man so weit sein, die benötigte Leistung auch bereit stellen zu können.
Und dann ist Echtzeit-RT ein relevantes Tehma.
 
sieht aus wie schlechte grafik von vor 10 jahren...da muss schon mehr kommen ^^ ...dann doch lieber altbewährt mit directx 3d. läuft doch damit wunderbar und sieht von jahr zu jahr geiler aus
 
Zuletzt bearbeitet:
@zombie
Lies dir mal Post #32 von Quantität durch.
Bei diesem Forschungsprojekt geht es um die Technik nicht um die Schönheit. Wenn man ein paar Mediendesigner für ein halbes Jahr ran setzt, dann sieht die Szenerie in diesem RT-Projekt um ein Vielfaches besser aus als jedes aktuelle Spiel.
 
könnte man nicht Raytracing nur bei manchen Dingen anwenden ? Es muss ja nicht das ganze Spiel sein
 
Leider scheint mir das immer noch eher recht stumpfes Raytracing zu sein, interessant wäre z.B. mal Radiosity/Global Illuination in Realtime zu versuchen (die Rechenpower haben sie ja offenbar).

In dem Artikel geht es ja sogar noch eher um Postprocessing auf Knights Ferry Karten (die man als Consumer niemals in die Finger kriegen kann) und da ist es sogar schon fast traurig zu sehen, wie ineffizient im Vergleich zu einer BilligGPU das Ganze ist... Sogar die GPUs von Intel könnten da vermutlich einen besseren Job als Knights Ferry abliefern.

Mein Wunsch für realtime Raytracing auf manycore x86 Hardware:
* Kleines Open Source Demoprogramm für Intel CPUs (meinetwegen nur in einem 640*480 Fensterchen)
* Radiosity (wie schaut denn z.B. eine Cornell Box in dieser Engine aus?)
* OpenCL Implementation inklusive Vergleich zw. KF und GPUs/CPUs (Mittlerweile gibt's ja auch shcon CPU OpenCL Treiber von Intel so weit ich weiß)
* Wenn schon Buzzwords, dann ordentlich: her mit dem 3D-Modus! :)
* Wie wäre es noch mit einem progressiven Renderer, der realtime Bilder liefert aber diese immer weiter verfeinert wenn sich der Bildausschnitt nicht ändert (ala 90er Jahre Internet mit blockigen Bildern die dann immer feiner aufgelöst werden...)
* Unschärfeeffekte wie DoF könnte man auch mit einer exakteren Kameragleichung lösen, das dürfte aber eventuell komplizierter als Postprocessing sein (out of focus Pixel haben einen Radius >1...)
* Vielleicht auch ein Kommentar zu "Unlimited Detail" bzw. point cloud rendering generell, das hat mir in diesem Artikel z.B. stark gefehlt. Raytracing von Voxeldaten wäre z.B. auch interessant.

Generell finde ich das Thema sehr spannend, man muss aber eben immer auch beachten, dass das hier _Forschungsarbeit_ ist, wenn ein Antialiasingansatz dann z.B. schlechte Ergebnisse liefert, wird das publiziert und in einer kommerziellen Engine dann einfach nicht implementiert. Das Ziel hier ist vermutlich nicht eine verkaufbare Engine zu produzieren, sondern eher eine "Spielewiese" für diverse Algorithmen zu entwickeln, da Raytracing in Echtzeit doch eine andere Herausforderung ist, als rein statisch.

Raytracing selbst ist eine extrem simple Gleichung, die Kunst dabei ist es, das Ganze performant und realitätsnah hinzubekommen.
 
Hi,

Wenn man ein paar Mediendesigner für ein halbes Jahr ran setzt, dann sieht die Szenerie in diesem RT-Projekt um ein Vielfaches besser aus als jedes aktuelle Spiel.

Wenn dem tatsächlich so ist (wobei ich weder sagen will dass es so ist noch dass es nicht so ist) verstehe ich Intels Marketing-Abteilung nicht, DAFÜR sollte das Budget doch locker reichen, die Zeit dafür hätten sie schon längst nutzen können. Das Argument "ja, aber es geht um die Technik" zieht einfach bei den meisten Otto-Normalspielern leider nicht.

VG,
Mad
 
Sukrim schrieb:
Leider scheint mir das immer noch eher recht stumpfes Raytracing zu sein, interessant wäre z.B. mal Radiosity/Global Illuination in Realtime zu versuchen (die Rechenpower haben sie ja offenbar).
Ich sag nur Enlighten. ;)

http://www.youtube.com/watch?v=foXVF7q035Y&feature=results_main&playnext=1&list=PLD985561A43AF1B58


Klar erreicht's nicht ganz die Qualität von vorgerenderten Szenen, aber dafür heute schon Echtzeit und in annehmbarer "Gesamtqualität" machbar (wie hier in der Frostbite 2 Engine).

Das würde ich für aktuelle Spiele viel beeindruckender und der Atmosphäre dienlicher halten als einen flimmernden Spiegelpalast. Realtime-RT bei ~30fps ist für die nächsten Jahre einfach noch kein Thema.
 
Naja, einfaches Ray Tracing mit harten Schatten und einfachen Brechungen und Reflektionen reißt halt niemanden vom Hocker, das geht auch mit nem Rasterer gut genug.

Was die Leute erwarten, wenn sie Ray Tracing hören und was auch sehr spannend ist, ist eher globale Beleuchtung. Also etwas in Richtung Path Tracing. Radiosity wird ja in einfacher Form sogar schon von z.B. Battlefield 3 genutzt.

EDIT: Ah, genau, Enlighten, das ist ja ein vereinfachtes Radiosity, wenn ich das richtig verstanden habe.
 
Zuletzt bearbeitet:
Ich finde es nach wie vor einfach nur hässlich und unausgereift.
Berichtet doch bitte erst wieder darüber wenn das Ganze endlich mal optisch überzeugen kann.
Matschige, hässliche Levels mit "realistisch brechenden Spiegelungen im Kronleuchter" sind lächerlich.
 
Programmierer sind in der regel auch keine 3D-Artists deshalb erwarte ich auch nicht das es aussehen muss wie Bf3.

Ich finde es gut das sie an diesen Projekt forschen und würde mich auch auf ein 6.0 Artikel freuen, immerhin haben sie schon einiges geleistet!
 
Zurück
Oben