Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia Iray VR: Interaktiver Fotorealismus für VR-Anwendungen
Nvidias Rendertechnologie Iray soll ab Juni auch in VR-Anwendungen interaktiven Fotorealismus ermöglichen. Dabei geht es aber nicht um Spiele, sondern insbesondere um Anwendungsmöglichkeiten im Bereich Design, in denen eine physikalisch korrekte und realistische Darstellung von Materialien und Lichtverhältnissen benötigt wird.
Ein wenig offtopic, die Lederjacke in der Präsentation ist echt der overkill also ich bin ja mega liberal aber das ist mir dann doch schon zu lässig ^^
Ansonsten alles was mit VR zu tun hat --> MEGA! Und danke CB für die ganzen Infos!
naja zb bei Autoshowcases. Man kann es ja schlecht in real abfilmen wenn es zB noch keinen Wagen zum Abfilmen gäbe, aber man könnte zb super realistisch ein einsprechend customizestes Modell preberechnen und dann in Echtzeit ausgeben, via VR.
Ich denke nicht dass es nur eine "Photosphere" ist die mal eben einsehbar ist.
Und dann zieht man ein VR Headset an, durch welches man das schöne Bild in teilweise unscharfen Pixelbrei verwandelt.
Die Software ist mal wieder weiter als die Hardware, ich bin gespannt, wie viele Jahre es brauchen wird, bis die VR Headsets an die Qualität von heutigen 4k Bildschirmen kommen. (logischerweise mit entsprechender Entfernung)
@Krautmaster: Das Anwedungsszenario ist mir durchaus klar. Für mich ist nur nicht wirklich ersichtlich was hier Nvidia einzigartig macht? Photorealistische Renderings in der Qualität gabs auch vorher schon, ob mit oder ohne Raytracing weiß ich jedoch nicht. Und nun halt das ganze in VR, und?
hm in Echtzeit berechnet weniger. Ich denke die Neuerung ist eher dass quasi die Beleuchtung und Materialien vorab berechnet werden und die Workstation GPU das zusammenführt. Wäre mir ganz unabh. von VR nich bekannt.
Klar. Szenen über Stunden vorauszuberechnen und dann abzuspielen ist gängig, aber das ist ja dann nicht wirklich Realtime und dynamisch dargestellt.
Die Farge ist für mich noch eher ob man sich durch die Szene bewegen kann oder es nur ne Shpere mit fixem Standpunkt ist.
Ist es auf diese Methode nicht zb. möglich Autos, Möbelstücke und ggf. auch ganze Gebäude vorab zu berechnen, dies abzulegen und bei Bedarf mittels Workstation wieder zu geben?
Zumindest wäre das mein Zugang ... in Echtzeit zu berechnen wird noch etwas länger dauern, auch wenn es auch in dem Bereich immer mehr Vortschritte gibt.
Ich für meinen Teil, denke dass es in absehbarer Zeit VR-Brillen mit Displays >4k geben wird und auch Hardware diese befeuern können ... wie lange wird es wohl dauern bis Möbelhäuser nur noch leere VR-Räume sind?
Es steht doch im Artikel dass die Szene nicht in Echtzeit berechnet wird. Es wird halt, so denke ich, wie in einem 360° Video, die Szene von einem Kamerapunkt aus vorberechnet.
Hmm. Okay, für eine Szene in Echtzeit berechnet, ohne Rauschen, ist es sicherlich nicht schlecht. Aber aber über 100 Stunden rendern, für einen Raum auf einem Workstation Server, ist doch schon ziemlich krass.
Da sollten Sie lieber auf andere Lösungen setzen, zum Beispiel Octane. Da kannst du mit 8 GPU's theoretisch schon fast in Echtzeit rendern. Allerdings wird das Bild immer mit einem leichten Rauschen wahrzunehmen sein.
Mir scheint als wurde da einfach ein Panorama vorgerendert und dann halt durch die VR-Brille betrachtet. Wozu man dafür nun unbedingt Iray braucht ist mir nicht ganz klar, das könnte z.B. VRay (Standard im Bereich Architekturvisualierung) genauso gut, und 100 Stunden muss man da auch nicht auf einen 4K Panorama-Render warten. Mit dem Haufen GPUs der dort verwendet wurde müsste es in VRay RT oder Octane schon fast möglich sein das ganze annähernd in Echtzeit darzustellen.
Es ist beim neuen HQ-buiding von "walk through" die Rede, also kann man sich frei darin bewegen.
Wird ne interessante Sache bei div. sites, wie Museen, touristischen highlights usw.
Es ist beim neuen HQ-buiding von "walk through" die Rede, also kann man sich frei darin bewegen.
Wird ne interessante Sache bei div. sites, wie Museen, touristischen highlights usw.
Dann frage ich mich warum die das in dem Video nicht gezeigt haben. Das vorgeführte unterscheidet sich in keinster Weise von konventionellen Panoramas wie sie schon seit Jahren in anderen Render-Engines möglich sind (z.B. http://wip.sbrusse.com/BB_CubeMap/ oder http://wip.sbrusse.com/AG_CubeMap/), inzwischen auch mit VR Support.
Ja, kommt mir auch etwas verdächtig vor.
Aber den fetten Pascal bekam man ja auch nicht zu Gesicht, obwohl angeblich bereits in Produktion und die Auslieferung an div. Cloud-Anbieter in Kürze startet...
Dass man sich (laut Aussagen des CEO Münchhausen) frei durch die gerenderte Szene bewegen kann. Da wird nicht ein statisches Bild oder ein fixes Video abgespielt sondern man kann sich beliebig durch den vorgerenderten Raum bewegen.
Und hier hat man sich für eine absolut langweilige Umgebung entschieden. Damit wird es möglich, Orte zu besuchen, die man nicht besuchen kann. Sei es, weil man es nicht kann, nicht darf oder der Ort nicht mehr existiert.
Trivialstes Beispiel wäre Mekka für Nichtmuslime. Auch wenn ich nicht wüsste, warum das jemand wollen würde.
Das Forum Romanum bevor es aus Ruinen bestand, wäre auch einen Blick wert.
Und ich würde definitiv Eintritt zahlen, das Stargate Center besichtigen zu können um dann durch das Tor nach Atlantis zu gehen
So etwas ist nunmal nur in VR möglich.
Kann man mit der Technik nun also einen Raum vorrendern und sich in dem vorgerenderten Raum bewegen? Das wäre schon ganz praktisch und mit entsprechend riesigen Renderfarmen auch zeitlich vertretbar. Ansonsten müssen für solche Anwendungen halt auch deutlich hochauflösendere VR Headsets her. Die beste nahezu fotorealistische Szene nützt nichts, wenn man sie nur pixlig sehen kann.
Aber es wird spannend, was hier auf dem gebiet passiert. Da hoffe ich doch mal, dass sich in Sachen GPU Leistung da noch einiges ergibt die nächsten jahre. Wenn man bedenkt, so eine Renderkiste mit 8 Pascal Chips hat über 80TFlops. Dass ist mehr als doppelt so viel wie der schnellste Superrechner (Earth Simulator) aus dem jahr 2002 und noch mal deutlich schneller, als der schnellste Rechner aus dem Jahr 2004. Da wird noch einiges gehen.
Wie gesagt, ich stell mir zb ein vorgerendertes Auto in allen möglichen Varianten vor. Ergo Farben, Modell, Sport oder nicht usw... und dass dann virtuell "begeben". Das geht zwar in Realtime auch so schon ganz gut, die Qualität nimmt aber bei diesem Kompromiss "Prerendering + Finalisierung in Echtzeit" sicher zu.
Auch Küchen oder Möbel kann man so in quasi Fotoqualität in 3D begutachten.