• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Intel zeigt Raytracing-Engine für PC-Spiele

Ich bin auch skeptich, dass das allzu bald Mainstream wird.
Für ein Bild von Raytracing-Filmen brauchen die zur Berechnung immer noch mehrere Stunden.
Wenn das in 2-3 Jahren doch da sein sollte, dann sicher nicht so bombastich wie aktuelle Filme.
Und bis zu fotorealistichen Spielen ist es dann nochmal ein weiter Sprung.
 
weicher schatten ist ja wohl das kleinste Problem,setze einfach ein Area Light :)
 
Am besteb liest Ihr euch mal den Bericht durch.
Hier ist mal ein Zitat. Das mit dem 90 Mhz zu 10 Ghz vergleich ist das was mich so optimistisch macht.

"Zukunft
Raytracing hat das Potenzial, die weitläufig eingesetzte Rendering-Technologie auf Desktop-PCs zu werden. Die Anzahl der CPU-Kerne steigt und Prototypen einer Spezialhardware für Raytracing zeigen beeindruckende Ergebnisse bezüglich der Geschwindigkeit: Mit einem mit 90 MHz getakteten Prototypen konnte in etwa die Geschwindigkeit eines virtuellen Pentium 4 mit 10 GHz erreicht werden. Eine für den Massenmarkt angefertigte Karte könnte höher getaktet werden, mehrere Raytracing-Cores in einer GPU enthalten, mehrere GPUs auf einer Karte besitzen und man könnte mehrere dieser Karten in einen Rechner einbauen. Schon ist man sehr schnell bei flotten Frameraten in hohen Auflösungen."

Naje mehr hab Ich nicht zu sagen. Wer wissen will was OpenRT ist kann sich ja den Bericht durchlesen.

mfg. MTR
 
Ja klar, das hat sicherlich das Zeug, allerdings gibts auch andere Technologien die das Zeug dazu haben. Z.B. Point Rendering, Volume Rendering, [SIZE=-1]B-spline surface usw. usf.
Allerdings passt das Raytracing mit seiner geschenkten Parallelisierbarkeit gerade super in den Multicore-Hype. Das ist imho der Grund warum das momentan so gepushed wird. :D

Die Stärke des Raytracings, nämlich scharfe Schatten und exakte Spiegelungen kann man doch heute bereits sehr gut auf bestehender Grafikhardware rendern. Die notwendigen Algorithmen sind ausgereift genug. Die Schwächen des Raytracings auszubügeln (so, dass es noch Echtzeitfähig bleibt) wird wiederum länger dauern.
[/SIZE]
 
Zuletzt bearbeitet:
Wenn man einen Prozessor mit 4 GHz arbeiten laesst, ist er immer noch langsamer und schlechter, als 16 Prozessoren bei 250 Mhz die darauf abgestimmt sind parralel zu arbeiten.
Wenn man von gleichen Umständen ausgeht stimmt deine Behauptung nicht, ganz im Gegenteil. 16 Prozessoren a 250MHz sind max! so gut wie ein Prozessor @ 4GHz. In der Praxis wird es aber eher so sein, das man nicht alles zu 100% parallelisieren kann. D.h. 16 Prozessoren a 250MHz werden langsamer sein! Du kannst dir ruhig auch ein paar Anwendungen anschauen, aber schneller werden sie nicht sein. Als Beispiel z.B. Crysis. Mit einem Dualcore wirst du ggü Singlecore bei gleicher Taktfrequenz der einzelnen Prozessoren eine Verbesserung von 60% erreichen. Das ist ziemlich weit weg von 100% theoretisch perfekten Leistungszuwachs. Mit theoretisch vervierfachter Leistung mittels eines Quadcores sieht es noch schlimmer aus. Die Geschwindigkeit wird nur annähernd verdoppelt ggü Singlecore. Der Leistungszuwachs fällt also weiter.
 
Es soll ja Leute geben, die meinen, Raytracing sei schon lange tot. Ich denke, wir stehen gerade mal am Anfang der Entwicklung. Ob damit irgendwann Spiele in Echtzeit dargestellt werden können, bleibt abzuwarten. Wenn es so sein sollte, dann dürfte das noch eine ganze Weile dauern. Und ich denke auch nicht, dass dann "normale" Multicore CPUs zum Einsatz kommen. Es wird wohl eher spezielle Grafikeinheiten dafür geben. Intels 80 Kerner könnte so ein Ansatz sein.
Trotzdem hoffe ich nicht, dass man den Irrweg beschreitet, in Computerspielen fotorealistische Grafik um jeden Preis zu erzwingen. Die Optik sollte immer noch etwas "unwirkliches" haben. Den Comic Stil in WoW fand ich z.B. super, auch wenn ich das nie gespielt habe.
 
Das Grafikkarten überflüssig werden stimmt net. Das liegt bloß daran, dass man sie nicht genauso nutzen kann, wie man es bisher getan hat, da so die erwähnte Skalierung nicht funktioniert, wie es bei den CPUs der Fall ist. Dazu bedarf es etwas ausgefeilterer Datenstrukturen.

Am Zentrum für Digitale Signal und Bildverarbeitung der TU Ilmenau hat man bereits eine derartige Software entwickelt (hier mit Fokus auf CAD). Mit der war es möglich ein 40 GB großes Modell eines Boeing Jets mit mehreren Milliarden Polygonen per Raytracing flüssig auf einem Laptop mit ner mobilen ATI Radeon X700 und Single Core CPU darzustellen.

Das ist also eher Werbung für Intel CPUs als das es wirklich ein technischer Fortschritt ist, der dort dargestellt wird. Zudem werden durch die neuen Architekturen von GPUs auch neue Möglichkeiten in Bezug auf deren Berechnungsfähigkeit entstehen (siehe nVidia CUDA oder ATI CTM). Von daher ist doch zu erwarten, dass man bei der Kombination aus CPU und GPU bleiben wird, wobei sich beide wohl in ihrer Architektur annähern werden.

MfG
SpaceTrucker
 
@15
lies 14 ...

@topic
2009?
klingt erstmal unwahrscheinlich. schaut man sich aber mal an, was vor 2 jahren noch als "unmöglich" oder "zu aufwendig" galt, sieht das schon wieder anders aus ;)
 
SpaceTrucker das hoert sich ja richtig interresant an. Haste nen Link dazu ?
Also wenn das wahr ist, was ich mal annehme, ist das noch ein staerkerer Durchbruch.
Stellt euch mal vor was man dann mit den Neuen Grakas machen koennte.

mfg. MTR
 
Muss mich doch korrigieren. An der Software war wohl nur das Fachgebiet für Computergrafik an der TU Ilmenau beteiligt.

Also der Link zum Fachgebiet an der TU Ilmenau:
http://www.tu-ilmenau.de/fakia/Fachgebiet-Grafische.1930.0.html
Das Bild in der Mitte Oben ist das Modell des Flugzeugs

Hier noch Links zur Seite der Forschung am Fachgebiet:
http://www.tu-ilmenau.de/fakia/?6528
das sieht sehr veraltet aus fällt mir da grad auf

http://www.tu-ilmenau.de/fakia/?4145
das sollte er eigentlich sein, aber es sind wohl gerade Semesterferien :D
jedenfalls taucht da bei mir im Moment nix vernünftiges auf

EDIT
was mir da grad noch auffällt ist, dass es immer schwieriger wird die ganzen Texturen für die Modelle bereitzustellen, da der VRAM nicht beliebig viel wachsen kann. Das heisst es wird wie beim kkrieger immer mehr mathematisch berechnete Texturen geben. Allerdings werden diese dann nicht im Vorhinein berechnet, sondern dann Online, wenn sie benötigt werden. Das heisst hier entsteht nochmal riesieger Berechnungsaufwand, der jedoch kaum Speicher benötigt. Das heisst hier wären GPUs mit ihren vielen unabhängigen Prozessorelementen ideal. Damit hat man noch einen Grund, warum GPUs nicht aussterben werden.

EDIT2
Hier ist die dazugehörige Veröffentlichung:

Beat Brüderlin, Mathias Heyer, Sebastian Pfützner:
Visibility-guided Rendering to Accelerate 3D Graphics Hardware Performance.
Course Notes, Tutorial on Real-time Interactive Massive Model Visualization, Tutorial Notes, ACM EUROGRAPHICS; European Conference on Computer Graphics, Vienna, Austria, 4-8 September, 2006.

obs die auch kostenlos im Internet zu saugen gibt, weiss ich net.

EDIT3
alle guten Dinge sind 3 ;)
hier die Darstellung von der EUROGRAPHICS
http://portal.acm.org/ft_gateway.cf...l=portal&dl=ACM&CFID=15151515&CFTOKEN=6184618
 
Zuletzt bearbeitet:
Das Problem ist doch das es noch keine Einheitliche API gibt außer OpenRT. Das Problem an der ist das sie Proprietär und kommerziell ist. Wenn sie offengelegt werden würde wäre es perfekt.

Andernfalls wäre es auch schön wenn Intel eine API entwickeln würde. Die legen immer alle spezifikationen frei oder entwickeln gleich einen Open-source treiber für Linux.

Der nächste Schritt der danach noch kommt ist dann reverse raytracing :D
 
@Whitecap

Neee dude ich mag nimmer.... du hast dir grad selber wiedersprochen. ich kann echt nimmer.
Nein nix wegen dir odersonst wat.
Ich bin es Leid in dieser Gesellschaft zu leben in der nur noch das argh egal.

Nur eines ist klar wer ein GAMER ist und seinen PC bei MM, etc & co kauft.
HAT KEINEN GAMER PC

argh argl grm maumau.
Ich bekomm hier noch den tripper echt.....
einer hat mal gesagt "muss ich erst sterben um freu zu sein"

jeeeeeeeez langsam aber sicher isses soweit
 
Also ich würde es begrüßen wenn sich sowas durchsetzen würde.
Aktuelle Grafikkarten verbrauchen in absolut inakzeptablem Maße Energie und sind zu nichts zu gebrauchen außer zum Zocken.
Abgesehen davon könnte ein hoher Kostenfaktor wegfallen.
Warum soll ich mir ne Graka für 200 Euro kaufen wenn das die CPU genausogut berechnen könnte.
 
@33

Beim Energieverbrauch geb ich dir recht, aber das liegt an uns sowas zu ändern: einfach net kaufen!

Bei GPU durch CPU ersetzen:
Geforce 8800GTX 250GFlop 500€
Core2Quad 50-75GFlop 250€
Da nehm ich doch lieber die Grafikkarte als mir noch zusätzlich nen 4 Sockelsystem zusammenzuschustern ;) weil weniger wird der tatsächliche Rechenaufwand mit Sicherheit nicht

MfG
SpaceTrucker
 
Das Problem ist, dass bei echtem Raytracing von Szene zu Szene sehr unterschiedlicher Rechenaufwand zu bewältigen ist. Dann schwanken die Bilder in der Sekunde um mehrere 100%. Zusätzlich haben diese Studien wahrscheinlich noch nicht mal die wirklich komplexen Raytracing Berechnungen drauf: Motionblur und Depth of Field. IMHO wäre etwas noch innovativeres nötig, zB eine Engine ähnlich f-prime von Worley Labs, und man sollte die Framerate fest einstellen können, und das ganze dann sozusagen mit variabler Auflösung.

So wie progressive JPEGs, progressives rendern bei einer festen Framerate. Sonst wird man dem nicht beikommen. Die ganzen speziellen Algorythmen die momentan eingesetzt werden dienen einerseits der Beschleunigung und Vereinfachung, aber eben auch einer konstanten FPS Rate.

@Blutschlumpf: So einfach ist es aber auch nicht! Raytracing muss IMMER komplizierter sein (weil es die Realität exakter abbildet), als eine Graka-Effekte-CPU Engine. Man spart sich vielleicht die Grafikkarte (muss aber nicht sein) aber dafür braucht dann garantiert alleine der CPU mehr Strom als wenn man es klassisch nicht-raytracen würde!
Green Mamba schrieb:
Die Stärke des Raytracings, nämlich scharfe Schatten
Denkbar schlechtes Beispiel! Echte Schatten sind nicht scharf, man raytracet Schatten, damit sie NICHT scharf sind.
Fake Schatten sind meistens scharf.
 
Zuletzt bearbeitet:
F_GXdx schrieb:
So einfach ist es aber auch nicht! Raytracing muss IMMER komplizierter sein
Da besagt der Artikel was anderes:
https://www.computerbase.de/2007-01/bericht-raytracing-in-spielen/3/
Obs stimmt kann ich nicht beurteilen.
F_GXdx schrieb:
Man spart sich vielleicht die Grafikkarte (muss aber nicht sein) aber dafür braucht dann garantiert alleine der CPU mehr Strom als wenn man es klassisch nicht-raytracen würde!
Wenn ich mir aktuelle CPUs angucke, dann bekomm ich nen Single-Core für 30, Dual-Core für 70 Euro, für 250 gibts nen Quad.
Wenn Penryn und Phenom rauskommen wird der Preis für Quads relativ schnell in den unter-200-Euro-Bereich sinken und damit billiger als ne vernünftige Graka.

Ich bin relativ zuversichtlich, dass sowohl AMD als auch Intel noch Q4/07 die Leistung von nem aktuellen 3 GHz Kentsfield in die Region 50 Watt drücken werden.

Sollte wirklich jemand ein Spiel rausbringen was darauf basiert, dann wird das eh 2009 bis das draußen ist, bis dahin dürften selbst Notebooks nen Quad drin haben.
Die 97-Core-CPUs werden die PCs in ein paar Jahren eh drin haben und im Gegensatz zu aktuellen Grafikkarten geht der Trend bei CPUs seit ner Weile in die Richtung Effizienz.
 
Dann scroll mal runter, da ist ein Diagramm was den Rechenaufwand in Relation zum Detailgrad zeigt.
Auf der letzten Seite sind auch absolute Werte.
 
Was wohl Nvidia und Ati dazu sagen?
 
@ 11)

das ist so nicht richtig. der derzeit einzige renderer der ohne die tesselierung in polygone direkt mathematisch erzeugte geometrie berechnen kann, normalerweise handelt es sich hierbei um sogenannte nurbs (non-uniform rational b-splines), ist pixars renderman (zumindes soweit mir bekannt). jeder andere renderer, also z.b. v-ray, mental ray, entropy, final render etc., berechnet am ende auch nur polygonale objekte.
und so genial ist raytracing am ende auch nicht. realistische beleuchtung z.b., vor allem indirekte beleuchtung, ist allein mit raytracing nicht umzusetzen. dafür bräuchte man dann zusätzliche berechnungsmethoden, im normalfall als radiosity bekannt.

@ 18) so ist es!

@ 20) einen softshadow kann man damit sehr wohl berechnen. noch nie was arealights gehört?
 
Zurück
Oben