• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Intel zeigt Raytracing-Engine für PC-Spiele

ich bin mal gespannt, wie lange es dann dauern wird, bis ein RT-spiel fertig ist.
nur, weil raytracing für hohe polygonzahlen ausgelegt ist, muss die grafik nicht detailierter sein, denn es würde ewig dauern, fürs nächste need for speed ein 4 millionen-polygone-auto zu bauen, bei dem jede rille im rad modelliert wurde.
nicht alle polygone kann man mittels der "smoth"-funktion erzeugen. =)

was ich mich frage, ist, warum man nurbs nicht in normalen engines einbauen kann. immerhin kann ich nurbs in 3d-fenstern von 3d-programmen (maya, blender, 3DsMax), deren inhalt bestimmt nicht geraytraced ist, sehen.
 
@18: das sehe ich ähnlich. Sobald radiosity beleuchtung oder radiosity fake beleuchtung mit vielen lichtquellen benutzt wird steigt der rechenaufwand doch ins unermessliche. Letztendlich hängt es doch wieder vom Designer ab welchen Detailgrad er uns mit den bestehenden technischen Möglichkeiten zeigt.

Ich behaupte mal das es schwer wird eine in echtzeit geraytracete Szene in dx10 qualität bis 2009 auf in 2009 gängiger hardware darzustellen.
 
völlig korrekt, mit voll genutzen DX10 features kommt man sicherlich 2009 schon sehr nah an Kinoqualität ran, und dafür braucht Raytracing im moment noch ganze renderfarmen...
Aber ich sag mal, wenn Firmen wie nvidia wirklich auf den Raytracing zug mit Aufpsringen, dann kann ich mir Vorstellen, das 2011 sich einiges im Rechner verändern wird...
wenn auf Raytracing spezialisierte Prozessoren rauskommen wirds lustig, die werden dann nämlich 10 mal mehr berechnen können als aktuelle Multicore CPUs

zum thema 2009, das ist einfach Marketing, so wird sich nämlich ein mancher lieber einen Quad kaufen als einen billigeren Dual, weil dann die Leistung nochmal doppelt so hoch angeblich ist... aber wer denkt schon an RAM oder Mainboard... die haben keinen Einfluss auf die Performance?
 
Mepmashine schrieb:
denn es würde ewig dauern, fürs nächste need for speed ein 4 millionen-polygone-auto zu bauen, bei dem jede rille im rad modelliert wurde.

Naja, man bastelt ja eh schon seine Texturen aus Highpoly Modellen. Dann kann man auch gleich die benutzen, wenn es schon möglich ist.
 
@dPay

Man sieht an deinem Beispiel wieder mal sehr schön, dass einige es nicht schaffen die bisherigen Beiträge zu lesen, aber trotzdem erst einmal was dazu schreiben müssen. Ich hatte schon deutlich auf die neue Grafikkarte verwiesen. Wenn auch nur mal einer gucken würde, wäre klar warum Intel die neue Grafikengine entwickelt.
 
So wenn ich das mal so sehe, wird wohl auch klar warum AMD ATI geschluckt hat und nVidia heimlich versucht x86 befehle in die GPU zu bekommen.
Wenn das wirklich so ist, das die Engine mit jedem weitern CPU-Kern beinahe linear skaliert, dann werden wir uns wohl ab 2009 über jeden extra Kern im PC freuen ;)

Mal ganz nebenbei: man sollte doch bitte nicht Sound, Physik und Co. und seine Skalierung auf Mehrkern-CPU´s mit RT vergleichen. Denn es ist weit aus schwieriger die auf die Kerne so zu verteilen, das alle gleich ausgelastet sind. Sonder um die Berechnung eine Bildes. Hier ist schon im Vorfeld klar was jede CPU zu tun hat und dementsprechend leicht umzusetzen. Deswegen auch die linear Skalierung. Man siehe SLI und CO. Wobei hier doch ehr DX und openGL sich selber im wege stehen. Der logische Schluss ist daher, das RT der nächste schritt ist ;)
 
Zuletzt bearbeitet:
Die Entwicklung ist eigentlich logisch. Die Taktraten lassen sich nicht beliebig steigern und so muss man eben den Weg der Parallelisierung gehen - auch bei Grafikkarten. Hauptsache der Stromverbrauch steigt nicht linear.
 
Super Techdemo :) :) :) :daumen:
 
@ 50 und 53

Danke das es euch gibt. Endlich mal jemand der Ahnung hat und weiss wo von er redet.
Ganz besonderen Dank an Harleaquin. Hoffentlich haben die Anderen die Message jetzt verstanden.

mfg. MTR
 
Also der Screenshot sieht ziemlich sch*** aus. Aber die Technik an sich ist ganz klar die Zukunft der Spielegrafik.
 
Das Raytracing hat auch noch den Vorteil Pixelgenaue Kollisionsabfrage zu gewährleisten (kommt durch das Lichtstrahlenberechnung) um Physikeffekte zu machen.
Die Kolisionsabfrage ist ein nebenbrodukt der Raytracing und kostet kaum Rechenleistung.

Heute werden ja ganze Grafikkarten oder spezielle Pasikbeschleuniger benutzt um Kolisionsabfragen in Hardware zu machen was aber bei Raytracing nicht mehr nötig ist. :king:
 
Das Raytracing gut skaliert ist doch nichts neues ist ja quasi ein Paradebeispiel für Paralellisierbarkeit. :rolleyes:

Mich würde interessieren, wie es mit der Entwicklung der geeigneten Hardware für das Raytracing im Consumer-Bereich aussieht. Könnte mir vorstellen, das ein vollständiger CPU core etwas oversized für das Problem ist. Evtl. könnte man mit weniger Transistoren deutlich mehr raytracing-spezialisierte Prozessoren auf ein die packen. Selbst wenn die ein Faktor langsamer sind, könnte man das mit purer Anzahl mehr als ausgleichen.

Sicherlich stösst man da bestimmt noch auf einige Probleme, wenn die Anzahl der Prozessoren in neue Dimensionen vorstösst, aber genau DAS wäre doch mal ein interessantes Thema für einen Artikel. ;)
 
8) wHiTeCaP (21.08.2007, 18:12 Uhr)
Editieren | Antworten
Ist das Bild per Raytracing entstanden? Wenn ja, sieht ja nur das durchsichtige Wasser okay aus. Der Rest sollte besser nicht angeschaut werden - fast schon schlimmer als bei aktuellen Spielen.

Raytracing selber wird aber sicher erst 2010 auch auf dem Markt durchschlagen. Denn wenn 2009 die Einführung sein soll, wird man dort bereits "High-End"-Produkte benötigen. 2010 wird man die dann vielleicht auch bezahlen können.




wenn ich sowas hoer kommt mir einfach nur das kotzen.... in deinem grafikwahn hast du aber schon vergessen das es sich hierbei um quake3 handelt? einem spiel welches noch im letzten jahrtausend gespielt wurde.... die engine wurde einfach hergenommen und ein wenig gepimpt um zu demonstrieren was raytracing so kann....

einerseits ist es ja sehr schoen das sich an der grafik soviel aendert....aber haette lieber ein aktuelles spiel mit dem kaliber von q3,hl (cs) oder ut.... und keine grafikwunder die keinen spass machen....
 
Dir ist schon klar dass intel keine Spielesoftware entwickelt? Es geht hier überhaupt nicht darum was die Quake3-Engine leisten kann. Aber kotz Du mal weiter :rolleyes:
 
Ich freu mich schon auf 20 - 40-Kern Grafikkarten die das dann in 1920 x 1200 bei 50 - 100 fps berechnen können.

Die Frage die sich dann stellt ist, ob es dann DirectX-raytraced gibt und ob wir das auch möchten.

Obwohl das Quake Maxerl, das da auf dem Bild ist, nicht wirklich detailliert erscheint, aber das ist ja nur ein Detail.

Intel würde mit einer Raytrace-Grafikkarte den Markt ziemlich aufmischen. Mich würde das freuen. Grösseres Angebot, bessere Preise. 500+ Euro für eine schnelle Grafikkarte ist ja schweineteuer (auch wenn ich eine solche hab :evillol:)
 
wow stegozilla, du hast ahnung. Bietest du Kurse an? Wo kann ich mich einschreiben?

Scheuklappen, Kurzsichtigkeit und Kleinkarriertheit leben hoch!

"oh_mann_doppelplus_deluxe"


Wenn die Technik wirklichStandard geworden ist, behaupte ich jetzt mal, wird es keine Graphikkarten im herkömmlichen sinn mehr geben. Das wird dann sowas wie ein "unified processor" bzw. die GPU sitz zusammen mit der CPU auf einem sockel. Kein beschränkender Bus mehr, Performance, die du dir heute noch nicht vorstellen kannst.
 
Als ob's nichts Wichtigeres gäbe...
Was klar ist, um das Markttauglich zu bekommen, sollte man sich um Raytracing GPUs kümmern. Ob die nun Beides können (den Herkömmlichen, polygonalen Weg, und Raytracing) sollten oder nicht, liegt wohl ganz am Markt und der technischen Realisierbarkeit...
 
Zurück
Oben