• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Intels Raytracing-Projekt: Der Stand der Dinge

Naja, mit Unreal (das Original von 1998) kann man ja mal auf einem Original-Computer von 1998 (Pentium II 233 MHz, Voodoo2 oder Voodoo Banshee) Hardware- gegen Software-Rasterisierung vergleichen.
 
Überlege doch mal, wo wir vor 5 Jahren waren.

Damals kam die Geforce 6?00 und die ersten Radeon X?00 raus. Damalig aktuelle CPUs waren die ersten Athlon 64 und der Pentium 4 mit Prescott-Kern.
Nur 5 Jahre später (= heute) ist die durchschnittliche Hardware mindestens doppelt eher viermal so schnell (Quadcores lassen sich nicht wirklich mit Single Cores vergleichen).

Wenn man also eine vorsichtige Schätzung für die Technik in 5 Jahren abgibt, kann man behaupten, dass ein dann existierender 16-Kern-Prozessor (@ 3 GHz) mit 32 GB RAM (DDR4) und einer Grafikkarte mit mehr als 1500 paralell arbeitenden Microcores genügend Leistung für auch etwas anspruchsvolleres RT hat.
 
h0munkulus schrieb:
aber zur zeit ist das schlicht nicht wirtschaftlich. die "next-gen" konsolen sind allerorts schon in der konzept-phase. wenn man jetzt 3-5 weitere jahre für die aktuelle generation rechnet und 8-10 für die nächste generation (welche 99,9% mit rasterizer hardware kommt) hat man schon fast 15 jahre spielezukunft ohne raytracing.
reden wir 2025 nochmal drüber ;)

Guck dir die Konsolen vor 15 Jahren an und überleg nochmals, ob du deine Aussage so stehen lassen willst. Kannst schon sagen, dass in 15 Jahren, die Leute, die sich in 5 Jahren eine Konsole kaufen, dann noch Rasterisieren, aber ja.. nach 10 weiteren Jahren sieht die Welt doch bisschen anders aus... Nur würd ich wirklich nicht eine zu dieser Zeit 10 Jahre alte Konsole als State-of-the-Art bezeichnen wollen - wenn, dann musst die 3. Nächste Generation nehmen, oder eben 10 Jahre zurückspulen mit deiner Aussage...

Wenn Moore weiterhin recht behält, könnte man in 15 Jahren mit Monte-Carlo-Tracern sogar langsam in Real-Time-Gefilde ohne viel Noise (also so Bilder wie das mit den Weingläsern) kommen. Aber wie gesagt, 15 Jahre ist ein zu grosser Horizont, als das ich da Voraussagen machen wollen würde.
 
h0munkulus schrieb:
wird sich rasterizing auch deutlich weiter entwickeln.
Wobei man für jede halbwegs sichtbaren Fortschritt, enorm viel mehr Rechenleistung benötigt. Nicht umsonst herrscht schon seit 2 Jahren Stillstand. Oder wo gibt es eine Leistungssteigerung zu einem bestimmten Spiel, das vor gut 2 Jahren herausgekommen ist (und selbst dieses bringt aktuelle Hardware immer noch an die Grenzen, wobei es selbst hier noch massig zu verbessern gäbe).
Die Frage ist: Wie lange schafft man es noch irgendetwas neues "hinzutricksen" (also so weiter zu machen wie aktuell), ohne dass die Rechenleistung explodiert. Und da bezweifle ich, dass man das die nächsten 15 Jahre macht (außer, die Entwicklung geht genauso langsam voran, wie sie es aktuell tut. Was natürlich auch möglich ist)...
 
e-Laurin schrieb:
Das ist mit Absicht so gemacht, um die Leistungsfähigkeit und Einsatzmöglichkeiten zu zeigen.

Das macht man bei quasi jeder Vorstellung einer neuen Engine, wodurch die Bilder dann oftmal sehr, sehr bunt, überladen und unecht wirken.


Trotzdem sollten die mal dran feilen, im Meer ists unter Wasser nicht 100% durchsichtig und sieht von oben auch nicht wie flüssiges Quecksilber oder sowas aus. Und wie echte Wellen sieht das auch nicht wirklich aus.
Kein Wunder wenn da jeder sagt "und für sowas so ein Aufwand?" oder "bei XY sehen die Effekte trotz Rasterisierung viel besser aus". ;)
 
vorallem kommt Ray-tracing der derzeitigen Multi - Many Core Entwicklung sehr entgegen, und aktuelle und zukünftige GPUs sollten generell auch dazu in der Lage sein.

Auch scheinen sich manche nicht erinnern zu können wie extrem die Leistungsfähigkeit der Hardware gewachsen ist bzw. wächst und ein Ende ist nicht in Sicht. Aber die Skalierfähigkeit von Rasterizern ist ganz offensichtlich an einem Wendepunkt angekommen, wo kleinste Effekte (die bei Raytracing erst gar nicht implementiert werden müssten, da sie in Natura ohnehin vorhanden sind - Raytracing schickt ja für jeden Bildschirmpixel einen Strahl auf die Szenerie und vom Auftreffpunkt aus je nach "Material" weitere strahlen - quasi der umgekehrte Prozess des "Sehens" durch unser Auge) exorbitant Leistung verschlingen.

@ alle, die über die Texturen der Beispielbilder lästern:

egal ob sie jetzt diese breiige Pixeltapete verwenden oder ein hochauflösendes Foto, der Rechenaufwand des Raytracers bleibt derselbe, nur der Speicherverbrauch steigt.

für mich ist es keine Frage ob Raytracing kommt, sondern nur wann, und ich glaube die Leistungsfähigkeit um auch heute gängige Spielauflösungen damit zu befeuern, wird schon sehr bald erreicht sein. Die Frage ist nur ob die Firmen mitziehen, oder wie üblich noch lange bei eigentlich bereits Veraltetem verharren. --> andererseits ist Ray-Tracing von der Entwicklung her viel einfacher zu implementieren (Kostenfaktor) und hätte den weiteren Vorteil, dass die Ausgabequalität wieder von der Hardware unabhängig wäre (was derzeit ja weit verfehlt wird, die Treiberspielereien bei Ati und nVidia zeigen ja deutlich die Probleme der Rasterisierung)
 
NoD.sunrise schrieb:
Hmm rein subjektiv würde ich sagen dass sich bei rasterisierung die sichtbare verbesserung der Bildqualität in letzter Zeit eher verlangsamt hat - vielleicht kommts mir auch nur so vor keine ahnung.

Liegt wohl auch daran, dass es eben immer mehr in die Details geht und man auf den ersten Blick oft kaum noch Unterschiede bemerkt.

Früher sah man die Unterschiede nunmal deutlicher, z.b. ob ne Figur nu 50 oder 100 Polygone hat. Ob heute ne Figur 10000 oder 20000 Polygone hat fällt dagegen kaum auf, vor allem nicht während man spielt. Das gleiche bei Texturen, damals bei CS von 256 auf 512er Texturen war schon ein Sprung, heute fällt das wieder kaum auf, ausser im direkten Vergleich.
 
NoD.sunrise schrieb:
Eigentlich ist es doch ganz einfach:
Raytracing ist im prinzip die selbe methode wie Sehen wirklich funktioniert, jede Lichtquelle gibt strahlen ab und dann berechnet man welche straheln auf welchem weg das auge des betrachters treffen.

Ist es nicht eher so, dass beim Raytracing die Strahlen vom Auge weg gehen und dann berechnet wird, wann der Strahl auf ein Objekt trifft? Oder gibts da verschiedene Arten wie geraytraced wird?
 
@Raucherdackel: Richtig. Es wird für jeden Bildschirmpixel ein Primärstrahl ausgesandt. Anders herum wäre nicht so intelligent, da fast unendlich viele Strahlen nötig wären und die Präzision der Berechnung nicht ausreicht, um immer genau einen Bildschirmpixel zu treffen. Das ergibt dann Verzerrungen und schwarze Flecken im Bild.
 
Bin mal gespannt wohin das noch geht in den naechsten Jahren und vor allem wann die Technick dahin adaptiert wird.
 
Turrican101 schrieb:
Trotzdem sollten die mal dran feilen, im Meer ists unter Wasser nicht 100% durchsichtig und sieht von oben auch nicht wie flüssiges Quecksilber oder sowas aus. Und wie echte Wellen sieht das auch nicht wirklich aus.
Kein Wunder wenn da jeder sagt "und für sowas so ein Aufwand?" oder "bei XY sehen die Effekte trotz Rasterisierung viel besser aus". ;)

Das Verhalten von Wasser (Oberflächenspannung etc.) ist jedoch eher der Physiksimulation zuzordnen als der optischen Darstellung. Da kann weder die Rasterisierung noch Raytracing was dafür :D
 
ihr könnt hier soviel reden wie ihr wollt. Raytracing ist die Zukungt. Ganz sicher.

Jeder Kinofilm wird so gerendert- da nörgelt auch keiner mehr, dass er das wasser oder sonstwas unrealistisch findet.

Weiterer Vorteil ist: läuft es einmal bei einer gewissen aufflösung flüssig, läuft es da auch immer flüssig _EGAL_ wieviel im bild passiert.
 
Naja, es kann schon drauf ankommen wieviel da passiert. Für die Kollisionserkennung der Strahlen muss die Hierarchie bei sich stark ändernden Szenen auch neu berechnet werden. Das bedeutet dann evtl. großen Overhead.
Prinzipiell ist es aber schon richtig, es kommt am meisten auf die Auflösung an.
 
NoD.sunrise schrieb:
Hmm rein subjektiv würde ich sagen dass sich bei rasterisierung die sichtbare verbesserung der Bildqualität in letzter Zeit eher verlangsamt hat - vielleicht kommts mir auch nur so vor keine ahnung.

Du hast wahrsch. die Konsolen vergessen. Grob gesagt gibt hier der Markt keine schnelle Entwicklung her. Die breite Masse will nicht alle Nase lang bessere Grafik sehen, sondern sich in Nähe des Klotzes auf die Couch hängen (oder davor, Beispiel Entwicklung der Eingabe mit Wii, Natal etc.) - und das ein paar Jahre lang mit dem selben Klotz.

Anderes Thema: Ich find es lustig, wie die hier versuchen den vielleicht einzigen heute sichtbaren Vorteil von Raytracing herauszukehren. Strogg-Figuren mit Glas-Verzerrungs-Effekt. Fixierung auf das Wasser. Neue, krude Modelle (Windmühle mit Glas-Blättern), die es so in der ursprünglichen ET:QW-Map gar nicht gibt. Na ja, was soll's. Jeder macht Werbung für sich selber, er will ja seine (An-)Stellung behalten. Intel, deren Raytracing-Guy etc. Man sollte die Werbung eben nur als solche erkennen.
 
Schon klar, dass Intel die Raytracing Entwicklung so forciert. Physik Berechnung bei Spielen ist auf Grafikkarten ausgelagert, und die CPUs langweilen sich bei Spielen schon heute zu Tode. Wenn also nicht bald ein neues Terrain in Spielen für die CPUs erschlossen wird, können Intel und AMD die Spielerschaft als gutzahlende Retailkunden einmotten.
Keiner zahlt 200-1000€ in Zukunftfür eine CPU, wenn 50€-CPUs schon die maximal erforderliche Leistung bringen.

Wenn also Intel es schafft Raytracing marktfähig zu bekommen, hätten die Quadcores etc. n-Cores eine neue Aufgabe, nämlich die Grafikberechnung. Raytracing soll ja wunderbar mit mehreren Cores skalieren.

So und nicht anders sieht der Masterplan von Intel aus, Grafikkarten obsolete werden zu lassen, und den Gamern anständige CPUs für 500 Euro und mehr zu verticken.

:verwandlung:
 
Es ist klar das Intel so hinter "Raytracing" Rendering steht, der Hintergrund ist ganz einfach! Raytracing erfordert erheblichen Hardwarehunger, was Intel leider nicht bestreiten kann..., es ist auch eine gute Marktlücke um die Hardwareproduktion kräftig anzukurbeln;)
 
@TheCrassus (hm? hab ich gerade in einem anderen Thread auf dich geantwortet?
Ich denke, das fällt unter die Kategorie >> Gerüchteküche & Verschwörung << ;)

Die drei großen Leistungsvernichter sind heute Grafik, KI und Physik. Für ersteres und letztes gibt's spezialisierte Hardware. Bleibt nur noch die KI übrig. Da KI-Berechnung nicht standarisierten Formeln folgt (=jede KI ist anders), wird sie immer Aufgabe der CPU (=Multifunktionsrechner) bleiben.

Ein Spiel wie Supreme Commander zwingt auch heute noch einen Quadcore in die Knie. Der Hauptgrund ist die immense Menge an KIs (Panzer, etc.) und die schlechte Multithreading-Unterstützung.
In einem Spiel (ohne Mods) kann es bis zu 8000 Einheiten geben, die natürlich alle KI-gesteuert werden müssen. Ab ca. 2000 Einheiten bricht die Leistung dann stark ein. Ein Phenom II 955 ist dann hier zu etwa 50% (2 Kerne) ausgelastet. Multithreading braucht die Welt!
Supreme Commander ist auch das einzige Spiel, durch das jemals 3 GB vom Arbeitsspeicher verbraucht wurden. (1 GB Betriebssystem + 2 GB für's Spiel)
 
raytracing ist richtig n1

es wäre schön wenn sich das durchsetzt denn dann ist man nicht mehr limitiert auf directX...ergo mehr games für mac und linux die auch nativ laufen und nicht über wine bzw cider etc
 
Zurück
Oben