Ich freue mich, dass wir wieder von RT "hören" und hoffe, dass wir bald Hardware und Spiele dazu kaufen können.
Der Bericht war erstaunlich verständlich zu lesen für einen Programmier-Laien wie mich
.
pampelmuse schrieb:
Mal sehen, ob mit der Larrabee da etwas passiert.
Und hoffentlich kommen schnell CPUs mit mehr Kernen, denn das ist wirklich der einzige Weg zum allgemeinen Raytracing.
Wieso denken alle an CPU´s? Ich würde eher von einer RT-GPU ausgehen. Schliesslich hat Intel ja schon CPU´s mit (ich glaub es waren) 80 Kernen vorgestellt, die leicht als RT-GPU herhalten könnten.
Shader schrieb:
Bei Spiele dagegen wird es noch lang dauern.
Sehe ich anders. Es gibt jetzt schon einige, die mit OpenRT Spiele programmieren und die Engines weiterentwickeln.
Siehe:
http://graphics.cs.uni-sb.de/RTGames/
Shader schrieb:
Immerhin gibt es hier einige Fragezeichen, wie wird sich DirectX diesbezueglich verhalten?
Es braucht sich garnicht zu verhalten. Wie bei OpenGL auch, werden Raytracing-Spiele einfach auf OpenRT basieren oder auf einer anderen RT-Grafikschnittstelle. Du kannst ja schliesslich OpenGL auch trotz DirectX spielen
Shader schrieb:
Es ist ja bei diesem Artikel herauszuhoeren das momentan Raytracing auf OpenGL basiert,
Also ich les das nirgens... es wurden nur Vergleiche angestellt.
Shader schrieb:
Dann ist ja noch die Sache wie NVIDIA und ATI sich dazu verhalten.
Diese Frage wird kaum aufkommen. Wenn sich RT für Spiele durchsetzt, dann werden sie RT-GPU´s entwickeln oder untergehn.
wHiTeCaP schrieb:
Ich stelle mir da allerdings die Frage:
Warum sollten nVidia und gerade AMD/ATi diese Entwicklung auch wollen?
Wir sind ja nicht bei "will..., ähm... wünsch dir was". Wichtig ist was die Softwareindustrie unterstützt und der Konsument akzeptiert und kauft nicht was ein GPU-Produzent möchte.
Ev. würden sie sich anfangs wehren und versuchen Spieleschmieden zu "unterstützen" damit sie weiterhin ihre GPU´s verkaufen können, aber der Entwicklung können sie sich irgendwann nicht verschliessen. Ich bin sicher, die arbeiten auch an RT-Lösungen. Da es scheinbar viele Vorteile hat, wäre das die einzig logische Schlussfolgerung.
wHiTeCaP schrieb:
Hört sich hier ja alles danach an, dass die gesamte Berechnung von Grafik dann durch die CPU getätigt wird.
Das ist imho nur deshalb der Fall, weil es billiger ist mit bestehender Technik zu arbeiten, anstatt RT-GPU´s zu entwickeln und eine zum Testen zu produzieren.
wHiTeCaP schrieb:
Oder sind hier vielleicht "Grafikkarten" gemeint, die solche Raytracing-Berechnungen gesondert bearbeiten und dann eine CPU, die normale Berechnungen, wie KI etc. macht?
Das ist wohl eher die Richtung, die da eingeschlagen werden wird. Wenn nicht, dann gibts bald ein Intel-Monopol, das will irgendwie auch keiner
Drager schrieb:
Also ich glaub auch das sich Raytracing in Spielen erstmal nicht durchsetzen wird.
Ich bin sicher, dass du falsch liegst. Siehe Link oben bzw. bemühe mal eine Suchmaschine deiner Wahl und suche nach raytracing+gaming oder raytracing+spiele.
Drager schrieb:
Für mich ist das eher so, dass Intel versucht, eine "sinnvolle" Applikation zu finden, die ihre Multicore wirklich nutzt. Also nicht viel mehr als ein Werbegag.
Genau! Und für einen Werbegag stellen die extra einen Entwickler ein, der Quake Raytraced programmiert hat!
Deine Logik ist ja so pregnant und fundiert.
Im WWW findest du verschiedene Entwickler, die sich mit RT für Spiele beschäftigen. Intel ist da nicht alleine und hat auch nicht damit begonnen
Drager schrieb:
Ich finde der Artikel hebt jetzt nur die positiven Seiten von Raytracing hervor, ich glaube aber sehrwohl , dass es auch Effekte gibt in denen Raytracing benachteiligt ist.
Warum versuchst du eine gute Entwicklung schlecht zu machen? Ist doch logisch, dass es auch Nachteile gibt, sonst wäre RT ja schon lange verbreitete Realität in jedem PC
.
Drager schrieb:
Auch vergleicht er eine Brute Force Methode (Rasterisierung) mit einer optimierten Methode.
Rasterisierung wird wohl den grossen Anteil bei aktueller Berechnung ausmachen, sonst würde es keinen Sinn machen darauf einzugehen. Stand da nicht, dass aktuelle GPU´s es so berechnen?
Drager schrieb:
Was Raytracing oft das Genick bricht, ist ja nicht die Anzahl der Vertices sondern die Auflösung des Fensters. Da steigt der Rechenaufwand nämlich enorm.
Dafür gibts die Entwicklung, die Probleme einfach löst
Drager schrieb:
Zudem wird hauptsächlich in Richtung Rasterisierung geforscht und die meisten Paper, beschäftigen sich nur mit der Optimiereung für Rasterisierung. Raytracing spielt hier eine untergeordnete Rolle, also für Spiele Entwickler, die oft Erkenntnisse aus Forschungen übernehmen eher uninteressant.
Wenn aktuelle Spiele darauf beruhen (so hab ich das zumindest verstanden), dann macht es auch Sinn, aufzuzeigen, dass RT da mal Stärken hat. Und diese scheinen gewaltig zu sein.