Und noch 5 jahre abziehen weil wir uns immer doppelt so schnell entwickeln. Ich denke Intel kommt wieder mit einen Tick und einen Tock mit 16nm und 16 Cores könnt ich mir gut vorstellen!2020? Das sind noch 12 Jahre bis dahin! Vor 12 Jahren hatte man noch nen P166 mit 32-64MB RAM und 3D-Karten gab es auch noch nicht so wirklich! Jetzt vergleicht man mal das mit dem was wir heute haben...
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Bericht: Raytracing in Spielen 2.0
- Ersteller elchtest
- Erstellt am
- Zum Artikel: Bericht: Raytracing in Spielen 2.0
Shader
Lt. Commander
- Registriert
- Aug. 2005
- Beiträge
- 1.889
In erster Sicht ist Raytracing fuer die Wissenschaft und Technik wichtig, ich glaub man kann bei diesem Artiel erkennen das da Raytracing schon bei der Realitaet angekommen ist.
Bei Spiele dagegen wird es noch lang dauern. Immerhin gibt es hier einige Fragezeichen, wie wird sich DirectX diesbezueglich verhalten? Es ist ja bei diesem Artikel herauszuhoeren das momentan Raytracing auf OpenGL basiert, Linux-User wuerden jumbeln wenn es so bleiben wuerde, da waere die Macht von Microsoft mit ihrem DirectX gebrochen aber es wird bestimmt nicht so kommen. ^^
Dann ist ja noch die Sache wie NVIDIA und ATI sich dazu verhalten.
Bei ATI war Rede das man zukuenftig nur noch einen Core macht und je nach Leistung mehrere solcher Chips verbaut. Ein "R700" z.B. waere Low-End, zwei davon Midrange, drei oder vier High-End - je nach dem.
Das wuerde aehnlich in die Richtung wie bei Intel mit ihrem Larabee Projekt gehen.
Zu dem duerfte ATI in dieser Hinsicht auch von AMD bzw. AMD von ATI profitieren.
Der Artikel war interesannt.
Auch in der Hinsicht wie man schnell erfolgreich werden kann.
Der Bursche war sozusagen mit dem richtigen Wissen, zum richtigen Zeitpunkt am richtigen Ort.
Bei Spiele dagegen wird es noch lang dauern. Immerhin gibt es hier einige Fragezeichen, wie wird sich DirectX diesbezueglich verhalten? Es ist ja bei diesem Artikel herauszuhoeren das momentan Raytracing auf OpenGL basiert, Linux-User wuerden jumbeln wenn es so bleiben wuerde, da waere die Macht von Microsoft mit ihrem DirectX gebrochen aber es wird bestimmt nicht so kommen. ^^
Dann ist ja noch die Sache wie NVIDIA und ATI sich dazu verhalten.
Bei ATI war Rede das man zukuenftig nur noch einen Core macht und je nach Leistung mehrere solcher Chips verbaut. Ein "R700" z.B. waere Low-End, zwei davon Midrange, drei oder vier High-End - je nach dem.
Das wuerde aehnlich in die Richtung wie bei Intel mit ihrem Larabee Projekt gehen.
Zu dem duerfte ATI in dieser Hinsicht auch von AMD bzw. AMD von ATI profitieren.
Der Artikel war interesannt.
Auch in der Hinsicht wie man schnell erfolgreich werden kann.
Der Bursche war sozusagen mit dem richtigen Wissen, zum richtigen Zeitpunkt am richtigen Ort.
Berserkervmax
Banned
- Registriert
- Apr. 2004
- Beiträge
- 3.118
Sehr Informativ !
Danke !
Danke !
wHiTeCaP
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.439
Ich stelle mir da allerdings die Frage:
Warum sollten nVidia und gerade AMD/ATi diese Entwicklung auch wollen? Hört sich hier ja alles danach an, dass die gesamte Berechnung von Grafik dann durch die CPU getätigt wird.
Oder sind hier vielleicht "Grafikkarten" gemeint, die solche Raytracing-Berechnungen gesondert bearbeiten und dann eine CPU, die normale Berechnungen, wie KI etc. macht?
Warum sollten nVidia und gerade AMD/ATi diese Entwicklung auch wollen? Hört sich hier ja alles danach an, dass die gesamte Berechnung von Grafik dann durch die CPU getätigt wird.
Oder sind hier vielleicht "Grafikkarten" gemeint, die solche Raytracing-Berechnungen gesondert bearbeiten und dann eine CPU, die normale Berechnungen, wie KI etc. macht?
Memphis@MG
Lt. Commander
- Registriert
- Aug. 2006
- Beiträge
- 1.175
Hammer gut geschreiben auch das quer einsteiger was davon verstehen! und ratracing sieht einfach nur NICE aus!
RubyRhod
Commodore
- Registriert
- Jan. 2006
- Beiträge
- 4.305
Ich hab da jetzt mal ne Frage...
Heißt das nun eigentlich, dass es mit Raytracing sinnvoll wäre, eine CPU mit 1-2 x86-Cores zu nehmen, dazu ein paar auf Raytracing und dessen Anforderungen optimierte Cores (sagen wir mal 6 Stück) hinzuzufügen und schon kann man die Grafikkarte aus dem System ausschmeißen?
Die Ausgabe erfolgt dann per Chipsatz und gut is.. oder wie?
Es würde ja keinen Sinn machen, 4-8 Cores für Videobearbeitung etc zu besitzen, um in Spielen dann 1-2 Grafikchips rechnen zu lassen..
Heißt das nun eigentlich, dass es mit Raytracing sinnvoll wäre, eine CPU mit 1-2 x86-Cores zu nehmen, dazu ein paar auf Raytracing und dessen Anforderungen optimierte Cores (sagen wir mal 6 Stück) hinzuzufügen und schon kann man die Grafikkarte aus dem System ausschmeißen?
Die Ausgabe erfolgt dann per Chipsatz und gut is.. oder wie?
Es würde ja keinen Sinn machen, 4-8 Cores für Videobearbeitung etc zu besitzen, um in Spielen dann 1-2 Grafikchips rechnen zu lassen..
diciani
Cadet 3rd Year
- Registriert
- Feb. 2006
- Beiträge
- 62
Wirklich toll.
Wenn er solche Bilder, wie das letzte mit Beleuchtung und Spiegelungen jetzt mal mit der Poligonzahl der Boeing 777 zeigen würde und ein paar "Shadereffekten" die dem Bild Tiefenunschärfe, Hitzeflimmern usw. dazugeben, dann würde auch der letzt begeistert aufschreien.
Es gibt ja immernoch einige die einen "Neuanfang" für nicht sinnvoll halten.
Kann man Quake3/4 Raytraced irgendwo fertig runterladen und mit dem eigenen Quadcore testen? Ohne selbst zu kompilieren oder viel Aufwand...würde mich mal interessieren?
Wenn er solche Bilder, wie das letzte mit Beleuchtung und Spiegelungen jetzt mal mit der Poligonzahl der Boeing 777 zeigen würde und ein paar "Shadereffekten" die dem Bild Tiefenunschärfe, Hitzeflimmern usw. dazugeben, dann würde auch der letzt begeistert aufschreien.
Es gibt ja immernoch einige die einen "Neuanfang" für nicht sinnvoll halten.
Kann man Quake3/4 Raytraced irgendwo fertig runterladen und mit dem eigenen Quadcore testen? Ohne selbst zu kompilieren oder viel Aufwand...würde mich mal interessieren?
Butterbemme
Lt. Commander
- Registriert
- Aug. 2004
- Beiträge
- 1.188
Hm, zwei Fragen:
1) wie kann Intel mal eben einen Raytracer schreiben, der 10(!) mal schneller als alles andere ist? Da hätte ich mir noch ein paar mehr Infos gewünscht.
2) Wenn mit diesem Raytracer bereits auf 4 CPU-Kernen 45fps in HD erreicht werden, warum soll es bis zu den ersten Spielen noch ewig dauern? Warum kommen die nicht spätestens 2009, wenn sie bereits heute auf 200 Eur CPUs flutschen würden?
1) wie kann Intel mal eben einen Raytracer schreiben, der 10(!) mal schneller als alles andere ist? Da hätte ich mir noch ein paar mehr Infos gewünscht.
2) Wenn mit diesem Raytracer bereits auf 4 CPU-Kernen 45fps in HD erreicht werden, warum soll es bis zu den ersten Spielen noch ewig dauern? Warum kommen die nicht spätestens 2009, wenn sie bereits heute auf 200 Eur CPUs flutschen würden?
Zuletzt bearbeitet:
DragonTuX
Lt. Junior Grade
- Registriert
- Nov. 2007
- Beiträge
- 276
nutel schrieb:raytracing wird sich nie durchsetzen
warum nicht?
sagte der experte argumente?nutel schrieb:raytracing wird sich nie durchsetzen
genau dasselbe sagte man damals über 3d-karten.. und jetzt haben alle eine...
Also ich glaub auch das sich Raytracing in Spielen erstmal nicht durchsetzen wird.
(zumindest in Real Time Bereich, Offline vorberechnen von Lightmaps etc. ist schon sinnvoll..)
Für mich ist das eher so, dass Intel versucht, eine "sinnvolle" Applikation zu finden, die ihre Multicore wirklich nutzt. Also nicht viel mehr als ein Werbegag.
Ich finde der Artikel hebt jetzt nur die positiven Seiten von Raytracing hervor, ich glaube aber sehrwohl , dass es auch Effekte gibt in denen Raytracing benachteiligt ist.
Auch vergleicht er eine Brute Force Methode (Rasterisierung) mit einer optimierten Methode.
Klar das da so ein Unterschied heraus kommt. Es gibt aber sehrwohl auch Verfahren, die die Rasterisierungsarbeit vermindern (z.B. Clipping im Screenspace). Und der Flaschenhals aktueller Spiele ist so gut wie nie die Vertex Einheit. Darum find ich das mit der geometrischen Komplexität etwas zu stark bewertet.
Was Raytracing oft das Genick bricht, ist ja nicht die Anzahl der Vertices sondern die Auflösung des Fensters. Da steigt der Rechenaufwand nämlich enorm.
Zudem wird hauptsächlich in Richtung Rasterisierung geforscht und die meisten Paper, beschäftigen sich nur mit der Optimiereung für Rasterisierung. Raytracing spielt hier eine untergeordnete Rolle, also für Spiele Entwickler, die oft Erkenntnisse aus Forschungen übernehmen eher uninteressant.
Also im grossen und ganzen: Raytracing mag in manchen Bereichen seine Berechtigung haben, aber zur zeit ist das nichts weiter als eine wilkommene Werbung für Intel...
(zumindest in Real Time Bereich, Offline vorberechnen von Lightmaps etc. ist schon sinnvoll..)
Für mich ist das eher so, dass Intel versucht, eine "sinnvolle" Applikation zu finden, die ihre Multicore wirklich nutzt. Also nicht viel mehr als ein Werbegag.
Ich finde der Artikel hebt jetzt nur die positiven Seiten von Raytracing hervor, ich glaube aber sehrwohl , dass es auch Effekte gibt in denen Raytracing benachteiligt ist.
Auch vergleicht er eine Brute Force Methode (Rasterisierung) mit einer optimierten Methode.
Klar das da so ein Unterschied heraus kommt. Es gibt aber sehrwohl auch Verfahren, die die Rasterisierungsarbeit vermindern (z.B. Clipping im Screenspace). Und der Flaschenhals aktueller Spiele ist so gut wie nie die Vertex Einheit. Darum find ich das mit der geometrischen Komplexität etwas zu stark bewertet.
Was Raytracing oft das Genick bricht, ist ja nicht die Anzahl der Vertices sondern die Auflösung des Fensters. Da steigt der Rechenaufwand nämlich enorm.
Zudem wird hauptsächlich in Richtung Rasterisierung geforscht und die meisten Paper, beschäftigen sich nur mit der Optimiereung für Rasterisierung. Raytracing spielt hier eine untergeordnete Rolle, also für Spiele Entwickler, die oft Erkenntnisse aus Forschungen übernehmen eher uninteressant.
Also im grossen und ganzen: Raytracing mag in manchen Bereichen seine Berechtigung haben, aber zur zeit ist das nichts weiter als eine wilkommene Werbung für Intel...
Jarod
Lt. Junior Grade
- Registriert
- Juli 2004
- Beiträge
- 475
Super artikel!
wenn ich das richtig verstehe, brauchen wir künftig keine GPU's mehr (bzw. keine potenten mehr).
Dafür viele cores, die man ja, wenn man mal nicht gerade spielt, auch gut für andere dinge nutzen kann.
Im Grunde eine positive Entwicklung, nur nVidia wird wohl nicht so glücklich sein darüber...
wenn ich das richtig verstehe, brauchen wir künftig keine GPU's mehr (bzw. keine potenten mehr).
Dafür viele cores, die man ja, wenn man mal nicht gerade spielt, auch gut für andere dinge nutzen kann.
Im Grunde eine positive Entwicklung, nur nVidia wird wohl nicht so glücklich sein darüber...
Nur mal kurz am Rande noch : die Radeon HD 3870 besitzt 320 Shader Einheiten, d.h. 320 speziallisierte CPUs. Klar können die nicht alles was eine normale CPU kann, sollen sie ja auch nicht.
Dagegen sind 8 Cores ja garnix. Da muss Intel aber mächtig aufholen... Da Ati, Nvidia im parallelen Rechnern ja Jahre vorraus sind...
Dagegen sind 8 Cores ja garnix. Da muss Intel aber mächtig aufholen... Da Ati, Nvidia im parallelen Rechnern ja Jahre vorraus sind...
Ähnliche Themen
- Antworten
- 404
- Aufrufe
- 37.866
- Umfrage
- Antworten
- 64
- Aufrufe
- 7.792
- Antworten
- 202
- Aufrufe
- 37.158
- Antworten
- 88
- Aufrufe
- 29.975
- Antworten
- 94
- Aufrufe
- 28.829