Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Bericht: Raytracing in Spielen 2.0
- Ersteller elchtest
- Erstellt am
- Zum Artikel: Bericht: Raytracing in Spielen 2.0
dualcore_nooby
Lieutenant
- Registriert
- Sep. 2005
- Beiträge
- 855
Sehr toller Artikel, da kann man sich doch garnicht sattlesen. Ich wünsche Daniel Pohl eine erfolgreiche Zukunft bei Intel!
silent-efficiency
Banned
- Registriert
- Aug. 2004
- Beiträge
- 5.253
Habe ehrlich gesagt etwas mehr von dem Artikel erwartet. Vor allem, da der Verfasser jetzt bei Intel arbeitet. Sieht aber eher so aus, als wäre er da noch in der Einarbeitungsphase oder neuere Erkentnisse hier nicht schreiben darf...
Auf die Möglichkeiten von Larrabe wurde auch nicht eingegangen, stattdessen nur altbekannte gute Skalierbarkeit mit der Core-Anzahl
Die Bilder aus Quake nerven auch langsam. Hoffe mal nächstes Jahr Bilder aus einem modernen Spiel zu sehen. Aus "Alan Wake" oder "Crysis" oder irgend einem Spiel, dass einfach etwas realitätsnäher aussieht.
Als Ergänzung zum ersten Arikel aber durchaus akzeptabel.
Auf die Möglichkeiten von Larrabe wurde auch nicht eingegangen, stattdessen nur altbekannte gute Skalierbarkeit mit der Core-Anzahl
Die Bilder aus Quake nerven auch langsam. Hoffe mal nächstes Jahr Bilder aus einem modernen Spiel zu sehen. Aus "Alan Wake" oder "Crysis" oder irgend einem Spiel, dass einfach etwas realitätsnäher aussieht.
Als Ergänzung zum ersten Arikel aber durchaus akzeptabel.
Wasserspeier
Lt. Junior Grade
- Registriert
- Juli 2004
- Beiträge
- 442
Toller Artikel Daniel. Ich finde es toll, dass Du die deutschen Leser mit solchen Ausführungen versorgst und die nahende Realität "Raytracing in Spielen" für uns auf den neusten Stand hältst. Ich bin sehr gespannt, wann das erste kommerzielle Spiel mit reiner RT-Renderengine erscheinen wird.
maddin91
Commander
- Registriert
- Feb. 2007
- Beiträge
- 2.190
Also ich finde das Thema RayTracing auf jeden Fall sehr interessant, aber irgendwie konnte ich dem Beitrag nicht sehr viel abgewinnen. Wow - Ein Spiegel, ich kann den Feind um die Ecke laufen sehen, wow - ein Portal. Wow - ich kann mehr als 30 Kisten (oder wie viele das waren) mit Raytracing darstellen, was für ein übler Vorteil...
Es ist doch klar, dass das Rasterverfahren an Grenzen gelangt, aber solange Realtime-Raytracing zu noch sowenig in der Lage ist, lohnt sich die Aufmerksamkeit nur wenig.
Und irgendwie muss ich xp_home zustimmen. Dass sich die Performance RT linear mit steigender Core-Anzahl erhöht, wurde auch schonmal gesagt und die Quake-Bilder scheinen auch nichts revolutionäres zu zeigen.
Ansonsten finde ich den Artikel gut geschrieben und als Fortsetzung schon geeignet, aber für den nächsten erhoffe ich mir doch mehr.
Ansonsten wünsche ich dem Autor viel Erfolg bei Intel, soll das RTRT (Realtime Raytracing ) sich durchsetzen!
@xp_home: Alter Schwede, der Forumwitz in deiner Signatur ist echt mal übelst nice!
Es ist doch klar, dass das Rasterverfahren an Grenzen gelangt, aber solange Realtime-Raytracing zu noch sowenig in der Lage ist, lohnt sich die Aufmerksamkeit nur wenig.
Und irgendwie muss ich xp_home zustimmen. Dass sich die Performance RT linear mit steigender Core-Anzahl erhöht, wurde auch schonmal gesagt und die Quake-Bilder scheinen auch nichts revolutionäres zu zeigen.
Ansonsten finde ich den Artikel gut geschrieben und als Fortsetzung schon geeignet, aber für den nächsten erhoffe ich mir doch mehr.
Ansonsten wünsche ich dem Autor viel Erfolg bei Intel, soll das RTRT (Realtime Raytracing ) sich durchsetzen!
@xp_home: Alter Schwede, der Forumwitz in deiner Signatur ist echt mal übelst nice!
Einhörnchen
Rear Admiral
- Registriert
- März 2007
- Beiträge
- 5.145
Der Turl
Commander
- Registriert
- Juli 2002
- Beiträge
- 2.089
ich find die strategie von intel sehr interessant die neue software ( neue rendertechnik) + neue hardware zugleich auf den markt zu implementieren.
zu diesem zeitpunkt wird der breakeven zum herkömmlichen raster verfahren geschafft sein und ab da an sollten sich die laut diagramm gezeigten vorteile als sehr nutzbar erweisen.
keine bange NV und ATI werden auch ihren teil daran haben. bloß steckt da INTEL nun mehr energie in neue techniken denn in aktuell verwendete. das scheint zum weitblick zu zeugen.
bin gespannt wie sich das weiterentwickelt !
zu diesem zeitpunkt wird der breakeven zum herkömmlichen raster verfahren geschafft sein und ab da an sollten sich die laut diagramm gezeigten vorteile als sehr nutzbar erweisen.
keine bange NV und ATI werden auch ihren teil daran haben. bloß steckt da INTEL nun mehr energie in neue techniken denn in aktuell verwendete. das scheint zum weitblick zu zeugen.
bin gespannt wie sich das weiterentwickelt !
ph_glitsch
Cadet 2nd Year
- Registriert
- Juli 2006
- Beiträge
- 27
Bereits der erste Artikel fand ich sehr interessant.
Trotzdem bleiben einige Unklarheiten offen. Aktuell werden ja "Soft-Shadows" immer wichtiger. Wie verhält sich dies bei RT? Wird der Rechenaufwand auch soviel höher bei Soft-Shadows gegenüber den "normalen Schatten"
Zudem würde ich mich interessieren wie leistungsfähig die 7 Cores einer PS3 für RT sind. Unmöglich oder einfach geringe Auflösung/Framerate?
Trotzdem bleiben einige Unklarheiten offen. Aktuell werden ja "Soft-Shadows" immer wichtiger. Wie verhält sich dies bei RT? Wird der Rechenaufwand auch soviel höher bei Soft-Shadows gegenüber den "normalen Schatten"
Zudem würde ich mich interessieren wie leistungsfähig die 7 Cores einer PS3 für RT sind. Unmöglich oder einfach geringe Auflösung/Framerate?
IgG schrieb:Übrigens: Die nächste id Software Engine (nicht idtech5 für Rage sondern die Nachfolge-Engine) soll laut John Carmack Raytracing verwenden . Quelle.
wow danke für den Artikel, dass nenn ich mal einen guten Artikel!
Carmack ist mal einer der nicht sagt : "das ist der richtige weg, kommt lemminge folgt mir in den tot..." sondern er diskutiert das von allen Seiten.. TOP!
@igG : ja aber nicht das Raytracing von dem Intel spricht.. er meint das das was Intel macht keine Zukunft hat.. Sondern man anders an die Sache rangehen muss.
Bezogen auf diesen Artikel sagt Carmack : " They’ve certainly been hacking on the Quake code bases to at least give them something that is not an ivory tower toy, but they’re working with something that is previous generation technology and trying to make it look like something that is going to a next-gen technology. You really can’t stretch media over two generational gaps like that, so they’re stuck. "
ich finde gut das er das von allen Seiten beleuchtet und nicht behauptet es gibt nur den einen weg..
Ganeagon
Lt. Junior Grade
- Registriert
- Nov. 2007
- Beiträge
- 393
Raytracing gehört die Zukunft, daran führt kein Weg vorbei. Und wenn die ersten 64-Core PCs daheim stehen, wird sich Raytracing auch für den Desktop-Markt etabliert haben.
LG
Ganeagon
PS: Ausführlicher Artikel, den ich mit gefallen gelesen habe.
LG
Ganeagon
PS: Ausführlicher Artikel, den ich mit gefallen gelesen habe.
ChilliConCarne
Lt. Commander
- Registriert
- Nov. 2004
- Beiträge
- 1.113
HG_Horny schrieb:Ich arbeite in einem Forschungsinstitut unter anderem auch für intel.
Hm... dann sollte das hier ein Klacks für dich sein:
Zeige dass die n stellige Paritätsfunktion, dargestellt in KNF bzw. DNF, mindestens 2^(n-1) Terme besitzt.
alexbohl
Cadet 2nd Year
- Registriert
- Sep. 2007
- Beiträge
- 29
Sehr informativer Artikel, der sich IMHO dadurch auszeichnet eben nicht zu sehr in die Mathewelt abzuschweifen, denn das ist für die meisten (auch Programmierer, die irgendwann so eine Engine nutzen) unerheblich. Bleibt abzuwarten, wie Nvidia + ATI/AMD auf diese Entwicklung reagieren, denn man benötigt ja sagen wir bei etwa 24 Kernen in 3 Jahren keine hochgezüchteten Grafikkarten mehr. Man könnte mutmassen, dass ATI diese Entwicklung bei der Fusion vorausgesehen hat - Nvidia muss sich wohl irgendwas einfallen lassen. Voraussetzung wird jedoch die Implementation in DirectX sein. Nutznießer welcher Entwicklung auch immer ist somit wie gehabt MS ;-)
LG Alex
LG Alex
Heelix
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.436
ph_glitsch schrieb:Bereits der erste Artikel fand ich sehr interessant.
Trotzdem bleiben einige Unklarheiten offen. Aktuell werden ja "Soft-Shadows" immer wichtiger. Wie verhält sich dies bei RT?
Natürlich ist er nicht auf Schatten bei RT eingegangen, allgemein wurde nichts über die Nachteile von RT geschrieben , wo die schatten mit rein fallen . Ich finde es auch traurig von CB das ein solch einseitiger Artikel einer breiten masse von meist unwissender Leute vorgesetzt wird. Resultat kann man an den Kommentaren erkennen.
Und nein Intel wird RT kaum alleine durchboxen können, und warum sollten sich ATI/AMD und Nvidia darauf einlassen ? Die beiden haben massig Know How im Rasterizing wo intel nichtmal ansatzweise auf Aufgenhöhe ist.
Klar hat RT Vorteile ... nur das sachen wie Kollisionsmodelle in Spielen unbedeuten sind, da doch lieber gefaktes Rasterizing.
Naja in einer dekade kann man sich ja nochmal über RT unterhalten.
mfg
Zuletzt bearbeitet:
f1delity
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.153
Für diejenigen die ein paar Raytraced-Games zocken wollen
http://graphics.cs.uni-sb.de/RTGames/
Ist auch Quake 3 Raytraced bei, also Happy-Leeching
http://graphics.cs.uni-sb.de/RTGames/
Ist auch Quake 3 Raytraced bei, also Happy-Leeching
DragonTuX
Lt. Junior Grade
- Registriert
- Nov. 2007
- Beiträge
- 276
Drager schrieb:Bezogen auf diesen Artikel sagt Carmack : " They’ve certainly been hacking on the Quake code bases to at least give them something that is not an ivory tower toy, but they’re working with something that is previous generation technology and trying to make it look like something that is going to a next-gen technology. You really can’t stretch media over two generational gaps like that, so they’re stuck. "
Crysis zu raytracen wäre auch etwas zu viel für die heutige Technik Ich nehme an, Crysis hat noch nicht den BreakEven Punkt erreicht wo Raytracing schneller ist als Rasterisierung, bzw. eine heutige CPU im Raytracen von Crysis schneller ist als eine heutige GPU im Rasterisieren von Crysis.
Und alle 2 Jahre ein neues Game umcoden auf Raytracing ist doch ein bisschen Overhead.
Aber Recht hat er mit seiner Aussage schon.
HG_Horny
Cadet 3rd Year
- Registriert
- Nov. 2007
- Beiträge
- 32
ChilliConCarne schrieb:Hm... dann sollte das hier ein Klacks für dich sein:
Zeige dass die n stellige Paritätsfunktion, dargestellt in KNF bzw. DNF, mindestens 2^(n-1) Terme besitzt.
lol, hab ich erwähnt, das ich professor wär oder ähnliches??
Hau ma nich hier auf die Kagge!
ich arbeite an einem CD-Messgerät (critical dimension)
und bin dafür zuständig, das die zuständigen Technologen, die deine frage aus dem linken handgelenk beantworten könnten, ihre testergebnisse bekommen. ich selber mach mir kein kopf.
Wenn deine Frgae ernst gemeint war, wovon ich nicht ausgehe,
dann empfehle ich dir diese seite: www.elektroniknet.de
sehr informativ für Leute, die sich wirklich etwas damit beschäftigen wollen, wie weit die
heutige technologie ist.
Deinorius
Commander
- Registriert
- Juni 2005
- Beiträge
- 2.688
Wie können einige Personen bloß darauf kommen, dass man in Zukunft wirklich RT Spiele auf den CPUs laufen lässt?
Wenn, dann werden das höchstens auf RT spezialisierte CPUs sein, oder noch besser (womit ATI/nvidia auch leben könnten), die heutigen GPUs entwickeln sich so weit, dass auch RT darauf läuft. (Letzteres nur Mutmaßung.)
Wenn, dann werden das höchstens auf RT spezialisierte CPUs sein, oder noch besser (womit ATI/nvidia auch leben könnten), die heutigen GPUs entwickeln sich so weit, dass auch RT darauf läuft. (Letzteres nur Mutmaßung.)
DragonTuX
Lt. Junior Grade
- Registriert
- Nov. 2007
- Beiträge
- 276
Deinorius schrieb:Wie können einige Personen bloß darauf kommen, dass man in Zukunft wirklich RT Spiele auf den CPUs laufen lässt?
Wenn, dann werden das höchstens auf RT spezialisierte CPUs sein, oder noch besser (womit ATI/nvidia auch leben könnten), die heutigen GPUs entwickeln sich so weit, dass auch RT darauf läuft. (Letzteres nur Mutmaßung.)
hab die frage schonmal gestellt: liese sich auf CUDA basierend eine RT bibliothek realisieren?
danke für fundierte antworten
Wintermute
Fleet Admiral
- Registriert
- Feb. 2003
- Beiträge
- 14.361
Heelix schrieb:... nur das sachen wie Kollisionsmodelle in Spielen unbedeuten sind, da doch lieber gefaktes Rasterizing.
Ehm, Quelle, Grund, irgendeine Ausführung?
RT ist in meinen Augen gerade wegen einfacher Kollisionsabfrage im Vorteil.
Wusste garnicht, dass ihr Werbung als Artikel tarnt? Der Artikel ist dermaßen schlecht - vielleicht hätte man besser den von jemandem verfassen lassen, der weniger voreingenommen ist und auch auf die Nachteile (z.B. Sterilität) hinweisen kann...
RT ist wirtschaftlich komplett uninteressant und wird sich im Spielemarkt nie durchsetzen. Hier geben NV und AMD den Ton an, nicht Intel. Und die werden weiter Chips bauen, die vornehmlich als Rasterizer konzipiert sind. RT ist da höchstens ein Nebeneffekt.
Wer denkt, RT ist die Zukunft ist für mich einfach nur ein Traumtänzer...
RT ist wirtschaftlich komplett uninteressant und wird sich im Spielemarkt nie durchsetzen. Hier geben NV und AMD den Ton an, nicht Intel. Und die werden weiter Chips bauen, die vornehmlich als Rasterizer konzipiert sind. RT ist da höchstens ein Nebeneffekt.
Wer denkt, RT ist die Zukunft ist für mich einfach nur ein Traumtänzer...
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 404
- Aufrufe
- 37.787
- Umfrage
- Antworten
- 64
- Aufrufe
- 7.747
- Antworten
- 202
- Aufrufe
- 36.643
- Antworten
- 88
- Aufrufe
- 29.936
- Antworten
- 94
- Aufrufe
- 28.792