Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
BerichtRaytracing in Spielen V: Neues aus der Strahlenwelt
Gastautor Daniel Pohl (Intel) setzt seine Serie über Raytracing fort und zeigt, wie die Entwicklung im Bereich des spielerelevanten Echzeit-Ray-Tracing voran geht. In seinem fünften Gastbeitrag geht es dabei zum einen um die Optimierung der Leistung, zum anderen um die Verbesserung der Optik der „geraytracten“ Version von Wolfenstein.
nichts neues oder?
auf welchem bildschirm (was anderes ist ein tablet / notebook bei nem server der rechnet nicht) man ausgibt würd ich nu nicht als 5.0 bezeichnen
Für mich ist diese leidliche Artikelserie, die der Autor regelmäßig hier zur Publikation abgibt einfach nur schlecht. Wenn ich die erste Seite schon sehe mit dem Kronleuchter, setzt es schon aus. Was soll das darstellen? Was hat Raytracing und andere Renderverfahren mit Polygonanzahl zu tun? Nichts. Das Thema wird wieder mal völlig verfehlt und falsch dargestellt, einfach nur Propaganda für die eigene Sache.
Man könnte das Thema wirklich interessant aufziehen, aber dazu müsste man erstmal eine bessere Ahnung von aktuellen Engines und Renderern haben, aber davon sehe ich hier ja gar nichts.
Auch die Entwicklungen im Raytracing hat der Autor teils verschlafen, vielleicht sollte er sich mal ein Tool wie FPrime von Worley anschauen.
cloud, cloud, cloud... dieses unter informatiker omnipräsente wort und gehört wohl bei ihnen zu jeder bullshit-bingo-sitzung. wie bitte sollen echtzeit-bilder über cloud von 1'000'000 handy-/tablet-/etc-benutzer übertragen und berechnet werden? als zeitversetzte dia-show?!? wenn die nötige übertragungsraten und rechenleistung solcher cloud-zentren erreicht ist, werden die endgeräte selbst fähig sein, solche bilder zu rendern - aber da bezweifle ich, dass man dies zulässt, da man doch an den nutzerdaten interessiert ist...
Mal ehrlich, alles alter "Mist". Wie oft hatten wir das bereits hier... schon oft genug. Das dies noch extrem weit weg ist vom Consumermarkt sollte jeden klar sein, und daher für die User hier größtenteils uninteressant. Cloud-Gaming ist ebenfalls absolut utopisch (mit Cloud-Rendering) und die Masse will dies auch nicht.
Der Artikel ansich ist ebenfalls größtenteils nichtssagend, und wird jedes 2. Quartal unnötig gepusht. Einfach unnötig... bitte lasst in Zukunft solche "News"!
Stimme Kalle und Oberscht zu. Sie haben jetzt nen Server mit mehr Knights-Ferry-Karten und haben das ausgabemedium gewechselt - Von Laptop auf Tablet. Vielleicht sehen wir die imense Arbeit nicht die dahinter steckt, aber wirklich weiter ging es nicht..ich sehe auch gar kein Ende darin...
Ich würde gerne mehr darüber lesen, aber der "Artikel" war schon vorbei...
Ohne in das Bashing einsteigen zu wollen, bin auch ich etwas enttäuscht. Das einzig Neue sind die Post-Processing-Effekte. Gut, ich kann nicht bei Intel in die Labore schauen, aber von meinem kleinen Standpunkt sieht es aus, als ob man dort die meiste Zeit Kaffee trinkt.
Und als Cloud-Gegner halte ich eh nicht viel von dieser Lösung. Leider leider kann Intel natürlich nicht über seinen eigenen Schatten springen und aktuelle Consumer-Grafikkarten für seine Experimente verwenden.
Mein Tipp für die Zukunft: Erst dann einen neuen Artikel veröffentlichen, wenn wirklich interessante Neuerungen da sind. Macht bitte keine jährliche Langeweileserie daraus.
@F_GXdx: Also hat die Tatsache, dass der Rechenaufwand bei mehr Polygonen mit Raytracing logarithmisch und mit Rasterization linear skaliert nichts damit zu tun? Interessant. Denn das ist (zumindest in meinen Augen) mit ein wesentlicher Vorteil von Ray Tracing.
Davon abgesehen, finde auch ich die Fortschritte zu gering. Das Problem hier ist meiner Meinung nach, dass Ray Tracing außer Spiegelungen und Refraktionen kaum visuelle Verbesserungen mitbringt. Wenn man an derartigem forschen möchte, sollte man das doch an Algorithmen tun, welche z.B. globale Beleuchtung ermöglichen (u.a. Path Tracing, eine Erweiterung von Ray Tracing). Derartige Projekte existieren sogar schon, z.B. der Brigade Path Tracer von Jacco Bikker.
Im Artikel wird ja darüber gesprochen das Intels GPUs das ganze effizient berechnen können, ich hätte da gerne mal einen Beweis wenn man eine HD 7970 oder GTX 580 daneben hin stellt und das gleiche machen lässt. Meine Vermutung ist ja das AMD und NV weit besser Raytracen als Intel und man das ganze nur von Intel CPU v. Intel GPU sagen kann. Ohne massive GPU Power geht mal gar nix, also wo bleibt denn Intels kaufbare dicke GPU um irgend wann mal mitzumachen?
Ansonsten wurde einfach der Fastra kopiert indem man 4 Karten in ein System steckt, Fastra II wurde ja auch schon ins Auge gefasst mit noch mehr Karten in einem System...
Anfangs fand ich die Artikel ja ganz nett, aber dieser hier zeigt deutlich, dass man nur Artikel schreiben sollte, wenn man Inhalt hat. Ich denke 6.0 braucht wirklich keiner hier, solange es nichts neues zu berichten gibt.
Cloud finde ich genau so sinnfrei wie die meisten.
btt:
jetzt mal zu den ray-tracing:
sorry aber für mich als laie sieht es einfach nur billig aus , die glas brechung ... schrecklich.
in den jahren sieht es immer noch 1:1 gleich (schlecht) aus.
sehe keine zukunft in sowas, aber das ist nur meine meinung.
ot:
fand aber das system mit den 8 karte intressant , suche immer noch bilder wie die unter der haube aussieht
Anfangs fand ich die Artikel ja ganz nett, aber dieser hier zeigt deutlich, dass man nur Artikel schreiben sollte, wenn man Inhalt hat. Ich denke 6.0 braucht wirklich keiner hier, solange es nichts neues zu berichten gibt.
Ich kann mich den bisherigen Kommentaren nur anschließen! Als der erste oder der zweite Artikel damals erschien, hielt ich die Technik noch für relativ interessant, mittlerweile gibts eigentlich keine nennenswerten neuen Informationen mehr...
Cloud setzt sich im Gaming in den nächsten 10 Jahren sowieso nicht durch - nicht mal ohne Raytracing... die "Laborergebnisse" warn somit mal interessant, sind es aber nicht mehr... soll Herr Pohl bitte einen neuen Artikel schreiben!
Artikel ist schön und gut geschrieben aber wirklich auch ohne Ray Tracing schafft mann heute schöne/bessere Grafik als mit,also warum braucht man Ray Tracing,völlig unnötig in diesem Entwicklungstatus
8 dicke Monsterkarten um einen Kronleuchter mit Millionen von polygonen darzustellen und ein paar Filter plus reale Lichtberechnung/brechung... nein, nichts für mich.
naja, danke für die arbeit, aber zusammengefasst mit den vorherigen artikeln hätte man die "fortschritte", wenn man sie denn so nennen kann, auch in 3 sätzen und 2 bildern erläutern können.
zumal sich mir immer wieder die frage stellt, wer das noch braucht. damals war es als mögliche alternative interessant. auch heute haben wir das eigendlich alle schon (lange), besser und effizienter als es dieses projekt bisher je darbieten konnte. zumal ich auch jetzt wieder entäuscht bin von der gesamtqualität. ob überhaupt mal ein "brauchbarer" und konkurenzfähiger stand erreicht, bezweilfle ich sehr stark. noch 5 jahre vll. dann ist das projekt zu den HEUTIGEN vorzeigeengines vielleicht konkurenzfähig. aber auch dann wieder nur grafik von "vorvorvorgestern".
@Miki
Ein vorteil von RayTrace ist die Skalierung. Sie ist fast linear... während es bei derzeitiger Technik (Rasterisierung) nicht so der Fall ist. Ab einer gewissen Komplexität ist die Rasterisierung einfach am Ende, und Raytracing erfordert weniger Leistung um bessere Ergebnisse zu liefern.
Eins verstehe ich dann nicht,warum wird sie nicht in spielen eingesetzt,diese Technik sollte doch auch auf einer AMD bzw. Nvidia laufen ? Somit bleibt diese Technik doch immer noch unnötig und wenn dann mal eine brauchbare Intel GPU Lösung den Markt erreicht gebe es doch immer noch sehr viele andere Alternativen die sich im Spiele/Grafik Markt belehrt haben....
Das ist doch nur Propaganda für Intel-GPUs und -Cloudsysteme.
Sorry aber auch nach reiflicher Überlegung ist beides in der Praxis einfach sehr ineffizient. Und wird sich so hoffentlich auch in Zukunft nicht etablieren.
Nur um einen weiteren Markt für Intel-Cloudsysteme zu schaffen - echt der Hammer !