News Intel zeigt Projekt „Wolfenstein: Ray Traced“

input_iterator schrieb:
Na ja,für ein paar Spiegel Effekte so eine Immense Rechenleistung verbraten ?
Ich denke mal das für Spiele Raytraing alleine nicht der Weisheit letzter Schluss
sein wird.Und bis das wirklich mal für den End User interessant werden sollte,
ob jetzt in der Cloud oder zu Hause als Steckkarte im PC oder in der Konsole,
werden noch sehr,sehr viele Jahre ins Land gehen.

Der Wahrheit letzter schluss könnte es in ein paar jahren aber tatsächlich werden. Denn wichtig dabei ist:
Raytracing skaliert nicht linear mit der anzahl der polygone so wie es herkömmliche Rasterisierungstechniken in Spielen machen. Das bedeutet, bei sehr großen Polygonzahlen geringere Verluste. Und irgendwann werden spiele an einem Punkt angelangt sein, wo die Masse an Polygonen schneller mit Raytracing zu rendern sein wird. So weit die Theorie zumindest.

Faranor schrieb:
Naja ist zwar noch in der Entwicklung, aber bitte ich will doch in Zukunft kein 2D-Feuer...
Der überwachungsraum ist doch mit der source-engine schon sehr einfach realisierbar und die würde mit 4 Servern im Rücken xxk fps bringen.

1. Jedes, wirklich jedes Spiel benutzt "2d Feuer". Effekte wie "soft particles" sind lediglich tricks die den Z-Buffer nutzen um diese "Wände" mit der Umgebung ausblurren lassen (was übrigens mit Raytracing anders gemacht werden muss)
2. Diese Demonstration zeigt nur die möglichkeiten. Der Überwachungsraum in dieser Forum kann in normalen Gameengines so nicht dargestellt werden, zB das Bild des überwachungsraumes in sich könnte nicht 2 mal auf dem TV dargestellt werden (in bild in bild usw.)
 
Sagmal lest ihr die Texte überhaupt oder schaut ihr nur Bilder an?
Das hat nix mit Gaming zu tun und erst recht net mit Grafikkarten für den Endkunden.
Hier gehts darum zu zeigen was möglich ist für Echtzeit Entwicklerplatzformen.
Bei dem Produkt dreht sich nichtmal speziell um Raytracing, es geht einfach um parallelisierbare Aufgaben wofür Raytracing ein gutes Beispiel ist.
 
Zuletzt bearbeitet:
Bully|Ossi schrieb:
Weils eins der letzten Quake 3 Engine Spiele ist und Intel auf der Basis von Quake 3 ihre raytracing Geschichten macht...

Könnte sein. Intel forscht aber nicht nur auf der Q3 Engine. Als Programmierer weiß ich auch das es Engines gibt die sich besser Raytracen (Threaden) lassen.

Bully|Ossi schrieb:
Vielleicht mal nachdenken und nicht gleich wieder sinnlos politisch werden... heutzutage ist wohl alles was mit Deutschland (Vergangenheit, Gegenwart, Itengration) zu tun hat, gleich erstmal grundlegend falsch...

Klar warum tun wir uns nicht eigentlich nahtlos in Frankreich eingliedern, da können wir dann getrost wieder etwas negatives über unser Land verarbeiten bzw. aussprechen...

Eine halbwegs gute Antwort durch so einen geistigen Dünnschiss zu versauen... da wundert man sich nicht mehr, dass die Poliktik nicht mehr auf das eigene Volk hört. Wäre zwar eine Demokratie wenn das Fußvolk entscheiden könnte, jedoch würde das Land innerhalb eines Jahres vor die Hunde gehen. Heißt jetzt zwar nicht dass ich der Politik Sympathie schenke, so geht das Land zumindest nur langsam vor die Hunde..
 
Wenn man beim Spielen soviel Zeit hat, auf korrekte Lichtbrechung an einem Auto zu achten, macht das Spiel was falsch :)

Im Ernst: Ich verstehe den Sinn des Projektes nicht ganz. Von aktueller Spielqualität ist das ganze immer noch weit entfernt. Mir persönlich ist es auch egal, ob jeder Lichtstrahl realistisch berechnet oder gut gefaket wird. Wenn die gerade mal 40 fps mit 4 Servern schaffen, um eine Drehung um einen Kronleuchter zu machen, dann ist das jenseits von Gut und Böse. Ja gut ... Forschungsprojekt. Aber wo ist das Ziel? Gutes Raytracing für 3D-Rendering wird heute schon besser in Plugins für Maya, 3D Max & Co. umgesetzt. Wenn das mit irgendeiner Technik schneller gehen kann, dann ist das sicherlich von Vorteil für viele Leute aus dieser Branche, aber darauf geht das Intel-Projekt gar nicht ab. Viel mehr geht es derzeit darum, Raytracing punktuell in Echtzeit in Spielen zu berechnen. Wer braucht das außer Intel selbst? Was ist das Learning für aktuelle Produkte daraus? Dass Larrabee Reloaded weiterhin weit am Markt vorbei entwickelt wird? Oder dass Herr Pohl seinen Arbeitsplatz behalten darf, weil er ab und zu Intel mit solchen Präsentationen in die Presse bringt? (letzteres wird es ganz sicher - zumindest bis zu einem gewissen Punkt - sein)
 
Lasst mich zusammenfassen --- 8 Server mit wer weiß wie vielen von diesen Steckkarten schaffen es tatsächlich ein 1280x720 Pixel Stream auf nen Laptop zu kriegen und das dann doch bei 90FPS? Nicht schlecht. ;)
Meistens, wenn man mal schaut ist die Leistung (wenn er es grade nicht sagt) total im Keller bei 30FPS rum.

Was soll mir das sagen?
Dass es noch ZU lange dauern wird, bis man es nutzen könnte?

Einfach klasse :D

Spaß mal kurz bei Seite..
--- Natürlich ist die Rechenleistung sehr sehr hoch und klar sowas schafft wirklich nicht grade jeder Server, geschweige denn PC. Aber das ganze ist sowas von nichts aussagend.
Funktioniert da eigentlich Nvidias Cuda-Raytracer besser?
Ich hatte das so im Gedächtnis, dass der das ganze sehr flüssig schon darstellte.


@ Iridium - ja es ruckelt schon arg und oben steht was von 45FPS :D
 
Zuletzt bearbeitet:
Ozzamma schrieb:
Wichtig ist nur, was hinten raus kommt. Und das war jetzt mal absolut nicht beeindruckend.
Solche Leute interessiert es auch nicht wo der Strom herkommt und wie er produziert wird -> wer keine Lust hat sich damit zu beschäftigen soll einfach mal den Mund halten ;)

Ozzamma schrieb:
Ajo und der Typ in dem Vid hat nen "feines" Englisch. Und so schön abgelesen. Am besten noch, dass er die Army-Leuts als "Monsters" bezeichnet hat. Und ich frag mich warum der Crap trotz 38 fps ruckelt...

Microruckler ;) :evillol:
 
Also die FPS Anzeige scheint etwas verbugt zu sein, zeigt sie doch tatsächlich das 2-3 fache vom wirklichen Wert an :p
mfg
IRID1UM
 
War sicherlich nen Deutscher, nach seinem Englisch zu urteilen :>

Aber naja irgendwie find ich das Video jetzt nicht all zu beeindruckend. Vielleicht hätten se lieber nen anderes Versuchskaninchen als Wolfenstein nehmen sollen. Insbesondere wenn Raytracing vorerst ja sowieso nicht für Spiele geeignet sein wird.
 
Mir gefällt das Scharfschützengewehr mit der spiegelnden Linse :D
 
das war mit sicherheit "Daniel Pohl" (ja, deutscher) ;)

der ist mit seiner Quake3-Raytracing-Engine für seine Diplomarbeit bekannt geworden. (oder so ähnlich)

mfg
 
  • Gefällt mir
Reaktionen: andi_sco
Schon ziemlich beeindruckend, aber bis die benötigte Rechenleistung in Computern angelangt ist bin ich vermutlich zu alt :X

Wie man wirklich fotorealistische Grafik erzeugt ist ja schon seit Ewigkeiten kein Geheimnis mehr, nur fehlt es eben an der Hardware.
 
Es geht natürlich nicht um die Grafik und um die Engine. Die ist nämlich über 10 Jahre alt. Wer sich also beschwert, warum Wolfenstein nicht wie Crysis aussieht, warum das Feuer und der Rauch nicht so toll sind der hat nicht verstanden, worum es geht und ist vermutlich auch zu jung, um sich an Return to Castle Wolfenstein zu erinnern.

Es geht einzig um das Raytracing: Spiegelungen und Lichteffekte. Und die sind verdammt beeindruckend.
 
Zuletzt bearbeitet:
Na_Dann_Ma_GoGo schrieb:
War sicherlich nen Deutscher, nach seinem Englisch zu urteilen :>

...

Hab ich mir auch gedacht.
Und noch dazu einer der gar kein Englisch kann ^^

Naja, sofern da noch ein "wenig" gefeilt wird könnte das was geiles werden.
 
Für mich sieht das aus wie ein CPU System auf einer Grafikkarten Platine untergebracht. Ein 32Core CPU mit alles drum und dran nur eben Statts DDR3 GDDR5 und statts auf ein Mainboard auf einer Grafikkarte.
 
Sagmal lest ihr die Texte überhaupt oder schaut ihr nur Bilder an?
Das hat nix mit Gaming zu tun und erst recht net mit Grafikkarten für den Endkunden.
Hier gehts darum zu zeigen was möglich ist für Echtzeit Entwicklerplatzformen.
Bei dem Produkt dreht sich nichtmal speziell um Raytracing, es geht einfach um parallelisierbare Aufgaben wofür Raytracing ein gutes Beispiel ist.


Intel wird schon wissen,wieso sie die Karten in Verbindung mit Spiele/Tech Demos zeigen.Intel steckt nicht
umsonst große Summen in die Forschung für Raytracing,für die Entwicklung von Hardware und Optimierung von
Algorithmen rein,Nvidia&Co machen es ja nicht anders,sie wissen ganz genau,was die Spiele Grafik angeht,
die Zukunft in Raytracing stecken wird(wann das auch immer sein wird!) und das ist ein Milliarden Markt den Intel
sich nicht entgehen lassen wird, sicher es gibt für die Karten noch viele andere Anwendungsgebiete,aber der
Gaming Markt wird neben dem HPC Bereich für das Produkt wohl der ertragreichste sein(in der Zukunft).


Und wie ich ja schon gepostet habe,hat Intel für die Zukunft ja schon CPU`s angekündigt,die die Larabee
Architektur in sich tragen werden
 
Zuletzt bearbeitet:
Schöne Entwicklung die meiner Meinung nach aber langsam in die falsche Richtung geht! Wie die meisten hier schon geschrieben haben, ist es ihnen egal ob das Licht zu 100% realistisch vom Glasgebrochen wird oder ob es eine vorgerenderte Szene ist! Sicher ist diese Technik für Animationsfilme (Monster AG, Wall-E etc.) von großer Bedeutung aber im Endkundenmarkt ist sie einfach zu belanglos, als dass man sagen könnte es lohnt sich Milliarden zu verpulvern.
 
Die Technik ist vor allem für den Filme und Animations-bereich interessant!

Einige Bilder lassen sich sicher noch an der Workstation über Nacht rendern.
Aber ein 30 Sekunden Clip mit 840 Bildern und 4k Auflösung ist eine Angelegenheit für mehrere Tage.

So schickt man es einfach direkt aus seiner Anwendung zu einem Cluster (Cloud Service), geht Mittagessen und hat nach 30 Minuten (anstatt Stunden) das Ergebnis.
 
Zurück
Oben