Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
BerichtRaytracing in Spielen VI: So werden Strahlen von GPUs beschleunigt
Echtzeit-Raytracing ist gut vier Jahre nach dem Auftakt mit GeForce RTX 2000 und gut zwei Jahre nach Xbox Series X/S und PlayStation 5 in immer mehr Spielen optional verfügbar. Doch wie beschleunigen GPUs eigentlich die Berechnung der Strahlen? Ein Einblick in die Technik gibt Aufschluss.
Kleiner inhaltlicher Fehler. Das Denoising reduziert nicht den Leistungsbedarf, sondern erhöht ihn leicht.
Die Verwendung von weniger Strahlen senkt die erforderliche Leistung.
Kleiner inhaltlicher Fehler. Das Denoising reduziert nicht den Leistungsbedarf, sondern erhöht ihn leicht.
Die Verwendung von weniger Strahlen senkt die erforderliche Leistung.
Wenn man die Strahlendichte verringert, führt das zu Bildfehlern (Noise). Dem kann man mit Denoising entgegenwirken. Reduzierung des Leistungsbedarfs kommt halt nicht direkt vom Denoising, sondern indirekt.
Und das ist doch genau der Punkt den ich anspreche: Der Satz im Artikel suggeriert, dass das Denoising den Leistungsbedarf reduziert.
Das ist wie "Upscaling mit DLSS reduziert den Leistungsbedarf". Die Aussage ist falsch. Upscaling und DLSS kostet Performance. Das Leistungsplus kommt von der reduzierten Renderauflösung.
Besser wäre also "Eine sinnvolle Möglichkeit zur Reduzierung des Leistungsbedarfs von Raytracing ist die Verwendung einer niedrigeren Stahlendichte in Kombination mit Denoising"
@benneq Du hast nicht Unrecht, auch wenn ich den Satz nicht so kritisch finde. Gemeint ist natürlich, dass es insgesamt, bei gleicher Bildqualität, weniger Leistung bedarf.
Ich habe den von dir zitierten Satz mal umgeändert: "Eine sinnvolle Möglichkeit zur Reduzierung des Leistungsbedarfs von Raytracing ist die Nutzung von Denoising" Dadurch wird es etwas allgemeiner, und man muss nichts interpretieren.
Ergänzung ()
Aber euch allen erstmal frohe Ostern und ich hoffe, der Artikel gefällt
Er war wieder lange in der Mache, und ich freue mich schon auf Anmerkungen und Diskussionen!
Die Verwendung von Raytracing beim CAD beschränkt sich lediglich auf das Rendern von Produkt- oder Vorschaubildern. Während des Konstruktions- und Simulationprozesses wird ebenfalls simple Rasterisation genutzt.
Wie wäre es wohl wenn Raytracing immer noch von der CPU berechnet würde? Da aktuelle CPUs mehr Kerne haben als in Spielen ausgelastet werden können, müsste doch ausreichend Leistung vorhanden sein.
Kannste vergessen, die Strahlendichte war damals viel geringer als in heutigen games und trotzdem hat es oft eine Viertelstunde gedauert bis kein noise mehr da war.
selbst 200 CPU Cores berechnen RT langsamer als eine 1080 ti mit Shader Cores.
Die Verwendung von Raytracing beim CAD beschränkt sich lediglich auf das Rendern von Produkt- oder Vorschaubildern. Während des Konstruktions- und Simulationprozesses wird ebenfalls simple Rasterisation genutzt.
Das mit den speziellen Shader RT-Cores erinnert an die früheren Zeiten, als es noch spezielle Vertex- und Pixelshader in der GPU gab, bevor die Unified-Shader aufkamen.
Vielen Dank für den Artikel, man kann gespannt auf die zukünftige Entwicklung schauen.
Wie wäre es wohl wenn Raytracing immer noch von der CPU berechnet würde? Da aktuelle CPUs mehr Kerne haben als in Spielen ausgelastet werden können, müsste doch ausreichend Leistung vorhanden sein.
Ein CPU Kern kann zwar deutlich komplexere Operationen (und auch viel viel mehr unterschiedliche Operationen) als ein GPU Kern ausführen, und dank AVX sind auch die nötigen Operationen für RayTracing mehr oder weniger "in Hardware" machbar, und CPUs haben auch in der Regel 2-3x so viel Takt wie eine GPU.
Aber: Eine aktuelle Highend CPU hat am Ende des Tages immer noch nur 8 (oder meinetwegen auch 16) Kerne. Im Vergleich zu z.B. 36 Raytracing Cores auf einer RTX 2060 - oder sogar 68 RT Cores auf einer RTX 2080 Ti.
Und es handelt sich dabei (wie der Name schon sagt) um exakt auf diese Art von Berechnung spezialisierte Rechenkerne. Da geht so eine Schnittpunktberechnung mit dem nächstgelegenen Objekt in einem Rutsch durch.
Auf einer CPU wären dafür trotzdem noch mehrere Operationen nötig. Und dann wird die Rechenleistung der CPU natürlich noch für ganz viel anderen Kram benötigt: Andere Programme im Hintergrund, Berechnung von KI, Verarbeitung aller erdenklichen Eingaben, etc. Und jedes mal sind Kontextwechsel nötig, Pipelines werden geleert, Caches müssen hin- und herkopiert werden. Diese ganzen Störungen gibt's auf der GPU nicht.
Und selbst bei der Verwendung der GPU Shader kommt eine CPU nicht hinterher. Da reden wir von tausenden(!) Rechenkernen, statt einer handvoll CPU Kerne. Die Shader sind zwar nicht auf RT spezialisiert, aber allein durch diese schiere Menge kann man die Berechnung immer noch deutlich schneller erledigen als eine aktuelle CPU.
Vielleicht habe ich einen "eigenen Geschmack" aber Raytracing in dieser Form beeindruckt mich nicht. Oft wirkt es dann zu glatt, zu glänzend und dadurch unnatürlich. Gemessen an dem riesen Rechenaufwand und der nötigen Potenten und teuren Hardware kein Grund komplett die Zukunft der Games darauf aufzubauen.
Das liegt ja aber nicht am Raytracing an sich, sondern an der Umsetzung in der jeweiligen Software/Spiel.
Momentan probieren auch Spieleentwickler viel aus und sind eher in der Lernphase. Sie wollen den einen Effekt, den das Spiel über RT bieten soll, so gut und so deutlich wie möglich zur Schau stellen. Und dann gibt es eben viele stark reflektierende Flächen, die eben schnell unrealistisch aussehen. So schießen sie gern übers Ziel hieraus.
Rasterizing hat Jahrzehnte in der Spieleentwicklung hinter sich. Echtzeit Raytracing in Games ist da vergleichsweise neu.
Aber ja, momentan sieht nicht alles so super toll aus.