Bericht Raytracing in Spielen VI: So werden Strahlen von GPUs beschleunigt

Man kann Raytracing auch ganz subtil einsetzen, wie in Mechwarrior 5 (Integration ist gestern neu dazugekommen und erhebt noch keinen Anspruch auf besondere Qualität/Vollständigkeit).

Da wird einfach die Beleuchtung genauer berechnet- Schatten höher aufgelöst bzw. contact Shadows werden berechnet und die Reflexionen haben keine Fehler mehr und sind nicht mehr blickwinkelabhängig.

Off
1586772554527.png


On
1586772589197.png



Off
1586772613534.png


On
1586772636652.png


Dieser Ansatz ist doch in ordnung. Fügt sich optimal ins Gesamtbild ein und kostet, was ich bis jetzt gesehen habe, mit DLSS kaum bis keine Leistung...

Raytracing ist ja kein "Effekt", sondern einfach nur eine (rechenaufwändige) Art physikalisch korrekt zu rendern.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm, FeelsGoodManJPG, NMA und 11 andere
@ZeroZerp Die Reflexionen sehen zigfach besser aus, da braucht man nicht zu diskutieren.

Ansonsten, was die Schatten usw. betrifft, ist es halt das "Problem", dass man sich schnell dran gewöhnt, wenn es so subtil stimmig ausschaut. ^^
 
  • Gefällt mir
Reaktionen: fox40phil, Lübke82 und .Sentinel.
ZeroStrat schrieb:
@ZeroZerp Die Reflexionen sehen zigfach besser aus, da braucht man nicht zu diskutieren.
Das ist es halt eben- Ist man es mal gewohnt, dass Spiegelungen ganz selbstverständlich funktionieren, sehen Screenspace- Reflections, wenn sie mit dem Blickwinkel hin- und hermorphen einfach wie ein ganz großer "Glitch" aus.
Fällt bei Mechwarrior gerade wieder in den Außenbereichen auf, wenn irgendein See, ne Pfütze oder sonstige Spiegelung zu sehen ist.
Da ist die RT Version einfach sichtbar überlegen.

Würde man aber nur die RT Version spielen, ohne dass man die Rasterversion des ganzen kennt, würde einem der Unterschied wohl kaum auffallen und man nimmt es als selbstverständlich hin, dass alles "richtig" aussieht, ohne dass die Grafik deshalb besonders toll aussieht bzw. die Effekte übertrieben aussehen...

MW5 gibts übrigens bei Epic gerade im Sale für 22€ (Rabatt auf 32€ und 10€ Feiertagsgutschein).
Dafür kann man es sich auf jeden Fall mal ansehen - Ist inzwischen nach den ganzen Patches gut spielbar und durchaus 20€ wert...
Und Piranha Games ist noch weiter fleißig am "Verbessern".

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex, fox40phil, SVΞN und 2 andere
Danke für die Fortführung der Reihe!

eine Frag zum Kollegen Pohl. Die Einleitung liest sich, als ob ihrkeinen Kontakt mehr hättet. Würde mich doch interessieren was er jetzt so treibt?
 
  • Gefällt mir
Reaktionen: fox40phil und Colindo
Danke, @Colindo! 👍

Das ist echt ein interessanter Thread!
Ich bin gespannt, wo die Reise noch hingeht... 😉
 
  • Gefällt mir
Reaktionen: SDJ, .Sentinel. und Colindo
Bei Aufzählung der unterstützten Triple A spiele wurde das neue Wolfenstein vergessen. Ansonsten ein interessanter Artikel. Bin auf die Zukunft gespannt wie die Publisher es integrieren mit mehr Erfahrung und schnellerer Hardware.
 
Colindo schrieb:
Inwieweit sich Raytracing dieses Jahr durch Neuerscheinungen an der Hardware-Front weiterentwickelt, bleibt abzuwarten.
Wenn ich das richtig verstehe, dann ist es für die Hersteller eigentlich nicht das Problem Raytracing in Hardware effizient zu berechnen. Das eigentliche Problem ist, dass man vor allem durch die Kompatibilität zu den gängigen Berechnungsmethoden dazu gezwungen ist, Kompromisse einzugehen. Weil die Chipfläche, abzuführende Wäre usw. die Möglichkeiten stark einschränken?
 
Echtzeit-Raytracing in Spielen nimmt Fahrt auf und die neuen Spielkonsolen Xbox Series X und PlayStation 5 werden mit an Sicherheit grenzender Wahrscheinlichkeit den Durchbruch bringen.
Das kann nur gelingen, wenn auch Raytracing im Midrange Bereich der Grafikkarten mit ausreichend Leistung funktioniert. Derzeit sind wir da jedoch noch weit entfernt, da selbst Nvidia Grafikkarten mit ihren Tensor-Cores unter Raytracing gnadenlos an Leistung verlieren, wenn man Raytracing On hat.

Dazu kommt, dass zumindest die Nvidia Produkte mit ihrer speziellen Hardware für Raytracing noch viel zu teuer ist, im Verhältnis zu den Grafikkarten ohne diese spezielle Hardware. Und auch die Spieleschmieden müssen für einen endgültigen Durchbruch noch einiges machen, denn derzeit sieht Raytracing nur in sehr speziellen Spielen wirklich besser aus.

Also um es zusammenzufassen müssen noch sehr viele kleine Zahnräder ineinandergreifen, um Raytracing zu einem endgültigen Durchbruch im breiten Gaming Markt zu verhelfen. Gerade Nvidia wird das auch in angesichts ihre Produkte und teuren Preise bei der derzeitigen Lage mit dem Corona Virus und dem wirtschaftlichen Lock-Down zu spüren bekommen.

Es ist ja schön wenn die Politik versucht, den Firmen alles Mögliche an Rettungspaketen anzubieten, zum einen müssen diese aber auch alle erst mal bei den Firmen ankommen. Aber zum Schluss muss auch irgendwer all die Produkte der Firmen kaufen, nur, wenn viele keine Arbeit und kein Geld mehr haben, wer soll das denn sein?

Helfen würde da nur ein Konjunkturprogramm für alle Bürger, aber nicht in Form von irgendwelchen Steuerentlastungen, der Reduzierung für eine gewisse Zeit der Mehrwertsteuer, das geht nur, wenn man den Bürgern wirklich Cash in die Hand gibt, davon ist aber weder im Moment was zu hören noch zu sehen.
 
  • Gefällt mir
Reaktionen: NMA und Pulsar77
RTX ist für mich kein Grund neu Hardware zu kaufen.

Im Einzelspieler ist es wohl Anwendbar aber im Mehrspieler benutzt man sowas doch eh nicht
 
  • Gefällt mir
Reaktionen: DirtyHarryOne, fox40phil, boika und eine weitere Person
god-necromant schrieb:
eine Frag zum Kollegen Pohl. Die Einleitung liest sich, als ob ihrkeinen Kontakt mehr hättet. Würde mich doch interessieren was er jetzt so treibt?
Ich weiß zwar nicht Bescheid, aber da der letzte Artikel von 2012 ist, kann es schon sein, dass kein Kontakt mehr besteht. Wer weiß, ob Daniel Pohl überhaupt noch bei Intel arbeitet.
Gnageseil schrieb:
Das eigentliche Problem ist, dass man vor allem durch die Kompatibilität zu den gängigen Berechnungsmethoden dazu gezwungen ist, Kompromisse einzugehen.
Du konntest dir schon vor Jahren mehrere Larrabee-Karten in den Rechner stecken, das war nur unbezahlbar. Also sind das Hauptproblem die Kosten für entsprechende Hardware.
Zotac2012 schrieb:
Das kann nur gelingen, wenn auch Raytracing im Midrange Bereich der Grafikkarten mit ausreichend Leistung funktioniert.
Ersetze "Midrange-Grafikkarte" durch "Konsole" und du erreichst doch schon eine ordentliche Verbreitung von Raytracing.
Zotac2012 schrieb:
Gerade Nvidia wird das auch in angesichts ihre Produkte und teuren Preise bei der derzeitigen Lage mit dem Corona Virus und dem wirtschaftlichen Lock-Down zu spüren bekommen.
Das wird auch für Microsoft lustig, wenn Ende des Jahres viele Menschen (vor allem in den USA) weniger ausgeben können und deren Konsole potentiell mehr kostet als die von Sony. Damit hat Microsoft sicher nicht gerechnet.
 
  • Gefällt mir
Reaktionen: NMA, fox40phil und [wege]mini
Zotac2012 schrieb:
Dazu kommt, dass zumindest die Nvidia Produkte mit ihrer speziellen Hardware für Raytracing noch viel zu teuer ist, im Verhältnis zu den Grafikkarten ohne diese spezielle Hardware.

Naja, die paar Euro darf man dann schon investieren - 5700XT~2070 non Super fürs gleiche Geld.
Einen wirklichen Aufpreis kann ich da nicht sehen, mal abgesehen von der 5700er - die einzige AMD Karte mit besserem Preisleistungsverhältnis, die momentan am Markt ist.

Karten ohne Directx12 Ultimate Support werden ohnehin auf das Abstellgleis geschoben.

Zotac2012 schrieb:
Und auch die Spieleschmieden müssen für einen endgültigen Durchbruch noch einiges machen, denn derzeit sieht Raytracing nur in sehr speziellen Spielen wirklich besser aus.

Was meinst du mit sehr speziellen Spielen?
Die letzten Implementierungen von DXR waren alle sehr vielversprechend - auch in Mechworrier sieht das gut aus.

Berserkervmax schrieb:
Im Einzelspieler ist es wohl Anwendbar aber im Mehrspieler benutzt man sowas doch eh nicht

Du nutzt doch auch Beleuchtung oder Schatten im Mehrspieler - oder schaltest du die ab?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: FeelsGoodManJPG, Xidus und gartenriese
Zotac2012 schrieb:
da selbst Nvidia Grafikkarten mit ihren Tensor-Cores unter Raytracing gnadenlos an Leistung verlieren, wenn man Raytracing On hat.
Die Tensor Cores haben mit RT überhaupt nichts zu tun. Die werden für DeepLearning / KI genutzt - also u.a. DLSS. Was du meinst sind die RT Cores - ganz einfach zu merken: Das R steht für Ray und das T für Tracing.

Und die Karten verlieren dadurch auch nicht an Leistung. Man hat nun einfach ein zusätzliches Bottleneck: Ein Frame kann erst angezeigt werden, wenn sowohl CPU, GPU Shader als auch die RT Berechnungen fertig sind. Eine RTX 2080 Ti verliert ja auch nicht an Leistung wenn man sie mit einem alten Core2Duo paart. Sondern man hat in manchen Anwendungen - vornehmlich Spielen - einfach ein ziemlich starkes Bottleneck durch die CPU. In GPU Computing Anwendungen hingegen, wo die CPU nicht wirklich was zu tun hat, könnte man die GPU aber trotzdem problemlos zu 100% auslasten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex
Sehr interessanter Artikel.
 
  • Gefällt mir
Reaktionen: fox40phil, KlaraElfer, konkretor und eine weitere Person
Zotac2012 schrieb:
Das kann nur gelingen, wenn auch Raytracing im Midrange Bereich der Grafikkarten mit ausreichend Leistung funktioniert.
Spannend wird es bezüglich RT in Exklusiv Titel sein, da die Games eben nur auf der Konsole und nicht am PC laufen müssen. Interessant ist da aber auch, wie der Vergleich XBOX XS und Anzahl der CUs und somit auch den Texture Einheiten ist.
Aber je nach "Aufwand" des Games, könnte Sony rein theoretisch exklusiv Titel rein auf RT Basis bauen. Ein einfaches Beispiel wäre ein einfacheres 2D Game oder Jump n Run Game (!?) Knack z.B ?
Aber auch sämtliche Games die wie Filme ablaufen.

Was ich bei der RT Diskussion aber noch interessant finde. Als man mit Low Level API wie Mantle und Vulkan kam und schließlich DX12, meinte man, dass man ja letzteres nicht benötigt und DX11 ja sowieso gut optimiert ist.
Jz ist RT ein Teil von DX12 und Version 1.1 sogar ein Teil von DX 12 Ultimate.
Im Endeffekt ist das zu verknüpfen. Wenn Spiele Studios nicht vermehrt und intensiver in DX12 investieren, wird dementsprechend RT auch nicht so schnell voran schreiten. Aber mit kommenden Konsolen wird low level API eh endlich größere Schritte voraus machen und so auch Async Compute. In Zusammenhang zu AMD Ansatz mit RT bin ich gespannt, ob man so die Shader optimal auslasten kann. Interessant sollen ja auch leichtere RT Ansätze sein, für Audio und vllt Physik. Mal sehen was da kommt. Es muss ja nicht gleich alles nur um Schatten, Licht und Reflexion drehen.

Colindo
Allerdings sind die Zugriffe auf den Arbeitsspeicher asynchron und schwer vorhersehbar, weswegen Raytracing auf herkömmlichen Grafikkarten-Shadern weniger effizient arbeitet als Rasterisierung.
Bedeutet das quasi, dass einfach RAM Anbindung bsp GDDR6 zu langsam ist und man deshalb schnelle Cache benötigt ? Das Problem NV zum Bsp in RT Cores dadurch verringert, dass die Fix Function im Endeffekt auch nicht viel herumspeichern müssen da verlangte Operationen direkt gemacht werden können und so quasi an Cache Zugriffe umgeht, welche die GPU Shader sonst für die Berechnung benötigt?

cele
Rein theoretisch könnte jede RDNA 2.0 GPU dann RT. Die Frage ist nur, wie aufwendig ist das RT in Games, welche Features werden verfolgt (eben Audio) und ab wieviel Shader und "Performance" macht es ein Unterschied. Deshalb würde mich bezüglich RT ein Vergleich zwischen XBOX XS und PS5 interessant. Ob man auch mehr CUs benötigt, oder ob das auch gut mit Takt "mitskaliert".
 
Zuletzt bearbeitet:
Also auf meine erste raytracingfähige Karte freue ich mich jetzt schon.
Bin echt schwer beeindruckt, vor allem die Minecraftversion mit RT macht finde ich die Möglichkeiten deutlich:
Normalerweise eher steril-computermäßig wirkende Klötzchen sehen mit RT so aus als wenn man sich durch eine real existierende Legowelt bewegt. Gerade Spiele mit eher reduzierten Details profitieren enorm von der Technik.
Dazu kommt wie man liest dass Entwickler mit Nutzung von RT viel einfacher stimmige Lichtverhältnisse realisieren können, weil nicht alles im Vorfeld erdacht werden muss sondern das Raytracing die Szenen quasi automatisch ins richtige Licht rückt.
Hoffe dass die neuen GCN2s ordentliches RT schon in der Mittelklasse bieten werden.
 
ZeroZerp schrieb:
MW5 gibts übrigens bei Epic gerade im Sale für 22€ (Rabatt auf 32€ und 10€ Feiertagsgutschein).
Dafür kann man es sich auf jeden Fall mal ansehen - Ist inzwischen nach den ganzen Patches gut spielbar und durchaus 20€ wert...
Und Piranha Games ist noch weiter fleißig am "Verbessern".

Danke für die Info. Glaub das wird mir die Nacht heute retten.^^
 
Zuletzt bearbeitet von einem Moderator:
Colindo schrieb:
Wer weiß, ob Daniel Pohl überhaupt noch bei Intel arbeitet.

Ich verfolge seine Schritte zwar eher als "Fan", aber ja, er arbeitet immer noch bei Intel. Aktuell macht er mit Drohnen rum. :D

https://de.linkedin.com/in/pohldaniel
http://www.wolfrt.de/

Publications:
Depth Map Improvements for Stereo-based Depth Cameras on Drones
Daniel Pohl (Intel), Sergey Dorodnicov (Intel) and Markus Achtelik (Intel)
Best Paper Award, FedCSIS, MMAP 2019 (PDF 4 MB)​


btt:

Danke für den Artikel. Endlich mal wieder ein Text, den man auch gerne 2mal lesen kann/muss um "alles" zu verstehen.

mfg
 
  • Gefällt mir
Reaktionen: ofenheiz, fox40phil, KlaraElfer und 2 andere
KlaraElfer schrieb:
Du nutzt doch auch Beleuchtung oder Schatten im Mehrspieler - oder schaltest du die ab?

Möglichs wenig Ablenkung durch Grafikklimbimm
Schattten sind vorhanden aber auch nur das
Beleuchtung und Blend und Lenseffekte sind immer aus !
HDR genauso....

RTX macht nix anderes....alles unnötig im Multiplayer !

Hinzu kommt das >120FPS schon sein muss....
 
benneq schrieb:
Und die Karten verlieren dadurch auch nicht an Leistung.
Nicht vergessen, dass sich die Shader und die anderen Cores das Powertarget teilen. Also wenn du mehr Funktionseinheiten nutzt, geht auch die Shaderleistung herunter.
Der Vorteil wiederum ist, dass jemand, der RT nicht nutzt, die maximale Leistung aus den Shadern bekommt. Nur deren Chipfläche muss er mitbezahlen. Hilft dafür beim Kühlen.
pipip schrieb:
Bedeutet das quasi, dass einfach RAM Anbindung bsp GDDR6 zu langsam ist und man deshalb schnelle Cache benötigt ?
GDDR ist eben auf Bandbreite optimiert, nicht auf Latenzen. Vielleicht muss man einfach die Cache-Struktur ganz neu denken, wie es von den Forschern in einem Beispiel gemacht wurde. Wie genau die RT-Cores bei Nvidia angebunden sind, weiß ich nicht.
 
  • Gefällt mir
Reaktionen: fox40phil
Ihre habt in eurer Spiele - Aufzählung noch Wolfenstein Youngblood vergessen, das unterstützt sogar DLSS
 
Zurück
Oben