Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
BerichtRaytracing in Spielen VI: So werden Strahlen von GPUs beschleunigt
Ich finde die Formulierung schon sehr unpassend: "Beschleunigt" wird da garnichts. Eher errechnet und das macht alles andere als irgendwas zu Beschleunigen, eher im Gegenteil...
Und über die Sinnhaftigkeit dessen wurde ja schon viel geschrieben.
Diese überspiegelte Kacke braucht kein Mensch.
Extrem eingeschränkt, und genau das ist das große Problem all dieser Lösungen. Und nahezu jede Einschränkung dabei kommt daher, dass es nur per Ray Tracing zu lösen wäre, das zur damaligen Zeit aber zu teuer war...
RT versucht diese Einschränkungen zu lösen, kostet im Gegenzug eben viel Leistung. Und das Leistungsproblem sollen dann die HW Beschleuniger angehen.
Ergänzung ()
r4v398 schrieb:
Ich finde die Formulierung schon sehr unpassend: "Beschleunigt" wird da garnichts. Eher errechnet
Natürlich wird beschleunigt. Eben die Berechnung. Die könnte auch 100x langsamer berechnet werden, ohne beschleunigende fixed functions. Einfach mal nachdenken, nachlesen, verstehen und DANN eine Meinung haben?
r4v398 schrieb:
Eher errechnet und das macht alles andere als irgendwas zu Beschleunigen, eher im Gegenteil...
Dann braucht aber generell Hardwareberechnetes Rasterizing, AKA "3D Beschleunigung" auch kein Mensch.
Wer Nach so einem Artikel Raytracing auf "überspiegelte Kacke" reduziert, hat die Technologie noch nicht im Ansatz(!) verstanden, und bildet sich trotzdem ein Urteil...
Hybrid-Ansätze wurden und werden seit Turing Launch real umgesetzt und sind oft auch auf Mittelklasse Karten noch angenehm spielbar. Man muss halt die Regler bedienen können.
Auf den Konsolen gibt es auch immer öfter RT Modi.
Extrem eingeschränkt, und genau das ist das große Problem all dieser Lösungen. Und nahezu jede Einschränkung dabei kommt daher, dass es nur per Ray Tracing zu lösen wäre, das zur damaligen Zeit aber zu teuer war...
RT versucht diese Einschränkungen zu lösen, kostet im Gegenzug eben viel Leistung. Und das Leistungsproblem sollen dann die HW Beschleuniger angehen.
das verstehe ich natürlich .... ändert nur leider nichts daran, dass das alles viel zu aufwendig und hardware hungrig funktioniert. Bzw. die ganze Mechanik sehr schlecht implementiert wird und die Hardware dauerhaft zu langsam ist. Wie schon geschrieben bräuchten wir zu jeder neuen GPU Gen 100-200% mehr RT Power.
Ich dachte auch solche Dinge sollten vor Raytracing kommen. Insbesondere physikalisch korrektes, dynamisches Wasser (aus Voxeln) statt primitive Wellenlayer oder Glanzschattierer. Es kann aber sein, dass das ähnlich rechnerisch aufwändig wäre wie Raytracing...
Physikalisch korrekt berechnete Flüssigkeiten sind eigentlich algorithmisch immer noch nicht ganz gelöst, ABER es gibt in den letzten paar Jahren große Fortschritte. 2 Minute Paper hat darüber einiges ausgegraben, hier eines von mehreren Beispielen:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Weil bei FLüssigkeiten muss man halt immer bedenken WIE flüssig das ganze sein soll. Von Wasser über Honig usw. Und all das existiert jetzt nach und nach.
Implementiert werden muss es halt noch (kostengünstig)
Ergänzung ()
Tunaraxx schrieb:
Bis heute hat mich Raytracing nie wirklich vom Hocker gehauen. Für mich einfach nur spielerei.
Ist ähnlich wie bei Schatten oder Shader. Das ganze kommt schleichend und in ein paar Jahren findet man alles davor hässlich. Dachte auch Portal 2 sieht auch heute noch super aus. 10h Portal 2 RTX gespielt und ich dachte beim zurückwechseln ich hätte irgendwelche Grafikeinstellungen auf LOW. Nein, es sieht tatsächlich so "schlecht" aus. Wir sind an schlechtes, unrealistisches Licht gewöhnt, aber es ist ähnlich wie mit höheren FPS, höherer Auflösung, besserer Qualität von Grafik: wenn man dann mal weiter ist, will man nicht mehr zurück.
Ergänzung ()
latiose88 schrieb:
Oder auch die Brille.Und egal wie oft ich sie Putze das einzige was ich immer unter RT sehe ist ne überspiegelung. Egal wie oft ich versuche es anzusehen,ich werde geblendet.Kann mich dann um die andere Szene der Spiele nicht mehr gescheit konzentrieren. Bestes Beipiel von sher starken blenden ist auch trotz fehlenden RT sogar das Game the Ascent.
Oder was richtig geblendet hatte ein Battlefield game mit RT.
Man darf nicht Raytracing mit Gamedesign verwechseln.
Raytracing ist 10x mehr als nur Spiegelungen, jedoch haben die bei Battlefield kaum mehr als "Spiegelungen" integriert.
Ergänzung ()
Laphonso schrieb:
Raytracing > Raster.
Raster ist outdated, technisch gelöst, limitiert und blass.
Es fehlt aber 4090er RT Leistung für 500 Euro im Mainstream. Vielleicht wird die Playstation 6 hier ein Durchbruch.
Kommst eh nicht drum herum.
In einigen Jahren wirst sagen "Wer will noch dieses Rasterizing? Das ist ja voll 80er Jahre!"
Ergänzung ()
fox40phil schrieb:
Ich muss leider sagen, dass mir die Hardwarebeschleunigung zu wenig Fortschritte macht.
Hier wären jede Gen so 100-200% mehr Power nötig, damit es Rasterizing alsbald ablösen kann.
Ja, das ist durchaus ein Problem: Raytracing würde in 3-4 Generationen wirklich gut sein, auch in Spielen, wenn wir jede Gen eine Verdoppelung der Leistung sehen würden. Das ist aber wegen der langsameren Fortschritte bei der Prozesstechnologie unrealistisch (3nm wird wohl bei gleicher Verlustleistung/Verbrauch nur 30-40% mehr Transistoren ermöglichen wie 5nm). Also sind die schritte kleiner als man möchte. Aber das tut dem keinen Abbruch: Die Zukunft ist - wenn auch langsamer als erhofft - Raytracing.
Wirklich interessant wirds halt vielleicht mit der nächsten Konsolengeneration, hoffentlich kriegt AMD dann ach endlich Raytracing hin.
Immerhin: Die 4090 zeigt, recht viel mehr Rasterleistung ist nicht mehr nötig/sinnvoll. MIt ca 70% mehr Leistung als die 4080 bringt sie beim Rastern kaum (20-40%, je nach Auflösung) mehr Leistung auf die Straße. Dieser Weg ist nun eine Sackgasse geworden. Man muss also in den Chips die Rasterleistung nicht mehr so deutlich erhöhen, wohl aber die RT Leistung
Der drastische FPS Verlust ist dir nie aufgefallen? In Erster Linie wird überhaupt erst mal erzeugt, da du die Technik mit anderen Karten garnicht nutzen kannst. Also von vornerein von "Beschleunigung" zu sprechen ist irreführend. Das die Chips die entsprechende Technik dann schneller berechnen als.. (als was genau übrigens?) ist dann nur logisch.
Ja ich erlaube mir aus Endlosen Artikeln, Reviews, Vergleichen und Berichten ein Urteil. Das ist jetzt so ein Problem für dich?! Fühlst dich persönlich attackiert wenn Jemand das ganze RT eher Kritisch sieht? Vorher kommt das frage ich mich...
Aber ich erwarte darauf keine Antwort. Kenne solche Diskussionen zu genüge...
Die Technik ist alles andere als ausgereift und gleichzeitig dermaßen überteuert, wer sein Geld so verschwendet kann Niemand mehr helfen. Aber soll ja jeden selber überlassen sein, welche Hobbys er sich aussucht. 👍
Das hat man vor x Jahren auch über viele andere Techniken gesagt, die in der Echtzeitgrafik heute Standard sind
Dann gibts bessere Beschleunigung, mehr Rechenleistung, neue Tricks, etc...
RT hat sich ja allein in den 4 Jahren seit Turing deutlich verbessert, hinsichtlich Effizienz als auch Qualität.
Ergänzung ()
r4v398 schrieb:
Also von vornerein von "Beschleunigung" zu sprechen ist irreführend. Das die Chips die entsprechende Technik dann schneller berechnen als.. (als was genau übrigens?)
Nö. RT wird durch spezialisierte HW Einheiten beschleunigt ggü klassischen Implementierungen (also schneller als Software oder reines Shader RT). Fertig. Das und nicht mehr heißt "Beschleunigung".
Und genau das ist der Fall. Lass doch als Vergleich mal RT per DXR Fallback auf ner Pascal GPU laufen und sag uns dann nochmal, dass da nichts beschleunigt wird.
Und Vereinfachung bei RayTracing geht nicht? Wenn ein Polygon betrachtet wird, lässt sich doch über die Winkel der anliegenden ein Näherungswert für diese ermitteln ? Man würde in der Software dann eine Zahl brauchen welche die Anzahl der umliegend betroffenen Polygone festsetzt.
Übersteigt mein Wissen, war froh dass mich Computergrafik im Studium keine extra Runden gekostet hat. War das Modul was für sehr viele das Studium beendet hatte, weit häufiger als Mathe. Nachdem man Mathe, Computergrafik, Verteilte Systeme und Betriebssysteme gepackt hatte, wurde das Studium zum easy mode
Natürlich, nur so ist es überhaupt möglich das in Echtzeit hinzubekommen.
Wenn du die Materie ein bisschen ankratzen willst, empfehle ich dieses Video dazu:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Keinesfalls, die Berechnung der Strahlen (Rays) wird wie im Titel angemerkt beschleunigt.
Nach deiner schwachsinnigen Argumentation würden aktuelle GPUs auch keine 3D Grafik beschleunigen, weil ohne das ganze "3D" wäre doch alles viel schneller. Zurück zu Sidescrollern, wer braucht schon 3D Grafik auf überteuerten Grafikkarten.
Ergänzung ()
r4v398 schrieb:
Das die Chips die entsprechende Technik dann schneller berechnen als.. (als was genau übrigens?) ist dann nur logisch.
Abgesehen von Online-Multiplayer gehört Raytracing für mich fest dazu. Ich bevorzuge Spiele mit Raytracing-Features, insbesondere im Singleplayer. Die Spielwelten sehen mit RTX einfach authentischer aus und wenn man einmal den Vergleich hatte (Cyberpunk 2077), dann geht es einfach nicht mehr ohne.
Klar. es macht den Spielspaß nicht unbedingt aus und viele Spiele funktionieren dahingehend auch ohne eine imposante Grafik, aber die Immersion, gerade in Rollensielen, ist überragend.
Deshalb muss gerade meine Hardware das auf jeden Fall unterstützen, auch wenn DLSS dafür aktiviert werden muss. Es ist der entscheidende Schritt, der notwendig war, um Spielegrafik weiter zu verbessern und ausnahmsweise ist "auf das nächste Level heben" hier keine Marketingfloskel.
Schade, dass entsprechende Grafikkarten immer noch sehr teuer sind, aber auch die RTX 3060 Ti ist hier eine gute Wahl für gängige Auflösungen.
Das erste mal bin ich auf Rytracing auf dem Amiga gestoßen und fand es damals herausragend und das auf ein Amiga 500!
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Heute ist es für mich eine nette Bereicherung und prinzipiell Spiele ich auch mit mit RT sofern möglich, aber ein Kaufgrund ist es für mich nicht. Bin gespannt wo die Reise dahin führt......
War doch mit Bloom und Motion Blur zu Beginn nicht anders. Das wurde dermaßen übertrieben eingesetzt, daß man gedacht hat "wie schalte ich das aus?". Zig Jahre später sind wir ganz woanders. Raytracing ist definitiv der Weg. Nur reicht die derzeitige Leistung eben noch nicht aus, um es überall einzusetzen. So meinen einige Entwickler eben, daß man das wenige dann schlichtweg stärker betonen muss. Das pendelt sich schon ein. Imho kann das allerdings noch 5-6 Generationen dauern, bis es dermaßen gut und effizient einsetzbar ist, daß man sich Spiele ohne nicht mehr vorstellen kann.
INDEPENDENT schrieb:
Das erste mal bin ich auf Rytracing auf dem Amiga gestoßen und fand es damals herausragend und das auf ein Amiga 500!
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Heute ist es für mich eine nette Bereicherung und prinzipiell Spiele ich auch mit mit RT sofern möglich, aber ein Kaufgrund ist es für mich nicht. Bin gespannt wo die Reise dahin führt......
In deinem Video wird erwähnt, daß die abgespielte Raytracing Scene eine VIDEO ist und 1 Frame 1 Stunde zum rendern gebraucht hat. Heute geschieht das in Echtzeit. Aufwendiger. Aber ja, ich finde das auch krass
Also ich sehe von Voxel einen richtigen Spielwert im Vergleich zu Raytracing. Es gibt ja eine Demo.Wenn da die Grafik auch noch nach oben schnellt,dann heißt es wow und es kann jede GPU umsetzen,das ist ja das gute an der Sache und ich denke mal das wird sich eher noch ganz durchsetzen als es Raytracing jemals könnte.
Und warum weil die Voxel Technik Effizienter mit Resourcen Umgeht als es Raytracing tut. Kann man sich leider nicht schön reden.Ist halt so wenn man Spielerisch ein Gewinn davon hat.
Ich fühlte mich bei der Deme des Spiels ein wenig wie bei Redfaction die Spiele Serie.Und ja da wird man zum Kind,weil man einfach sehr vieles Umwirft.Wenn man diese aber zu Realistisch macht,kann man dann kaum noch was umhauen.Spiele sollen jedoch wie ich finde spaß machen und nicht der Realität aneignen wie ich finde.
PS:Was Amiga konnte auch schon Raytracing,na sieh mal einer an,da lief aber was schief dann.
Ja, Raytracing am Amiga, selbst für ein rel. einfaches Bild mit 640x480, konntest auf A1200 12h warten.
Die typischen Szenen waren damals aus nur wenigen Grundkörpern und Texturen zusammengesetzt, aber trotzdem faszinierend im Endergebnis.
RayTracing kostet noch viel zu viel Leistung (FPS) und somit auch viel Energie (Strom) um für mich überhaupt in Frage zu kommen.
Lustig finde ich auch, das für viele ja angeblich 60 FPS (Hz) nicht mehr spielbar ist da das ja "ruckelig" sei.
Jetzt hat man 120-144Hz+ Monitore um mit 120-144 FPS zu spielen, stellt dann aber RT an um dann wieder, wie früher, bei 30-60 FPS zu landen.
Und nein, 30-60 FPS@120/144Hz ist nicht das gleiche wie 120/144 FPS@120/144Hz, da bei unterschiedlicher FPS Anzahl und HZ Anzeige der TV/Monitor eine Zwischenbildberechnung durchführt, also künstlich Bilder hinzufügt die real nicht vorhanden sind.
Dazu wäre anzumerken, dass man in Sachen Computergrafik immer alles ein wenig schlechter und dafür schneller machen kannst. Wenn Du das Voxelgrid der Qualität von aktuellen Raytracing- Titeln angleichst, hast Du weniger Performance als mit Raytracing selbst.
Vom emissive- Lighting- Problem dabei mal ganz zu schweigen. Da entgleist es dann zusehends.
Ergänzung ()
Master Chief ! schrieb:
RayTracing kostet noch viel zu viel Leistung (FPS) und somit auch viel Energie (Strom) um für mich überhaupt in Frage zu kommen.
Siehe Minecraft RTX mit "echtem" Path- Tracing.
4K 60 FPS VSYNC bei 200-250 Watt.
Sehe ich also nicht so wie Du. Auflösung passt. Bildwiederholrate passt. Stromverbrauch für die Auflösung und Bildwiederholrate auch.
Es liegt an der Implementation. Nicht an Raytracing an sich. Die meisten Spiele berechnen eben den vollen Rasteranteil und mixen dann im Anschluss noch RTRT Berechnungen on Top oben drauf. Kein Wunder, dass das nicht sonderlich effektiv ist.