Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.443
Wadenbeisser schrieb:Gegen die Raytracing Beschleunigung an sich habe ich nichts denn für die Licht- und Schattenberechnung eröffnet das neue Möglichkeiten. Wogegen ich was habe ist die Umsetzung ... gehört in standardisierter Form in eine Schittstelle die für alle gilt und nicht nur den Mittelsmann für irgendwelche herstellerspezifische Schnittstellen spielt denn so ist der Umgehung und Ausgrenzung wieder Tür und Tor geöffnet. (ooch sprechen wir al für "Optimierungen" die herstellereigene Schnittstelle an....)
Ja gut, einige behaupten die Einfuehrung von RT-Raytracing ist ueberfaellig, da bei Rasterisation nicht mehr viel geht. Wie spuerbar allerdings der Unterschied ist, haengt wohl auch davon ab wer da codiert/programmiert bzw. was die Entwickler koennen.
Falsch ist es sicherlich nicht, es stueckweise einzuefuehren, aber wenn ich mir anschaue, dass GPUs in Sachen AR/VR-Anforderungen (Stichwort Rohleistung) grossen Nachholbedarf haben, meist - im Gegensatz zu CPUs - in Spielen etwa die limitierende Komponente sind und 4K/UHD in Ultraeinstellungen bei aelteren (nicht einmal topaktuellen) Titeln wie GTA V oder Total War - Warhammer (2) nicht fluessig machbar sind (da man dort die doppelte Leistung einer Titan Xp benoetigt), dann finde den Zeitpunkt der Einfuehrung eher verfehlt als gut gewaehlt.
So etwas forderndes wie Raytracing (was natuerlich durch den Platz fuer die Kerne weniger Platz fuer eine insgesamt leistungsfaehigere GPU-Architektur laesst) kann man bringen, wenn GPUs nicht in mehreren Bereichen limitieren, aber natuerlich hat nVidia die Tensor-/AI-Technik, die man teuer und bedingt sinnvoll auch in Gaming-GPUs jetzt schon verbauen kann und nebenher eben Hardware-Raytracing-Kerne.
Dass der proprietaere Ansatz von nVidia ebenso kommt, war natuerlich zu erwarten, denn so kann man die ganze Marktmacht ausspielen und dem (/evt. in 2020 den) anderen das Leben/den Einstieg schwer machen, wofuer der Gameworks-Krempel natuerlich das beste Beispiel ist oder die Tatsache, dass man immer noch an G-Sync festhaelt.
So gesehen hast Du natuerlich Recht, Open-Source waere hier der richtige Ansatz (auch einfacher fuer die Entwickler) gewesen und eigentlich bietet die Microsoft-Loesung ja das, aber nVidia wollte wieder etwas eigenes zum vermarkten und verfolgt die Durchsetzung der proprietaeren RTX-Loesung (idealerweise unter Ausschluss und/oder Benachteiligung der Konkurrenz).