DocWindows schrieb:
Musst ja ziemlich aufgeregt sein, wenn dir ein Späßchen zu deinem eigenen Schreibfehler nicht auffällt.
Ich glaube, du hast einfach nur nicht begriffen, dass das kein Schreibfehler war, sondern genau so gemeint war wie es da steht.
Ein paar Dx12-Features an einen existierenden Dx11-Renderer anflanschen dürfte letztendendes nicht viel schwieriger sein als viel zu übertriebene Dx11-Tessellation auf die ineffizienteste Art und Weise in einen Dx9-Renderer einzubauen, und viel mehr waren die ersten so genannten Dx11-Spiele ja nicht.
Damit das Marketing dann sagen kann, man habe ein Dx12-Spiel. Und eine solche Umsetzung bezeichnet man eben als naiv.
DocWindows schrieb:
Von der Tatsache dass auch Vulkan nur 3D-Grafik abdeckt und für Sound, Input, etc. wieder andere Dinge eingesetzt werden müssen
Soll Vulkan jetzt Polygone an die Soundkarte schicken? Hast du überhaupt
irgendeine Idee, wie die verschiedenen Subsysteme miteinander interagieren?
DocWindows schrieb:
Könnte man in einer OpenGL News mal erörten, falls es je eine solche geben sollte. Bin eh schon verblüfft ob der Diskussion um Hertz, Augen und FPS.
Du willst also sagen, OpenGL sei grundsätzlich langsam? Was ist mit Direct3D-Spielen, bei denen sich die Leute über die Performance aufregen, weil die Entwickler mit ihrem Werkzeug nicht umgehen können (Dying Light, DayZ, ...)? Warum laufen Id Tech 5-Spiele, bei aller berechtigter Kritik an der Engine, auf so ziemlich jedem Toaster mit konstanten 60 FPS?
DocWindows schrieb:
Ein Entwickler von X-Plane, einem OpenGL-Spiel mit Multiplattformfähigkeit (Windows, Mac, Linux), sagt zu OpenGL immer gerne "code it once, debug it everywhere".
Weil AMD zu blöd ist, das ganze vernünftig zu implementieren, ja. Das ist in der Tat ein Problem bei GL - welches Vulkan aber gar nicht in dem Maße haben
kann, weil die Spezifikation a) deutlich simpler ist (implizite globale Zustandswechsel sind der Feind eines jeden Programmierers) und b) vieles (Lifetime von Objekten, z.B.) der Anwendung überlässt.
Letztenendes sind die Low Level-APIs jedenfalls nicht viel mehr als Schnittstellen für VRAM-Verwaltung, Shader-Compiler und eine Abstraktionsschickt, um klar definierte Aktionen irgendwie vom Treiber in GPU-Befehle zu übersetzen.
Zehkul schrieb:
Das Problem von Khronos war nie Inkompetenz, im Gegenteil. OpenGL das Genick gebrochen hat, wie lange es zu 3.0 gedauert hat.
Das Problem von OpenGL 3.0 war vor allem, dass die Khronos-Gruppe letztenendes auf die Leute gehört hat, die keine Lust hatten, ihre Renderer umzubauen. Der Schritt von GL 2.1 auf GL 3.x ging ja quasi einher mit dem Wechsel weg vom Fixed-Function-Modell, bei dem die Grafikkarte (immerhin schon mit Hilfe von Fragment- und Vertex-Shadern) nur Bilder malen durfte, hin zu einem deutlich abstrakteren General Purpose-Modell. Dafür braucht man aber für das einfachste Beispielprogramm zum Rendern eines Dreiecks schon den halben Funktionsumfang des gesamten Core-APIs.
Da hätte man besser gleich bei 0 anfangen können, um dann auch gleich mal die Programmiermodelle auf den Stand des aktuellen Jahrtausends zu bringen (DSA zum Beispiel, wollte man seit Ewigkeiten haben, kam erst letztes Jahr mit GL 4.5). Zumal man mit GL 3.2 und der Einführung des so genannten Core Profiles ohnehin den ganzen Fixed Function-Legacy-Mist mehr oder weniger rausgeworfen hat.
Zehkul schrieb:
Dafür gibts ja Vulkan. Hoffentlich. Bald™. So langsam wird es echt Zeit.
Dito. Mir juckt es schon in den Fingern, das bisschen, was ich im Moment zum Rendern habe, wenigstens mit einem modernen und durchdachten API zu rendern.