longusnickus schrieb:
also dass vulkan im sterben liegt und ein dasein wie openGL (was ja ursprünglich nicht mal für spiele entwickelt wurde, sondern für 3D programme) fristet ist quatsch!
An die Thematik muss man differenzierter herangehen:
OpenGL war Anfang und Mitte der 90er ein Sammelbecken für 3D-Anwendungen und wurde Anfangs auch für Spiele genutzt. Es hat sich aber bereits damals gezeigt, dass OpenGL durch die Fülle an Funktionen, Herstellererweiterungen und Co alles andere als entwicklerfreundlich ist. 3dfx hat die Probleme von OpenGL erkannt und eine schnelle und schlanke API entwickelt, die für Spiele gedacht war. Microsoft war sich dieser Tatsache auch bewusst und ist mit DirectX auch in diese Richtung gegangen.
Windows hat sich damals gegen quasi alle Betriebssysteme durchgesetzt und Microsoft hat sich auch an die Spieleentwickler gehalten und irgendwann konnte DirectX auch Glide überholen. OpenGL hatte damals dann abseits des professionellen Marktes keine Bedeutung mehr. Das hat sich mit den aufkommenden SmartPhones aber auch den Bemühungen von Apple in den späten 00er-Jahren aber wieder geändert und ebenso dem Erfolg von Android.
Es gab immer einige Spielestudios - iD - die OpenGL und später auch Vulkan die treue gehalten haben und halten, gleichzeitig spielt Vulkan "auf dem PC" auch heute keine Rolle und steht bei den Entwicklern von Spielen etwas im Abseits. Gleichzeitig erfreut sich aber Vulkan in anderen Bereichen durchaus einer immer stärker werdenden Beliebtheit, besonders wenn es um Cross-Plattformentwicklungen geht und damit wieder im professionellen Bereich. Gleichzeitig ist Code zwischen Vulkan und DirectX 12 in weiten Teilen fast 1:1 zu übersetzen, was auch dazu beigetragen hat, dass Wine und darauf aufbauend Proton und Co heute eine deutlich höhere Qualität haben, als noch vor 10 Jahren.
Steams Bemühungen Linux als Spiele-OS zu etablieren, wären ohne Vulkan und ebenso ohne DirectX 12 deutlich schwerer.
Dazu kommt, dass mit Android im Smartphone-Bereich Vulkan für die Engine-Entwickler auch eine gewisse Wichtigkeit hat, ebenso wie Metal durch die Verbreitung von iOS.
longusnickus schrieb:
ich bin kein programmierer, aber ich kann mir nicht vorstellen, dass entwickler von geschlossener software irgendwas lernen und sich dadurch verbessern.
Die meisten Entwickler werden auch aus FSR und obwohl es OpenSource ist, nicht sehr viel lernen, weil wir hier von teilweise hochkomplexen Problemen schreiben, an denen bei Nvidia, AMD und Intel ganze Teams teilweise mehre Monate bis Jahre arbeiten und die Basis teilweise dazu noch Bachelor-, Master- und Doktorarbeiten sind, die sich mit diesen Technologien beschäftigen.
Bei vielen Spielenfirmen sind - und das meine ich im weiten nicht so negativ, wie es nun rüber kommt - ehr die schlechteren Entwickler angestellt, denn, die guten Entwickler in diesem Bereich schnappen sich Nvidia, AMD, Intel und Co teilweise bereits mit Werkstudentenverträge und Sponsoring der Abschlussarbeiten direkt an den Universitäten. Danach kommen in der Regel die großen Publisher wie EA, Microsoft aber auch Epic, Unity, die auch noch mal ganz andere Gehälter zahlen können, als die meisten kleineren Publisher und Spielestudios und diese Entwickler arbeiten dann wirklich quasi nur an den Engines und nicht wirklich in der Spieleentwicklung.
Was dann bei den landet ist oft eher Mittelmaß. Das bedeutet nicht, dass diese Personen nichts drauf haben, das können sogar richtig gute Programmierer sein, aber nicht unbedingt die Ingenieure die neue Techniken ersinnen und auch prägend voran bringen, dass geht dann oft nicht mal mehr aus Zeit gründen, weil die normale Arbeit einen auslastet.
longusnickus schrieb:
sondern eines und das dafür anständig und natürlich würde ich dann das wählen, das die meisten spieler verwenden können.
Das sehen die meisten Entwickler an dieser Stelle anders: Da wird das eingebaut, was am wenigsten Arbeit macht.
Und da hat DLSS einen gewaltigen Vorteil gegenüber FSR und diesen Vorteil bekommen wir immer wieder zu spüren -
@Quidproquo77 jetzt bloß nicht aus allen Wolken fallen, dass ich nun DLSS als FSR überlegen hinstelle, es hat schon einen Grund, warum ich schrieb, dass ich gerne ein Advocatus Diaboli bin!
DLSS lässt sich in der Regel mit weniger Aufwand in die Spiele implementieren und bietet damit von Beginn an ein relativ gutes Upscaleing, dass mit wenigen Problemen zu kämpfen hat. DLSS ist für Entwickler unproblematischer und kann selbst bei einer eher minimalistischen Integration bereits sehr gute Erlebnisse bieten.
Das sieht bei FSR anders aus, damit FSR "vergleichbare" Ergebnisse liefert, muss ein Entwickler wesentlich mehr Aufwand betreiben. Wird FSR mit minimalem Aufwand eingebaut, dann ist FSR DLSS deutlich unterlegen und genau dass ist es auch, was immer wieder zu sehen: Sobald Nvidia und/oder AMD als Partner nicht vorhanden sind und DLSS und FSR implementiert wurden, dann sind es in der Regel einfach nur Haken am Lastenheft und FSR kämpft plötzlich mit Problemen, die es in "guten" Implementationen nicht gibt.
Eine mittelmäßige bis schlechte DLSS-Umsetzung ist in vielen Spielen einer schlechten FSR-Umsetzung weit überlegen.
Und der entscheidende Punkt zur Umsetzung: Wenn man sich für FSR die Arbeit macht, dann kann man DLSS relativ einfach mitnehmen, in dem man entweder einen Wraper schreibt, der die Aufrufe entgegen nimmt oder einfach ein switch oder if-else einbaut und das quasi etwas mehr Tipparbeit.
Die Unterschiede einer guten FSR und DLSS-Implementation sind subtil und sollte man auf bestimmte Artefakte bei dem einen Upscaler negativ reagieren, kann man den anderen testen und entsprechend entscheiden, was einen dann weniger stört.
Bei "mittelmäßig" implementierten FSR und DLSS ist DLSS klar überlegen und vorzuziehen.
savo84 schrieb:
aber die sehen auch irgendwie nicht aus als wären es die leisesten Karten.
Die meisten FE-Designs sind relativ leise, wenn man sich die Tests ansieht. Natürlich sind hier auch keine Wunder zu erwarten. Das FE-Design ist auf bestimmte TDP-Klassen ausgelegt. Geht man darüber, wird es lauter.
Die guten Custom-Designs haben hier mehr Reserve.
ShowOff schrieb:
die tägliche Vram Diskussion - so sicher wie das Amen in der Kirche :>
Für die meisten Menschen hat diese Diskussion keine Relevanz, weil hier einfach dann Details und Co runter geschraubt werden.
Es ist ein valider Kritikpunkt an der Karte und wer die 12 GB für eine heutige Karte zu wenig findet, der hat genau so recht, wie jemand, der dagegen hält.