Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsVariable Rate Shading: Microsoft bringt noch Turing-exklusives Feature für DX12
Nvidias Turing-Grafikkarten unterstützen Variable Rate Shading. Durch die Technik kann die Leistung in Spielen bei (fast) gleichbleibender Qualität gesteigert werden. VRS auf Turing funktioniert derzeit über das Nvidia-exklusive NVAPI. Nun hat Microsoft VRS für DirectX 12 angekündigt – und damit potenziell für jede Grafikkarte.
Ja und DLSS sieht quasi genau so gut aus, wie ein Spiel in normaler Auflösung.
Mal sehen, wie sich dieses Feature im direkten Vergleich in wirklichen Tests schlägt. DLSS sah ja auch anfangs ganz gut aus und in BF5 ist es nicht wirklich brauchbar.
Wenn man sich anschaut wie lange es gebraucht hat das DX12 in Spielen richtig implementiert wurde, wird es wohl auch noch eine ganze Ecke dauern bis die anderen Features sinnvoll und ohne erheblich sichtbaren Einschränkungen eingepflegt werden.
Kann ich mir zumindest nicht anders vorstellen, DX12 ist gerade jetzt einmal so weit das man spürbare Verbesserungen in vielen Games beobachten kann, besser spät als nie
"Aktuell funktioniert VRS mit DirectX 12 nur auf Nvidias Turing-Grafikkarten, da die Hardware gewisse Voraussetzungen mitbringen muss. "
Und die da wären?
Imo ist Tier 1 uninteressant. Wer schlechtere BQ haben will zugunsten von Performance kann auch klassisch den Regler bedienen. Tier 2 hört sich aber interessant an, sofern die BQ sich wirklich nicht unterscheiden lässt.
Früher hat man noch Buh gerufen wenn ein Gpu Hersteller durch Bildqualitätminderung sich mehr FPS erschummelt hat. Heute verkauft man das als Feature. Verkehrte Welt.
Hauptsache das ganze bleibt wirklich optional. Und wird nicht zum schummeln für längere Balken genutzt.
Früher hat man noch viele Möglichkeiten gesehen die Leistung per Hardware zu steigern, heute sind wir erstmal am Ende den Fahnenstange angelangt.
Etwas kann man sicher noch rausholen, allerdings zu Preisen die kaum einer noch bezahlen will was langsam zum Problem wird und deswegen versucht man jetzt zu schummeln.
Früher hat man noch Buh gerufen wenn ein Gpu Hersteller durch Bildqualitätminderung sich mehr FPS erschummelt hat. Heute verkauft man das als Feature. Verkehrte Welt.
Ist alles eine Frage der Kommunikation. Und man hat aber einen Punkt erreicht wo es durch aus Sinnvoll ist die das Rendering selektiver zu gestalten.
Optimierungen half-floats (FP16) sind doch nichts anderes. Wir reduzieren die Auflösung um etwas schneller zu berechnen. Bei Licht, Schatten oder Reflektionen ist es durch aus sinnvoll.
Ich persönlich habe absolut kein Problem mit einer Verringerung der Grafikqualität, solange dies für mich als Nutzer so gut wie gar nicht auffällt.
Gefühlt würde ich behaupten, dass solch eine Implementierung gerade in Simulationsspielen wie Anno, Cities Skylines oder auch Civilisation seltener auffallen, da man gerade in den Games mit zunehmenden Spielstunden immer weniger FPS hat. Ob das Wasser nun z.B. in 4k oder in 1440p gerendert wird könnte einen entscheidenen Einfluss auf die FPS haben, ohne große auffälligkeiten.
Früher hat man noch Buh gerufen wenn ein Gpu Hersteller durch Bildqualitätminderung sich mehr FPS erschummelt hat. Heute verkauft man das als Feature. Verkehrte Welt.
Hauptsache das ganze bleibt wirklich optional. Und wird nicht zum schummeln für längere Balken genutzt.
<ironie>Genau, wir sollten alle Schalter für Optimierungen rausschmeißen, die mehr Performance bringen und optisch keinen (/kaum) Unterschied machen. Danmn können endlich nur noch die mit den teuersten Grafikkarten aktuelle Spiele mit sinnvollen Frameraten spielen.</ironie>
1. Es ist ein optionales Feature
2. Manche spielen lieber aktuelle Spiele mit 60 fps in 4k bei nicht merkbarem Optikverlust, als das letzte quäntchen Bildqualität rauszuholen, was man in der Praxis nicht sieht. Bei leistungsfähigerer Hardware, kann man es dann ja wieder deaktivieren in Zukunft.
Etwas off-topic, aber.. DirectX 12 ist auch schon recht betagt, laut Wikipedia ist's von 2015.
Ich wundere mich, dass sich darüber keiner so recht beschwert, wäre doch bei Gamern eigentlich normal.
In den 90ern kam ja beinahe jährlich eine neues Release (siehe Tabelle)..
Oder ist das seit W10 nun auch bei DX so, dass die Versionsnummer stehenbleibt ?
Früher hat man noch Buh gerufen wenn ein Gpu Hersteller durch Bildqualitätminderung sich mehr FPS erschummelt hat. Heute verkauft man das als Feature. Verkehrte Welt.
Hauptsache das ganze bleibt wirklich optional. Und wird nicht zum schummeln für längere Balken genutzt.
Oh Gott man kann natürlich alles Kaputt reden. Der Anspruch der Gamer war immer bessere Bildqualität, Fotorealismus, höhere Auflösung, mehr FPS und das alles zusammen. Diesen Anspruch gab es damals, heute anscheinend nicht mehr.
Was hat das mit der Grafikqualität von vor 15 Jahren zu tun ? Es ging dabei immer darum es besser zu machen.
Interessant, welche Techniken und Optimierungen inzwischen von den Herstellern (AMD & Nvidia) bemüht werden, um weiterhin Performance zu gewinnen. Waren es früher einfach die Erhöhung der TDP und die jährliche Verkleinerung der Strukturgröße bei den Halbleitern, kommt es jetzt doch vor allem auf eine gute Architektur und ein ausgeklügeltes Design an.
Dann ist das "Feature" also komplett sinnlos, hast du gut erkannt.
Die Gefahr dabei ist das irgendein Reviewer angibt im Benchmark max. Details angegeben zu haben. Unterschlägt dieses Feature oder erwähnt es nicht hinreichend. Und Voila, der längere Balken ist geboren. Bei einem Benchmark hat man immer darauf gepocht das man die selben Verhältnisse hatte. Das die Bildqualität die selbe ist damit keine Vorteile für irgendeinen Hesteller entstehen weil irgendwas nicht so genau berechnet wird.
Ich kann mich noch an die streitereien in den Foren erinnern weil z.B ATI's Anisotropische Filterung schlechter war.