Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestSchöner Spielen mit HDR: Benchmarks zeigen geringere Leistung auf AMD und Nvidia
tl;dr:Spiele können auf HDR-Monitoren deutlich besser aussehen als mit klassischem SDR. Es stellt sich jedoch die Frage, ob das Performance kostet. Und die Benchmarks zeigen interessante Ergebnisse: HDR kostet minimal Leistung auf einer AMD- und überraschend viel auf einer Nvidia-Grafikkarte.
Das ist interessant hoffe bei der Turing wird das nicht so.
Möchte mir bald ne Karte für meinen Oled TV holen.
Zeigt die 1080Ti auch dieses verhalten?
Hoffentlich kannn man das über den Treiber lösen.
Dass AMD und NV verlieren, hängt also von der Spiele Engine oder anderen Teilen der Software und im Zusammenspiel mit dem Treiber ab. Hier wurde offensichtlich noch nicht viel für HDR optimiert.
Dass AMD und NV verlieren, hängt also von der Spiele Engine oder anderen Teilen der Software und im Zusammenspiel mit dem Treiber ab. Hier wurde offensichtlich noch nicht viel für HDR optimiert.
Vielleicht liegt das an der Auslastung der Vega. Die wird ja gerne mal nicht ganz so gut durch die Software ausgelastet.
Dadurch könnte es sein, dass die brach liegende Leistung für HDR genutzt werden kann und somit nur besser ausgelastet wird?
Es scheint als hätte AMD, zu den Zeiten wo noch nicht so viele Entwickler für den Treiber zuständig waren, etwas zu weit in die Zukunft geblickt ^^ Und damals hat jeder geschimpft, wie Schlimm sie doch sind .
Seit DX12 dreht sich ja schon etwas und mit HDR auch, mal gespannt wie es da weiter geht.
Ich könnte mir vorstellen, das Nvidia bei der Genauigkeit besser optimiert hat und jetzt in einigen Spielen wieder auf eine höhere Genauigkeit gehen muss um HDR zu berechnen.
Oder AMD berechnet HDR mit geringerer Genauigkeit, was man dann mal in einem speziellen Test zur Bildqualität angucken sollte.
Ich gehe auch davon aus, das Nvidia bald einen Treiber rausbringt, der das wieder gerade biegt, aber wenn dieser kommt sollte man auch da genau hinschauen, ob ein vorhandener Fehler ausgemerzt oder die Leistung durch schlechtere Genauigkeit wiederhergestellt wird.
Leider weiß ich nicht, wie man diese Unterschiede testen kann. Screenshots vergleichen wird vermutlich nicht funktionieren. Man müsste das Bild irgendwie mit festen Einstellungen abfotografieren, was dann aber nie so genau sein kann wie es eventuell sein müsste um Unterschiede zu sehen.
Zwei Systeme einmal mit Nvidia einmal mit AMD GPU nebeneinender an zwei gleichen Bildschirmen(Bildschirme zwischendurch tauschen) und dann direkt vergleichen könnte helfen.
Für mich sieht das aus wie immer:
nvidia holt das letzte aus "aktueller" Technologie raus (DX11 Performance, SDR), AMD hat bereits für neuere Technologien geplant aber schneidet bei vorher genannten halt vergleichsweise schlechter ab.
Ein Vergleich mit RX580 und 1060 wäre interessant, evtl. liegt bei der Vega auch einfach nur zuviel Leistung brach, die nun genutzt werden kann.
An sich also alles wie gehabt. Aber so dauert es eben länger, bis die Technologien am Markt ankommen.
HDR ist nicht nur ein reines "Anzeigeproblem". Dabei wird auch gerechnet (Stichwort: Tone Mapping) und es wird der Farbraum zwischen Spiel und Ausgabegerät (Monitor) abgestimmt.
Hier beim Tone Mapping könnte auch der Unterschied in der Performance herrühren: Bei AMD wird das (spekuliert) compute-intensive Mapping besser auf der AMD-Karte berechnet als bei Nvidia. Ist aber alles pure Spekulation und schlägt in die Kerbe "AMD ist bei Async Compute und der Rohpower von GPUs besser aufgestellt als Nvidia".