Test Schöner Spielen mit HDR: Benchmarks zeigen geringere Leistung auf AMD und Nvidia

Wer einmal sein "Lieblingsspiel" mit HDR gesehen/gespielt hat, der will einfach nicht mehr ohne HDR.
Dabei ist es dann total egal wieviel HDR Titel es noch gibt.
 
Jo Jane 1+
Bei #114 hast Du den Finger in der Wunde.
Bei MEA muss die Farbkompression von NV abgeschaltet werden.(erzeugt mindere Bildquali bei Grün+Blau)
Ohne Farbkompression bricht NV dann bei der Bandbreite gnadenlos ein.
Nach dem W10-Update in 2017 war schon HDR10 Pflicht und das komprimierte "HDR" nicht mehr W10 kompatibel, was zu Probs mit NV + HDR auch bei Filmen geführt hat.

Wolfgang : Alles Verstanden ?
Außerdem kann es mit NV ein größeres Inputlag geben und die Temps der Graka sollte man auch mal untersuchen!

Das Ganze wurde schon im Nov17 im 3dC ausführlich diskutiert wobei auch DORT vor allem Poweruser ohne HDR-Moni Ihren Senf dazugegeben haben. Da kommt dann 11 Seiten Rätselraten wie HIER dabei raus.
Ausgangspunkt war damals ein User der von Ti auf LC gewechselt ist für HDR am TV.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iscaran, Mcr-King, Penntüte und eine weitere Person
GerryB schrieb:
Das Ganze wurde schon im Nov17 im 3dC ausführlich diskutiert wobei auch DORT vor allem Poweruser ohne HDR-Moni Ihren Senf dazugegeben haben. Da kommt dann 11 Seiten Rätselraten wie HIER dabei raus.
Ausgangspunkt war damals ein User der von Ti auf LC gewechselt ist für HDR am TV.
Jo, der Gedi hat den wechsel durchgezogen :)
Mit UV ist man bei ner Vega auch gut dabei. Ich bekomme meine 64 UV auf ca. die gleichen Werte wie ne 1080 Kumpel) mit UV :D
 
Zuletzt bearbeitet:
Tja sagte ja die Bandbreiten Krüppel von NV mh, aber einfach mal als AMD Fanboy zeug ab tun.
 
Zu Vega mal noch 2-3 Tipps:
- Bei Fiepen die Beleuchtung an der Graka ausschalten.
- Bei Samsung-Moni evtl. das DP-Kabel durch was Professionelles ersetzen. (bei Problemen mit Temps)
https://www.amazon.de/Rotronic-Displayport-Audio-Übertragung-Anschluss-männlich/dp/B073PGZ9QV?th=1

4k HDR ist natürlich heftig. (64 nur als h2o sinnvoll)
Als Singlegraka ist die LC in Push-Pull-Config mit ordentlichem Gehäuselüfter davor ausreichend.
Hier ein User mit 200mm Toplüfter nach innen vor die LC und 140mm Push zusätzlich:
Crynis-LC+PP.jpg


Da hat der User beim UV dann richtig Spass gehabt bei Temps um 35-40°C.
Da kommt bei 1,028..1,035V schon ein ausreichendes 24/7 hin.

Vega-Ref. ist für mich auch nur mit starkem UV sinnvoll.
Für mein Cf braucht es dann auch 4x120 Lüfter die reinblasen, um die Temps von 50-60°C bei 2200 U/min zu halten.
Die AMD-Profil-Temps von 85° bei 95..100° Hotspot sind mir zu viel.
Meistens spiele ich in der Range 0,862-0,868V.
Maximal nehme ich 2950 U/min für 1,01V.

Die Benchmarks in den Reviews sind vollkommen von der PRAXIS weg, weil der HBM@Stock bremst.
Da sollte man auf jeden Fall in den Foren schauen.
Bei MEA kann übrigens JEDER selbst testen mit HALF 16 on/off. Das geht auch mit einem normalen Moni.
Da können die Pascals schauen wie HDR ohne Kompression abgeht. Bei Vega quasi kostenlos.
 
Zuletzt bearbeitet:
Ich habe mich ein wenig mit den HDR-Standards der Vesa beschäftt und glaube ich weiß nun, warum AMD besser abschneidet: "AMD schummelt, indem sie HDR nur in niederen HDR-Klassen darstellen. Sie benötigen daher weniger Rechenaufwand und entsprechend bricht die Leistung der Radeons weniger ein."

Gewagte These, die mir sicher böse angerechnet wird. Bevor ihr aber die Mistgabeln herausholt, lest den Rest. Hier sind einige interessante Punkte enthalten.

Zuallererst sollte man Freesync, Freesync 2 und Freesync 2 HDR und G-Sync HDR vergleichen.

Freesync
Unter 350 cd/m², keine/kaum HDR-Fähigkeiten
> kein HDR (!) oder schlicht Markenschwindel falls damit beworben

... geht an Duskstalker mit seiner 500€ HDR Liste!!!!! Das sind alles SDR-Monitore, die die unterste HDR spezifikation nicht geschafft haben. Das ist wie der alte "HD-ready" Schwindel.)

Freesync2
maximal 400 cd/m², etwa 10 Blendenstufen
-> entspricht DisplayHDR-400 laut Vesa

Freesync 2 HDR
maximal 600 cd/m², etwa 12,5 Blendenstufen
-> entspricht DisplayHDR-600 laut Vesa

G-Sync HDR
maximal 1000 cd/m², etwa 14,5 Blendenstufen
-> entspricht Display HDR-1000 / HDR 10

(Die Blendenstufe ist u.a. die Veränderung der Tiefenschärfe/Dimmung/Tiefenkontrast. Würde leider einen längeren Exkurs in Optik und HDR-Aufnahmetechnik benötigen). Kurz gesagt, es ist nicht eine Summe, sondern im Quadrat gerechnet werden. Die Lichstärke verdoppelt sich bei jeder zusätzlichen Blendenstufe (!). Das ist vergleichbar mit Lautstärkeerhöhung in Dezibel.

AMD hat kürzlich die Spezifikationen für Freesync2HDR überarbeitet, weil sie Probleme mit der Qualitätskontrolle haben. Die Freesync2-Monitore
Der „HDR-Teil“ von FS2 HDR liegt offenbar zwischen 400 und 600 Nits
(Nits sind cd/m² -> Candela pro Quadratmeter, siehe Begriff Leuchtdichte)

Nachzulesen im Artikel von Wolfgang: "Freesync 2 Voraussetzungen" (28.6.2018 )
https://www.computerbase.de/news/monitore/freesync-2-hdr-specs.64087/

Da der Monitor ein 27" G-Sync HDR Monitor ist, macht die Sache schwierig. Laut Asus unterstützt der benutzte Asus PG27UQ die Vesa DisplayHDR-1000 Spezifikation. Wenn Nvidia aber bis zu hochgeht und AMD sich irgendwo bei 400-600er Spezifikation wie bei Freesync 2 HDR bewegt, berechnen beide Seiten nicht dasselbe.

Soweit bekannt steigen die Anforderungen für HDR extrem mit der Spezifkation Zeit. Hier könnte es bereits einige Unterschiede in der internen Berechnung geben.

Bevor die AMD-Freunde sich zu früh freuen, sollte erst einmal geklärt werden, welche HDR-Stufe AMD tatsächlich benutzt. Es braucht deweiteren auch längere Tests bezüglich Bildqualität und Reaktionszeit, die in diesem ursprünglich geplanten Kurzzeittest fehlen. Das geht jedoch sehr stark in die Richtung Video / HiFi Test. Dafür benötigt man mitunter spezielles Equipment. Es kann daher sehr aufwändig werden! Ich kreide das Computerbase hier nicht an, man sollte jedoch in Zukunft darauf achten.
 
@Hardware_Hoshi
Das es eine genaue Betrachtung der Bildqualität geben muss habe ich ja auch schon geschrieben.

Da CB schreibt "Die Bildwiederholfrequenz ist auf 120 Hertz gesetzt, G-Sync ist auf einer Nvidia-Grafikkarte für eine bessere Vergleichbarkeit abgeschaltet. In SDR-Spielen nutzt der Monitor den RGB-Farbraum bei 8 Bit, in HDR YCbCr mit einer Farbunterabtastung von 4:2:2 bei 10 Bit. Die AMD- und die Nvidia-Grafikkarte wurden entsprechend im Treiber konfiguriert. "

Gehe ich davon aus, dass sie durchaus auf die Farbräume geachtet haben. Die maximale Helligkeit müsste man ja eigentlich mit einem einfachen Kalorimeter abschätzen können.

Da die Ergebnise so schon seit 2016 bekannt sind, gehe ich davon aus, dass alles seine Richtigkeit hat.
Wenn AMD betrügen würde, dann hätte Nvidia das schon öffentlich angeprangert.....die habe auf jeden Fall die Mittel sowas zu überprüfen.
 
  • Gefällt mir
Reaktionen: Mcr-King und Hurricane271
Dass kommt immer auf den Monitor und den HDMI oder DP Standard an denn eine GPU die 1000 kann aber nur an einem 400 Monitor oder DP 1,4 oder HDMI 2,1 limitiert schon die GPU.

Ich denke sehr stark dass es die Komprimierung ist den GTX1060 3/6 sind noch schlimmer betroffen.
 
Baal Netbeck schrieb:
@Hardware_Hoshi
Das es eine genaue Betrachtung der Bildqualität geben muss habe ich ja auch schon geschrieben.

Tut mir leid, ich hatte nicht die ganzen 12 Seiten Grütze durchgelesen. Eventuell war dein Beitrag einer der besseren Kommentaren, aber ich tue mir diese seitenlange Qual nicht an. Ich hoffe du verstehst das ;)

Baal Netbeck schrieb:
Da CB schreibt "Die Bildwiederholfrequenz ist auf 120 Hertz gesetzt, G-Sync ist auf einer Nvidia-Grafikkarte für eine bessere Vergleichbarkeit abgeschaltet. In SDR-Spielen nutzt der Monitor den RGB-Farbraum bei 8 Bit, in HDR YCbCr mit einer Farbunterabtastung von 4:2:2 bei 10 Bit. Die AMD- und die Nvidia-Grafikkarte wurden entsprechend im Treiber konfiguriert. "

Das sind alles nur oberflächliche Einstellungen. Soweit ich sehe gibt es keine Kontrolle ob diese Settings technisch auch wirklich anliegen. Dafür bräuchte man wohl Tools und diverse Kontrollmechanismen. Sicherlich sind diese ein Anfang.

Baal Netbeck schrieb:
Gehe ich davon aus, dass sie durchaus auf die Farbräume geachtet haben. Die maximale Helligkeit müsste man ja eigentlich mit einem einfachen Kalorimeter abschätzen können.

Die maximale Helligkeit muss nur kurz anliegen. Geht es nicht mehr um die durchschnittlichen Helligkeit, der anliegen und gehalten werden muss? Ich bin nicht sicher was ein Kalorimeter ist. Kenne nur die HiFi / Video Tests anderer Seiten und Zeitschriften.

Da wird unter anderem mit Superzeitlupe und diversen optischen Instrumenten zur messung gearbeiter. Gerade bei Übergängen von Lichtverhältnissen und Dimmverfahren braucht man Messgenauigkeit, keine Schätzwerte. Die Unterschiede könnten auch beispielsweie im Reaktionsverhalten vorkommen. Das würde weniger an der Fähigkeit des Monitors liegen, sondern eher an der unterliegenden Software. Man wäre überrascht wieviel bei HDR unter der Haube arbeitet. Das geht weit über "besser vs schlechter" hinaus.

Baal Netbeck schrieb:
Da die Ergebnise so schon seit 2016 bekannt sind, gehe ich davon aus, dass alles seine Richtigkeit hat.

Du kannst dir die Historie gerne noch einmal anschauen. Nvidia war damals der erste und einzige Hersteller, bei dem HDR unter Windows 10 funktionerte. Der Zeitraum dürfte auch um die 2016 gewesen sein. AMD war mit Vega ein Jahr später auf dem Markt als die 1080. In dieser Zeit hat sich viel geändert. Die Vesa selbst hat die HDR-Spezifikationen relativ spät verabschiedet.

Nvidia konnte diese zum Releasezeitpuntk von Pascal noch nicht wissen und hat wohl Schätzwerte genutzt. AMD hingegen hat stärker auf die Vesa eingewirkt, weil Freesync hauptsächlich fremdbestimmt über Gremien ist.

Die Richtigkeit der Ergebnisse ist bis heute nicht erfolgt. Zumindest kann mir niemand erklären wie sie zustande kommen. Das schreibt auch Computerbase im Fazit. Zum einen müssen wir die Technik und ihre Rahmenbedingungen besser verstehen und zum anderen ist HDR nach wie vor noch eine "Early Adopter" Technik. Es gelten andere Bedingungen bewegter HDR-Fotografie für TV und PC produktion.

Baal Netbeck schrieb:
Wenn AMD betrügen würde, dann hätte Nvidia das schon öffentlich angeprangert.....die habe auf jeden Fall die Mittel sowas zu überprüfen.

Betrügen war ganz klar eine Übertreibung von mir um auf den eigentlichen Kernpuntk aufmerksam zu machen. Ich meinte auch nicht, AMD würde das absichtlich machen wie damals der AF-Filtebetrug in der HD6000er Reihe. Wenn jedoch AMD und Nvidia in unterschiedlichen Spezifikationen und damit Qualitätsstufen HDR berechnen und darstellen, dann ist das kein fairer vergleich mehr.

Das sollte man zumindest berücksichtigen! Erst bei einem hundertprozentigem 1:1 Vergleich kann man von Unterschieden in der Performance reden. Ansonsten wäre das unfair!
 
Hardware_Hoshi schrieb:
Du kannst dir die Historie gerne noch einmal anschauen. Nvidia war damals der erste und einzige Hersteller, bei dem HDR unter Windows 10 funktionerte.
Ich bezog mich auf diesen Test von Ende 2016:
https://www.gamestar.de/artikel/was...dr-auf-dem-pc-ausprobiert,3271227,seite2.html
Da wurde unter WIndows 10 mit der RX480 und der GTX1060 zwei Karten getestet.
Die Technik war noch neu, und der genutzte Fernseher solala, außerdem wurde nur ein Spiel (Shadow Warrior 2 ) getestet.
Aber die Unterschiede sind die gleichen wie jetzt hier bei CB.
AMD verliert praktisch nichts und Nvidia verliert deutlich.
Und im Gamestar Test wird für AMD noch die bessere HDR-Bildqualität gelobt.

Das sich seit dem an der Performance nichts geändert hat, spricht dafür, dass Nvidia hier ganz legitim mehr Leistung verliert als AMD.

Mir ist klar, dass das alles nur Indizien sind und das von mehreren Quellen mit hochwertiger Ausrüstung getestet werden muss.
Aber bis Nvidia das Gegenteil beweist muss man es erstmal so annehmen.
Computerbase sagt ja, das sie Nvidia disbezüglich angeschrieben haben. Wenn Nvidia die Ergebnisse für fehlerhaft hält, hätten sie sich gemeldet....

Mit Kalorimeter meinte ich sowas wie ein spyder 5 pro oder so, das Helligkeit und Farben misst.
Damit kann man natürlich nur Standbilder testen aber dafür recht genau.

Für Reaktionszeiten usw im Betrieb braucht es Ausrüstung eines anderen Kalibers^^
 
Genau habe auch schon gehört das die Qualität in HDR bei AMD besser ist tja Vesa Standards sind manchmal besser.

Ach genau NV unterstützt ja keine Vesa Standards nicht mal bei SDR.
 
Baal Netbeck schrieb:
Ich bezog mich auf diesen Test von Ende 2016:
https://www.gamestar.de/artikel/was...dr-auf-dem-pc-ausprobiert,3271227,seite2.html
Da wurde unter WIndows 10 mit der RX480 und der GTX1060 zwei Karten getestet.
Die Technik war noch neu, und der genutzte Fernseher solala, außerdem wurde nur ein Spiel (Shadow Warrior 2 ) getestet.
Aber die Unterschiede sind die gleichen wie jetzt hier bei CB.
AMD verliert praktisch nichts und Nvidia verliert deutlich.
Und im Gamestar Test wird für AMD noch die bessere HDR-Bildqualität gelobt.

Der Test wird überall herumgereicht, ist mir also bekannt. Mir ist damit aber immer noch nicht klar, welche HDR stufe damals wie heute verwendet wird. Das mit Karte X gegen Y ist mir zu allgemein. Ohne konkrete Informationen ist das alles nicht wert.

Das Problem liegt meiner Meinung in der unterschiedlichen Implementierungen der Hersteller. Es fällt gerade hier besonder auf wie viel mehr manche Games einbrechen als andere. Ich habe zwar eine Theorie, werde aber erst den Rest deines Kommentars bewantworten.

Baal Netbeck schrieb:
Das sich seit dem an der Performance nichts geändert hat, spricht dafür, dass Nvidia hier ganz legitim mehr Leistung verliert als AMD.

Nein, es könnte genau so gut sein, dass Nvidia eine erste Implementierung entwicklet hat und diese die ganze Zeit unverändert ließ bis klar ist in welche Richtung sich HDR entwickelt. Das Chaos bei den Vesa-HDR Standards spricht doch Bände. Nvidia ist gleich hingegangen und hat wohl die 1000 cd/m² als guten Mittelschritt gesehen, was den Schritt zu G-Sync HDR erklären würde. Langfristig will man wohl eher die 10.000 cd/m² anpeilen wie bei Dolby Vision.

Baal Netbeck schrieb:
Mir ist klar, dass das alles nur Indizien sind und das von mehreren Quellen mit hochwertiger Ausrüstung getestet werden muss.
Aber bis Nvidia das Gegenteil beweist muss man es erstmal so annehmen.
Computerbase sagt ja, das sie Nvidia disbezüglich angeschrieben haben. Wenn Nvidia die Ergebnisse für fehlerhaft hält, hätten sie sich gemeldet....

Hier kommt meine Theorie:
-Ich sage Nvidia berechnet 100% genau und as ist ihr Problem bei diesem Leistungsverlust!

Erklärung:
-Die Ingenieure bei Nvidia kommen oft aus den optischen Wissenschaften. Meiner Meinung nach haben diese die bestehenden Erkenntnisse aus Standbild-HDR Aufnahme und haben eine Version für die bewegten HDR-Darstellung entwickelt.

Dabei nehmen sie wie bei ihren Quadros/Teslas einen Anspruch auf möglichst 100% genaue Berechnung. Nvidia geht dann hin und berechnet im HDR-Modus bei jedem Frame jedes Pixil mit den was-was-ich Billionen Farbmöglichkeiten die Helligkeits- und Dimmwertemöglichkeiten jedesmal Punktgenau durch. Das kostet massivst Rechenleistung, ähnlich wie bei machen Postprocessing-Verfahren.

AMD ist besser weil sie meiner Meinung nach die Werte ungeprüft von den Entwicklern übernehmen und an den Monitor übertragen. Es folgt keine Kontrolle wie bei Freesync und das Ergebnis ist dann der Gnade der Spieleentwickler ausgeliefert.

Das ist genau der Unterschied in der Mentalität bei Freesync vs G-Sync. Während AMD die Werte ungeprüft mit Freesync an den Monitor gibt, während Nvdiia ein extra Modul einbaut um die Gegenseite zu prüfen. KOmmt auch wirklich an was wir von der Grafikkarte ausgeben ... natürlich gepaart mit VRR. Bei HDR dürfte Nvidia ähnliche Ansichten haben.

Wenn dann zB. Computerbase anfragt:
"Nvidia, warum berechnet ihr HDR so ungenau und die Leistung bricht ein..."

Nvidia prüft und antwortet:
"Wir haben das geprüft und es gibt keine Fehler. Alles ist so (nahe an 100%) als gedacht und möglich."

Beide Seiten kratzen sich am Kopf und wundern sich was der andere überhaupt will. Des Rätzels Lösung liegt wohl in der Wissenschafftlichen herangehensweise und antwort von Nvidia.

Baal Netbeck schrieb:
Mit Kalorimeter meinte ich sowas wie ein spyder 5 pro oder so, das Helligkeit und Farben misst.
Damit kann man natürlich nur Standbilder testen aber dafür recht genau.

Die Problematik ist hierbei die "local dimming" vs "global dimming" Funktionalität. Die Gamestar testete wie bei PC-Spielen und hat sich Einzelbreiche herausgepickt und meint dann das für die gesamte Bildqualität von AMD und Nvidai verallgemeinern zu können wie früher üblich.

In Wirklichkeit müsste ein Tester hingehen und die jeden Frame mit deiner sypder 5 pro & co messen. Am besten in SuperZeitlupe. Wird kein Tester machen, da in Spieleredaktionen dafür oft sowohl das nötige HIntergrundwissen als auch die Ausrüstugg fehlt. Entweder geht es da nach fixen werten wie FPS oder man mach den Augentest. "Was sieht besser aus?"

Leider ist HDR künstlich und keine feste Größe. Letztendlich hängt es dann vom eigenen Geschmack oder der Vision der Spieleentwickler ab. Wie gut haben letztere gearbeitet, wäre z.B. ein wichtiger Punkt. Manche Szenen werden in HDR wesentlich besser aussehen und andere Szenarios schrecken eher ab. Die Diskussion SDR gegen HDR ist gerade brandheiß!

Baal Netbeck schrieb:
Für Reaktionszeiten usw im Betrieb braucht es Ausrüstung eines anderen Kalibers^^

Richtig!
Sollte das der Teststandard werden, wird es wohl mehr Kooperationen zwischen PC und HiFi/Video Redaktionen geben. Das gibt dann "Gemeinschaftspraxisen" wie bei den Ärzten mit teuren Anschaffungen.
 
Was wäre denn wenn nvidia intern bei SDR nicht 100% berechnet,das wurde ja auch schon vermutet... Weil die Qualität war "damals" ja bei AMD etwas besser (HDR @ shadow Warrior)

Da es über den gleichen Monitor geht sollte es ja aufgefallen sein wenn es Unterschiede im HDR gab...
 
Jungejunge Hardware_Hoshi, das sind ja die wildesten Theorien. Passt nur nicht, da selbst die ersten PS4 Versionen HDR nach HDR10-Standard unterstützen und daher die AMD-Chips seit 2013 auf 4000 nits rechnen können. Stockholm-Syndrom? "Nvidia kann da nicht gepfuscht haben, neinnein, die rechnen nur viel genauer, deswegen sind die langsamer und AMD taugt natürlich nix, die Betrüger"
 
  • Gefällt mir
Reaktionen: Dittsche
Hardware_Hoshi schrieb:
Hier kommt meine Theorie:
-Ich sage Nvidia berechnet 100% genau und as ist ihr Problem bei diesem Leistungsverlust!
Warum sah es dann schlechter aus als bei AMD?
100% genau sollte keine Farbsäume bei sanften Farbübergängen zeigen.
Das ist eigentlich ein Zeichen von gröberen Farbabstufungen.

Und ob das G-sync Modul irgend einen sinnvollen Vorteil bietet, ist auch nicht wirklich geklärt.


Aber all das ist müßig zu diskutieren.
Ich hoffe da auf Tests von Prad oder Gamers Nexxus.
Prad hat langjährige Monitor Erfahrung...weiß aber nicht wie aktiv die noch sind.

Und Gamers Nexxus hat den Anspruch eigenen Testmethoden zu finden.
Sie haben ja auch eine Möglichkeit gefunden VR ordentlich zu testen.
 
pilzsammler2002 schrieb:
Was wäre denn wenn nvidia intern bei SDR nicht 100% berechnet,das wurde ja auch schon vermutet... Weil die Qualität war "damals" ja bei AMD etwas besser (HDR @ shadow Warrior)

Die besseere Bildqualität war fehlgedeutet von Gamestar.
In PC-Gaming suchen wir nach Ecken und Unschärfe für schlechtere Bildqualität. Zur Behebung benutzen wir ja techniken wie Antialiasing und Postprocesseing. Motto: "Je glatter, schärfer und genauer, umso besser!"

Bei HDR geht es jedoch primär um Optik und Verhältnisse von Licht und Schatten.

Mach den selbstversuch:
-schließ bei Tagesverhältnissen deine Augen halb. Deine Sicht wird unterschiedliche Anomalien aufweisen. Unschärfe, Verformung der Objekte in Sichtweise und teilweise Lichtstreifen, Farbverzerrung etc etc.. Im Grunde alles Effekte, die durch Krümmung des Lichts passieren und natürlich den Winkel deiner Augen zur Lichtquelle.

Bei HDR müsste eigentlich je nach Szene dasselbe passieren. Vor allem vor einer großen Lichtquelle wie der Turm in der Ferne vor einem Horizont.

Würden diese richtig angewendet, hätte man eine Bildqualität wie bei Nvidia, in der Objekte durch die Lichtverhältnisse beeinflusst werden. Das sehe dann aber so aus wie das was wir als Unschärfe oder "schlechtere Bildqualität" in PC beschreiben würden.

AMD berechnet diese nicht optisch richtig und bevorzugt stattdessen die alte Variante mit künstlicher Schärfung/Glättung von Objekten - Vorzugsweise im Hintergrund. Das bringt ihnen zwar Performancevorteile, ist jedoch problematisch. Spätestens bei Fotorealisischen Spielen wird ihnen das auf den Kopf fallen.

pilzsammler2002 schrieb:
Da es über den gleichen Monitor geht sollte es ja aufgefallen sein wenn es Unterschiede im HDR gab...

Nicht, wenn es exakt der selbe war. Im Testsetup steht nichts von Seite-an-Seite vergleich. Es standen also keine zwei gleichen Monitore nebeneinander für einene direkten Vergleich. Außerdem haben wir bereits gesagt zur genauen Messung bräuchte man entsprechende Geräte.


FreezyX schrieb:
Jungejunge Hardware_Hoshi, das sind ja die wildesten Theorien. Passt nur nicht, da selbst die ersten PS4 Versionen HDR nach HDR10-Standard unterstützen und daher die AMD-Chips seit 2013 auf 4000 nits rechnen können. Stockholm-Syndrom? "Nvidia kann da nicht gepfuscht haben, neinnein, die rechnen nur viel genauer, deswegen sind die langsamer und AMD taugt natürlich nix, die Betrüger"

Die PS4 kommt in vielen Spielen ab 1080p kaum über 30 FPS und deine Chips von 2013, also eine R9-290X kommt in 4k kaum über die Startlinie. Von modernem HDR können die nur Träumen. Dazu kann die PS4 kein HDR-10 können, weil sie dafür HDMI 2.0b bräuchte(!). Die Murkserei mit dem Firmwareupdate kannst du dir sparen. Die Playstation-community ist im heiden chaos darüber ausgebrochen. Die PS4 Pro hingegen kann HDR-10. Sie ist ja auch neuer, überträgt aber nur hochskaliertes 4k-Material. Das ist nicht vergleichbar mit einem PC in nativer 4k-Auflösung.

Warum sollte AMD mehr "berechnen" als 400-600 Nits, wenn die Freesync 2 HDR monitore nicht mehr können? Der Unterschied zwischen den Spezifikationen Vesa DisplayHDR-400, DisplayHDR-600 und DisplayHDR1000 ist dir bekannt? Ich hatte außerdem nach echten Beweisen gefragt, was AMD genau im HDR-Test intern benutzt.

Stockholm würde ich eher dem AMD-Lager unterstellen. Wenn es nach der Optik als Wissenschaft ginge, sollte man zumindest darüber reden.
 
@Hardware_Hoshi
Wissenschaftlich testen...da bin ich bei dir.

Aber dann solltest du dich auch selbst zumindest ansatzweise daran halten.
Alles was du als Argumente anführst, sind reine Spekulationen aufgrund deiner eigenen Überlegungen.
Das würde man Wissenschaftlich als vorläufige Hypothese bezeichnen.
Selbst für eine Theorie reicht es nicht, weil man die zumindest mit irgendwelchen Ansatzpunkten stützen sollte.
Die bekannten Ansatzpunkte sprechen aber alle gegen deine Spekulation.

-amd und Nvidia sagen, das eigentlich schon bei SDR mit zu hoher Genauigkeit gerechnet wird und es keine Leistungsverluste geben sollte.

-damit im Einklang sind die Leistungsdaten von AMD.
Nvidia verliert mehr, was erstmal komisch ist und eher die Hypothese stützt, dass Nvidia bei SDR eben nicht "zu genau" rechnet und dann bei HDR nicht mehr damit durchkommt.

Du meinst das die Qualität anhand der Farben beurteilt werden sollte. Aber genau das ist doch bei Gamestar versucht worden.

Ein Himmels Bereich, ist ein Beispiel für einen theoretisch kontinuierlichen Farbübergang.

-Wenn sich hier farbsäume zeigen, dann deutet das auf einen kleineren Farbraum oder eine grobstufige und damit ungenaue farbberechnung hin.
Beides spricht nicht für Nvidia.

Welcher Farbton genau gezeigt wird ist erstmal egal, denn das wird vom Spiel festgelegt und hat nichts mit Qualität zu tun.

Ob AMD hier intern ebenfalls grob rechnet und dann nachträglich die Übergänge glättet ist nicht ersichtlich. Sollte es so sein, wendet AMD immerhin Rechenzeit auf um die Übergänge zu kaschieren.
Das sollte eher Leistung kosten als wie bei Nvidia einfach gröbere Abstufungen an den Monitor zu senden.
Spricht also auch gegen deine Theorie weil dann AMD mehr verlieren würde.


Das Nvidia irgendwie noch die HDR Umsetzung der Spieleentwickler aufwendig verbessert ist auch reine Spekulation.
Wenn sie das tun und es sieht gleich oder sogar schlechter aus, dann ist das kein Grund Nvidia dafür zu preisen.....dann wäre das einfach nur eine Fehlentscheidung.

Es wurde der selbe Monitor genutzt und das ist auch richtig. So schließt man aus, das unterschiedliche Panel Qualitäten die Ergebnisse verfälschen.

Zwei Monitore, die man dann hin und her wechselt waren natürlich auch cool.....aber einen Nachteil sehe ich mit einem Monitor nicht.
Denn ob die Farben von AMD zu Nvidia leicht anders ausfallen ist erstmal kein Qualitätskriterium. Solange nicht ein Kandidat völlig falsch liegt, ist ja nicht ersichtlich was "richtiger" ist. Es ist nicht möglich zu sagen was der Spielentwickler für eine Farbe sehen wollte. Leute wählen im Vergleich gerne die kräftigeren Farben, aber wer sagt denn das der Entwickler nicht die blasseren Farben im Sinn hatte?

Die Umsetzung von G- sync hdr und freesync 2 usw. sind erstmal egal.
Sie stellen andere Anforderungen an die Monitore, aber irgendwie muss Nvidia ja auch den G-sync Aufpreis rechtfertigen. Da sollte trotzdem bei gleich gewähltem Farbraum eine entsprechende Qualität an den Monitor gesendet werden.
Die Helligkeit für verschiedene Monitore unterschiedlich hoch zu skalieren kann für mich keine Leistungsunterschiede erklären. Welche Zahl da im Exponenten steht ist für die Rechenzeit doch völlig egal.
Was nicht egal ist, ist die Reaktionszeit bei dynamischen Szenen. Da habe ich aber auch keine Tests zu gesehen die hier gpu spezifische Probleme aufzeigen. Da mag ich mich aber irren.

Am Ende stehen praktisch alle Indizien gegen Nvidia oder sind völlig unklar.
Das reicht also nicht um irgendwie eine seriöse Theorie aufzustellen.....wir sind also wieder am Anfang ......und müssen auf weitere Tests warten.
 
  • Gefällt mir
Reaktionen: cbmik, Ludwig55, frkazid und 2 andere
@Hardware_Hoshi

Ist ja OK das du das mit den leuchtstärken unterschieden bei den DISPLAYS gefunden hast und feststellst dass hier das G-Sync Modul die höchste Leuchtstärke hat....

Aber WAS GENAU soll das mit der Farbgenauigkeit bzw. Farbtiefe zu tun haben die die GPU berechnet und an das Display "ausgibt"....

Denn genau DIESER Punkt ist es ja der die Leistung frisst, so es denn hier irgendwie zu Verlusten an Leistung kommt.

Die Leuchtstärke des Displays kommt erst in der "nächsten" Stufe...das von der GPU gelieferte Bild soll dargestellt werden. EDIT: Auch hier kann es zu unterschieden kommen, eben je nach Display. Hier im Test wurde aber für beide GPUs dasselbe Display verwendet mit demselben "Anschluss". /EDIT.

=> Treten Hier BQ-Unterschiede bei ein und demselben Display auf, muss es wohl in der Vorkette zu unterschieden gekommen sein und nicht erst durch das Display ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ludwig55, r4yn3, Dittsche und eine weitere Person
Iscaran schrieb:
@Hardware_Hoshi

Ist ja OK das du das mit den leuchtstärken unterschieden bei den DISPLAYS gefunden hast und feststellst dass hier das G-Sync Modul die höchste Leuchtstärke hat....

Es geht nicht um die Leuchtstärke allein, sondern der Aufwand der dahinter steckt. Alleine dass AMD kaum die Vesa DisplayHDR-400 erfüllt und bei Freesync 2 HDR sogar zwischen 400-600 Nits pendelt ist wichtig. Diese Spezifikationen sind nicht umsonst unterschiedlich benannt. Sie enthalten komplett andere Anforderungen. Deshalb gibt es dies Abstufungen ja. Wenn AMD FS2 HDR gerade einmal die untersten beiden HDR-Stufen nutzt und Nvidia in der "bisher" höchsten DisplayHDR-1000.

Hier wäre doch zumindest eine Klärung fällig. Das alleine könnte bereits einen Folgetest auf sich ziehen.

Iscaran schrieb:
Aber WAS GENAU soll das mit der Farbgenauigkeit bzw. Farbtiefe zu tun haben die die GPU berechnet und an das Display "ausgibt"....

Denn genau DIESER Punkt ist es ja der die Leistung frisst, so es denn hier irgendwie zu Verlusten an Leistung kommt.

Nun, wir reden hier von millionen Farben, die moderne Bildschirme darstellen können. Je höher die Farbtief, desto höher die Anzahl der Farben und auch der Datenmenge über die Kabel. Manche HDR-Standards haben 6-bit, ander 8 oder 10-bit. Es ist also eine Einflussgröße!

Mit HDR hast du die Abstufung der Farben in ganz hell bis ganz dunkel. Da Objekte jedoch eine Grundfarbe haben, ändert sich die Farbe selbst. Ist sie blass oder ehr kräftig. Das macht nicht nur der Bildschirm, sondern die Grafikkarte machte neben ihren Berechnungen auch Abfragen in welchem Zustand die Pixel sich gerade befinden.

Nehmen wir an die Abfrage erfolge in x-Millisekunden. Würde jetzt eine der beiden GPU-Hersteller z.B. die Abfrage in kürzeren Intervallen machen, bräuchte sich auch entsprechend mehr Leistung. Solche "Kleinigkeiten" könnten den Verlust an Leistung erklären. Man verliert nicht Leistung, sondern erfüllt zusätzliche Aufgaben oder Rechenschritte.

Eine solche Begründung findet man im Test allerdings nicht. Mehr als eine Untersuchung der unterliegenden Technik habe ich nicht gefordert.

Iscaran schrieb:
Die Leuchtstärke des Displays kommt erst in der "nächsten" Stufe...das von der GPU gelieferte Bild soll dargestellt werden.

Das wäre jetzt eher eine Frage der Implementierung. Es muss nicht so sein. Bevor der Monitor irgendwelche Bilder darstellt, müssen diese bereits berechnet sein - inklusive Helligkeit.

Die Frage wäre wie werden diese ver- und berechnet.

Iscaran schrieb:
Auch hier kann es zu unterschieden kommen, eben je nach Display. Hier im Test wurde aber für beide GPUs dasselbe Display verwendet mit demselben "Anschluss". /EDIT.

=> Treten Hier BQ-Unterschiede bei ein und demselben Display auf, muss es wohl in der Vorkette zu unterschieden gekommen sein und nicht erst durch das Display ?

Natürlich muss der Bildschirm alles technisch unterstützen. Trotzdem gib es Einflussfaktoren wie:

1.) Bildschirm 100% kompatibel mit:
a.) AMD
b.) Nvidia

2.) Einfluss der jeweiligen Treiber/Einstellungen/Software?

3.) Welche Vesa-Standards werden genutzt?
HDR =/= HDR

4.) Einfluss des Spielecodes oder der Implementierung?
-Wie? Wo? Weshalb?

Das würdest du alles selbst mit ein und demselben Monitor nicht wissen. Deshalb ist es auch kein garant.
 
@Hardware_Hoshi
Du redest schlau daher, aber es bleibt doch bei selbst ausgedachten Vermutungen deinerseits.

Dann kann ich ja auch mit Vermutungen antworten.......für Belege bin ich heute zu faul.
Hardware_Hoshi schrieb:
Diese Spezifikationen sind nicht umsonst unterschiedlich benannt. Sie enthalten komplett andere Anforderungen.
Ja...Anforderungen an die Monitore. Nicht die Grafikkarte, denn was soll die anderes machen als bei allen HDR für den angeschlossenen Monitor berechnen.
Beide Tests über die wir hier sprechen zeigen im gleichen Spiel mit verschiedenen Grafikkarten aus beiden Lagern das gleiche Verhalten. Einmal bei einem schlechten HDR TV und einmal bei einem teuren neuen Modell.

Hardware_Hoshi schrieb:
sondern die Grafikkarte machte neben ihren Berechnungen auch Abfragen in welchem Zustand die Pixel sich gerade befinden
Das halte ich für völlig abwegig! Pixel haben keine Sensoren die Auslesen, in welchem Zustand sie sind!
Ist auch völlig sinnlos, denn sowohl der Monitor als auch die Grafikkarte können ja einfach ein Backup der letzten dargestellten Bilddateien im Speicher haben. Das sollte ja inzwischen umgesetzt worden sein oder zumindest auf "in Progress".
Ohne gigantische Datenmengen auszulesen oder hin und her zu schicken, liegen die Daten einfach als vorheriger gerenderter Frame vor.

Hardware_Hoshi schrieb:
Die Frage wäre wie werden diese ver- und berechnet
Offensichtlich im Fall des Gamestar Tests bei Nvidia schlechter.
Hardware_Hoshi schrieb:
Trotzdem gib es Einflussfaktoren wie:
zu 1: Der G-sync Monitor soll also nicht mit Nvidia 100% kompatibel sein aber mit AMD schon?
zu 2 Natürlich habe Treiber und Software einen Einfluss. Aber Nvidia hat doch immer diese genialen Treiber, die nicht erst wie feiner Wein reifen müssen......
zu 3: Bei gleichem Monitor werden wohl die gleichen Standards genutzt, sonst würde es nicht funktionieren.
Und wenn Nvidia noch einen "geheimen" Betriebsweg hat, der irgendwie schlechter funktioniert, warum sollten sie ihn dann nutzen?
zu 4: Natürlich spielt die Implementierung im Spiel eine Rolle. Aber CB hat ja mehrere Titel getestet und in mehreren Hat Nvidia deutliche Probleme. Und das auch in Gameworks Titeln wie "Mittelerde: Schatten des Krieges".
 
  • Gefällt mir
Reaktionen: cbmik und Hurricane271
Zurück
Oben