@
Hardware_Hoshi
Wissenschaftlich testen...da bin ich bei dir.
Aber dann solltest du dich auch selbst zumindest ansatzweise daran halten.
Alles was du als Argumente anführst, sind reine Spekulationen aufgrund deiner eigenen Überlegungen.
Das würde man Wissenschaftlich als vorläufige Hypothese bezeichnen.
Selbst für eine Theorie reicht es nicht, weil man die zumindest mit irgendwelchen Ansatzpunkten stützen sollte.
Die bekannten Ansatzpunkte sprechen aber alle gegen deine Spekulation.
-amd und Nvidia sagen, das eigentlich schon bei SDR mit zu hoher Genauigkeit gerechnet wird und es keine Leistungsverluste geben sollte.
-damit im Einklang sind die Leistungsdaten von AMD.
Nvidia verliert mehr, was erstmal komisch ist und eher die Hypothese stützt, dass Nvidia bei SDR eben nicht "zu genau" rechnet und dann bei HDR nicht mehr damit durchkommt.
Du meinst das die Qualität anhand der Farben beurteilt werden sollte. Aber genau das ist doch bei Gamestar versucht worden.
Ein Himmels Bereich, ist ein Beispiel für einen theoretisch kontinuierlichen Farbübergang.
-Wenn sich hier farbsäume zeigen, dann deutet das auf einen kleineren Farbraum oder eine grobstufige und damit ungenaue farbberechnung hin.
Beides spricht nicht für Nvidia.
Welcher Farbton genau gezeigt wird ist erstmal egal, denn das wird vom Spiel festgelegt und hat nichts mit Qualität zu tun.
Ob AMD hier intern ebenfalls grob rechnet und dann nachträglich die Übergänge glättet ist nicht ersichtlich. Sollte es so sein, wendet AMD immerhin Rechenzeit auf um die Übergänge zu kaschieren.
Das sollte eher Leistung kosten als wie bei Nvidia einfach gröbere Abstufungen an den Monitor zu senden.
Spricht also auch gegen deine Theorie weil dann AMD mehr verlieren würde.
Das Nvidia irgendwie noch die HDR Umsetzung der Spieleentwickler aufwendig verbessert ist auch reine Spekulation.
Wenn sie das tun und es sieht gleich oder sogar schlechter aus, dann ist das kein Grund Nvidia dafür zu preisen.....dann wäre das einfach nur eine Fehlentscheidung.
Es wurde der selbe Monitor genutzt und das ist auch richtig. So schließt man aus, das unterschiedliche Panel Qualitäten die Ergebnisse verfälschen.
Zwei Monitore, die man dann hin und her wechselt waren natürlich auch cool.....aber einen Nachteil sehe ich mit einem Monitor nicht.
Denn ob die Farben von AMD zu Nvidia leicht anders ausfallen ist erstmal kein Qualitätskriterium. Solange nicht ein Kandidat völlig falsch liegt, ist ja nicht ersichtlich was "richtiger" ist. Es ist nicht möglich zu sagen was der Spielentwickler für eine Farbe sehen wollte. Leute wählen im Vergleich gerne die kräftigeren Farben, aber wer sagt denn das der Entwickler nicht die blasseren Farben im Sinn hatte?
Die Umsetzung von G- sync hdr und freesync 2 usw. sind erstmal egal.
Sie stellen andere Anforderungen an die Monitore, aber irgendwie muss Nvidia ja auch den G-sync Aufpreis rechtfertigen. Da sollte trotzdem bei gleich gewähltem Farbraum eine entsprechende Qualität an den Monitor gesendet werden.
Die Helligkeit für verschiedene Monitore unterschiedlich hoch zu skalieren kann für mich keine Leistungsunterschiede erklären. Welche Zahl da im Exponenten steht ist für die Rechenzeit doch völlig egal.
Was nicht egal ist, ist die Reaktionszeit bei dynamischen Szenen. Da habe ich aber auch keine Tests zu gesehen die hier gpu spezifische Probleme aufzeigen. Da mag ich mich aber irren.
Am Ende stehen praktisch alle Indizien gegen Nvidia oder sind völlig unklar.
Das reicht also nicht um irgendwie eine seriöse Theorie aufzustellen.....wir sind also wieder am Anfang ......und müssen auf weitere Tests warten.