gruffi schrieb:
Da auf den Folien nichts von Banding steht, erübrigt sich sich Frage. Ausserdem ist nichts von einem Bug nachgewiesen. Also stellt sich die Frage auch nicht nach einem Bugfix. Und wenn du fragst, ob ich Verbesserungen bei der Bildqualität ok finde, dann kann ich das mit ja beantworten. Wenn du fragst, ob es notwendig ist, fällt die Antwort noch subjektiver aus.
Meines Wissens nach trat das Banding so krass bei HD4000 und darunter nicht auf.
Es steht nicht das Wort Banding da, aber es ist wohl klar, was AMD mit den folgenden Worten meint:
gruffi schrieb:
Aha, du übersetzt also aggressiver mit schlechter? In welchem Wörterbuch für Synonyme ist das so definiert?
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
Entweder hat PCGH etwas falsch interpretiert oder belügt uns. Die Aussagen von Dave Baumann sind unmissverständlich.
Schau dir die Videos bei HT4U an, dann siehst du, dass sich die Treiberdefaults von der Flimmerneigung her unterscheiden. Da ich ein stärkeres Flimmern als schlechter empfinde, finde ich diese Gleichsetzung der Begriffe in diesem Fall durchaus angebracht. Das ist aber Haarspalterei und das weißt du auch.
gruffi schrieb:
Das Problem ist vielmehr, Aussenstehende können nicht zwischen technischen Fakten und subjektiven Eindrücken unterscheiden. Technisch Fakt ist das, was Dave sagt. Und das gilt bedingungslos. Wenn PCGH oder wer auch immer sagt, die Bildqualität wäre schlechter, dann ist das lediglich ein subjektiver Eindruck und nicht repräsentativ. Das kann bei jemand anderem ganz anders ausschauen.
Wie gesagt - Videos. Man sieht eine Verschlechterung. Wenn das bei dir nicht der Fall ist, naja, da kann ich auch nichts machen. Lügen CB, HT4U und PCGH alle? Hast du die Videos überhaupt angeschaut??? Wichtig ist doch nur das, was beim Nutzer ankommt. Was da unter der Haube passiert, juckt mich nicht, solange das Resultat nicht befriedigend ist.
gruffi schrieb:
Hat man nicht genau das gemacht?
Nein hat man nicht. Der jetzige HQ-Modus ist in etwa auf dem altbekannten Niveau (was das Flimmern betrifft) und nicht wirklich besser, wie verschiedene Reviews (auch CB) schreiben.
gruffi schrieb:
Falsch. Auch nVidia spart sich Rechenarbeit. Es gibt mehr als nur "Flimmern". Wenn nach deinen Aussagen High Quality bei nVidia Verbesserungen bringt und keine Performance kostet, wieso sollte das nVidia nicht zur Standardeinstellung machen? Wieso gibt es dann überhaupt qualitätssteigernde Einstellungen bei nVidia? Deine Ausführungen ergeben keinen Sinn.
Moment! Sie sparen an Bildqualität. Q ist schlechter als HQ, klar. Aber Tatsache ist doch, dass das Sparen ihnen nichts bringt und es einen optisch nahezu einwandfreien Modus gibt: HQ. Das sehe ich wie du - Q abschaffen, HQ als Treiberdefault und die Sache ist gegessen!
Wo genau ergeben meine Ausführungen keinen Sinn? Werde bitte präziser.