News BenQ SW271: UHD-Monitor mit 93% DCI-P3, USB Typ C, DP 1.4 und „HDR“

Und wenn man sich jetzt überlegt, dass der bestimmt 1000€ kostet und "nur" 93% DCI-P3 hat, wirken 4000€ für ein Surface Studio (oder auch iMac, der hatte doch auch volle Abdeckung, oder?) zwar immer noch nicht spottbillig, aber angemessen - finde ich ;)
 
jubey schrieb:
Gefragt ist hier vor allem Kontrastverhältnis. (...) Dieser enorme Unterschied zwischen hell und dunkel verlangt nach mehr Farbtiefe um Banding zu vermeiden, für nichts anderes ist 10Bit und mehr (in der Darstellung) gedacht und sinnvoll.
jubey mal wieder auf den punkt, danke! :daumen:

was du schreibst, ist mir letztens erst richtig bewusst geworden, als verschiedene monitore verglichen habe, die alle die selben naturaufnahmen zeigten: zuerst hab ich das banding beim monitor mit höherem kontrast wargenommen und dann auch bei allen anderen bemerkt.

das ding ist: ich weiß nicht, ob ich mich darüber freuen soll, denn seitdem ichs verdeutlicht gesehen habe, such ich nun direkt danach :/
 
Zuletzt bearbeitet:
PTS schrieb:
hdr ist eh nur eine randtechnik wie 3D, wird sich eh nicht durchsetzen, eher ist VR da interessanter^^

Du hast da wohl was verwechselt, VR ist nur eine Spielerei die kaum jemand effektiv nutzen kann.
HDR hat einen bedeutenden Mehrwert und das nicht nur für Leute, die mal 3000€ für ein VR-Setup über haben.
 
Meiner Meinung nach macht HDR einen wesentlich größeren Unterschied als UHD (ausgehend von FHD). Daneben kommen einen normale Filme irgendwie "platt" vor. Auf meinem neuen OLED-TV ist es eine reine Augenweide. Kontrast ist nunmal einer der wichtigsten Faktoren bei der Bildqualität.

Ich weiß natürlich nicht, ob HDR sich durchsetzen wird, aber ich hoffe es sehr. Es wäre eine echte Schande, wenn es da wieder einen Rückschritt gäbe.
 
jubey schrieb:
Die HDR-Verwirrung hier ist ja kaum auszuhalten...
Gefragt ist hier vor allem Kontrastverhältnis. Mit IPS sind momentan (und nur bei sehr teuren Monitoren) gerade mal 1500:1 drin. Wir wollen aber 100000:1 und mehr...
Hast Du denn schon mal so etwas zu Gesicht bekommen? Ich nicht, und ich - zumindest für meinen Anspruch an einen Universalmonitor - stelle diesen Anspruch nicht. Warum?

Nun, wenn ich bei meinem SW320 auf die Einstellung "HDR" gehe - mal davon abgesehen, dass dies irreführend ist, weil eben nicht "echtes" HDR damit gemeint ist - dann ist mir das zu "grell" für die allermeisten Anwendungen. Und in dieser Einstellung liegen gemäß Test von prad.de gerade mal 350 nits an.

Ich frage mich, wie das bei den von Dir geforderten Kontrastverhältnissen aussehen soll. Mehr Helligkeit bräuchte ich nicht, es müsste also dunkeler werden. Ich bezweifele, dass das LCDs je hinbekommen - auch nicht als OLED. Andere Technologien (was ist eigentlich aus SPD geworden?) sind derzeit kaum in Sicht.

Wie siehst Du das?
Ergänzung ()

axelfr74 schrieb:
Nur leider hat der Nvidia Treiber seit dem Windows Creators Update ne gehörige Macke in Sachen HDR und stellt den Desktop im HDR-Mode wie durch nen Nebelschleier dar. Das Problem liegt aber wohl angeblich bei Windows. Und zumindest das von mir getestete Shadow Warrior 2 sieht noch wunderbar aus.
Kann ich bestätigen. Und wenngleich hier ja noch nicht feststeht, wer daran die Schuld trägt: es ist leider nicht die einzige Macke.

Zum einen ist es mir nicht gelungen, mit dem beigefügten DVI-auf-DP-Kabel ein Bild zu erzeugen. Zum zweiten - allerdings glücklicherweise nicht bei meinem Exemplar - scheint es generell Probleme mit DP zu geben, wie prad.de im Test feststellen musste. Zum dritten zeigt der SW320 die Boot-Informationen nicht an - er bleibt dunkel, bis irgendwann das Windows-Logo erscheint. Und auch beim normalen Betrieb gibt es immer wieder Webseiten, bei denen plötzlich das Bild zusammenfällt - offenbar immer dann, wenn unsauber programmierte bewegte Werbung eingeblendet wird. Alles in allem scheint der BenQ große Probleme bei plötzlichen Auflösungswechseln zu haben.

So großartig das Bild und so modern die Ausstattung mit echten 10 bit, 14 bit LUT und DP 1.4 sein mögen - mehr als ein "Insgesamt Gut" kann ich ihm derzeit nicht geben. Ich hoffe auf ein Treiber-Update.
 
Zuletzt bearbeitet: (Orthografische Korrektur)
axelfr74 schrieb:
Nur leider hat der Nvidia Treiber seit dem Windows Creators Update ne gehörige Macke in Sachen HDR und stellt den Desktop im HDR-Mode wie durch nen Nebelschleier dar. Das Problem liegt aber wohl angeblich bei Windows.

Windows ist in meinen Augen ohnehin seit Jahren der mit Abstand größte Bremsklotz im Hinblick auf Fortschritte bei der Bildqualität, siehe auch KLICK:

AnandTech schrieb:
As our own Brandon Chester has discussed more than once, the state of support for next-generation display technologies under Windows is mixed at best. HiDPI doesn’t work quite as well as anyone would like it to, and there isn’t a comprehensive & consistent color management solution to support monitors that offer HDR and/or color spaces wider than sRGB. The Windows 10 Anniversary Update has improved on the latter, but AMD is still not satisfied with the status quo on Windows 10 (never mind all the gamers still on Windows 7/8).

Irgendwie traurig, dass Windows selbst im Jahr 2017 noch Probleme mit HiDPI hat und kein vernünftiges Color Management bietet während macOS das seit 2012 beherrscht...
 
tho_schmitz schrieb:
wenn ich bei meinem SW320 auf die Einstellung "HDR" gehe - mal davon abgesehen, dass dies irreführend ist, weil eben nicht "echtes" HDR damit gemeint ist - dann ist mir das zu "grell" für die allermeisten Anwendungen. ...

Ich frage mich, wie das bei den von Dir geforderten Kontrastverhältnissen aussehen soll. Mehr Helligkeit bräuchte ich nicht, es müsste also dunkeler werden.

Da sehe ich das Problem bei den Anwendungen bzw. dem Farbschema des Windows-Desktops. Ist natürlich blöd, einen flächig weißen Hintergrund zu haben, wenn man das als HDR ausgibt. Das wird dann viel zu grell. (So grell, dass OLEDs dann schon künstlich limitieren müssen, um nicht zu viel Strom zu verbrauchen. :) )
Elemente mit hoher Helligkeit müssten nur dezent, gezielt und nicht zu flächig genutzt werden.

Kurz, eine PC-Benutzeroberfläche müsste eigentlich von Grund auf auf HDR-Displays ausgelegt sein, damit es eine Verbesserung bringt statt mit übertrieben hellen Flächen zu nerfen.
Speziell bei OLEDs wäre es vielleicht sogar eine gute Idee, wieder zu heller Schrift/Grafik auf schwarzem Hintergrund zurück zu gehen.

Bis da hin ist HDR halt eher nur dafür da, Inhalte (Videos, Fotos, Spiele) zu konsumieren.

Ich bezweifele, dass das LCDs je hinbekommen - auch nicht als OLED. Andere Technologien (was ist eigentlich aus SPD geworden?) sind derzeit kaum in Sicht.

Mein OLED-Fernseher schafft reale 750 Nits bei unendlichem Kontrast (halt prinzipbedingt perfektes Schwarz). Das ist noch nicht ganz optimal für HDR, aber reicht für die meisten Filme ganz gut aus. (Die sind in der Regel auf 1000 Nits ausgelegt, nutzen aber oft nur bis um die 600.)
Ich denke, in den nächsten 1-2 Jahren haben wir Consumer-OLED-Displays, die über 1000 Nits (nicht nur auf dem Papier) schaffen. Das wäre dann für 99% der Fälle schon voll ausreichend.
 
Zuletzt bearbeitet:
Schmille schrieb:
Du hast da wohl was verwechselt, VR ist nur eine Spielerei die kaum jemand effektiv nutzen kann.


Der Meinung bin ich auch und ich würde schon behaupten das sich VR auch nie so wirklich durchsetzen wird.
Für shooter/Filme ganz nice aber für Rollenspiele oder Mobas,Strategy nicht zu gebrauchen da scheiterts wohl auch an der Umsetzung wie will man das denne machen?

Zumal es einem ziemlich schnell schlecht wird von auf dauer ist das einfach nüx.
 
@ Herdware - ja, macht viel Sinn, Dein Post. Vielen Dank dafür.

Für das, was ich mit meinem Computer anstelle, reicht mir der SW320 von BenQ völlig aus: einfache Photo- und Videoretusche, Daddeln, Surfen, Office-Anwendungen. Die "HDR"-Einstellung beim Monitor spreizt künstlich den Kontrast, verändert dabei aber ein wenig die Farbtemperatur - das habe ich dann wieder abgeschaltet, weil mir wie gesagt das Bild zu grell für meine Augen wurde. Die "HDR"-Einstellung von Windows macht das genaue Gegenteil: sie legt über alles einen nebelartigen Schleier, das geht erst recht nicht. Ich hoffe da auf ein Update, sowohl bei Windows/nVidia als auch bei der Firmware oder dem Treiber seitens BenQ.

Was aber nicht nur Sinn macht, sondern einfach umwerfend schön aussieht - zumindest wenn das Quellmaterial das hergibt - ist die Einstellung "10 bit". Mass Effect Andromeda unterstützt das beispielsweise. Der Unterschied ist nicht in jeder Szene sofort zu erkennen, aber wenn man auf die Details achtet ist das schon ein spürbarer Gewinn. Und auch die Fotos, die ein Kumpel mit seiner neuen Canon SLR geknipst hat, sehen in "10 bit" sichtbar besser aus als in "8 bit".

Anyway, ich teile Deine Einschätzung, dass HDR jetzt wirklich noch in den Kinderschuhen steckt bzw. nicht das ist, was mit dem Begriff assoziiert wird. Schaun ma ma, wie sich das in den nächsten Jahren entwickelt.
 
Zuletzt bearbeitet: (Orthografie)
tho_schmitz schrieb:
Hast Du denn schon mal so etwas zu Gesicht bekommen? Ich nicht, und ich - zumindest für meinen Anspruch an einen Universalmonitor - stelle diesen Anspruch nicht. Warum?

Nun, wenn ich bei meinem SW320 auf die Einstellung "HDR" gehe - mal davon abgesehen, dass dies irreführend ist, weil eben nicht "echtes" HDR damit gemeint ist - dann ist mir das zu "grell" für die allermeisten Anwendungen. Und in dieser Einstellung liegen gemäß Test von prad.de gerade mal 350 nits an.

Ich frage mich, wie das bei den von Dir geforderten Kontrastverhältnissen aussehen soll. Mehr Helligkeit bräuchte ich nicht, es müsste also dunkeler werden. Ich bezweifele, dass das LCDs je hinbekommen - auch nicht als OLED. Andere Technologien (was ist eigentlich aus SPD geworden?) sind derzeit kaum in Sicht.

Wie siehst Du das?

...

Na das wollen war nicht wörtlich gemeint, ich brauche den hohen Kontrast eher nicht, für EBV mit Ziel "Druck" reichen mir 300:1 vollkommen :P Bin da momentan höchstens technisch interessiert.
Gemeint war das Ziel in der Darstellung von Film und Co. und das ist schon realistisch. Mit LCD (atm) nicht, OLED aber schon, die Dioden müssen nur hell genug leuchten. Da ist 400.000:1 (statisch!) schon machbar auch weil der Schwarzwert so ideal ist (von irgendwelchen superschwarzen Körpern mal abgesehen).
Und wie das aussehen soll? Schau aus dem Fenster! Bei Sonnenlicht bist du schon bei 1.000.000:1+. Ob das blendet, sicher, aber unsere Augen können sich sehr schnell und gut anpassen. HDR benötigt sicher auch speziell angepasstes Material, wie die Produktion sich ändern wird bleibt mir aber ein Rätsel, zumindest wenn sich die Kinotechnik mit ihren 500:1 nicht ändert...

... sehen in "10 bit" sichtbar besser aus als in "8 bit"
kannst du erläutern was besser aussieht?
 
Zuletzt bearbeitet:
jubey schrieb:
kannst du erläutern was besser aussieht?
10 bit sieht besser aus. Ich versuche mich mal an einer Beschreibung meiner Eindrücke.

Bei Spielen:

Ich habe leider nur ein 10-bit-Spiel, und das ist Mass Effect Andromeda. Bei "8 bit" sieht das Spiel so aus wie man das so kennt. Bei "10 bit" wirkt es zum einen etwas spektakulärer, "bunter" - ich dachte zuerst, dass mit dieser Einstellung sowohl der normale als auch der Farbkontrast verändert wurde. Dem ist aber nicht so, denn vor allem in dunklen Bereichen sind mehr Details sichtbar. Manchmal, allerdings nicht ganz so deutlich wahrnehmbar, sind auch Corona- oder Halo-Effekte. Zum dritten wirken Objekte im Hintergrund authentischer bzgl ihrer Entfernung.

Ein Beispiel: da ist im ersten Kapitel diese Höhle, in der man zwar den gleichen Eindruck in Hinsicht auf Helligkeit hat, aber in "10 bit" die verschiedenen Farbunterschiede der Wände und des Bodens besser erkennen kann. Und die ständig irgendwo einschlagenden Blitze sind nicht einfach nur weiß, sondern scheinen eine leichte Corona zu haben. Schließlich sind die schwebenden Berge im Hintergrund deutlicher unterscheidbar bzgl ihres Abstandes.

Bei Fotos:

Da fiel mir besonders eine Aufnahme meines auf Hochglanz polierten Oldtimers ein: die verchromte Stoßstange hat einen richtig schönen spiegelnden Effekt. An einer Stelle ist der Chrom leicht angelaufen, in etwa so wie beim Krümmer eines Motorradauspuffs. Das wurde in feinsten Farbnuancen wiedergegeben, Farbstufen waren (zumindest von mir) nicht mehr auszumachen.

Ich hatte auch den Eindruck, dass hier ebenfalls dunkele, kontrastschwache Bereiche eines Fotos so wiedergegeben werden wie man sich das vorstellt. Das zu beschreiben fällt mir zugegeben sehr schwer, der Effekt ist auch nicht sehr dramatisch, zumindest auf meinem BenQ SW32ß nicht. Ich denke, dass da der nur durchschnittliche Kontrastumfang meines Monitors einem da schnell etwas vorspielen kann was in Wirklichkeit nicht oder eben anders auf der Aufnahme festgehalten ist. Gerade hier kann ich mich aber auch täuschen: der Monitor kann es richtig wiedergeben, aber mir fehlt die Erfahrung und das "Auge", um dies in einer Deutlichkeit wahrzunehmen, wie das für einen Profis selbstverständlich wäre.

Zum SW320:

Zunächst war ich schwer begeistert. Nach dem Test in Prad.de und einiger Zeit im täglichen Umgang sind nun doch ein paar störende Unvollkommenheiten deutlicher geworden. Ich kenne das Anforderungsprofil für EBV mit Ziel Druck nicht, und hier mag es auch Unterschiede geben, ob das Endprodukt so etwas wie ein Hochglanzmagazin bzw. Edelprospekt oder eben nur ein Flyer ist. Allerdings sieht man im abgedunkelten Raum schon eine gewisse Resthelligkeit bei schwarzem Bild. Die ist bei meinem Exemplar zwar sehr homogen verteilt und daher nicht störend, aber ein Profi mag das anders beurteilen. Ich würde mir den Monitor nur mit Rückgaberecht - idealerweise länger als die gesetzlichen 14 Tage - kaufen wollen. Ich selbst würde meinen aber jederzeit wieder kaufen.
 
Zuletzt bearbeitet:
Das mit den Nuancen kann ich nachvollziehen, dafür ist die 10bit-Darstellung da. Bunter kann da aber nichts werden, zumindest nicht Monitorseitig. Möglich, dass sich Mass Effekt in diesem Modus ein wenig stärker rauslehnt mit der Kontrasteinstellung (pseudo HDR-mäßig) :confused_alt:.
Ich finde dennoch, und deshalb habe ich gefragt, dass der Unterschied zwischen 8 und 10bit (bei 1000:1 und weniger) nicht so gravierend ist und auch nicht spielentscheidend wie mancherorts behaupet wird. Macs haben 10bit bis vor kurzem gar nicht unterstützt, kaum ein Hahn hat danach gekräht. Viel wichtiger war und ist seit jeher Farbverbindlichkeit. In einigen Fällen, bei feinen Übergängen wie in deinem Beispiel bringt es dann aber doch was, im Zweifelsfall nice to have ;), entscheidend ist aber dennoch die Endausgabe, sei es Druck oder Display (letzteres höchstwahrscheinlich wieder 8bit).
Ich kenne das Anforderungsprofil für EBV mit Ziel Druck nicht, und hier mag es auch Unterschiede geben, ob das Endprodukt so etwas wie ein Hochglanzmagazin bzw. Edelprospekt oder eben nur ein Flyer ist.
Klar, die Anforderungen unterscheiden sich gewaltig. Dabei geht es aber weniger um das Monitorprofil, sondern um das Druckprofil und die Fähigkeit zum Softproof. Druck und Ausbelichtungsmedienunterscheiden sich teilweise sehr stark, gemein haben sie aber das im Vergleich zum Monitor (der ja leuchtet) bescheidene Kontrastverhältnis.
Resthelligkeit bei schwarzem Bild
das ist normal, hinter den Kristallen scheint die Hintergrundbeleuchtung ja durch. Auch aus diesem Grund stellt man Monitore für EBV recht dunkel ein 120cd ist da gängig. Besser kannst du es nur von den neuen Eizo CGs erwarten mit 1500:1. Oder halt von VA-Displays. Die können aber alles andere nicht sehr gut, Wide Gamut schon garnicht...
 
Ich glaube @tho_schmitz meint in Mass Effect den HDR Modus. Ich habe ja auch den SW320 und ein expliziter 10-Bit Modus im Spiel ist mir nicht bekannt - ich lasse mich jedoch gern eines besseren belehren.
Aber - natürlich kann man vorher in den Nvidia Settings auf 10-Bit umschalten und hat dann auch echte 10-Bit in Mass Effect (und in jedem anderen Spiel). Nur halt in Verbindung mit (mal vom max-Kontrast abgesehenen) echtem HDR. Und diese Kombination - HDR + 10-Bit sieht in Mass Effect in der Tat bedeutend besser aus als der 8 Bit normalo-Modus.
Der BenQ mag nicht DER perfekte Monitor sein, aber er ist der definitiv beste derzeit erhältliche HDR Monitor mit echtem 10-Bit Display. Und das jetzt sein kleiner Bruder mit 27'' kommt ist nur logisch. Kostet aber sicher auch nen Tausender.
 
Zuletzt bearbeitet:
@ jubey - Ja, so ist das mit dem Beschreiben feiner Unterschiede. Ich tue mich da etwas schwer, zugegeben. Ich schrieb ja auch, dass die Unterschiede nicht gewaltig sind und erst beim genaueren Hinsehen auffallen. Es hängt sicher auch vom betrachteten Bildmaterial ab (auf dem Foto der angelaufene Chrom, bei Andromeda die dunkle Höhle). Ich dachte ja auch erst, dass es "bunter" wird. Dem war aber nicht so. Ich denke, du hast die Unterschiede mit Deinen Worten passender beschrieben als ich, jedenfalls passt das ganz gut.

Eines aber: Andromeda macht wirklich mehr Spaß in 10 bit - wenn man sich die vielen Kleinigkeiten vor Augen führt, auf die man nun achtet, und in die die Entwickler scheinbar auch einiges investiert haben.

@ axelfr74 - ich verwende bei Mass Effect Andromeda die gleichen Einstellungen wie beim normalen Desktop-Betrieb:
am Monitor: Adobe RGB, nicht aber dessen HDR-Einstellung, da wirkt alles zwar spektakulärer, aber eben nicht mehr farbtreu (z.B. zu wenig gelb)
im nVidia-Setup der Grafikkarte (MSI GTX 1080ti Gaming X): 10 bit
in den Windows-"Einstellungen" (nicht Systemsteuerung): "HDR" aus

Übrigens: nochmals vielen Dank für Deine Empfehlung zum BenQ. Er hat zwar ein paar technische Macken (z.B. träge Auflösungswechsel oder Schnittstellenprobleme, die ich nicht erwartet habe in der Preisklasse), aber macht eben auch ein grandioses Bild.
 
Zuletzt bearbeitet:
Ah - verstehe! :)
Ich habe Mass Effect komplett in HDR gezockt, auf "10 Bit Adobe RGB" wär ich garnicht gekommen. So oder so, der Monitor ist bei dem Game ein echter Mehrwert. Und sein kleiner Bruder mit Sicherheit auch.
 
Was ich mich halt frage ist, was diesen Monitor zu einem HDR Display macht. Benq schreibt (zum SW320):"High Dynamic Range (HDR) steigert den gesamten Dynamikbereich zwischen Schwarz und Weiß". Fakt bleibt, den Dynamikbereich=Kontrastumfang und der liegt wie bei allen anderen IPS Schirmen bei 1000:1. Es kann eigentlich nur ein Pseudo-HDR sein, das viele aus den oft recht gruseligen HDR-Fotos kennen. Ich vermute die Schatten und Lichter werden betont und die Bittiefe für feine Nuancen in den Bereichen genutzt(?).
zu AdobeRGB, nunja jetzt verstehe ich auch was du mit bunt meinst ^^ und eben nicht farbtreu, wie auch? der Farbumfang ist viel größer nur weiß Mass Effect das nicht ;) zumindest nicht wenn du deinen Monitor nicht profiliert hast...
 
Nunja, mit der Argumentation gäbe es nur Pseudo HDR TV's/Monitore. Irgendeine Spezifikation wird doch immer verfehlt weil es einfach noch nicht DIE Technik für echte HDR Displays gibt.
Ich persönlich denke mit echtem 10 Bit (kein 8+2) und LED local dimming ist man bei den BenQ's so nah dran wie es derzeit technisch möglich ist. Auch die kommenden Acer und Asus HDR Monitore werben mit diesen Spezifikationen in Verbindung mit "echtem" HDR. Wobei ich bei denen noch nicht sicher bin das es 10 Bit Displays sind. Das kann man bei einem Preispunkt von ~2000€ aber wohl erwarten.
 
jubey schrieb:
Was ich mich halt frage ist, was diesen Monitor zu einem HDR Display macht....Es kann eigentlich nur ein Pseudo-HDR sein...
Nun ja, die Frage stellt sich bei aktuell jedem Display. Von rein professionellen "Betrachtungsmaschinen" abgesehen - preislich jenseits von Gut und Böse - dürfte es nach diesem Maßstab kein HDR-Display am Markt geben. Für mich war "HDR" das am wenigsten beachtete Attribut: so wie ich die HDR10-Spezifikation verstanden habe benötigt ein Display dafür 1.500 nits, und das schafft der BenQ nicht mal ansatzweise. Wichtiger waren mir die Kombination aus 4K, echten 10 bit Farbtiefe (die man auch sieht), 14 bit LUT und DP 1.4. Sogar die neuen Displays von Asus und LG kamen da nicht mit.

jubey schrieb:
das viele aus den oft recht gruseligen HDR-Fotos kennen. Ich vermute die Schatten und Lichter werden betont und die Bittiefe für feine Nuancen in den Bereichen genutzt(?).

Nein, Gottseidank nicht wie die gruseligen HDR-Fotos. Der Kontrast wirkt nicht künstlich verstärkt. Aber es stimmt, die Bit-Tiefe wird für die feinen Nuancen genutzt. Besonders einfach zu erkennen ist das natürlich bei einem Grauverlauf von schwarz nach weiß, aber eben auch bei dem von mir benannten Beispiel von feinsten Farbverläufen an einem angelaufenen Chromauspuff. Der Unterschied zwischen den Einstellungen "8 bit" und "10 bit" ist in diesen Fällen recht deutlich zu sehen. Sonst natürlich nicht, da Youtube und die meisten anderen Applikationen ja eh kein 10-bit-Material bereitstellen (HDR-Netflix habe ich nicht, aber auch das dürfte in der überwieggenden Zahl der Streams hochgerechnet sein).

jubey schrieb:
zu AdobeRGB, nunja jetzt verstehe ich auch was du mit bunt meinst ^^ und eben nicht farbtreu, wie auch? der Farbumfang ist viel größer nur weiß Mass Effect das nicht ;) zumindest nicht wenn du deinen Monitor nicht profiliert hast...
Stimmt, habe ich nicht. Aber der Unterschied zwischen 8 bit und 10 bit ist auch bei den anderen Profilen (sRGB, Rec. 709, DCI-P3 und "HDR") zu erkennen. Bei Adobe immerhin am deutlichsten.

Der "HDR"-Modus des BenQ ist etwa so lollipopfarben wie du das beschrieben hast und sogar farbverschoben: mehr rot, weniger gelb. Gefällt mir überhaupt nicht, effekthaschend.

Der "HDR"-Modus von Windows ist das genaue Gegenteil: matt, stumpf, verwaschen, wie mit einem Nebelschleier überzogen. Ich glaube, dass diese Offsets noch komplett im Argen liegen, beides ist für mich völlig unbrauchbar.

Und nein, ich habe auf Andromeda nicht extra profiliert sondern mich auf den nVidia-Treiber verlassen. Das Ergebnis gefällt mir sehr gut. Natürlich kann man da nicht von "natürlich" sprechen - ist ja immerhin ein SciFi-Game - aber es kommt mir stimmig vor. Ich glaube, dass die Entwickler zufrieden wären, wenn sie ihr Ergebnis auf meinem Rechner sehen würden.

BTW - Ich wollte irgendwann wieder in die anspruchsvollere Fotografie einsteigen und dann meinen Monitor hardware-kalibrieren. Zu welchem Sensor würdet ihr mir raten (Hersteller, Modell)? Sollte preislich eher bei 100 als bei 1.000 Euro liegen. Über eure Tipps würde ich mich freuen.
 
Zuletzt bearbeitet:
axelfr74 schrieb:
Nunja, mit der Argumentation gäbe es nur Pseudo HDR TV's/Monitore. Irgendeine Spezifikation wird doch immer verfehlt weil es einfach noch nicht DIE Technik für echte HDR Displays gibt.
Ich persönlich denke mit echtem 10 Bit (kein 8+2) und LED local dimming ist man bei den BenQ's so nah dran wie es derzeit technisch möglich ist. Auch die kommenden Acer und Asus HDR Monitore werben mit diesen Spezifikationen in Verbindung mit "echtem" HDR. Wobei ich bei denen noch nicht sicher bin das es 10 Bit Displays sind. Das kann man bei einem Preispunkt von ~2000€ aber wohl erwarten.
Ok, mit local dimming sieht das ganze schon anders aus, dachte nicht die Monitore hätten das, in den Specs taucht es zumidest nicht auf (?). Ansonsten OLED halt, im Computermonitormarkt aber noch nicht angekommen. Ob es im übrigen 8+2 oder 10 muss erstmal auch jamand erkennen können. ;)(ich behaupte mal das wird nichts :P)
Und nein, ich habe auf Andromeda nicht extra profiliert sondern mich auf den nVidia-Treiber verlassen.
das macht man auch nicht, man sagt Windows mit dem Profil was der Monitor kann (indem man es erstmal misst). Dann wird in nicht farbmanagementfähigen Anwendungen ein kleiner Farbraum angezeigt (srgb). Mitunter können (müssen aber nicht) die Korrekturparameter für die Graka enthalten sein (> Softwarekalibrierung)... Klugscheißmodus aus
Zu Hardwarekalibrierung... Laut Benq unterstütz Palette Master folgende Colorimeter/Spektralfotometer für die
Hardwarekalibrierung: X-Rite i1 Display Pro / i1 Pro / i1 Pro 2 & Datacolor Spyder 4 / Spyder 5
Viel Auswahl hast du nicht, mit Spyder habe ich keine Erfahrung...
 
Zuletzt bearbeitet:
jubey schrieb:
Ok, mit local dimming sieht das ganze schon anders aus, dachte nicht die Monitore hätten das, in den Specs taucht es zumidest nicht auf (?).

Stimmt, die Bezeichnung als solche taucht nirgends auf. BenQ selbst nennt das nicht local dimming, sondern Brightness Uniformity Function.

For an authentic and consistent viewing experience, SW320 achieves immaculate brightness uniformity across the entire screen via a meticulous fine-tuning process of hundreds of sub-regions with high-precision apparatus

Ohne diese vielen, einzeln ansteuerbaren "Leucht"-Zonen wäre "echtes" HDR in der Tat nicht machbar.

Aber wäre denn eine nachträgliche Kalibrierung überhaupt sinnvoll? BenQ wirbt bei den zwei Modellen doch explizit damit dass sie bereits kalibriert ausgeliefert werden. Und belegt das ja auch mit einem Kalibrierungs-Report der dem Monitor beiliegt. Macht man mit einer erneuten Kalibrierung dann nicht das Ganze zunichte?
 
Zuletzt bearbeitet:
Zurück
Oben