News LG 32UL750: Günstigerer UHD-VA-Monitor mit HDR 600 ohne „Nano IPS“

Unterstützt der HDMI Anschluss denn HDCP 2.2?
Macht mein 4K Monitor z.B nicht. Kann deshalb z.B kein Netflex 4K nutzen.
 
Zuletzt bearbeitet:
tek9 schrieb:
Aha. Es wäre mir neu das ein TFT so gut skaliert das Auflösungen unterhalb der nativen Auflösung vernünftig aussehen.

Wo ist da der Mehrwert?

Ich hab es ja ausprobiert, es sieht halt gut aus. Und meine Augen sind nicht schlecht, ich erkenne auch bei 4K auf 27" noch Pixel. Aber 3200*1800 sieht tatsächlich in Witcher 3 z.B. nahezu identisch aus. Der größte erkennbare Unterschied war ein leichtes Flimmern bei einem Hausdach. Bei AC: Origins ist es ähnlich. Mit der RX 480 sah 1440p auch besser aus als 1080 p und 1800p ist dann nochmal ein ganzes Stück besser als 1440p, kommt sehr nah an 2160p ran. Der Mehrwert ist der höhere Detailgrad, die höhere Pixeldichte und in Bezug auf den Monitor, dass man die Auflösung überhaupt höher als 1440p bekommt, wenn man es will. Man hat halt mehr Optionen.

tek9 schrieb:
Edit: Du hast mittlerweile so viele Einschränkungen aufgezählt die man eingehen muss um mit einer Karte im unteren High End die magischen 40fps in 4K zu erreichen damit Freesync bei diesem Display wirksam ist.

Daher hast du letztendlich genau das bestätigt was ich eingangs skizziert haben.

Ich habe Optionen aufgezählt, die zumindest bei meinem Monitor alle etwas taugen. Und wenn ich lieber Stellaris als Far Cry 5 spiele ist das auch keine Einschränkung, sondern Geschmacksache. Bei solchen Spielen ist dann auch überhaupt keine Einschränkung nötig, man muss eher noch die Frames auf 60 begrenzen oder hängt im CPU-Limit, weil sie nur 1-2 Threads effektiv nutzen.

tek9 schrieb:
Wir können sicherlich noch ein paar Runden herzlich darüber diskutieren, aber es ändert nichts daran:

Freesync Displays ohne LFC sind broken by design.

Insbesondere in 4K

Ich stimme ja zu, dass es mit LFC besser wäre, frage mich aber auch, was man in Spielen auf Ultra (keine "Einschränkungen") mit 15fps noch für Vorteile aus LFC ziehen sollte? Ich hab es noch nicht gesehen, aber wird bei so niedrigen Frameraten nicht auch mit Sync alles recht ruckelig?

Martinfrost2003 schrieb:
Unterstützt der HDMI Anschluss denn HDCP 2.2?
Macht mein 4K Monitor z.B nicht. Kann deshalb z.B kein Netflex 4K nutzen.

Wenn ich das richtig herausgefunden habe hat meiner HDCP 2.2 nur auf HDMI und FreeSync nur über DP.
Und da ich nicht zwischen Spielen und Filmen zum Kabeljockey werden will, verzichte ich bei Filmen auf 4K weil 1080p auch ziemlich gut aussieht und ich mal vermute, dass Netflix ohnehin keine riesen Auswahl in 4K hat.
Anders ausgedrückt können die sich ihr HDCP in die Haare schmieren bis es zufällig ohnehin mal passt. ;)
 
Frank schrieb:
LGs neuer UHD-Monitor mit 31,5-Zoll-VA-Panel und DisplayHDR 600 namens LG 32UL750 wird eine günstigere Alternative zu dem immer noch nicht erhältlichen LG 32UL950 sein, da er auf ein IPS-Panel mit Nanopartikelbeschichtung verzichtet, was LG unter der Bezeichnung „Nano IPS“ vermarktet.

Zur News: LG 32UL750: Günstigerer UHD-VA-Monitor mit HDR 600 ohne „Nano IPS“

Das Ding so als curved und ich würd meinen AG322QWG4 dafür rauswerfen....
Der extrem geile LG 38WK95C-W (IPS!) den ich auf der Arbeit habe ich mir für privat zu teuer.
 
Macht euch keine Hoffnung auf vernünftige Preise. Der Vorgänger des LG 32UL950 kostete 3.500.- Euro!
Da wird nun der Nachfolger ähnlich viel oder gar mehr kosten.
Auch der hier gezeigte günstigere Monitor wird locker über 1000.- Euro kosten mit dem 10 bit Panel.
Zur Zeit ist es einfach nicht möglich einen guten Monitor mit neuer Technik zu bekommen, der annehmbar im Preisvergleich dasteht und trotzdem Einschränkungen besitzt. :(
 
Wo wir gerade von Skalierungen reden. Ist es besser die Skalierung dem Monitor oder der GPU zu überlassen? Ich konnte da keinen Unterschied sehen.
Ergänzung ()

KarlKarolinger schrieb:
Und da ich nicht zwischen Spielen und Filmen zum Kabeljockey werden will,
Müsste es nicht reichen, einfach die Eingangsquelle am Monitor zu wechseln? Hab das aber selber noch nicht getestet.
 
grossernagus schrieb:
Wo wir gerade von Skalierungen reden. Ist es besser die Skalierung dem Monitor oder der GPU zu überlassen? Ich konnte da keinen Unterschied sehen.

Da bin ich mir nicht sicher. Das Wichtige bei meinem Monitor ist wohl die Option, die bei allen nicht-nativen Auflösungen nachschärft. Als ich die eingeschaltet habe, kamen so einige Details heraus, die vorher verschwommen waren. Ich schätze mal, wenn die Grafikkarte das nicht kann, der Monitor aber schon, das ist es besser, den Monitor das machen zu lassen. Ob es den Input-Lag erhöht, weiß ich nicht, hab selber nichts gemerkt.

grossernagus schrieb:
Müsste es nicht reichen, einfach die Eingangsquelle am Monitor zu wechseln? Hab das aber selber noch nicht getestet.

Hab ich auch überlegt, dann muss ich aber zwei Kabel anschließen und ich weiß auch nicht, wie Windows bzw. der Grafiktreiber darauf reagiert, da ich ohnehin noch einen zweiten Monitor habe. Momentan spar ich mir halt einfach das Geld für das teurere Netflix-Abo und 1080p-Filme sehen ja nicht so verpixelt aus, wie Spiele. :D
 
Filme guck ich eh auf dem TV. Zwar nur FHD, aber egal. Viel 4k gibt es doch eh noch nicht.

Was mich viel eher an meinem 4k Monitor jetzt stört, sind nicht die neuen Spiele, für die die Leistung nicht reicht, sondern die alten, die eigentlich super laufen würden, aber das UI nicht mitskaliert. Dann muß man alte Spiele auf dem 4k Monitor in FHD zocken. Sehr unbefriedigend.
 
KarlKarolinger schrieb:
Ich stimme ja zu, dass es mit LFC besser wäre, frage mich aber auch, was man in Spielen auf Ultra (keine "Einschränkungen") mit 15fps noch für Vorteile aus LFC ziehen sollte?

15fps?

Das ist schon sehr extrem was du als Beispiel rausgesucht hast.

Natürlich sind Frameraten unterhalb von 30fps nicht brauchbar. Das brauchen wir sicherlich nicht weiter zu diskutieren.

Wenn das Display Freesync erst ab 40hz aktiviert, hast du sofort wieder Tearing oder Lag wenn die Framerate unter diesen Wert fällt. Es ist doch total nervig wenn man bei jedem Drop unterhalb von 40fps Tearing hat. Insbesondere weil Tearing im Falle von niedrigen Framerate extrem auffällt.

Ergo hat man unterhalb der Freesync Range das ätzende Tearing oder man muss Vsync mit Triple Buffering aktivieren, was den Lag erhöht, der unterhalb von 40hz eh schon stark auffällt.
Daher sollte entweder eine Freesync Range ab 30hz und/oder LFC mit dabei sein.

Es ist halt Mist das die Panels die nicht mit so niedrigen Refreshraten klar kommen idr auch keine sonderlich große Range nach oben hinbekommen. Also fällt LFC flach..

Die Auflösung oder Settings zu reduzieren ist in meinen Augen eine Lösung, bei der ich denke das ich das Problem wieder zurück haben will :eek:
 
DarkerThanBlack schrieb:
Macht euch keine Hoffnung auf vernünftige Preise. Der Vorgänger des LG 32UL950 kostete 3.500.- Euro!
Da wird nun der Nachfolger ähnlich viel oder gar mehr kosten.
Auch der hier gezeigte günstigere Monitor wird locker über 1000.- Euro kosten mit dem 10 bit Panel.
Zur Zeit ist es einfach nicht möglich einen guten Monitor mit neuer Technik zu bekommen, der annehmbar im Preisvergleich dasteht und trotzdem Einschränkungen besitzt. :(

Welcher Monitor soll denn der Vorgänger sein für 3500 Tacken?
 
tek9 schrieb:
Es ist halt Mist das die Panels die nicht mit so niedrigen Refreshraten klar kommen idr auch keine sonderlich große Range nach oben hinbekommen. Also fällt LFC flach..

Die Auflösung oder Settings zu reduzieren ist in meinen Augen eine Lösung, bei der ich denke das ich das Problem wieder zurück haben will :o

Ich verstehe deine Argumentation, aber bisher war mehr oder weniger die einzige Alternative, entweder gleich auf einen Monitor mit niedrigerer Auflösung, oder eben draufzahlen für entsprechende G-Sync-
Hardware. Ob man 3200*1800 buw. niedrigere Einstellungen nicht mag, ist wohl auch irgendwie Geschmacksache oder abhängig davon, wie gut der Monitor das skaliert. Ich sehe mir sowieso immer die Grafikeinstellungen an, um so einen Quark (mMn) wie Chromatic Abberration, Bewegungsunschärfe, etc. abzuschalten. In manchen Strategiespielen z.B. spiele ich sogar lieber ohne SSAO, weil das einfach alle Ecken (bzw. letztlich das gesamte Bild) dunkler macht, selbst wenn die Sonne darauf scheint...
Anders ausgedrückt hab ich lieber die 40-60 fps FS-Range als gar keine oder 500€ Aufpreis und einen lauten Lüfter. ;)
Und Cities: Skylines will ich auch nicht mehr in 1440p oder 1080p spielen, gerade da ist die hohe Pixeldichte super. :p
Also ich bleib dabei, dass es Geschmacksache ist, wenn es bei deinem Spielstil und Vorlieben nicht passt, hab ich nichts dagegen.
 
Oder so.

Irgendwie muss man halt schlechte Technik schön reden. Jedes Gsync Display bietet diese Funktionalität.

Aber gut. Der Preisunterschied Freesync zu Gsync kommt wohl auch daher das die Spezifikation von Nvidia relativ harte Vorgaben macht, während die Grundlage für die Freesync Sticker deutlich einfacher umzusetzen ist.

Das jeder das macht was für richtige hält, war zwar nicht Gegenstand der Diskussion, aber du hattest anscheinend Gesprächsbedarf :)
 
Zuletzt bearbeitet von einem Moderator:
@Frank ist das sicher, dass dieser Monitor (LG 32UL750) ohne FRC arbeitet?

https://www.lg.com/us/monitors/lg-32UL750-W-4k-uhd-led-monitor
https://www.lg.com/uk/monitors/lg-32UL750
https://www.lg.com/de/monitore/lg-32UL750-W
die Links zeigen hier und da andere Sachen an, aber bezüglich FRC habe ich LG angeschrieben:

Sehr geehrter Kunde ,
herzlichen Dank fuer Ihre Kontaktaufnahme mit LG Electronics Deutschland GmbH.
Bezueglich Ihrer Anfrage kann ich Ihnen mitteilen, dass ich Ihre Anfrage an die entsprechende Fachabteilung weitergeleitet habe. Sobald ich dazu die Rueckmeldung erhalte, werde ich Sie kontaktieren.
[...]

Sehr geehrter Kunde,
herzlichen Dank fuer Ihre Kontaktaufnahme mit LG Electronics Deutschland GmbH.
Korrekt ist das der Monitor 32UL750-W.AEU ein Farbtiefe von 10 bit (8Bit+FRC) hat.

scheint aber optional zu sein. [anhang]
 

Anhänge

  • Clipboard01asdfvb.png
    Clipboard01asdfvb.png
    100,1 KB · Aufrufe: 586
Zuletzt bearbeitet:
Ist das denn so wichtig?

Also ich meine, bei nem 1080p 8Bit Monitor mit 6Bit+FRC kann man's mitunter sehr deutlich sehen.
Aber bei 8Bit+FRC würde ich mutmaßen, daß das nicht wahrnehmbar ist.
 
mag sein. wuerd trotzdem darauf verzichten wollen, wenn moeglich. Was nicht heiszt, dass Produktdetails nicht korrekt angegeben werden sollen.
 
Zurück
Oben