News Philips BDM4350UC: Monitor-Riese mit 43 Zoll, Ultra HD und IPS

Zuletzt bearbeitet:
PiraniaXL schrieb:
Könnte ne neue Marktlücke sein, ein "TV" ohne diesen ganzen Smarttv-schrott.....

Das hab ich mir vor 3 Jahren auch gedacht, als ich mir meinen aktuellen Fernseher gekauft hatte.

Vor etwa einem Monat hab ich dann aber mal des SmartTV Zeugs geöffnet und jetzt bin ich doch ganz schön froh, dass ich auf meinem Fernseher ohne Probleme Twitch und Plex schauen kann ^^
 
Quadt_89 schrieb:
das Problem hat dann der Chiropraktiker bzw. Augenarzt :)

Nein der/die freuen sich über die zusätzlichen Moneten :D
 
Angenommen, die Bildqualität wäre identisch, würde ich immer einnm Smart-TV bevorzugen gegenüber einem reinen Monitor, bei gleichem Preis. Man hat einfach deutlich mehr Funktionen und keine Mehrkosten.

@ Topic Ich schaue derzeit noch auf nem alten 22" Belinea mit TN-Panel - also wird alles jetzt aktuelle ein deutlicher Sprung sein, wenn der alte mal den Geist aufgibt. Allerdings könnten mir 40" wohl doch etwas zu viel sein, für mein bescheidenes PC-Verhalten (60% Zocken, 30% surfen, 10% sonstiges). Ich wünsche mir einen 32" Curved mit 120hz+ und FreeSync und 3D tauglich (sollte doch jeder ab 120hz sein,oder?), obwohl 3D nach dem einjährigen Hype ja wieder ein Nischendasein fristet. Naja, meine ELSA 3D Revelator Brille hab ich immer noch nicht entsorgt :D
 
Das Problem bei vielen günstigen UHD TVs der Größe ist zum einen der InputLag der bei Standardeinstellung i.d.R. immer sehr hoch ist, im möglicherweise vorhandenen Spielemodus oft geringer (20-40ms).
Den ganzen Nachbearbeitungskram bei TVs, Zwischenbildberechnung usw. sollte man für besseren InputLag entsprechend auch deaktivieren bzw. ist im Spielemodus meist deaktiviert.
Weiterhin können sehr viele UHD TVs bei 2160p kein RGB und kein YCbCr 4:4:4, sondern laufen nur mit Farbsubsampling bzw. YCbCr 4:2:0, das ist bei Filmen weniger problematisch da diese i.d.R. auch in 4:2:0 kodiert sind, im Desktop Betrieb kann es aber bei Schrift zu Farbsäumen führen bzw. natürlich zu sanfter Farbverfälschung.
Samsung hat z.B. erst ab der 6400er Reihe einen extra aktivierbaren Deep Color Modus der dann auch 4:4:4 kann.
Über HDMI 2.0 wird 4:4:4 in 2160p auch nur bei 8bit Farbtiefe unterstützt, 10bit oder 12bit laufen wieder nur mit Farbsubsampling.
Über DisplayPort beim Monitor läuft natürlich RGB und YCbCr 4:4:4 mit 8/10 und vermutl. auch 12bit.
 
Zuletzt bearbeitet:
valnar77 schrieb:
Angenommen, die Bildqualität wäre identisch, würde ich immer einnm Smart-TV bevorzugen gegenüber einem reinen Monitor, bei gleichem Preis. Man hat einfach deutlich mehr Funktionen und keine Mehrkosten.

Ich denke dieser "SmartTV"-Zusatz wird sich auch im Preis bemerkbar machen
 
Tja, dann spare ich schon mal für meine zweite FuryX

ach ja und für meine erste auch :D
 
Ja, da hast Du völlig Recht, ist ein Segen. Kein klobiger Lüfterstrombomber der nervt. Ich persönlich nutze hingegen eine Android Box. Läuft zwar nicht immer perfekt, aber schon gut genug.

Das mit dem 1m Monitor hingegen denken sich viele besser als es in der Realität ist. Schon mal versucht einen 1m LCD als Monitor zu verwenden. Um auf dem Schreibtisch direkt davor zu arbeite, da bekommt man Glubschaugen, viel zu groß. Für weiter Weg an der Wand ist es in der Regel zu klein, zu unpraktikabel. Die Schrift ist einfach viel zu klein dafür, auch bei "nur 1920x1080". Sogar die Pixeldichte ist hier nicht mal das Problem HD hin oder her. Die Schrift zu vergrößern führt hier auch nicht wirklich zu einer brauchbaren Arbeitsfläche, zum an die Wand hängen schon gar nicht.

Meine Empfehlung, aus der Praxis. Auf dem Schreibtisch am Besten max 27", oder gleich mind. 150-180cm für als Monitor/Fernseher an die Wand.

und dann noch ein Gruß aus Entenhausen ... :)


nintendoluk schrieb:
Das hab ich mir vor 3 Jahren auch gedacht, als ich mir meinen aktuellen Fernseher gekauft hatte.

Vor etwa einem Monat hab ich dann aber mal des SmartTV Zeugs geöffnet und jetzt bin ich doch ganz schön froh, dass ich auf meinem Fernseher ohne Probleme Twitch und Plex schauen kann ^^
 
Handysurfer schrieb:
WOW! Gefällt mir sehr!
Wenn das Ding 120 Hz auf 1920x1080 hätte, wäre ich der aller erste Käufer hier!
Und selbst bei UHD müssen es meiner Meinung nach unbedingt 120 Hz sein, ich werde auf keinen Fall jemals in meinem Leben 60 Hz kaufen... 60 Hz gehen gar nicht!

Es müssten meiner Meinung nach deutlich mehr Monitore in der Größe produziert werden. Ich will kein TV, vor allem nicht den Extramist von TVs...

Was willst du mit FullHD auf der Bildschirmgröße?


Für mich wären sRGB und AdobeRGB Werte interessant. Solche Monitore werden ja eher auf der Arbeit eingesetzt.
 
darthbermel schrieb:
Hmm. Aber müssen nicht trotzdem deutlich mehr Bilder pro Sekunde über die Leitung? Und wäre dann nicht die maximale Bandbreite von HDMI oder Displayport überreizt? Zumindest hatte ich bei HDMI 2.0 es so verstanden, dass durch die höhere Bandbreite erst 60Hz bei UHD möglich werden. HDMI 1.4 kann da max. 30Hz.

Ich glaube du verstehst noch nicht, dass die Bildwiederholrate unabhängig von den fps ist. Die Bildwiederholrate ist nur im Monitor, mehr Hz am Bildschirm bedeuten nicht dass die Grafikkarte mehr zu tun hat.
Zu dem kommt hinzu, dass im Gegensatz zu Hz fps kein konstanter Wert ist. Er ist immer abhängig von der Arbeitslast der Grafikkarte und schwankt, deshalb funktionieren die mathematischen Beispiele hier nicht so wie sich es die Leute vorstellen
 
michelthemaster schrieb:
Das wäre mir dann doch ein bisschen zu arg ^^ Ich hätte gerne was mit 28-29 Zoll und IPS Panel (MVA etc geht auch, Hauptsache kein TN). Da gibt es leider gar nix mit 4k und Freesync :-( Daher werde ich wohl bald zu LGs 27" Monitor greifen, der hat alles was ich haben möchte, nur ein oder zwei Zoll größer hätte ich schon gerne...

Grüße

Micha

PS: Mal an die Umsteiger von 24" auf 27", lohnt sich das? Ich befürchte das es wohl zu wenig Unterschied in der Diagonale ist :-(

Daheim gucke ich auf 24" FHD, auf der Arbeit seit gestern auf 27" WQHD. Der Unterschied ist gewaltig wie ich finde. Bleibt aber auch eine subjektive Einschätzung. Ich liebäugle auch mit einem 27" 4k non TN von LG. Auf der Seite von LG sind ein paar schicke Geräte mit schmalen Rand bereits gelistet.
http://m.lg.com/de/4k-monitore
 
Weby schrieb:
Was willst du mit FullHD auf der Bildschirmgröße?


Für mich wären sRGB und AdobeRGB Werte interessant. Solche Monitore werden ja eher auf der Arbeit eingesetzt.

Das selbe was fast alle mit 1080p und 40+ Zoll machen. Es weiter weg stellen und darauf gucken.
Für Photoshop habe ich ein 30 Zoll S-PVA mit 2560x1600 vom Jahre 2007, der heute noch ein besseres und kontrastreicheres Bild hat als viele IPS Modelle.

Ein Monitor muss es sein, weil ich die Nachteile von Fernsehern nicht brauche. Also Features die den InputLag erhöhen oder eben PVA Panels.

Natürlich werde ich diesen Monitor erst testen müssen, denn IPS ist auch nicht sehr schnell und im Vergleich zu meinem 27 Zoll TN mit 1920x1080 und vor allem 120 Hz ziemlich sicher ungeeignet. Deshalb will ich 120 Hz! Ich sehe es nicht ein, heute noch 60 Hz zu kaufen...

Offensichtlich verstehen sogar in Computerforen die Meisten nicht, was Hz sind, warum 120 Hz in jedem Fall besser sind und warum die FPS dafür nicht 120 betragen müssen.
Das ist hier noch Neuland, so wie das Internet für die Politiker...
Ich denke in 2-3 Jahren, optimistisch gesehen, werden es vielleicht 40% aller Besucher von Computerforen verstehen.
 
Zuletzt bearbeitet:
Handysurfer schrieb:
Das selbe was fast alle mit 1080p und 40+ Zoll machen. Es weiter weg stellen und darauf gucken.
Für Photoshop habe ich ein 30 Zoll S-PVA mit 2560x1600 vom Jahre 2007, der heute noch ein besseres und kontrastreicheres Bild hat als viele IPS Modelle.

Ein Monitor muss es sein, weil ich die Nachteile von Fernsehern nicht brauche. Also Features die den InputLag erhöhen oder eben PVA Panels.

Natürlich werde ich diesen Monitor erst testen müssen, denn IPS ist auch nicht sehr schnell und im Vergleich zu meinem 27 Zoll TN mit 1920x1080 und vor allem 120 Hz ziemlich sicher ungeeignet. Deshalb will ich 120 Hz! Ich sehe es nicht ein, heute noch 60 Hz zu kaufen...

Offensichtlich verstehen sogar in Computerforen die Meisten nicht, was Hz sind, warum 120 Hz in jedem Fall besser sind und warum die FPS dafür nicht 120 betragen müssen.
Das ist hier noch Neuland, so wie das Internet für die Politiker...
Ich denke in 2-3 Jahren, optimistisch gesehen, werden es vielleicht 40% aller Besucher von Computerforen verstehen.

Na dann gibt es ja noch Hoffnung für mich - wenn auch erst in 2-3 Jahren. Optimistisch gesehen, versteht sich. ;)
 
Bccc1 schrieb:
@Dark-Silent: Könntest du das ausführen? Ich bin mir zwar ziemlich sicher, aber wenn du es besser weißt lass ich mich gerne überzeugen.
Ich versuche noch einmal deutlich zu forumulieren was ich aussagen will und bitte dich mir zu erklären wo ich dabei falsch liegen soll.

Das Ziel ist, ein berechnetes Bild sofort anzuzeigen, da unser Gehirn bei einer Animation veraltete Informationen nicht mag(, was auch der Grund für Techniken wie ULMB ist). Bei einer festen Refresh Rate des Bildschirms und einer variierenden Frametime des Spiels, was nunmal normal ist, bestimmt also die Refresh Rate des Bildschirms den maximalen zeitlichen Fehler. Je höher die RefreshRate, desto schneller kann das neuste Bild angezeigt werden. GSync habe ich als Analogie genannt, da hier ebenfalls das Ziel ist, das neuste Bild schnellstmöglich anzuzeigen. Wenn der Sync Mechanismus latenzfrei funktionieren würde, was natürlich nicht der Fall ist, wäre Gsync in dieser Hinsicht vergleichbar mit einem Bildschirm mit einer unendlich hohen Refreshrate. Ab einer gewissen Frequenz wird es unsinnig noch GSync einzusetzen, da der maximale Zeitfehler klein genug ist um nicht mehr wahrgenommen zu werden. Wo diese Grenze liegt weiß ich aber nicht.

Wegen der Treibertroll Geschichte: Das AMD da schlechter ist mag evtl wirklich nicht mehr up to date sein, vor wenigen Jahren war es aber noch so, das mir in vielen Frametime Diagrammen in Testberichten aufgefallen ist, dass NVidia gleichmäßigere Frametimes hat. Allerdings hat sich das mit starken CPUs nicht dramatisch unterschieden, es wurde mehr bei schwachen CPUs sichtbar, so AMD bekannterweise ja schlechter Performt hat als NVidia. Kann also gut sein das ich hier falsch lag, das sollte aber den Rest meines Posts nicht beeinflussen.
Edit: Ich hab nochmal nach Spieletests mit Frametime Diagrammen gesucht und scheinbar ist NVidia hier immer noch besser:
https://www.guru3d.com/articles-pages/fallout-4-pc-graphics-performance-benchmark-review,6.html

Die Qualität eines Treiber kann man nicht nur anhand der Frametimes und Performance unter einem Einsatzgebiet beurteilen . Der AMD Treiber ist sicher nicht so optimiert unter DX 11 wie der von NV .Wenn ich meine ganze Kraft aufwende um ein einzige Scenario zu optimieren kann das auch einen Nachteil haben . Wenn dieses Szenario nicht mehr das einzig gültige wie jetzt DX 11 zu 12 . Du betrachtest Treiber nur in relation zu Spielen jedoch sollte man auch andere Anwendungsszenarien mit einbeziehen . Multimonitor Setup für AMD ein alter und sehr gut funktionierender Hut . Wie lange war bei NV dies nicht möglich oder mit starken Einschränkungen behaftet . Nur als eins von vielen Beispielen .

Wenn dein Monitor 60Hz kein Gsync oder Freesync (nachfolgend G/F abgekürzt) hat wird er ab dem ersten jeden weiteren refreschzyklus in immer derselben Zeit absolvieren . Ganz egal ob ein neues Bild zur verfügung steht oder nicht . Sollte ich es im idealfall schaffen immer auf den Punkt genau ein neus Bild an den Monitor zu schicken wenn er den nächsten refresh hat so habe ich die perfekte Synchronisation .

Da dies allerdings im Normalfall in einem Spiel so gut wie nie dauerhaft zu halten halten ist ersann man G/F . Erste vorraussetzung ist das der Monitor eine Elektronik bekam die nicht statisch sondern variabel arbeiten kann .

Warum ? Die Graka sagt jetzt dem Monitor wann er den nächsten Refresh machen soll eben dann wenn sie das nächste Bild fertig hat . Ziel wie immer die perfekte Synchronisation .

Wie immer gibt es auch hier ein aber .
Welches wie folgt aussieht . Kein Monitor schafft es seinen Refreshzyklus von 0 bis zu seiner max. Rate zu halten sondern in den meisten Fällen bei G von 35Hz bis ... und F noch bei vielen Monitoren offiziel 40Hz bis ... . Fällt dir Graka nun unter das Monitorminimum tricksen G/F und sagen dem Monitor statt ups 25 das schaffst du ja aber nicht er soll 50 nehmen und G/F verdoppeln durch ein gepuffertes Bild auf 50 um wieder in seinen Regelbaren Bereich zu stossen .

In diesem Falle steigt auch die Eingabelatenz weil man ja das selbe Bild 2x sendet und auch die Eingabe nicht mehr Synchron mit dem Bild direkt umgesetzt wird sondern erst mit dem nächsten Refresh und somit zeitverzögert.

Dies ist nun wirklich die Ultimativ einfachste Erklärung die ich hinbekomme in der Hoffnung das es auch verstanden werden kann .
 
Zuletzt bearbeitet von einem Moderator:
Gut wenn FPS mit nativer Bildwiederholung (und Backlightblinking) zusammen mit Free-/Gsync auf HDMI funktionieren würde, tut es meines wissen nach aber nicht, dazu braucht es doch zusätzlich Displayport oder? Also ein Grund mehr, mir ist kein UHD 4k-Panel bekannt der das alles kann, falls jemand was anderes weiß dann gerne...
 
Zuletzt bearbeitet:
Ganjaware schrieb:
Habe ich es überlesen, von HDCP 2.2 wird keine Angabe gemacht? Und ein Fuß, der mittig am Pannel angebracht ist lassen die Kabel einfacher verstecken, immerhin sitzt man ja doch sehr dicht vor den Kabeln.
Wer es noch größer mag und zufällig in den USA wohnt
http://stadt-bremerhaven.de/aus-chr...-tuner-dafuer-mit-android-tablet/#more-787686
http://4kfilme.de/vizio-p-serie-ab-999-dollar-bezahlbare-4k-tvs-mit-vielen-features/


Danke für die interessanten Links! :)

Zu deinem Posting:

Du hast absolut RECHT, der Monitor Fuß sollte nach Möglichkeit immer mittig sein, nicht nur wegen den Kabeln, nein auch wegen der Computertisch Größe, weil um so weiter die Füße des Monitors angebracht sind, um so schwieriger bis unmöglich wird es den Monitor darauf zu stellen. :cool_alt:
 
@Dark-Silent: Ich stimme dir in allen Punkten zu, nur verstehe ich nicht inwiefern das meinem Post widerspricht. Zugegen, du warst etwas detailierter, Einschränkungen wie die FPS Untergrenze bei G/F hab ich weggelassen.

Falls das falsch rüberkam, ich wollte nie sagen das AMDs Treiber nichts taugen. Ich habe mich ausschließlich auf Frametimes bezogen und darauf, das AMDs Treiber in der Vergangenheit häufig mehr CPU Leistung brauchte als NVidias.
 
Zurück
Oben