News Philips BDM4350UC: Monitor-Riese mit 43 Zoll, Ultra HD und IPS

mulatte schrieb:
Nach einem, mir zu kleinem, 34er in 21:9 hab ich so einen 40er geholt. Sehr geiles schwarz und schön groß. Aber 43 bräuchte ich jetzt nicht direkt. Counterstrike Source spiele ich ohne Schlieren oder sonstige Auffälligkeiten.

Warte, Moment mal, du spielst CS auf 40"? Wie nah sitzt du davor?
 
Oh Perfekt.
Von der Pixeldichte exakt die richtige Kiste mit 4K für meine alten Augen :)
Ich habe ja aktuell schon einen 32 Zoll mit 2560x1440 und finde den ideal
 
Mithos schrieb:
Bist du dir sicher, dass 60FPS flüssiger auf 120Hz wirken, als auf 60? Wird doch quasi jedes Bild einfach doppelt so oft dargestellt. Die Zeit, in der ein berechnet Bild angezeigt wird ist doch gleich. Bei 60HZ 1*1/60s bei 120Hz 2*1/120s.

Aber die Latenz zwischen Fertigstellung des berechneten Bilds und Anzeige des Bilds sinkt. Mit einer Erhöhung der Bildwiederholrate nähert sich das Ergebnis GSync/FreeSync an, d.h. unregelmäßige Frametimes fallen weniger stark auf. Wenn die Bildschirme 1000Hz hätten, bräuchte es auch kein GSync.
 
@handysurfer

Ich sch*** auf 120hz auf 1080p.
Die details die 4k bietet bietet einfach kein 1080p Monitor
Und wenn du nen 120hz monitor mit keinen 120hz betreibst ist es sinnlos. Dann lieber 60hz mit v sync

Und bei 4k muss man nicht zoomen, die zeiten wo die Auflösung die anzeigegrößen bestimmt sind schon lange vorbei.
Hast da scheinbar nen Denkfehler :D
 
Bccc1 schrieb:
Aber die Latenz zwischen Fertigstellung des berechneten Bilds und Anzeige des Bilds sinkt.
Meinst du die Zeit, die ein Bildschirm vom Bekommen der Info bis zum fertigen Aufbau des Bildes braucht? Sagt das nicht die Reaktionszeit aus und nicht die Anzahl der Hz? Klar, bei extrem hohen Hz muss die Reaktionszeit des Bildschirms ebenfalls gut sein, aber bei z.B. 5ms könnte sich das Bild 200 Mal pro Sekunde erneuern.

Hat man also stabile 60FPS und den gleichen Monitor (einmal 60Hz, einmal 120Hz) mit 5ms Reaktionszeit nebeneinander stehen.
Dann befinden sich zu jedem Zeitpunkt auf jedem Monitor das gleiche Bild. Es wird alle 1/60s durch die Graka erneuert. Die Zeit, vom Losschicken des Signals, bis zum fertigen Aufbau beträgt bei beiden 5ms. (Wenn ich das Thema der Reaktionszeit richtig verstehe)
 
Deine Annahme wäre korrekt, wenn das Spiel die 60FPS stabil und synchron zum Bildschirm liefern würde. Frametimes sind aber unregelmäßig, bei schwachen CPUs und AMDs Treiber mehr als bei HighEnd CPUs und NVidia Treibern, aber primär abhängig von der Programmierung des Spiels. Es kann oft passieren, dass direkt nachdem der Bildschirm das aktuellste Bild ausgelesen hat der nächste Frame fertig berechnet ist. Bei einem 60Hz Bildschirm wird dieses veraltete Bild nun für 16,6ms angezeigt, bei einem 120Hz Bildschirm nur für 8,3ms.

Edit: Und bei GSync/FreeSync würde das veraltete Bild nahezu sofort durch das aktuellere Bild ersetzt. Hohe Wiederholraten sind die Holzhammerlösung für das gleiche Problem wie GSync/FreeSync*. Falls dir meine Argumentation noch nicht verständlich sein sollte, wird es evtl etwas klarer wenn du dich damit beschäftigst warum GSync/FreeSync verwendet werden. Die Bilder in diesem Artikel sind recht aussagekräftig.

*natürlich haben hohe Wiederholraten darüber hinaus noch den offensichtlichen Vorteil mehr Bilder anzuzeigen wenn die Grafikkarte schnell genug ist
 
Zuletzt bearbeitet:
Bccc1 schrieb:
Deine Annahme wäre korrekt, wenn das Spiel die 60FPS stabil und synchron zum Bildschirm liefern würde. Frametimes sind aber unregelmäßig, bei schwachen CPUs und AMDs Treiber mehr als bei HighEnd CPUs und NVidia Treibern, aber primär abhängig von der Programmierung des Spiels.

Noch so ein Treibertroll mit Steinzeitargumentation Aufgrund von Schwanzbalkenlängen in Spielen

Edit: Und bei GSync/FreeSync würde das veraltete Bild nahezu sofort durch das aktuellere Bild ersetzt. Hohe Wiederholraten sind die Holzhammerlösung für das gleiche Problem wie GSync/FreeSync*. Falls dir meine Argumentation noch nicht verständlich sein sollte

Nein ist sie nicht den deine G-Sync Argumentation ist sowas von neben der Spur .
 
@Dark-Silent: Könntest du das ausführen? Ich bin mir zwar ziemlich sicher, aber wenn du es besser weißt lass ich mich gerne überzeugen.
Ich versuche noch einmal deutlich zu forumulieren was ich aussagen will und bitte dich mir zu erklären wo ich dabei falsch liegen soll.

Das Ziel ist, ein berechnetes Bild sofort anzuzeigen, da unser Gehirn bei einer Animation veraltete Informationen nicht mag(, was auch der Grund für Techniken wie ULMB ist). Bei einer festen Refresh Rate des Bildschirms und einer variierenden Frametime des Spiels, was nunmal normal ist, bestimmt also die Refresh Rate des Bildschirms den maximalen zeitlichen Fehler. Je höher die RefreshRate, desto schneller kann das neuste Bild angezeigt werden. GSync habe ich als Analogie genannt, da hier ebenfalls das Ziel ist, das neuste Bild schnellstmöglich anzuzeigen. Wenn der Sync Mechanismus latenzfrei funktionieren würde, was natürlich nicht der Fall ist, wäre Gsync in dieser Hinsicht vergleichbar mit einem Bildschirm mit einer unendlich hohen Refreshrate. Ab einer gewissen Frequenz wird es unsinnig noch GSync einzusetzen, da der maximale Zeitfehler klein genug ist um nicht mehr wahrgenommen zu werden. Wo diese Grenze liegt weiß ich aber nicht.

Wegen der Treibertroll Geschichte: Das AMD da schlechter ist mag evtl wirklich nicht mehr up to date sein, vor wenigen Jahren war es aber noch so, das mir in vielen Frametime Diagrammen in Testberichten aufgefallen ist, dass NVidia gleichmäßigere Frametimes hat. Allerdings hat sich das mit starken CPUs nicht dramatisch unterschieden, es wurde mehr bei schwachen CPUs sichtbar, so AMD bekannterweise ja schlechter Performt hat als NVidia. Kann also gut sein das ich hier falsch lag, das sollte aber den Rest meines Posts nicht beeinflussen.
Edit: Ich hab nochmal nach Spieletests mit Frametime Diagrammen gesucht und scheinbar ist NVidia hier immer noch besser:
https://www.guru3d.com/articles-pages/fallout-4-pc-graphics-performance-benchmark-review,6.html
 
Zuletzt bearbeitet:
Bccc1 schrieb:
Deine Annahme wäre korrekt, wenn das Spiel die 60FPS stabil und synchron zum Bildschirm liefern würde.

Ja, das habe ich angenommen. Anders ist es natürlich genau wie du beschrieben hast. Eventuell also etwas aneinander vorbeigeredet. Bin wohl mehr von der Theorie, als der Praxis ausgegangen. Ob die Power für stabile 60FPS (Vsynch) reicht, hängt dann natürlich vom System ab.
 
Mithos schrieb:
Ja, das habe ich angenommen. Anders ist es natürlich genau wie du beschrieben hast. Eventuell also etwas aneinander vorbeigeredet. Bin wohl mehr von der Theorie, als der Praxis ausgegangen. Ob die Power für stabile 60FPS (Vsynch) reicht, hängt dann natürlich vom System ab.

Stimmt, da haben wir aneinander vorbeigeredet. Aber wenn das System genug Leistung für stabile 60FPS mit VSync hat, also ohne je darunter zu fallen, dann stellt sich die Frage der Sinnhaftigkeit des Vergleichs. Dieses System müsste ja den größtenteil der Zeit mehr als 60 FPS schaffen, was nur durch VSync verhindert wird. Mit einem 120 Hz Bildschirm ohne VSync, falls man mit Tearing klarkommt, andernfalls mit GSync/Freesync, könnte man die verbleibende GPU Leistung nutzen und so ein zeitlich feiner aufgelöstes Ergebnis erhalten. Deshalb bin ich davon ausgegangen das du in deiner Annahme von einem System redest was eher durschnittlich 60 FPS erreicht.
 
Geht ja lanksam in die richtige Richtung. Aber so ganz das Wahre ist nicht dabei.

Würde ja gerne meine 4x Dells (23" und 24") gegen einen großen Curved Monitor tauschen. Aber dafür ist noch nichts passendes auf dem Markt.
Größ so ca 46" oder 50". Wünschenswert wären mind. 120Hz. Mind. 4k idealer Weise 5k+. Und eher ein Verhältnis in Richtung 16:10. Gerne etwas mehr in der höhe.

 
Zuletzt bearbeitet:
faltermayer schrieb:
Eine entsprechende Option hab ich zumindest noch nicht gefunden. Wenn ich am Wochenende etwas Zeit habe, spiele ich etwas mehr mit dem Monitor rum. Vielleicht gibt es eine neuere/alternative Firmware, die so eine Funktion freischaltet.

Wenn Interesse besteht (und wenn ich Zeit habe) schreibe ich vielleicht auch ein kleines Review zum Monitor.

Dazu gibt es auch keine Einstellung im OSD.
Das wird im Treiber deiner Grafikkarte eingestellt, einfach mal googeln oder ein youtubevideo anschauhen.
Einstellen kann man das dann erstmal bei jedem Panel, nur kommts halt darauf an ob der Monitor dann auch keine Frames Skippt.
Dazu gibts dann hier einen Test:
http://www.testufo.com/#test=frameskipping
Eine Review währe super ja!
 
haiopai schrieb:
@handysurfer

Ich sch*** auf 120hz auf 1080p.
Die details die 4k bietet bietet einfach kein 1080p Monitor
Und wenn du nen 120hz monitor mit keinen 120hz betreibst ist es sinnlos. Dann lieber 60hz mit v sync

Und bei 4k muss man nicht zoomen, die zeiten wo die Auflösung die anzeigegrößen bestimmt sind schon lange vorbei.
Hast da scheinbar nen Denkfehler :D

Und wenn du 4k nicht nutzt sind 4k auch sinnlos. Dein Kommentar ergibt null Sinn. ~120 Hz liegend ständig an, die FPS nicht. Es geht dabei um die Darstellung, nicht um das Nachschieben von neuen Bildern und wenn die Grafikkarte 5 Bilder ausgibt, bedeutet das nicht, dass der Monitor auch diese 5 Bilder anzeigt.

Du hast offensichtlich nicht verstanden wie ein Monitor die Bilder anzeigt, welche eine Grafikkarte ausgibt.

Und auf jeden Fall muss man Zoomen. Wenn du einen Browser mit 4k öffnest und auch mal die Optionen ansiehst, wirst du erkennen, dass da gezoomt wird. Genauso gibt es noch viele Programme die einzige Schrift haben bei 4k, weil die Buchstaben eben eine Größe nach Pixel haben und nicht etwas anderes.

Also entweder ist das ein Trollpost von dir oder du musst dringend lernen, was Hz, FPS und Pixel überhaupt Sinn und vor allem wie die sich gegenseitig beeinflussen.
 
Warum nicht einfach einen normalen 4k-Fernseher?

Sowas gibt es 55 Zoll unter 700 Euro.

Jaja, nicht alle 4k-Fernseher sind gute PC-Bildschirme. Aber einige dann doch und dann ist so ein überteuerter 43 Zoll Monitor doch totaler Quatsch.

Einen Grund gäbe es mehr für einen PC-Bildschirm zu zahlen: Kein 16:9 Sehschlitz sonder 4:3 - das wäre wirklich cool.
 
Wow, der ist echt günstig. Kann ich mir gut als TV-Ersatz vorstellen. Einfach nen kleinen PC anschließen und man braucht diesen blöden Smart TV Kram nicht mehr.

Crass Spektakel schrieb:
Warum nicht einfach einen normalen 4k-Fernseher?

Sowas gibt es 55 Zoll unter 700 Euro.
Na dann schau dir mal an, was Fernseher mit Displayport kosten. :freak:
 
michelthemaster schrieb:
PS: Mal an die Umsteiger von 24" auf 27", lohnt sich das? Ich befürchte das es wohl zu wenig Unterschied in der Diagonale ist :-(

Naja, ob es sich lohnt, muss jeder für sich selbst entscheiden. Der Umstieg von 24" FHD 60Hz auf 27" WQHD 144Hz hat sich für mich auf jeden Fall gelohnt. Einfach mal zwei Monitore vergleichen und entscheiden.

Ich habe mich gegen einen 4K-Monitor entschieden, weil die Leistung fehlt und es noch ne Weile dauert, bis genügend Inhalte (ich rede jetzt vom Gaming Bereich) geboten werden. Aber selbst in WQHD sieht alles schon sehr viel besser aus ohne dass die Hardware in Flammen aufgeht. Und 27" finde ich subjektiv eine akzeptable Größe, mehr wäre zu groß.

Edit: Ach und TN von heute ist nicht dasselbe wie TN von vor 10 Jahren. Zumindest wenn es sich nicht um Billigmonitore handelt.
 
Wow, so toll "4K" auch klingt, bei 104dpi vergeht mir aber irgendwie immer die Lust, zumindest bei kleineren Sitzabständen.
 
Quadt_89 schrieb:
Wow, so toll "4K" auch klingt, bei 104dpi vergeht mir aber irgendwie immer die Lust, zumindest bei kleineren Sitzabständen.

Naja wer bei einem 40" Bildschirm mit einem Abstand vom halben Meter sitzt, hat ganz andere Sorgen als die Anzahl der dpi.
 
IPS auf der Größe könnte aber auch sehr grenzwertig sein was den IPS-Glow angeht.
'Schon beim 32er 2160p BenQ IPS Monitor ist der in den Ecken bei dunkleren Bildinhalten stark aufgefallen, bei 43" vermutlich umso mehr, es sein denn die von Philips hätten den irgendwie in den Griff bekommen.
 
Zurück
Oben