News UHD-Monitor-Absatz soll 2014 auf zwei Millionen steigen

Godspeed0 schrieb:
UHD ist viel zu früh dran.

man kann nicht immer nur warten und inaktiv sein - das ist ne krankheit der gesellschaft.

es wird bereits in 6 und 8 k gefilmt ...
 
Sind die Leute eigentlich auch damals so ausgerastet, als die ersten Flachbildschirme im 16:9/10 Format jenseits der 1280x1024 Pixel auf den Markt gekommen sind?

Ich werde mir jedenfalls einen 4k Monitor kaufen, sobald der Preis unter 650€ fällt, ich dabei aber 60Hz und ein IPS Panel mit angenmessener Qualität beschauen darf. Umso weiter die Verbreitung, desto schneller gibt es die ersten HiDPI Patches für die Anwendungen und dann wird das Arbeiten damit auch angenehm. Und für Spiele einfach auf Full HD Stellen bis die Hardware das ganze schafft. Ich sehe keinen so ernsthaften Nachteil darin potentiell mehr Details anzeigen zu können, insbesondere wenn die Spiele dann ein paar Tage älter sind und die Hardware dann dementsprechend neu.
 
Lieber 27 Zoll, 1440p, 120 Hz IPS oder besser, 3D Vision 2 und G-Sync fähig. Dann werde ich mir evtl. einen neuen Bildschirm kaufen. 4k sehe ich echt noch nicht. Die Leistung fehlt und der Sprung zwischen Full HD und UHD ist einfach riesig. So was hatte man noch nie so einen grossen Sprung.
 
Was soll ich mit 4K, wenn die Grafikkarte in Games nicht in der Lage ist, diese Auflösung ausreichend performant mit Bildern zu versorgen? Da bleib ich doch lieber bei FullHD.

Außerdem sind gerade die PC Monitore preislich noch immer so unattraktiv, dass mir die höhere Auflösung dieses Geld einfach nicht wert ist.
 
Godspeed0 schrieb:
UHD ist viel zu früh dran.
Es gibt gar keine Games und gar keine PC systeme die man bezahlen könnte um das richtig zu nutzen.
Einige Notebooks selbst mit 13" haben schon die Auflösung von 3200x1600. Das liefert einen merkbaren Unterschied. Auch kann man Filme mit gutem upscaling und einem schärfe filter bei 1080p+ Auflösung noch etwas besser aussehen lassen. Primär langweiliger alter Text sieht schärfer aus.
Ein 28" 4k liefert ein deutlich angenehmeres lesen von PDFs, Word, Excel, Web. Wenn Text wie gedruckt wirkt von der Schärfe dann merkt man dies.
Abseits von Spielen und Filme profitiert man ungemein von diesen hochauflösenden Displays. Wenn du sie erstmal genossen hast für eine Weile dann fühlt es sich wie ein Sprung in die Steinzeit an wenn du wieder auf einen altes normal aufgelöstes Display sehen musst.

UHD ist finde ich viel zu spät dran. Bei PC Displays kann es nicht früh genug zum Standard werden. Es liegen Welten zwischen einem 1080p 23" und einem 15" mit 2880x1800 Pixeln bei normaler Betrachtungsdistanz.
Bei Fernsehern ist der nutzen begrenzt selbst wenn man 4k Material hat da man zu weit entfernt sitzt außer man ein riesiges Gerät, aber am PC sitzt man nahe und SVG, Text, UI ist skalierbar. Mit aktuellen Highend GPUs sind auch um die 60fps bei 4k zu meistern bei modernen Spielen. 1 Jahr und was nun highend ist wird Morgen mainstream sein.
Godspeed0 schrieb:
Ganz zu schweigen von der größe der Spiele oder Filme , jemand der in einem Kino arbeitet sagte mir das ein 4k Film mit Tonspur 270GB hat und das wäre noch klein.
Das heißt wir sollen sowas am PC dowenloaden oder auf 5-6 Bluray Disc´s installieren ???
Das ist aber ein Kinoproblem. 4k braucht maximal die 4 fache Bitrate und online ausgeliefert kommen komprimierte 1080p Filme auf bloß um die 4GB. 95% sehen der Konsumenten sehen den Unterschied zu einer Bluray nicht mal wenn sie mit der Nase am Display kleben. Kinos haben viel weniger komprimierte Audio und Video Dateien, auch heute für FHD werden die Filme afaik dort auf Festplatte und nicht auf Bluray ausgeliefert.
Blurays liegen bei 15-30MBits, online 1080p streaming liegt bei bloß 5-6 und trotzdem sind verglichen mit 720p alle Details am Ende vorhanden.
Allgemein kann man 4k relativ zu der Pixelanzahl viel besser komprimieren da die Details nicht so stark zunehmen.
4k lässt sich mit h265 in ausreichender Qualität bei 12Mbits ausliefern. Selbst 48fps oder 3D ist da nicht das Problem. Mehr frames die quasi dasselbe darstellen kann man wieder leichter komprimieren. Das ganze kann man eng packen und im Rahmen von 50MBit Leitungen oder Blurays bleiben während man die extra Details hat und jede Hautunebenheit bei den Schauspielern erkennt.
Die ganzen extra Details sind ja primär ein Problem bei den Filmemachern, denn nun muss viel mehr auf Details im Hintergrund geachtet werden, Makeup, Kostüme. Vorher konnte man da viel nicht erkennen. Auch macht es mehr Sinn von weiter weg zu filmen als bisher.
Godspeed0 schrieb:
Am besten investeiert man diese Jahr in Nvidia G-SYNC Monitore besseres bild und bezahlbar.
G-Sync bringt aber wenig. Variable Framerate geht auch ohne und es bringt nur etwas bei einer bestimmten fps. Wer die Hardware für 60fps konstant hat braucht es nicht.
 
ich_nicht schrieb:
UHD zum Arbeiten ja, zum zocken noch lange nicht.

Aber die 30 Hz sind ja schon eine Frechheit.

Warum? Bim normalen Arbeiten merkt man sicher nix. Und da es hier nicht um einen immer wieder nötigen Bildaufbau wie bei der Elektronenröhre geht, sondern nur um Veränderungen eines statischen Bildinhaltes, flimmert das nicht mal.

Übrigens: Auch Fernsehen wäre kein Problem, da die Bildwiederholrate typischerweise bei 25 liegt.
 
T3rm1 schrieb:
Und wenn eine niedrigere Auflösung gewählt wird muss interpoliert werden und das sieht wieder Mist aus.
Ich hätte lieber schnellere VA Panel mit höherer Hz Zahl.
Hier hat doch 4K eben den Vorteil das es FullHD perfekt interpolieren kann, 4K hat nämlich exakt die vierfache Auflösung von Full HD, so das wenn man ein FullHD Medium abspielt exakt 4 4K Pixel für einen FullHD Pixel, also sehr sauber interpoliert.
 
für was uhd, bringen tut es sich nichts,
ausser für die gearschten 780ti käufer,
wobei dennen der vram langsam ausgehen wird:evillol:
 
Einen Blaupunkt gibts doch schon ab ca. 550€, halb so teuer wie der im Text genannte Dell. Aber eben auch richtig langsam und das Problem ist wohl auch der Input Lag. Games kann man damit nicht wirklich zocken.

So richtig versteh ich das noch nicht. Kann mir kaum vorstellen, daß ein entsprechender Prozessor, der mehr Leistung bringt, so viel teuerer ist daß der nicht direkt verbaut wird. Und ein Markanteil von 8% in 3 Jahren hört sich für mich auch nicht grad viel an.
 
24"IPS Bildschirm mit 3840x2160px für 300€ und ich wäre dabei. Gerade bei der Bildbearbeitung ist das sicherlich nice. Das wird spannend. Ich denke ende 2014 geht's los und 2015 wird das Jahr des 4K.

Wie bereits erwähnt bis 2017% nur 8%. Ich denke viele Office-Nutzer und Gamer (die aufs Geld achten) werden nicht sofort ein 4K Bildschirm kaufen. Die Grafikkarte wird einfach zu stark belastet.
 
Zuletzt bearbeitet:
Ich bin auch der Meinung, dass 4K zu spät gekommen ist.
Es hat sich eine sehr lange Zeit überhaupt nichts mehr auf den Displaymarkt gegeben, obwohl jedem klar ist/ war, dass die Auflösung ab 22Zoll einfach zu gering wird.

Jetzt kommen erstmal die ersten Displays auf den Markt, bis auch die Auflösung in der Konsumentenmasse angekommen ist dauert es noch einige Zeit und es fängt dann erst mal die Entwicklung und Anpassung auf der Produzenten-/ Entwicklerseite richtig an.

Wenn man mal ansieht wie lange es jetzt schon FullHD gibt und wo diese Auflösung heute noch nicht mal richtig angekommen ist und genutzt wird.....

Bis also 4K richtig unterstützt wird, hat man auch die passende Leistung im PC- Gehäuse.


Mein nächster Monitor soll auch ein 4K werden, ich behalte die Displays schließlich auch sehr lange.
Allerdings bin ich bis jetzt von den technischen Daten der vorgestellten Displays für Allroundzwecke weniger angetan.
 
Zuletzt bearbeitet:
Für Gamer eher witzlos, da die bezahlbaren Grafikkarten das nicht packen. Für Medienmenschen schon eher was.
 
Klassikfan schrieb:
Warum? Bim normalen Arbeiten merkt man sicher nix. Und da es hier nicht um einen immer wieder nötigen Bildaufbau wie bei der Elektronenröhre geht, sondern nur um Veränderungen eines statischen Bildinhaltes, flimmert das nicht mal.

Übrigens: Auch Fernsehen wäre kein Problem, da die Bildwiederholrate typischerweise bei 25 liegt.

Für Textarbeiten wird es sicher reichen aber ich gebe dem Highspeed Opi recht. Wenn man scrollt möchte ich auch keine Diashow haben.
Manche reagieren extrem drauf und andere halt nicht, ist wie mit dem inputlag oder microlags.
 
UHD Moni fürs arbeiten/texte lesen und zum spielen einfach auf fullHD umschalten. Und bis es vernünftige und bezahlbare Gerãte gibt, haben sowieso alle Gamer eine Oculus Rift der 2ten oder 3ten generation zuhause :evillol:
 
Hier hat doch 4K eben den Vorteil das es FullHD perfekt interpolieren kann, 4K hat nämlich exakt die vierfache Auflösung von Full HD, so das wenn man ein FullHD Medium abspielt exakt 4 4K Pixel für einen FullHD Pixel, also sehr sauber interpoliert.
Nur wenn tatsächlich entsprechendes Pointsampling umgesetzt ist. Keine Selbstverständlichkeit.
 
Hier rennen halt fast nur Gamer rum die Angst um ihre Frames haben, daher das große gejammere ;) UHD auf 30" ist etwa die gleiche Pixeldichte wie jedes 13" Ultrabook mit FullHD hat. Eigentlich nichts besonderes und das sollte schon lange standard sein. Also, nur her mit den bezahlbaren Bildschirmen.

Achja, ich habe übrigens mal gehört, das man in Games die Auflösung oder Details reduzieren kann falls eine Grafikkarte zu langsam ist :eek: War da auch ganz überrascht von ;)
 
Mich würden mal statistische Zahlen zum Verhältnis von 1080p zu 1200p und 1440p Monitoren interessieren. Denn wenn ich ab und zu bei Prad vorbeischaue, dann sehe ich zu 95% nur FHD Monitore und es gibt kaum WQHD Monitore, die dort ein "Sehr gut" bekommen. Und von der Quantität her werden gefühlt fast nur FHD Monitore getestet. Meines Wissens nach ist der Inputlag eine große Schwäche bei vielen WQHD-Monitoren. Wieso werden dann jetzt UHD-Monitore als "die" Spielemonitore angepriesen? Die müssten doch weitaus untauglicher sein, als es einige WQHD-Screens jetzt schon (oder immernoch?) sind.. :freak:
 
duskkk schrieb:
95% sehen der Konsumenten sehen den Unterschied zu einer Bluray nicht mal wenn sie mit der Nase am Display kleben.
nicht dein Ernst?
Bei einem 4GB file springt dir die Komprimierung förmlich ins Gesicht. Schau dir mal Farbverläufe a, etc.

Das einzig vernünftige Hd gibt es bis heute via Blu-ray. Die 720p DVB-S2 Streams und gutes IPTV sind teilweise ganz ok, aber trotzdem kein Vergleich zur Bluray.

Der kurzfristige Sinn von 4k liegt im PC Bereich in endlich höher auflösenden GUIs. Textdarstellung a la Win 3.1 hat nun langsam wirklich ausgedient. Man betrachte einfach mal die aktuellen Retina Displays.

Und da ist auch schon der Haken: für ein vernünftiges HiDpi GUI (250-300ppi) sind 4k eigentlich immer noch viel zu wenig. Da kommt man bei PC-Displays ja gerade mal auf ca. 22".
 
Zuletzt bearbeitet:
Zurück
Oben