News Markttag: Ultra-HD-Monitore im Überblick

der News schrieb:
Wie so oft gilt damit auch bei Ultra HD: Bis Inhalte großflächig vorliegen, Betriebssysteme perfekt harmonieren und Rechner schnell genug für die Berechnung hochauflösender Inhalte sind, wird bereits eine ganz andere Gerätegeneration im Handel zu finden sein.

Nur wer schon heute das Mehr an Schärfe zu nutzen weiß, sollte mit dem Angebot im Handel liebäugeln.
Während der erste Satz einfach nur der Wahrheit entspricht und weise formuliert ist, ist der zweite einfach nur Käse.

Schon bei FullHD aka 1080p wurde mit dem Schärfeargument um sich geworfen, was streng genommen reines Marketinggeblubber ist. In erster Linie werden die Bildgrößen größer und über Schärfe, Farbtreue usw entscheidet primär das Aufnahmegerät -oder eben hilfsweise der Mensch mit der Videobearbeitungssoftware.
 
Dann gibt es aber noch Schrift die individuell gerendert wird. Die profitiert ohne Ende von der Auflösung.
 
@bu.llet:

Da würde ich zustimmen - gerade für schöneres Font-Rendering wäre 4K auf dem Desktop sehr attraktiv. Im Grunde ist das Einzige, was mich wirklich stört/vom Kauf abhält, die fehlende Skalierung diverser Software. Für Spiele könnte ich ja zur Not auch noch auf FullHD nutzen (2:1-Skalierung sollte ja theoretisch nicht schlechter als mein aktueller Monitor aussehen).
 
Für Gaming ist aber in meinen Augen UHD weiterhin zu hoch gegriffen. Allein die aktuellen News mit neuesten Patches zu ACU oder bei Gamestar die aktuelle "über" GTX 980 unterstreichen weiterhin, dass die aktuelle Hardware (Single GPU) noch nicht reicht für flüssiges Gameplay in UHD.
Da bringt selbst G-Sync nix und UHD mit Mikrorucklern erkaufen? Naja, ich weiß ja net.

Ältere Spiele hingegen würde wieder funktionieren, sofern sie ein skalierbares UI haben. Dragon Age Origins lief zwar mit über 150fps in UHD bei mir flüssig, war aber leider nix mehr zu erkennen. Windows 7 ist dann sowieso außen vor und Win 8.1 hat auch noch so seine Problemchen, von den Anwendungen ganz zu schweigen. Mit Windows 10 könnte die Sache dann anders aussehen, insbesondere da dann auch Big Maxwell und Co draußen sein dürfte :D. Doch bis dahin? WQHD und optional UHD per DSR, nativ ist Quark!
 
UHD Monitore werden zwar der neue Standard werden, aber mein nächster wird definitiv ein 21:9 Screen mit ~3440px in der Breite. IPS-Panel und FreeSync sollte auch mit an Bord sein. 120Hz wäre auch nice to have, muss aber nicht unbedingt sein.
TheGreatMM schrieb:
Kann man sich bitte auf 4k einigen? die ganzen Kürzel seit QQVGA über Quad SXGA+ bis WHUXGA nerven doch nur....
Nein, denn 4K is genauso falsch. 4K bezeichnet eine definierte Auflösung -die nicht UHD ist, sondern größer. "4K UHD" oder "8K UHD" ist akzeptabel aber 4K alleine is was anderes.

Ich persönlich bin aber ein Fan von etwas wesentlich simpleren: Die Auflösung einfach hinschreiben. Es seiden es handelt sich tatsächlich genau um FHD (nicht zB 1920x1200).
 
Einen UHD Monitor leg ich mir erst mit Windows 10 zu, dann wird richtig skaliert und die Preise sind etwas gesunken.

Zu den SSD's: Ist denn die Samsung 850 Evo 500Gb zu empfehlen? Würde die mir gerne demnächst zu legen und bin auch bereit die ca. 214€ zu zahlen. Ich seh' überall immer nur die Crucial SSD's.
 
crustenscharbap schrieb:
Der Stromverbrauch ist erschreckend. Mein 4 Jahre alter LCD-Monitor (kein LED) braucht maximal 45W. Ein 4k Monitor 90W. Beide 24" groß.

:freak: Welchen 4K Monitor meinst du? Lassen sich ja nicht alle über ein Kamm scheren.
Mein Samsung (siehe Test)
braucht nur 38W und ist 28"?!
 
Hol mir so ein Ultra HD wrsl recht bald. Zum Zocken mögen die Dinger ja total das System überfordern. Mir total Wurst. Zum Arbeiten verhindern die aber erfolgreich Augenkrebs. Wie ich den Pixelsalat bei meinem 27" mit 2560x1440 schon nicht leiden kann. 4k bei 24" lachen mich an.
 
Gelbsucht schrieb:
Schon bei FullHD aka 1080p wurde mit dem Schärfeargument um sich geworfen, was streng genommen reines Marketinggeblubber ist. In erster Linie werden die Bildgrößen größer und über Schärfe, Farbtreue usw entscheidet primär das Aufnahmegerät -oder eben hilfsweise der Mensch mit der Videobearbeitungssoftware.

Du sitzt 40-60 cm vom Bildschirm entfernt. Da ist der Unterschied zwischen 100 dpi und 200 dpi sehr, sehr sichtbar. Schon der Unterschied zwischen meinem 24" 1920x1200 und meinem 27" 2560x1440 (gerade mal 30 dpi) ist mit dem freien Auge leicht erkennbar. Zwischen meinem MBP Retina und dem 24" Schirm sowieso.
Bei Fernsehern, wo du 2-4m wegsitzt ist zwischen FullHD und 4K kein Unterschied erkennbar, solange du unter 70" Bildschirmdiagnonale bleibst.

Ich persönlich liebäugle ja mit einem 5k 27" Schirm, aber a) muss der unter 1000 € kosten (da sind wir nicht mehr so weit davon weg), b) meinen Dell mit erweiterten Farbraum ersetzen und c) bräuchte ich min. die 4fache GPU-Leistung meiner AMD Radeon 290 um das Setup in nativer Auflösung vernünftig zu betreiben - derzeit noch illusorisch. Daher wird frühestens 2016 ein sinnvoller Umstieg bei mir stattfinden.
 
Zuletzt bearbeitet:
Jan schrieb:
@ Gelbsucht: nicht nur an Video denken, gibt auch Foto oder Software.
Ja aber auch das zieht mein Argument. Bildgröße allein macht keinen Schärfeunterschied, sondern schafft nur mehr Platz, damit man Details besser sehen kann.

Maßgeblich über Qualität allgemein ist erstmal das aufnehmende Gerät.
 
Zurück
Oben