News Ultra HD soll 2015 zehn Prozent Marktanteil erreichen

Fellor schrieb:
Für's Gaming ist 4K noch relativ "ungeeignet" da die Kosten für Hardware, die Potent genug ist, relativ hoch sind.
Sehe den Bereich momentan eher in Richtung Heimkino, aber solange es noch nicht ausreichend Medien mit nativem 4K gibt, lohnt sich die Anschaffung kaum.

Weder das eine (Spiel) noch das andere (Filme vom TV Programm) ist UHD aktuell zu empfehlen.

Der Grund ist am PC gibt es aktuell keine Grafikkarten die ALLE Spiele in UHD berechnen können mit spielbaren FPS. Auch SLI Systeme kommen da nicht mit da sie nicht 1zu1 skalieren je mehr Grafikkarten man paart.

Bei Filmen/Serien macht UHD nur dann Sinn wenn man ein UHD TV mit mindestens 80 eher 85 Zoll hat und darauf NATIVES Filmmaterial in UHD abspielt = nix hoch skaliertes! Damit der TV das mehr an Bildinformationen auch rüber bringen kann sprich das Auge das mehr an Details auch effektiv die ganze Zeit wahrnehmen kann. Denn sonnst sind die Details zwar da aber auf einem kleineren TV UND ERST RECHT PC Monitor nicht auseinander zu halten. Ihr müsstet Praktisch eine Lupe verwenden um sie erkennen zu können oder TV & Wohnzimmer untypisch EXTREM NAH davor sitzen!

Soll heißen am PC macht es wenn ich nicht auch Spiele in der Auflösung spielen kann wenig Sinn den Aufpreis gegenüber einem Full HD Monitor zu bezahlen. Nur für Hobby Fotografen macht es aktuell Sinn damit sie die Qualität ihrer Bilder besser Beurteilen können, jedoch benötigen die wiederum deutlich bessere Monitore was das Panel angeht wegen der Farbechtheit. Und am TV sind in der üblichen TV Größe um 40-55 Zoll auch nicht. Nur das interessiert weder den Verkäufer noch Hersteller. Denn beide wollen dir etwas verkaufen.

Zum Thema an sich: Der Marktanteil wird durch die Neukäufe in der Zukunft natürlich steigen, nur ist das eine News wert? Es sollte eher eine Kolumne von CB geben zum Thema PC-UHD , die Aufzeigt wie der aktuelle Stand von U-HD allgemein am PC ist. Also Geräte & Quell Material und wesentlich wichtiger wie gut unterstützt ist U-HD von Windows 7, Windows 8 und den allgemeinen PC Programmen?
 
UHD

ist für mich sicher noch bis 2020 uninteressant,
alleine weil meine Lieblings film meist nur in 720p laufen,
daher bleib ich mal lieber bei 768p monitor/fernseher
 
10 % halte ich für nichtmal unrealisitisch!

4k funktioniert ja heute schon ganz gut. habe zuhause einen rennsimulator , project cars läuft in 4k wunderbar - auf hohen einstellungen und inkl. AA.
 
Ja das ist mir klar muss ja auch weiter gehen, obwohl ich selber schon ein Samsung 4K TV besitze und bin sehr zufrieden, mal abwarten bis das Material Anfang 2015 kommt.
 
Was ich wirklich mit Freude kaufen würde, wäre ein 4K Monitor, der in nativer Qualität und ohne Abstriche, Unschärfe, Artefakte 1080p Material darstellt, indem 4 Pixel als eines zusammengeschalten werden. Da darf der Monitor gern auch etwas teurer sein, wenn ein exotischer Scaler nötig ist und ein Bildürozessor, der eben mal etwas "klüger" ist als üblich. Up- und Downscaling im PC Bereich ist wirklich eine Schande - seit vielen Jahren und es ist sogar eher schlimmer als besser geworden.
Der Monitor muss das können und vorher wechsle ich nicht. 4K Gaming ist momentan einfach illusorisch. Und ich habe nicht unbedingt Lust, Neuerscheinungen immer mit zwei Jahren Verzögerung zu zocken, damit es eine Grafikkarte gibt, die das überhaupt in 4K darstellen kann :freak:
 
21:9, Panel mit hoher Farbtreue und hohem Kontrast, schnelle Reaktionszeit, 120 oder 144HZ und ein Preis von unter 1000€. Bei einem voll spieletauglichen Gerät bin ich mit dabei und rüste auf.
 
Ich freue mich schon auf die massenweise Beschwerden von Leuten, die sich wundern, warum ihre DVDs, Blu-rays und Spiele so bescheiden auf einem "Ultra HD" oder "4K" Monitor ausschauen wegen der zum Teil notwendigen extremen Skalierung/Interpolation :D.
 
Ach naja, so schlimm ist das "Verwaschen" durch Skalierungsinterpolation bei weitem nicht, ich finde das Thema ganz schön overhyped. Ich persönlich finde, die erzeugte "Unschärfe" bewegt sich irgendwo im gleichen Bereich, die die Unschärfe auf einer guten alten Röhre mit hochwertiger Lochmaske. Ich mein, ich habe bisher noch nie gelesen, dass irgendjemand durch die bei anamorphen 16:9 720*576 PAL DVDs nötige Interpolation, egal was für eine Aufklösung der Monitor/TV nun hat, Augenkrebs bekommen hätte.
 
XEVOLUTION schrieb:
Und Single GPU Grafikkarten die Ultra Details mit 4k und 60FPS erreichen werden noch Jahre auf sich warten lassen, oder?
Die Frage kann man wohl nicht pauschal beantworten. Schließlich verwenden auch die Spiele immer wieder neue Techniken. Bei FullHD kann man mit den heutigen Grafikkarten auch keine 60FPS garantieren
 
Tuetensuppe schrieb:
Ich freue mich schon auf die massenweise Beschwerden von Leuten, die sich wundern, warum ihre DVDs, Blu-rays und Spiele so bescheiden auf einem "Ultra HD" oder "4K" Monitor ausschauen wegen der zum Teil notwendigen extremen Skalierung/Interpolation :D.

1920x1080 zu 3840 × 2160 = 2:1

Selten dämlicher Post.
 
MountWalker schrieb:
Ach naja, so schlimm ist das "Verwaschen" durch Skalierungsinterpolation bei weitem nicht, ich finde das Thema ganz schön overhyped.

Jein. Sagen wir es so: die technische Entwicklung hat das Problem marginalisiert. Die ersten Generationen von "HDready"- und "FullHD"-Fernsehern hatte tatsächlich gewaltige Probleme mit der Darstellung von SD-TV, was unter anderem dazu führte, daß JVC eine Geräteserie mit einer merkwürdigen Zwischen-Auflösung anbot, die aber mit wenigen abgeschnittenen Zeilen ein gemeinsames Vielfaches der gebräuchlichsten SD- und HD-Formate darstellte, womit die Umrechnung vereinfacht wurde und das Ergebnis ansehnlich wurde. Zumal damals noch so gut wie keine HDTV-Sender existierten.

Inzwischen gibts mehr HD und die Hardware-Encoder der Geräte können jetzt auch besser skalieren. Was bleibt, ist ein verwaschen wirkendes Bild mit großen, weichgezeichneten Farbflächen, statt einer gewissen Körnigkeit des Bildes, was diese synthetischer wirken läßt. Ist halt immer noich ein 0,4-Megapixel-Bild, das da dargestellt wird. Und das um so schlechter, je größer die Bildfläche ist.
 
Klassikfan schrieb:
... 0,4-Megapixel-Bild, das da dargestellt wird. Und das um so schlechter, je größer die Bildfläche ist.
Aber das sind ja auch zwei verschiedene Punkte - das Bild ist eben so schlecht, wie es gespeichert ist. Aber der Unterschied durch die Interpolation hat schon 1995 keinen gestört, der mit einer RealMagic Hollywood+ DVD/MPEG2-Decoder-Karte anamorphe 16:9 720*576 PAL DVD auf seinem Windows95-PC gesehen hat. Wenn man mit der Lupe vergrößert, sieht man, was die Interpolierung verursacht, aber keiner von den ganzen Testern bei Thg und Co. setzt mal Fotonahaufnahmen von einer schnöden CRT-Lochmaske auf die Website.

Samsung Samtron 78E mit abgerechnetem Gehäuserahmen:
(40100-2000)/23=1656 "native" Pixel in der Lochmaske, aber 1280 Pixel in der Bildauflösung. Die Lochmaske interpoliert automatisch gut, aber das ist natürlich keine 1:1 Darstellung, sondern 1,29375:1, also ziemlich krumm. Und dann waren bei den modernsten Lochmasken die Löcher auch noch versetzt in der Maske - also noch komplizierter.

Bezeichnenderweise ist bei TV-Geräten nie die Rede davon, was diese voreingestellte Funktion mit dem Overscan eigentlich in Sachen Pixelgenauigkeit bedeutet.
 
Zuletzt bearbeitet:
XEVOLUTION schrieb:
Und Single GPU Grafikkarten die Ultra Details mit 4k und 60FPS erreichen werden noch Jahre auf sich warten lassen, oder?

Bezweifle ich. Schon die 970 und 980 schaffen passable Werte ohne AA. Titan II und R9 390X werden wahrscheinlich dann die ersten Grafikkarten sein, die ohne SLI/CF alleine eine UHD Auflösung + Ultra Settings (eingeschränktes AA) mit ~60fps stemmen können. :)
 
Bin mit dem Samsung U28D590 sehr zufrieden.
Hatte davor den LG IPS 24EA53, und den auch nur weil der günstig war als mein alter abgeraucht ist.
Das war ein ziemlich komisches Teil, schlecht ausgeleuchtet->Display Bleeding.
Will den 4k jetzt schon nicht mehr hergeben, vor allem auch nicht da er mit 360 beim Amazon Cybermonday ziemlich günstig war. Schönes Design und auch nicht zu groß wie man vielleicht erst vermuten würde.
Skalierung auf dem Desktop über Windows klappt ganz gut, auch wenn Steam ein bisschen schwammig aussieht.
Hoffentlich kommt bald das Geld für 'ne neue GPU nach, die 770 macht da jetzt schon nicht mehr viel Spaß :p
 
achja, dann wird die ps4 endlich mal gefordert, 1080/60 geht ja so gut damit :king:
 
Project-X schrieb:
Wie sieht es mit der Farbtreue etc. aus? Ich hatte vor ein paar Jahren eine TV als Monitor, war eine Katastrophe. Jetzt bin ich überglücklich mit dem 40" 4K Monitor.
Kannst du bei den von max_1234 genannten (Hessens und co) völlig vergessen.
Wurden mal in der ct getestet und waren in allen Punkten mehr als unterdurchschnittlich. Gerade auch Reaktionszeit unter aller Sau. Da möchte man keinen Mauszeiger bewegen.
 
ich warte auf dp 1.3 und mehr als 60HZ mit geringen ms und input bei 28 zoll und gekauft ist er
 
Bevor es keine 4k Bildschirme >60"/Projektoren mit Unterstützung für HDR, Rec2020, sowie 10bit Panel gibt und keine Grafikkarte h265 in Hardware dekodieren kann, bleibt 4k für mich eine sinnlose Spinnerei und rausgeworfenes Geld. Bis es entsprechende Hardware zu fairen Preisen gibt, werden noch 2-3 Jahre ins Land ziehen. Dazu müssen aber erst mal Quanten Punkt Displays oder richtige OLEDs deutlich günstiger werden. Mit normalen LC Displays wird das wohl nicht zu schaffen sein. Vllt. gibt es ja auch eine zwischenzeitige Rückkehr der Plasmas, wer weiß ... Also abwarten und Kaffee trinken.
 
Zurück
Oben