News UHD-Monitor-Absatz soll 2014 auf zwei Millionen steigen

@Dr.Pawel

Ach man kann immr noch Downsampeln. Wenn ich ein 27" mit 2560x1440 habe (16:9) ist 1080p eigentlich kein Problem :) Zur NOt kann man noch den (Vollbild)Fenstermodus anmachen und es sieht aus als wäre es die korrekte Auflösung.
 
Ravenwest schrieb:
Ich denke, UHD macht erst bei größerer Bildfläche Sinn. 30" waren mir bei ca. 50cm Sichtabstand schon zu groß.

Es ist immer vom individuellen Abstand zum Monitor abhängig. Manche Sitzen näher am Monitor manche weiter weg. Was optimal ist kann man nicht pauschal sagen. Zumindest ist UHD bei Monitoren wesentlich sinnvoller als bei Fernsehern. Die meisten Leute sitzen wesentlich näher an einem Monitor als vor einem Fernseher (bezogen auf die Diagonale des jeweiligen Geräts), somit sollte ein Monitoren eine höhere ppi Zahl als ein Fernsehern haben. Wenn ich mir überlegen wie viele Monitore es mit FullHD und 27" gibt kommt mir mein Frühstück wieder hoch. Selbst FullHD auf 23" ist schon für meinen Geschmack zu wenig, wenn man da mal als direkten Vergleich FullHD auf 15,6" daneben stellt.

Dan Kirpan schrieb:
...dann erreicht man über 300ppi, der Wert ab dem das Auge keine Pixel mehr wahrnehmen kann.

Nein, nein und nochmal nein. Das Auflösungsvermögen des Auges ist von einigen Faktoren abhängig so dass man keine pauschale Aussage treffen kann. Schon gar nicht ohne einen Abstand zum Display zu nennen. Das menschliche Auge hat z.B. bei starken Kontrasten und parallelen Linien ein wesentlich höheres Auflösungsvermögen als bei farbigen Bildern. Wenn man also Texte mit schwarzer Schrift auf weißen Untergrund hat braucht man eine höhere ppi Zahl als wenn man sich auf gleiche Entfernung Fotos anschaut.
 
Neue Technik kann es nie früh genug geben und ich glaube wir führen hier die gleich Diskussion wie bei der Einführung von HD bei Fernsehern. Anfangs sehr teuer, kaum Inhalte, ältere Filme sahen pixelig aus und allgemein war man mit der 80cm Röhre zufrieden. Man sollte immer bedenken dass wir noch am Anfang der Entwicklung stehen.

Am ehesten wird sich 4k bei reinen Desktopanwendungen durchsetzen. Besonders CAD Anwendungen und vergleichbares profitieren von der besseren Bildqualität. Insgesamt ist der Platzzuwachs im Vergleich zu FullHD riesig. Wenn man es nicht selbst gesehen hat kann man es kaum glauben, dass es einen so deutlichen Unterschied zu FullHD gibt.

Gamer werden sich auch nicht so lange gedulden müssen. Heutige High End Karten (GTX 780TI, R9 290X) erreichen bei aktuellen Spielen bereits 25-30 fps, etwas ältere Spiele laufen flüssig. In 2-3 Jahren wird genug Leistung da sein für flüssiges spielen, und die Mittelklasse wird die Leistung heutiger High End Karten haben. Enthusiasten werden dann keine Probleme mehr haben und selbst preisbewusste Spieler werden 4k nutzen können, wenn man die Anforderungen nicht zwingend auf Ultra haben muss.
 
lynx007 schrieb:
Das stimmt. Mal Rechnen, 4 fache HD Auflösung, das bedeutet wir brauchen gut 400% Leistung. Pro Jahr etwa eine Steigerung von ca 15-20%, das macht also gute 20 Jahre bis wir UHD im Gamer mittelklassesegment finden werden.... Sprich spätestens 2034 haben wir Mittelklassegamer einen UHD Monitor. ;D

Selbst wen wir optimistischer rechnen, also mal von 30% pro Jahr ausgehen , was sehr Utopisch ist, dann sind wir immer noch bei guten 13 Jahren bis UHD in der Gamerszene bezahlbar wird :D.
Bei 20% Zuwachs sind es 7 - 8 Jahre: 120% - 144% - 173% - 207% - 249% - 299% - 358% - 430%
Bei 30% Zuwachs sind es knapp 5 Jahre: 130% - 169% - 220% - 286% - 372% - 483%

Zudem braucht man bei höherer Pixeldichte weniger Antialiasing, was den zusätzlichen Leistungsbedarf noch etwas senkt.
 
Palomino schrieb:
Insgesamt ist der Platzzuwachs im Vergleich zu FullHD riesig. Wenn man es nicht selbst gesehen hat kann man es kaum glauben, dass es einen so deutlichen Unterschied zu FullHD gibt.

Du wirst es kaum glauben, aber ich hätte Stand heute weniger Platz, als bei meinen aktuellen Monitoren! Der Witz bei den UHD-Monitoren ist ja die feinere Darstellung, wodurch sich nach (optimaler) Skalierung der gleiche Platz ergibt, aber eben viel mehr Details dargestellt werden. Endlich, kann ich da nur sagen. Und der UP2414Q ist sogar schon bezahlbar.
 
Highspeed Opi schrieb:
Für die Mehrheit ausreichend? Das soll doch gefälligst der Kunde entscheiden und nicht irgend ein Verkäufer, der sein Müll loswerden möchte.
Meiner Meinung nach ist der billige Monitor wirklich billig und man kann niemanden zum Kauf raten. Lieber etwas warten und mindestens 60 Hz erhalten.

60Hz oder gar mehr brauchen aber doch wirklich praktisch nur Gamer und die sind nunmal sowieso schon eine Minderheit unter den PC-Anwendern und unter den potentiellen Käufern von 4K-Monitoren erst recht.

Auf dem Windows-Desktop machen 30Hz keinen Unterschied (es sei denn man schiebt die ganze Zeit nur mit Höchstgeschwindigkeit Fenster hin und her) und auch für Videos reicht es in den allermeisten Fällen gut aus. Praktisch alle Online-Streams haben eh nur 30FPS und Kinofilme sogar meist nur 24FPS.

Ich persönlich würde zwar auch auf min. 60Hz Wert legen, weil ich gerne am PC spiele, aber ich glaube es sofort, wenn jemand sagt, dass für die allermeisten 30Hz völlig ausreichen bzw. 60Hz zumindest keinen erheblichen Aufpreis rechtfertigen.
 
Zuletzt bearbeitet:
Also bei mir steht mal langsam wieder ein TFT kauf an.
Ich habe derzeit leider nur 1920x1200 mit 60Hz als TN auf 27".
Ich würde sofort auf 4K 27" bis 30" wechseln wenn es die den für 1K Euro gäbe. Aber eben nur mit 60Hz und IPS.
Um Leistungsengpässe mache ich mir keine Sorgen.
Schließlich spielt nicht jeder immer die neuesten Spiele, darüber hinaus dürfte FHD ohne interpolation auf 4K möglich sein.

Wer sich einen TFT für 1000€ kauft sollte dann auch keine Probleme damit haben ein Crossfire System aufzubauen.
Nvidia SLI ist natürlich teurer und hängt in den meißten Fällen am VRAM Flaschenhals, lernen durch Schmerz eben.
 
RenoRaines schrieb:
UHD bei Gamern...nur was für echte Enthusiasten die auch vor Triple und Quad Graka Systemen nicht zurück schrecken. Denn schon von 1080p auf 1440p sinkt die Framerate um ~40%...da will ich nicht wissen wieviel diese sinkt wenn auf einmal 2160p verlangt werden...

Aber man darf nicht vergessen: Die echten Gamer machen nur einen kleinen Teil aus, von daher sind ca. 10% bis dahin schon realistisch.

Allerdings bleibt noch anzumerken das UHD wahrscheinlich erst bei 32+ Monitoren Sinn macht...ansonsten reicht auch ein 2560x1440iger wie ich ihn aktuell habe.

Aber was red ich, in Zeiten wo ein Galaxy S5 mit 5,2 Zoll Display und 1440p geplant ist die Vernunft eh schon lange über Bord und der Wahnsinn nicht mehr aufzuhalten.

Die "echten" Gamer mit entsprechenden Grafikkarten Setups werden 100x lieber einen 1440p Monitor mit 96-120Hz nehmen als 4k mit 60 oder gar nur 30Hz...

4k bringt eigentlich hauptsächlich etwas für Leute die für den professionellen Einsatz mehr Detailschärfe (und nicht unbedingt Bildwiederholrate) brauchen... Fotografen z.B.
 
UHD-Fernseher gibt's ja schon nachgeschmissen um 550€: https://www.computerbase.de/2014-01/blaupunkt-b39c4k-ultra-hd-fuer-555-euro/
Die Preise der Monitore werden ähnlich schnell fallen und zu Weihnachten kostet der UHD-Monitor vlt noch 350€ oder weniger. Die Panels für UHD kosten nicht sonderlich viel mehr als normale FHD-Panels. Wenn dem so wäre, wären die neuen Smartphones unbezahlbar. Noch teuer hingegen ist die Anbauelektronik, sprich Signalverarbeitung. Darum haben viele Billig-Monitore derzeit auch nur 30Hz. Die Bandbreite der aktuell günstig verfügbaren Übertragunstechnik is nicht hoch genug...
Aber auch das wird sich vermutlich innerhalb der nächsten Monate geben...

MfG, Thomas
 
Wieviele Jahre wirds wohl noch dauern bis eine 200€ Graka bei 4k flüssige Frameraten liefert? :freak:
 
T3rm1 schrieb:
Als Gamer will man gar keinen so hochauflösenden Monitor, weil Mittelklassegrafikkarten das nicht vernünftig schnell darstellen können.

Gerade für Gamer mit Mittelklasse-GPU sind die Teile ein Segen. Hohe Auflösung am Desktop und 1280x720 für Games (durch die exakt halbe Auflösung ohne große probleme beim runterskalieren). Und schon flutscht es sogar mit ner APU ;-)

Die 30Hz bei UHD sind dannn auch kein Problem, solange das Panel bei kleineren Aulfösungen die 60Hz hinbekommt.
 
@Flatan

Kann sie schon heute ;) Downsampling.
 
Flatan schrieb:
Wieviele Jahre wirds wohl noch dauern bis eine 200€ Graka bei 4k flüssige Frameraten liefert? :freak:

2 Jahre, nicht mehr. Bedenke bei 4K braucht man kein AA oder Downsampling mehr. Zumindest bei 24".
Das spart Leistung, außerdem Schaffen eine 290X von AMD jetzt schon 25 fps bei BF4 auf ULTRA. Selbst eine 7970 kann 4K ohne Probleme in alle Spielen wieder geben, wenn man AA und ein paar Details weg lässt.

60HZ sollten ebenfalls in 2Jahren kein Problem sein. Ausgehend nur von heutigen Spielen.

Mantle und andere Features könnten diese Zeit noch verkürzen.
 
Da es immer noch Diskusionen gibt was nötig ist und was nicht, hier mal eine Rechnung, mit der es jeder für sich prüfen kann:
nötige PPI = 2,54/((2*3,141592*ABSTAND/360/60)*MOA)

ABSTAND = Abstand in cm vom Auge zum Gerät
MOA = Sehfähigkeit eures Auges in Winkelsekunden, beim Menschen ist dieser ~1', unter optimalen Bedingungen (Helligkeit und Kontrast) können auch 0,4' möglich sein, was praktisch nie der Fall sein dürfte. Je kleiner der Wert, desto besser könnt ihr sehen.

Welche Auflösung ihr braucht findet ihr heraus, indem ihr die berechneten PPI mit den Zoll eures Gerätes multipliziert.

Beispiel:
Handy: 30 cm vom Auge entfernt, macht bei 1' 291 PPI, bei 0,4' 728 PPI (dafür sind die Teile aber wohl nicht hell genug)
Bei 4" wäre somit eine Auflösung von 1164 (max. 2912) Pixel (in der Diagonale!) nötig. FullHD ist also angebracht, mehr ist aber nicht nötig.

Monitor: 100 cm vom Auge entfernt, macht bei 1' 87 PPI, bei 0,4' 218 PPI.
24": 2088 - 5232 Pixel, wer gute Augen hat provitiert also von 4K
24" @ 50 cm: 4191 bis 10478 Pixel (174 bis 436 PPI)
Wer bei einem 24" auf 50 cm ran rutscht und sehr gute Augen hat, kann dann auch mit 8K etwas anfangen.

TV:
1 Meter Abstand: 2619 bis 6548 bei 30", 3492 bis 8731 bei 40", 4365 bis 10914 bei 50"
2 Meter Abstand: 1309 bis 3274 bei 30", 1746 bis 4365 bei 40", 2182 bis 5457 bei 50"
3 Meter Abstand: 873 bis 2182 bei 30", 1164 bis 2910 bei 40", 1455 bis 3638 bei 50"
4 Meter Abstand: 655 bis 1637 bei 30", 873 bis 2183 bei 40", 1091 bis 2729 bei 50"
5 Meter Abstand: 524 bis 1310 bei 30", 699 bis 1746 bei 40", 873 bis 2183 bei 50"
 
Zuletzt bearbeitet:
S.Kara schrieb:
Und 30 Hz sind im Office-Bereich mehr als genug.

HAst du schonmal die Refreshrate in deinem Grafikkartentreiber auf 30Hz gestellt? Das ist zwar sehr subjektiv, aber für mich ruckelt der Mauszeiger da doch sehr. Die 40Hz "Stromsparmodus" von meinem Notebookdisplay sind auch noch sehr befremdlich. Ab 50Hz wirds erst weich.
 
Eugen1 schrieb:
kann mir wer erklären warum es keine 120 HZ, 1440p 27* Monitore mit geringem inputlag für ca. 350 Euro gibt? Die Frage ist wirklich ernst gemeint, ich kenne mich damit nicht aus. Ist der Absatzmarkt zu gering? Nur schwer/teuer herzustellen?

Die gibt es und geistern als Geheimtipp seit einer Weile durch die Foren:
http://www.overclock.net/t/1384767/official-the-korean-pls-monitor-club-qnix-x-star/
https://www.computerbase.de/forum/t...nitore-aus-korea-fuer-300eur-teil-ii.1112463/


Herdware schrieb:
60Hz oder gar mehr brauchen aber doch wirklich praktisch nur Gamer und die sind nunmal sowieso schon eine Minderheit unter den PC-Anwendern und unter den potentiellen Käufern von 4K-Monitoren erst recht.

Auf dem Windows-Desktop machen 30Hz keinen Unterschied (es sei denn man schiebt die ganze Zeit nur mit Höchstgeschwindigkeit Fenster hin und her) und auch für Videos reicht es in den allermeisten Fällen gut aus. Praktisch alle Online-Streams haben eh nur 30FPS und Kinofilme sogar meist nur 24FPS.

Ich persönlich würde zwar auch auf min. 60Hz Wert legen, weil ich gerne am PC spiele, aber ich glaube es sofort, wenn jemand sagt, dass für die allermeisten 30Hz völlig ausreichen bzw. 60Hz zumindest keinen erheblichen Aufpreis rechtfertigen.
Bei nur 30Hz und einem großen Display dürfte der Cursor unangenehm stark ruckeln.
 
Ja genau Leute, kauft 4K TV´s zu überteuerten Preisen, die dann wenn endlich ein 4K-Standart spezifiziert wurde diesem nicht mehr entsprechen und ihr in fünf Jahren alle wieder 4000-6000€ ausgeben dürft!

(soll nicht heißen dass ich die Entwicklung richtung 4K nicht befürwote, kanns sogar kaum erwarten endlich meine Hardware mit so einem Monster-Screen zu quälen =) aber da müssen dann auch erst 21:9 4K+ Monitore auftauchen xD)
 
Zuletzt bearbeitet:
Also irgendwie finde ich die Unterhaltung etwas merkwürdig.

Ich habe einen 17 Zoll Laptop der kann 1900x900. Also nicht dolle. Aber ich fahre den damit nicht. Ich kann mit dieser Auflösung simpel nix mehr erkennen, weil die Darstellung zu klein wird. Muss ja schon bei 1280x720 per Windows vergrößern.

Ich stell mir nun mal 4K vor?
Wo sich da eine Verbesserung ergibt, das erschließt sich mir irgendwie nicht. Wenn man irgendwann nix mehr entziffern kann?

Dasselbe ist doch Mobil. Mein Tab hat nur 1200x aber auch da muss ich schon Schriften vergrößern. Habe probleme beim erkennen. Beim Gedanken 2000 und mehr kommt mir das Grausen?

Nun kann man mit den Diagonalen hochgehen aber wer will ein 30 Zoll tab und ein 100 Zoll TV. Den muss man auch noch in die Wohnung bekommem :-)

Irgendwie klingt das eher nach Wahn, als nach Fortschritt in meinen Augen?
 
Zuletzt bearbeitet:
Koto schrieb:
Also irgendwie finde ich die Unterhaltung etwas merkwürdig.

Ich habe einen 17 Zoll Laptop der kann 1900x900. Also nicht dolle. Aber ich fahre den damit nicht. Ich kann mit dieser Auflösung simpel nix mehr erkennen, weil die Darstellung zu klein wird.


Ist halt individuell verschieden was die einzelnen Leute erkennen und was nicht und was sie als angenehm empfinden. Ich sitze gerade an 15,6" mit 1920x1080 und Skalierung auf 100% und habe absolut keine Probleme auf 70cm was zu erkennen. Wenn ich daneben meinen 23" Monitor mit FullHD sehe, dann könnte dort die Auflösung ruhig noch deutlich höher liegen.
 
Zurück
Oben