News Eizo ColorEdge CG248-4K setzt auf UHD und Farbtreue

TungstenCarbide schrieb:
Ich würde mir niemals einen 4k monitor unter 27 zoll kaufen.

Und ich würde nie 4k auf 27" kaufen, weil mir die 27" einfach zu groß sind, aber 1920*1200 auf 24" schon arg pixelig ist (sind ja auch nur 90ppi). Deshalb hoffe ich stark, das im nächsten Jahr mal ein paar 24" mit 4k kommen - endlich gute Pixeldichte auf großen Bildschirmen. Die Skalierung ist mittlerweile auch kein Problem mehr, siehe Laptops mit FHD auf 11", oder das MS Surface mit 2k auf 12". Da kann man wunderbar mit arbeiten und alles ist schön scharf.
 
Wow! Ich würde gerne mal probeweise meine RAWs an diesem Monitor entwickeln und dann auch im direkten Vergleich mit dem 5k-iMac. Wird wahrscheinlich ein Traum bleiben. Und falls ich es doch mal 'probeweise' kaufe, dann erschlägt mich meine Finanzministerin... äh, Frau.

Im Ernst: der Monitor kann 1 Milliarde Farben abstufen, d.h. er interpretiert am Eingangssignal 10bit pro Kanal. Kann das jede Graka liefern oder braucht man dafür dann was professionelles im Sinne einer nVidia Quadro oder AMD firepro?
 
SimsP schrieb:
... da der Großteil heutiger Software mit mehr als 8 Bit Farbtiefe so gut wie gar nicht klar kommt.
Selbst Gimp ist seit Jahren dabei, das mit Gegl zu lernen, und der Umstand, dass Gimp Gegl noch nicht vollständig integriert hat, ist eigentlich immer der erste Punkt, der genannt wird, wenn jemand erklärt, warum Gimp im professionellen Umfeld nicht in Frage käme.

Faust2011 schrieb:
... Kann das jede Graka liefern oder braucht man dafür dann was professionelles im Sinne einer nVidia Quadro oder AMD firepro?
Nein, du brauchst eine spezielle Karte und nichtmal jede FirePro und Quadro kann das, sondern nur manche von diesen - man muss also die technischen Spezifikationen der Karte genau lesen, bevor man sie kauft. ;)
 
Zuletzt bearbeitet:
MountWalker schrieb:
Nein, du brauchst eine spezielle Karte und nichtmal jede FirePro und Quadro kann das, sondern nur manche von diesen - man muss also die technischen Spezifikationen der Karte genau lesen, bevor man sie kauft. ;)
Das stimmt so nicht. Praktisch jede halbwegs aktuelle Grafikkarte kann mit 10bit umgehen. Der limitierende Faktor ist hier der Treiber. NVidia und AMD wollen mehr Kohle dafür, dass man 10 bit nutzen kann und daher funktioniert es unter Windows momentan nur mit FirePro bzw. Quadro Karten. Unter Linux gibt es aber beispielsweise 10 bit auch für Geforce Karten.
 
Faust2011 schrieb:
Wow! Ich würde gerne mal probeweise meine RAWs an diesem Monitor entwickeln und dann auch im direkten Vergleich mit dem 5k-iMac. Wird wahrscheinlich ein Traum bleiben. Und falls ich es doch mal 'probeweise' kaufe, dann erschlägt mich meine Finanzministerin... äh, Frau.

Im Ernst: der Monitor kann 1 Milliarde Farben abstufen, d.h. er interpretiert am Eingangssignal 10bit pro Kanal. Kann das jede Graka liefern oder braucht man dafür dann was professionelles im Sinne einer nVidia Quadro oder AMD firepro?

Bezüglich des iMacs.. Meines Wissens nach haben die alten iMacs gerade einmal 70% Adobe Rbg abgedckt, ich weiß nicht wie es heute ist, ich bezeifle jedoch, dass der Farbraum vergrößert wurde.
Danke für die Infos @SimsP das der Farbraum wirklich schon nahezu darstellbar ist finde ich sehr fadizinierend. Wäre schön wenns irgendwann mal einen Screen gibt der ProPhoto RGB zu 100% abdeckt :p ich wär auch schon mit 99% zufrieden *lach*
 
buffetgrätscher schrieb:
Also so ganz kann ich mir das noch nicht vorstellen. Ich habe spaßenshalber mal meinen PC an meinen 50 Zoll 4k Fernseher angeschlossen und Photoshop gestartet. Aber...alles viiiiel zu klein, will gar nicht wissen wie es dann auf 2x oder gar 3x Zoll aussieht. Da müssen erstmal die ganzen Menüs und Schaltflächen mit skalieren.

das liegt aber nicht am Moni oder der Auflösung, dass liegt an Adobe, weil die das nicht gebacken bekommen ihre Oberfläche und Menüs skalierend an die Auflösung anzupassen. Mit anderer Software klappt das wunderbar.

zurück zum Thema
mir wäre nur die Pixeldichte zu hoch. UHD auf 24". Ganz schön krass. Das wäre die doppelte Pixeldichte zu meinem. Aktuell habe ich einen 21" Eizo mit 1680x1050. Wunderbares 16:10 Format. Ganz ehrlich, kleiner möchte ich die Pixel gar nicht haben.
 
Zuletzt bearbeitet von einem Moderator:
Ich verstehe nicht wieso hier immer eine hohe Pixeldichte als negative Eigenschaft gesehen und das skalieren mit die Vorteile wegschmeißen gleichgesetzt wird. Habt ihr mal vor so einem Monitor gesessen? Ich habe ganz stark den Eindruck, dass das nicht der Fall ist.

Ich habe 4k auf 15 und auf 27" gehabt, mit Windows-Skalierung auf 200 bzw. 150%. Aus meiner Sicht ein super Kompromiss aus Größe der Arbeitsfläche und Bildschärfe. Das ist ja gerade der clou, dass man nicht mehr jeden einzelnen Pixel sieht, dass auch geschwungene Linien immer knackscharf sind und man einen höheren Detailkontrast hat.

Windows kann das gut, Anwendungen für Windows mal mehr, mal weniger. So scheint zum Beispiel jeder Instant Messenger den ich bisher ausprobiert habe, Text über ein bitmap-font implementiert zu haben. Mit dem Ergebnis dass die Größe zwar angenehm ist, aber der Text durch das skalieren im Vergleich zum Rest unscharf wirkt. Ein anderes prominentes Beispiel sind die Buttons von Photoshop. In beiden Fällen haben es aber die Softwareentwickler verkackt.

Aus zuverlässiger Quelle weiß ich, dass die Konsole beim 5k iMac gar nicht skaliert. Da smacht dann erst richtig Spaß.
 
Hallo,

genau das ist ja der Knackpunkt. Man muß in Windows größer 100% für die Schriften einstellen. Und damit haben viele viele Anwendungen Problem mit ihren Menüs. Adobe ganz vorn dabei. Weil die das einfach nicht gebacken bekommen sich an Windows Standards zu halten. Dann wäre das nämlich alles kein Problem. Was nützt mir dann die hohe Auflösung, wenn ich zurück auf 100% ändern muß und dann nichts mehr lesen kann?

Und auf Dauer macht auch eine 100% Konsole am Mac keinen Spass, weil die Augen weh tun. Das ist nur der erste Aha Effekt. Danach ärgert man sich nur noch. Oder man sitzt viel zu nah dran. Was auch sinnlos ist.
 
"das macht dann erst richtig Spaß" war in dem Fall ironisch gemeint ;)
 
Man muss auch sagen, Windows 8 ModernUI ist der erste Versuch, eine voll skalierbare Oberfläche auf den Desktop zu bringen und genau das wurde nun als "Smartphone-Touch-Oberfläche" diffamiert. Win8 MUI hat sicherlich ihre Probleme, aber sie löst auch dieses Skalierungsproblem der klassischen Desktops - die ja auch nur Schriften vektorskalieren und den Rest nicht. Was nützt mir, dass schon WinXP, Gnome2 und KDE3 skalierbare Schrift-DPI hatten, wenn andere GUI-Elemente nicht mitskaliert werden? Schade, dass Sun Microsystems den vollständig vektorisierten Java Desktop nicht produktreif gemacht hatte, bevor das Geld für solche Projekte zu knapp wurde. Wir brauchen einen vollständig aus Vektor-Grafiken statt Raster bestehenden Desktop inklusive Oberflächen-API - also muss bspw. Windows GDI (aus der Win-API) sterben.
 
Zuletzt bearbeitet:
Apple scheint da mal wieder weiter zu sein. Die Technik bringt die Voraussetzungen mit (Quartz Framework) und im Developers-Bereich gibt es entsprechende Guidelines. Auch Vektorgrafiken (statt den auf Windows-üblichen .ico) sind hier schon lange Standard.
 
Naja, bei Windows gibts seit Windows Vista das Apple-Quartz ebenbürtige Windows Presentation Foundation aus den .Net Frameworks (ab 3.0). Das benutzt nur niemand, weil damals .Net C# voraussetzung war. Mit Windows 8 gibts als Ersatz dafür die WinRT-API, die auch C++ (ua.) erlaubt, die aber bei Windows 8 an die ModernUI ("Apps") gebunden wurde. Die grundlegende Technologie ist bei Microsoft durchaus seit ca. einer Dekade da, aber alle Anwendungs-Anbieter haben trotzdem GDI-Oberflächen (oder Qt oder GTK oder XUL und lles mit Bitmaps, damit die Anwendung auch auf Windows XP läuft).
 
Zuletzt bearbeitet:
Zurück
Oben