News Erster „4K“-IGZO-Monitor mit 3.840 × 2.160 Pixeln erhältlich

Ich würde meine Sehstärke für unterdurchschnittlich halten, haben bei 30 Zoll, 2560x1600, allerdings keine Einschränkungen, nur in etwaigen Anwendungen wird nicht passend skaliert und Schrift wird entsprechend unlesbar. Im Windows und den entsprechenden Windowsprogrammen funktioniert das aber normal.
 
Elkinator schrieb:
naja, wären die nicht die 27" mit einfach mehr bildpunkten lieber?

bei mir ist 22" das maximum, mehr ist bei pivot einfach nicht mehr angenehm, da hab ich lieber 2 monitore nebeneinander:)
Ergänzung ()

ich spiele nichts, ein monitor ist halt zu wenig wenn man drauf fernsehen tut, einen browser offen hat und dann noch outlook den halben tag verwendet.

bei 124€ wird es aber vielleicht eh bald ein 3ter oder sogar 4ter, brauch nur ein mainboard in das ich eine 2te x16er graka rein bekomme^^

Weiß nicht, ob mir 27" mit mehr Auflösung lieber wären, da käme es wohl einfach auf einen Versuch an. Beim Arbeiten brauch ich die Auflösung aber eben mehr für die Darstellung von viel gleichzeitig, mehr Auflösung bei gleichbleibender Displaygröße könnte da zu Problemen führen weil vieles dann zu klein werden könnte. Wäre dann mehr eine Softwarefrage.

Und ja ein Monitor und damit gleichzeitig Surfen, Mailen und Fernsehen ist wirklich etwas wenig. Da kann man dann aber eventuell auf einen mit guter Auflösung fürs Arbeiten und einen günstigen FullHD für TV ausweichen.
 
Arno Nimus schrieb:
- Rising Blacks
- Floating Brightness
- 50Hz-Bug/False Conture-Effekt und
- Eingebrannte Senderlogos und Huds von Spielen?

Damit will ich nicht die Plasmatechnik ansich oder als Solche diskreditieren, aber es ist nunmal eine Tatsache (und das kann man bis heute von den Nutzern in Fachforen, wie dem Hifi-Forum immer wieder nachlesen) dass diese Technik genauso ihre Schwächen und Mängel hat bzw. mit sich bringt, wie die LCD/LED-Technik! (die übrigens - auch wenn Plasmafanboys, welche die besagten, angesprochenen Plama-Schwächen beständig ignorieren oder unterschlagen bzw. herunterspielen - in den letzten Jahren in einigen wichtigen Belangen, wie etwa der Farbdarstellung oder auch beim Schwarzwert stark aufgeholt hat!)

Beide Technologien haben eben ihre typischen Schwächen und bei keiner ist es bisher gelungen diese komplett zu beseitigen.
Bin selbst Besitzer eines Panasonic Plasmas allerdings hat das Teil bald 7 Jahre auf den Buckel und mir kommt es so vor als ob bei den damaligen Geräten diese Probleme nicht so stark vorhanden waren.

Schwarzwertpumpen fällt mir während des Films nur selten auf sondern hauptsächlich erst beim Abspan, damit kann ich leben.
50Hz Bug und False Conture ist mir dagegen noch nie störend aufgefallen.
Eingebrannte Senderlogos sind für mich auch kein Thema, da mich diese sowieso nerven und daher mein TV zu 95% mit Filmmaterial ohne Senderlogo gefüttert wird. Als Spieleplattform dient er ebenfalls nicht.

Dafür begeistern mich immer wieder die natürlichen Farben und die hervorragende Bewegtbilddarstellung. Den ganzen Mist mit der Zwischenbildberechnung kennt und braucht mein Gerät gar nicht. Bei LCD's sind aber gerade unnatürliche Farben, die schlechtere Bewegtbilddarstellung und vor allem Ghosting das mir sofort negativ auffällt. Mag sein das dies bei hochpreisigen Modellen kaum mehr auffällt aber so viel Geld will ich dafür nicht ausgeben, und wenn dann muss er wirklich perfekt sein.

Somit entscheidet letztlich das Nutzungsverhalten und die persönlichen Vorlieben mit welchen Gerät jemand besser bedient ist. Bin auch gespannt auf die 2013er Generation von Panasonic, aber wahrscheinlich bleibt mir auch nur das Warten auf 4k und Oled und hoffen das es besser wird.

In den anderen Punkten gebe ich dir völlig recht. Die Industrie schaut nur noch auf die Masse (Bei den Kunden wie auch beim Umsatz) und will die möglichst billig abspeisen und jedes Jahr was neues verkaufen. Da sind natürlch Produkte die jemanden zu 100% zufriedenstellen fehl am Platz.
 
mumpel schrieb:
Schon "Der Hobbit" im Kino gesehen? Das sieht aus wie ne billige Seifenoper. Wie ne gut gemachte Terra X-Folge. Aber niemals wie ein großer Kinofilm. Ich hab bis ~3/4 des Films gebraucht, bis ich den Effekt nicht mehr total kacke fand. Die letzten 1/4 fand ich ihn nur nur ziemlich kacke. Das ist der berühmte Soap-Effekt, den auch alle Samsung-TVs frei Haus liefern :) Gaaaaanz furchtbar.

Genau so sehe ich das auch. Und meine Bekannten meinten schon ich sei bekloppt :D Es sah so kacke in HighFPS und 3D aus :/
 
HisN schrieb:
<-- nicht ultra (was es in C3 ja gar nicht gibt) sondern nur VeryHigh und FXAA (also die Variante wo AA kaum Speicher kostet).

Willst du mir damit was (gegenteiliges?) sagen, oder meine Aussage unterstreichen?

Dass viel VRAM verbraucht wird, ist ja klar. Aber hier wurde ja behauptet, man brauche "einfach nur" viel VRAM und dann wären solche Auflösungen überhaupt kein Problem, da die Leistung ja nicht einbrechen würde, solange der VRAM nicht voll ist. Fakt ist aber, dass unabhängig vom VRAM die GPU mit Erhöhung der Auflösung immer weniger FPS liefert. Selbst wenn der VRAM 20GB groß wäre ändert das nichts daran, dass hohe Auflösungen die GPU einbrechen lassen und dass Spielen in solchen Auflösungen wahrscheinlich die nächsten 2-3 Jahre immer nur mit mindestens 2 Karten anständig läuft.


Man siehts ja an deinen 2 Titans. Beide 6GB VRAM, grade mal zur hälfte belegt und nur 44 FPS in ner Scene, in der die FPS eigentlich hoch sein sollten (keine Weitsicht) Ich geh mal davon aus, dass die FPS sonst niedriger liegen.
In 1920x1080 @ Sehr hoch @ 2xTXSMAA komm ich mit meiner Karte auf höhere FPS. (Wobei ich mir grade nicht sicher bin, welches Level das genau ist, deshalb kann ich nur schätzen)

Der beste Beweis, dass Höhere Auflösungen aktuell zum zocken nicht wirklich geeignet sind. Allein die Kosten für die Grafikkarten die das schaffen sind ein Witz. 300€ vs 2000€. ...
 
Zuletzt bearbeitet von einem Moderator:
Arno Nimus schrieb:
Weil die Darstellung auf dem Bildschirm zugunsten von mehr nutzbarer Arbeitsfläche miniaturisiert wird (Skalierung) und du dann übertieben ausgedrückt ein Elektronenmikroskop brauchst oder den Sichtabstand auf 5 cm verkürzen musst, um noch Text lesen bzw. ergonomisch (<- ich weiss, ein Fremdwort in diesem Forum) damit arbeiten zu können. Die Hersteller von Betriebssystemen müssen erstmal diese anpassen, damit das Problem gelöst wird! (die Schriftgrösse/Darstellung allein anzupassen reicht dafür nicht!)
wenn es danach geht kommen nie monitore mit höherer auflösung.
man muß ja nicht gleich auf 4k gehen, aber statt 100PPI mal so 130-140PPI wäre kein fehler, da kann man auch noch alles lesen.
 
Laggy.NET schrieb:
Der beste Beweis, dass Höhere Auflösungen aktuell zum zocken nicht wirklich geeignet sind. Allein die Kosten für die Grafikkarten die das schaffen sind ein Witz. 300€ vs 2000€. ...

Ja, aber das schöne an hochauflösenden Monitoren ist ja, dass du eine beliebige kleinere Auflösung einstellen kannst und der Monitor – sofern er gut interpoliert – ein Bild liefert, dass sich kaum von einem Monitor mit geringerer nativer Auflösung unterscheidet.
 
Hab ich irgendwas überlesen oder bieten die Teile kein 3D ? Hier wär ja endlich mal passiv 3D in FullHD möglich.
 
dann spielst du halt mit 1920x1080/1200, bei einem 4k fernseher macht das ja nichts.

udn bei normalem arbeiten hat man eine schön hohe auflösung, das sollte so ziemlich jede GPU schaffen, dazu braucht man ja kaum leistung.
 
@emovate
Ich mag 48Hz bzw. diese butterweiche Wiedergabe. Klar, viele nennen es Soap Effekt, aber es ist einfach realistisch. Wär schlimm wenn das echte Leben mit ca. 24FPS ablaufen würde. Wenn man da im Kino mal genauer hinschaut (oder daheim) merkt man das es einfach nur unnatürlich ruckelt.

Und ja, auch der Hobbit habe ich genial in 48Hz gefunden.
 
Arno Nimus schrieb:
Weil die Darstellung auf dem Bildschirm zugunsten von mehr nutzbarer Arbeitsfläche miniaturisiert wird (Skalierung) und du dann übertieben ausgedrückt ein Elektronenmikroskop brauchst oder den Sichtabstand auf 5 cm verkürzen musst, um noch Text lesen bzw. ergonomisch (<- ich weiss, ein Fremdwort in diesem Forum) damit arbeiten zu können. Die Hersteller von Betriebssystemen müssen erstmal diese anpassen, damit das Problem gelöst wird! (die Schriftgrösse/Darstellung allein anzupassen reicht dafür nicht!)

100% Zustimmung.

Das erinnert mich immer an das Video von dem Typen, der Windows auf einem Macbook mit 2880 x 1800 Retina Display installiert. Das erste, was er nach der Installation von Windows macht, ist dessen Auflösung auf 1680 x 1050 runterzudrehen, weil es ansonsten aufgrund der hohen dpi unbrauchbar wäre:
http://www.youtube.com/watch?feature=player_detailpage&v=tCv7jDdJzkg#t=207s

Eine hohe Auflösung macht m.E. nur in Kombination mit einem angepassten OS Sinn. Apple kann das, Smartphones können das - Windows kann es bis dato nicht.

Das einzige, was meines Erachtens mehr Arbeitsfläche bringt, ist ein größerer Bildschirm. Höhere dpi bringen mehr Schärfe, machen den Bildschirm aber nicht größer. Ein Pyrrhussieg.
 
Zuletzt bearbeitet:
das video ist aber ein blödsinn, man kann win7 mit dem display verwenden, man muß es nur richtig einstellen.

halt ein typisches apple fanboy video...
 
Jepp. Ich habe es weiter vorne auch schon geschrieben. Windows insbesondere Metro kann mit solchen Auflösungen umgehen.
 
Elkinator schrieb:
das video ist aber ein blödsinn, man kann win7 mit dem display verwenden, man muß es nur richtig einstellen.

halt ein typisches apple fanboy video...

Klar, ein typischer Apple Fanboy, der zeigt wie man Windows auf einem Macbook installiert. Ich schätze, da kann sich MS nur möglichst viele Apple Fanboys wünschen. Lol.

Und du meinst, dies wäre eine ausreichende Art der Anpassung an höhere dpi?



Lol, dann will ich dich beim Träumen nicht weiter stören.
 
Bei Benutzerdefiniert kann man beliebige Werte stellen. 96 dpi = 100%, wenn sich zwischenzeitlich nichts geändert hat.

Für den Monitor in der News braucht man 135 dpi => 140%, die man da direkt eingeben kann. Wo ist das Problem?
 
Zuletzt bearbeitet:
die ct hat ein retina macbook schon mit win7 getestet, man kann damit sinnvoll arbeiten ohne das man blind wird...

es gibt kein problem, die apple fanboys erzählen halt gerne welche probleme es angeblich bei windows gibt^^

OS X kann mit der auflösung jedenfalls auch nicht besser umgehen...
 
e-Laurin schrieb:
Wo ist das Problem?

Das Problem ist, dass diese Einstellung nicht auf alle grafischen oder Textelemente in alle Programmen wirkt. Man kommt dann bei bestimmten Programmen nicht um die Lupe drumherum.
Ergänzung ()

Elkinator schrieb:
die ct hat ein retina macbook schon mit win7 getestet, man kann damit sinnvoll arbeiten ohne das man blind wird...

Natürlich kann man das. Es hat ja auch nie jemand etwas anderes behauptet. Wie das geht zeigt ja das Video: man dreht die Auflösung von 2880x1800 auf 1680x1050 runter.

Auflösung bei Monitoren scheint derzeit das zu dein, was die Megapixel bei Smartphones und Kleinbildkameras sind... lol. Am Ende zählt immer noch der Platz in Quadratzentimetern.
 
Zuletzt bearbeitet:
nein, man muß eben die auflösung NICHT verringern...
 
Bei LCD's sind aber gerade unnatürliche Farben
LC-Displays haben sich für farbkritische Arbeiten in der grafischen Industrie sehr schnell durchgesetzt – insbesondere aufgrund der hohen Farbumfänge, die mit speziellen Hintergrundbeleuchtungen erreicht werden und die beispielsweise vernünftiges Softproofing erst möglich gemacht haben. Betrachtet man nur den Consumer TV-Bereich, muss man festhalten, dass beide Technologien individuelle Vor- und Nachteile haben. "Unnatürliche Farben" sind, wie angedeutet, aber kein grundsätzliches Problem. Vernünftige TVs – egal ob Plasma oder LCD – sollten Bildmodi mitbringen, die eine hinreichend normative und neutrale Wiedergabe erlauben.
 
Zuletzt bearbeitet:
hauttöne kann kein LCD richtig anzeigen.
 
Zurück
Oben