Während etwa derzeit gängige von Apple verbaute Retina-Displays mit etwa 500 Pixel pro Zoll aufwarten können, wären durch diese Technik nun bis zu 1.500 Pixel möglich. Durch den Wegfall der Farbfilter soll zudem die Lichtdurchlässigkeit um etwa 30 Prozent steigen und ein generell lebendigeres, kräftigeres Bild ermöglichen. Gleichzeitig bedeutet dies einen Spielraum für die Senkung des Strombedarfs.
Ist ja toll wenn sich durch die höhere Lichtdurchlässigkeit ein helleres Bild ergibt. Dass dann aber gleichzeitig(!!!) noch Spielraum für die Senkung des Strombedarf besteht kann ich mir nicht vorstellen. Entweder höhere Helligkeit und dadurch lebendigeres Bild, oder Strom sparen, aber das dann sicher nur mit der herkömmlichen Helligkeit.
Chatanga schrieb:
Ich habe eine der teuersten Karten die es gibt, und bekomme in aktuellen Games doch nur WQHD hin mit voller Qualität. Einstellen kann ich schon mehr, aber dann sinken die FPS weit unter 100. Und für Shooter sollte man schon so um die 100FPS haben.
Welcher 4K Monitor kann 100 fps??? Gibt es überhaupt schon 4K Monitore mit Freesync oder G-Sync?
general-of-omega schrieb:
Ich mag keine Sachen die Flimmern mir reicht jetzt schon:
LED AutoRückleuchen
...
Und dann gibt's noch die Mega-A******cher die uns mit aggressiv blinkenden, rumhüpfenden Werbungen nerven.
crustenscharbap schrieb:
Also 120x alle 3 Farben/Sekunde. Da flimmert nichts. Ich hoffe die sind so schlau. Denn bei 60/50Hz sieht man Flimmern, da unsere Augen bis zu 64 fps sehen.
Täusch Dich mal nicht. Erstens ist es individuell unterschiedlich wie "schnell" einer sieht. Ich z.B. könnte mit Röhrenmonitorem, die unterhalb 85 Hz betrieben wurden nicht länger arbeiten. 80 Hz waren schon zu wenig, kriegte regelmäßig Kopfweh wenn ich länger an solchen Monitoren arbeiten musste.
Und dann stimmt das mit den 120 fps auch nur für stillstehende Bilder. Sobald rasche Bewegungen ins Spiel kommen sieht man den Flicker, das Zerstückeln der Bewegungen (und Bewegungsunschärfe, aber um die geht's hier ja nicht) noch bis zu weit höheren Frequenzen. Ist u.a. auch stark von den Aufnahmeparametern abhängig. Wenn wir eine Maximalanforderung aufstellen wollten, die all diese Probleme vermeidet bräuchten wir wahrscheinlich irgendwas zwischen 500 und 1000 fps. Natürlich müsste dann auch mit derartigen Frame Rates gefilmt werden. Ich glaube da sind wir noch weit davon entfernt.
crustenscharbap schrieb:
Eine Verdreifachung der Auflösung macht nicht aus 500 DPI 1500 DPI. Das wäre eine Verneunfachung der Auflösung. Da ein Pixel aus 3 Subpixeln besteht, gibt es letzendlich 3x mehr Pixel. Da muss man immer in 2-Dimensionen Rechnen. Den Faktor 3 muss man erstmal durch die Quadratwurzel rechnen. 1,732. Das mal 500 DPI.
(...)
Quelle: Aus meiner Druckerlehre 1. oder 2. Lehrjahr und Science Altert.
Da hast Du was falsch verstanden. Stell Dir einfach mal die 3 Subpixel eines herkömmlichen LCDs vor - ein rotes, ein grünes und ein blaues, bei LCDs üblicherweise nebeneinander. Diese 3 Subpixel ergeben bis jetzt zusammen 1 RGB-Pixel. Mit der neuen Technologie hättest Du an Stelle der 3 jeweils einfarbigen Subpixel tatsächlich vollfarbige 3 RGB-Pixel.
Es ergibt also doch eine Verdreifachung der Pixeldichte - aber natürlich keine Verneunfachung.