News NHK bringt 8K-Auflösung auf 13,3-Zoll-OLED

Ob 4k oder 8k...ist ja pustekuchen, aber die verdammten OLED Displays müssen endlich her. Dieses perfekte schwarz und die irgendwie "besseren" Farben von meinen Handy Displays vermisse ich schon seit Jahren am PC und Notebook.
 
Interessanter finde ich bei den OLEDs Transparent->Farbe .... Fenster als Fernseher? Davon hat man doch schon mal im SciFi-Roman gelesen ... Zudem der Stromverbrauch soll wohl auch recht nett sein.
 
riff schrieb:
@garbel: und nicht zu vergessen: Das sind Werte des max. Akkomodationserfolges, incl Schärfentiefe und Tiefenschärfe. Diese sind nicht dauerhaft haltbar und durch die Beleuchtung beeinflusst.

2/3 der Akkomodation sind "bequem" und dauerhaft haltbar.

So kann auch der 40-50 Jährige schon mal seine Probleme haben im Restaurant beim Candlelight-Dinner die Karte zu lesen ;)

Ach, das ist ja das Geniale am älter werden, wenn man erst mal halb blind und taub ist, braucht man den ganzen Quatsch nicht mehr. Also mehr als 450 ppi brauche ich an meinem Smartphone nie mehr. Haben tu ich ungefähr die Hälfte, stört es mich? Nein :)
 
Solange man immernoch mit bloßen auge einen einzelnen weiß leuchtenden Pixel auf einem ansonsten schwarzen Display problemlos erkennen kann, ist es auch sinnvoll die Auflösung weiter zu erhöhen. Klar, die Unterschiede werden immer kleiner, aber wer kann der kann....

An alle Probanden die hier mit einem Pixel und einer Linie als Kriterium ankommen, wenn es nur stark genug leuchtet kann es beliebig klein sein und man wird es sehen. Das entscheidende ist ab wann kann man 2 Linien oder Punkte mit einer Lücke dazwischen als 2 verschiedene Linien/Punkte wahrnehmen.

Allerdings ist die Sehstärke bei den meisten Menschen wirklich deutlich besser als einige hier annehmen ... 300 dpi aus 30cm sind definitiv nicht das Limit ;).

Außerdem gibt es ja noch Aliasing-Effekte und andere Nebenwirkungen, letztlich kann man das Abtasttheorem problemlos auch auf Displays übertragen und damit wäre man schon mindestens bei der doppelten Auflösung dessen was man sehen kann damit das Ergebnis gut wird.
 
ix.tank schrieb:
Außerdem gibt es ja noch Aliasing-Effekte und andere Nebenwirkungen, letztlich kann man das Abtasttheorem problemlos auch auf Displays übertragen und damit wäre man schon mindestens bei der doppelten Auflösung dessen was man sehen kann damit das Ergebnis gut wird.

Hört sich interessant an, erklär mal (oder verlink, wenn es da was "für Dummies" gibt). Ich kenn (also ich weiß, das man da sowas braucht) Abtasttheorem nur vom CD Spieler mit seinen 44,1 kHz, die dann das Doppelte der höchsmöglichen Frequenz bedeuten. Nyquist oder so ähnlich...
 
wieso muss mein Beitrag überprüft werden jetzt hab ich mir extra die Mühe gemacht ich hoffe der wird bald frei geschalten...
ah weil ich quellen angaben gemacht habe wtf .....

hier ohne quellen :

abcdef121448 schrieb:
Mal ehrlich, ich hoffe nach 8k ist Schluss, es ist schon schwierig genug 32 Mpix durch ein Objektiv zu bringen, auch wenn der Sensor "nur" Vollformat hat. Und da Glas n theoretisches Auflösungsvermögen von 50 Mpix hat( was praktisch nich erreicht werden kann, es gibt ein einziges Objektiv das meines Wissens die 36Mpix einer Nikon D800 durchlässt..), ist sowieso schon bei 10K Schluss weil das Glas für den Film der gedreht wird die Auflösung einfach nicht durchbringt.. Bis dahin wird man es meiner Meinung nach nicht geschafft haben einen Werkstoff zu entdecken der 50+ Mpix durchlässt.. Abgesehen davon zieht einem die Luft früher oder später nen Strich durch die Rechnung. Also wenn ihr auf eurem tollen 8K Fernseher dann Filme mit 32 Mpix Auflösung anseht welche ohnehin physikalisch eh fast nicht durchs Glas gehen wünsch ich euch viel Spaß mit eurer tollen Auflösung die genau NIX bringt...
Ich bin mit 4k auf 24" bei ca 40 cm Sitzabstand und Full HD bei ca 10 cm übrigens vollkommen zufrieden :)

das ist so alles nur halb wahr bin aber auch bei weitem kein Profi
erstens redest du von den manuellen zeis linsen die das imo am besten schaffen die gibt es aber in mehr als einer Brennweite und für Filmer gibt es noch ganz andere Kaliber von Glas ;) die kosten dann auch richtig
wenn man die Auflösung beim filmen erhöht hat man das objektiv Problem verringert
was heute auch bereits gescheit es wird häufig in höherer Auflösung gefilmt um dann intern oder im Profi Bereich in der Nachbearbeitung mit Downsampling gearbeitet

da kein objektiv 100% wiedergeben kann filmen wir zukünftiges 8k Material einfach in 16k und haben das Problem minimiert

die red Kamera z.b Aufnahme Formate: 6K raw real sind das wohl nur 3.5k was nach allem übrig bleibt suche jetzt keine qullen hierfür sollte aber auf einschlägigen Seiten in Diskussionen über Auflösung immer wieder kommen

dann vergessen viele das wir ja nur komprimiertes film material bekommen produziert wird raw da sind die datenraten x Fach höher als bei einer Blu-ray also auch entsprechend mehr Bild Inhalte vorhanden

Dass Alexa-Aufnahmen genug Reserven bieten, um sie auf 4K/UHD hochzurechnen, beweisen aus Sicht von Arri Produktionen wie der James-Bond-Film »Skyfall«: Der wurde nämlich, als einer von zahlreichen Spielfilmen der vergangenen Jahre, in Arriraw mit 2,8K gedreht und fürs Kino in ein 4K-DCP hochgerechnet.
Quelle: film-tv-video.de /produktdetails+M5149803b4fd.html

also ein perfekt produzierter 1080p/4k film dann mit einer guten Software hoch gerechnet sieht besser aus als von vielen privat knipsen 4k/Zukunft 8k

weil nicht nur der sensor sondern
Linse
Fokus und vor allem auch
dynamikumfang eine Rolle spielen

ob man 8k sieht oder nicht ich bin auch kein Verfechter der extremen Auflösungen aber wie hier bereits geschrieben wurde ist Kanten Glättung bei 8k ein geringeres Problem also freuen wir uns doch auf den Fortschritt und da ein 4k Film selten die Auflösung 4k ausreizt wieso nicht 8k mit realen 6k ?
und hdmi hat noch ein Problem das Verlust behaftete Farbmodell dann haben alle noch etwas zum nörgeln :D /wiki/YCbCr-Farbmodell
 
Zuletzt bearbeitet:
Guckt euch mal Samsara an, auf BluRay und "nur" Full HD (wurde aber analog in einer höheren Auflösung aufgenommen und beim digitalisieren auf Full HD "runtergerechnet"). Atemberaubend, sensationell, die Bildquali, da kommt zumindest bei mir kein Verlangen nach höherer Auflösung auf. Toppt locker alles, selbst die ganzen vermeintlichen Bildreferenz-Blockbuster wie "The Dark Knight", "Avatar" und Konsorten.

Und das ist auch die Krux. Wenn doch bestehende Standards mal wenigstens technisch ausgereizt würden...Full HD allein heißt ja noch gar nichts, trotzdem gibt es schlecht aussehenden Schrott. Das wird sich mit 4 k auch nicht gravierend ändern.
 
Zuletzt bearbeitet:
8K wird auf jedenfall schön wenn es auf große Monitore ab 23" kommt. Ich denke mit 8K könnten die meisten Leute gut leben als minimale Auflösung, dann hätten wir die ca. 300 ppi erreicht. Für interssierte gibt es dann noch 16K.

Ich schätze wir werden in ca. 3 Jahren 8K Bildschirme auf dem Markt sehen für ca. 500 Euro. So wie es aussieht wird die Vesa schon in ein paar Wochen einen neuen Displayport Standard vorstellen der für 8K gedacht ist. 4K wird sich als eine art HD Ready etablieren und dann ab 2020 vom Markt verschwinden.

Ich hoffe auf:

8K
120 HZ
OLED
25"

Hoffentlich schon 2017 oder 2018!
 
Nightwind schrieb:
die Qualität spielt keine Rolle, für Marketing ist 8K auch für Smartphones interessant^^

wie viel dpi kann eigentlich der durchschnittliche Mensch erkennen?

dpi ist ein wenig schwierig beim Auge, aber das generelle Auflösungsvermögen des menschlichen Auges beträgt etwa 0,5 bis 1 Bogenminuten, wobei unser Gehirn auch "Bildbearbeitung" besitzt und teils Auflösungen von unter 0,2 Bogenminuten je nach beobachtetem Objekt möglich macht. Hängt aber auch von dem Zustand des Individuums ab. Ich hab hier grade keine Literatur zur Hand, aber du kannst wenn es dich interessiert, mal nach Lehrbüchern für Optiker suchen.
 
Mag schon sein dass ne Filmkamera andere Optiken hat, meistens sinds jedoch Zoomoptiken welche nochmal ca ein Drittel Schärfeverlust haben.. http://www.dxomark.com/Lenses/Ratings/Optical-Metric-Scores ich finde hier übrigens exakt eine Linse die die 36Mpix einer D800 durch bringt und das ist ein 135mm F2 Zeiss Objektiv.. Natürlich gibts riesige Linsen von Zeiss speziell für Videokameras die auch mehr Auflösung durchlassen, ABER bei Glas ist halt die physikalische Grenze der Auflösung bei 50Mpix auf Vollformat erreicht.. und wie wir sehen ist dazu nicht wirklich ein Hersteller außer Zeiss mit manuell fokussierten Linsen in der Lage :)
 
Bis sich 8K und noch krasser16K durchsetzt werden wir alle so alt sein und so schlecht sehen das uns 720p auf 15" Billo Notebooks vollkommen ausreichen.
 
Oder wir sind so jung und hinterfragen ob wir das wirklich brauchen.

Mit 30+, Visus 2,0 brauch ich heute schon nicht unbedingt 4k. Ich empfand schon SD -> FullHD teilweise als "zu realistisch", "zu scharf" ... man darf ruhig sehen das was nicht echt ist ... sonst wirds creepy
 
Ich hoffe mal das die Verantwortlichen für spätere 4K Übertragungen und 8K Planungen nicht die Saufkumpanen vom BER Planer sind. Weil dann werden wir 8K nicht mehr vor der Eröffnung des Flughafens 2030 erleben.

Also hab jetzt das erste mal 4K / 3D mit Echten 48fps im Kino gesehen. Also 4K würde mir erst mal vollkommen reichen inkl. Content. 4K 3D, und 48fps (HFR) würde ich mit HDMI 1.4 ab 2015 auf "BluRay?" als abgemachte Sache sehen.

Und bei Avatar 2 & 3 sind se wohl noch am überlegen ob se neben HFR in 48fps die Actionszenen sogar mit MAGI in 120fps drehen. Ich würde sagen das ich nach 48fps nix mehr vermisse.

Aber 120fps bei 4K in 3D wäre 2016 ein Realistisches Datum für Kino UND Zuhause mit Avatar 2.
 
Zuletzt bearbeitet:
Neben den hohen Auflösungen sind höhere Bildwiederholraten eigentlich der logische Schritt. Das wird kommen und sich durchsetzen, ob nun 48 fps oder 60 fps oder ??? fps. Das wird auch das "Erlebnis" Film mehr weiterbringen als immer größere Monsterauflösungen.
 
garbel schrieb:
Hört sich interessant an, erklär mal (oder verlink, wenn es da was "für Dummies" gibt). Ich kenn (also ich weiß, das man da sowas braucht) Abtasttheorem nur vom CD Spieler mit seinen 44,1 kHz, die dann das Doppelte der höchsmöglichen Frequenz bedeuten. Nyquist oder so ähnlich...

Okay ist schon recht spät, daher bitte ich ggf. mangelnde Qualität der Antwort zu entschuldigen.

Also ein digitales Bild ist ja auch nur eine Ansammlung von Schwingungen verschiedener Frequenzen, damit ist tatsächlich nicht die Farbe gemeint sondern die Wiederholung einer Farbe in X oder Y-Richtung. Das wird einem mit am besten klar wenn man sich die Kosinustransformation für zum Bsp. die JPEG-Kodierung anschaut.

Letztlich kann dann zum Beispiel eine Unterabtastung des angezeigten Bildes zu Alias-Effekten führen. Das führt dann zu Darstellungsfehlern, selbst wenn dein Auge im Zweifelsfall die Details nicht mehr Trennen kann, entspricht das Angezeigte Bild halt schlicht nicht dem gespeicherten und ist dann im Zweifelsfall ungünstig abgetastet.

Das soll nur als einfaches Beispiel für mögliche Darstellungsfehler, dienen. Das Bild liegt ja Digital vor, also kann man auch den Mittelwert bilden. Das würde dann aber auch die Darstellung ggf. verfälschen (Bsp. weiße Linie auf Schwarzem Hintergrund würde dann, wenn sie zu dünn ist, zu einer grauen Linie werden und auch den Unterschied würden wir sehr wohl bemerken.
 
Zuletzt bearbeitet:
Ist doch klar warum die nächste Generation an Auflösungen kommen muss,
sowohl im Tv & Monitor Berreich !

Alle oder die meisten haben jetzt Full HD daheim auf ihrem Handy, Tv, Monitor usw.

Also muss was neues her, Hura erst mal 4k UHD auf den Markt werfen, nein halt stop doch gleich 8k^^
aber erst mal nur in Japan & restliche Asiatische Räume klaaaar & es dauert mindestens bis 2018
bis es Markt reif ist..;)

Wer das glaubt bei dem stand der Technik glaubt mMn noch an den Osterhase..
Das ist reine Marktwirtschaft sonst nichts.

Bei einem 27 Zoll monitor ob der nun mit 1080P läuft oder UHD 4K seh ich da zwar ein paar unterschiede die sind bei der größe aber lächerlich finde ich zumindest.

Ab einem 50 Zoll Tv hingegen ist der unterschied schon enorm, zwischen UHD & FullHD
 
Ich seh kaum einen Unterschied zwischen vorher Full HD auf 24 und jetzt auf 27 Zoll (Abstand um die 80 cm direkt an Wandhalter) außer das beim geringeren Skalieren natürlich aufällt welche Grafiken in schlechter Qualität vorliegen.

Vieleicht bin Ich auch tendenziel eher bei der Maulwurf Fraktion troz Brille.
 
°Sn0wFlow° schrieb:
Oh Mann @wazzup du "Experte"

Retina ist also das Nonplusultra und wir brauchen keine höhere Auflösung mehr?

Dir kommt aber nicht in den Sinn das Retina auch nur Apple Marketing ist oder? Abgesehen davon das Apple selbst mit dem neuen iMac 5k Displays anbietet.

Retina ist aureichend. Steve hat damals öffentlich festgestellt das die grenze des menschlichen auges bei etwa 300ppi liegt.
Und so ist es auch. Man kann einfach keine einzelnen pixel mehr erkennen.
Der 5k imac ist geil und 100% sinnvoll. 5k auf 27" ist was anderes wie 8k 13,3".... Fakt!
 
wazzup schrieb:
Retina ist aureichend. Steve hat damals öffentlich festgestellt das die grenze des menschlichen auges bei etwa 300ppi liegt.
Und so ist es auch. Man kann einfach keine einzelnen pixel mehr erkennen.
Der 5k imac ist geil und 100% sinnvoll. 5k auf 27" ist was anderes wie 8k 13,3".... Fakt!

Ich wollts grad schreiben ^^ Apple hat doch längst für uns festgelegt das jedem Menschen 300ppi reichen...
 
firesnake schrieb:
Ab einem 50 Zoll Tv hingegen ist der unterschied schon enorm, zwischen UHD & FullHD

Aber nicht, wenn du mit dem "richtigen" Sehabstand davor sitzt. Klar, wenn man sich einen halben Meter vor den 50er hockt, sieht man auch einen Unterschied, aber so sitzt man ja nicht davor...
 
Zurück
Oben