News Der Nachfolger von „Full HD“ heißt „Ultra HD“

AuroraFlash schrieb:
4K erinnert zu sehr an Y2K und hat damit eindeutig einen negativen Touch. :)

Ahaaaaa... Ach so.... Schon klar. Noch Restalkohol? :D

Wo wären wir heute, wenn alle Unkenrufer neue Techniken abblocken könnten? Dann hätten wir nicht mal DVDs erleben dürfen. 4k / UHD steht schon länger in den Startlöchern und in selbigen hat vor weit über 5 Jahren auch Full HD gestanden. Heute möchte es fast niemand mehr missen (außer vlt. auf Laptop und PC-Bildschirmen, wo man gerne wieder etwas mehr "Höhe" hätte ;))
 
Ich werde es wohl auch weiterhin HD Ready 720p / 1080p / 2160p ... nennen, da braucht es kein Full Ultra Mega Giga Quad und was man nicht noch alles davor setzen könnte.
 
Blaexe schrieb:
Das meinst du doch nicht ernst, oder? Willst du 10cm vor deinem 80" TV sitzen? Die benötigte Pixeldichte hängt direkt davon ab, wie groß der Sehabstand ist. 1080p ist für die allermeisten Zuschauer bereits "Retina Auflösung". Man kann keine Pixel mehr sehen bei einem normalen Sitzabstand. Du hättest nichts von einer solchen Pixeldichte.

4k ist für Fernseher in 99,9% der Fälle absolut unnötig, aber die Leute fallen reihenweise darauf rein.
Ich freue mich auf 4k und mehr - fürs Kino und Heimkino Beamer.


Muss dir voll und ganz zustimmen Blaexe!
 
Ich nenne es weiter 4k ist der kleiner Bruder oder wie ich es sage immer Mild von 8k.

ist so wie 720p von 1080p in Verhältnis. Würde ja auch schon erwähnt mal das 4k nur ein Vorversion von 8k ist.
 
JohnVienna schrieb:
(Noch) keinen Sinn macht Ultra-HD beim PC, dafür müsste die Hardware leistungsfähiger und gleichzeitig auch nicht zu teuer sein.
PCs sind neben (Heim-)Kinos die einzigen Medien, die direkt von 4k profitieren würden. Nur, dass es eben nicht 4k sein muss, sondern einfach Bildschirme mit viel höherer Pixeldichte. Ab ~200 dpi aufwärts wird es interessant und erlaubt dann gestochen scharfe Schriftdarstellung. Außerdem erlauben viele kleine Pixel eine bessere Interpolation ohne merklichen Schärfeverlust - dann ächzt die Grafikkarte auch nicht beim Zocken.
 
Zuletzt bearbeitet:
Was mir noch so einfällt, unter umständen kommt bei der PC --> TFT Übertragung auch noch 20% hinzu. Redudanz um Fehler korrigieren zu können. Ist eigentlich völlig normal. Ich weiß jetzt nicht wieviele Fehler erkannt/detektiert werden sollen, aber das kostet auch ordentlich Bandbreite. Also die können HDMI und Displayport ruhig weiterentwickeln^^

Ein weiterer Vorteil entsprechender Fernsehre wäre das PC-Monitore auch langsam nachziehen würden. Die FullHD Fernsehre haben damals schließlich für das Downgrade von 1920x1200 auf 1920x1080 gesorgt. Ich mag 16:10 viel mehr als 16:9. 16:9 ist einfach zu schmal für mich. Und das man in Filmen keine Balken sieht liegt an den tollen Filmformaten. Ein Balken ist auch nicht so wild beim Film gucken wie wenn man in allen anderen Anwendungsgebieten dann auf einmal weniger Übersicht hat. Am PC gehört sich 16:10 einfach, 16:9 ist für Fernsehre aber wohl besser.
 
Das Witzgie ist, das 4k = 4.000 keine Aussage enthält.

Die Ultra HD Auflösung bietet die 4-fache Anzahl an Pixeln von Full HD, ABER eben nur die doppelte Auflösung.
3.840 ist nicht 4k und 2.160 ist auch nicht 4k. Die Anzahl der Pixel bei Ultra HD ist 8.294.400 - folglich könnte man diese Auflösung als rund 8,3 MP bezeichnen. 4k ist Blödsinn und Ultra HD sagt im Prinzip auch nichts aus.

McDaniel-77
 
Morrich schrieb:
FullHD, UltraHD, SuperDuperMegaHD...

Es werden immer mehr Superlative für die hohen Auflösungen geschaffen und es wird einem von der Branche ständig vorgebetet, dass das alles super toll wäre und mans unbedingt bräuchte.

Ich sitz hier noch vor nem 16:10 Monitor mit 1680*1050 Auflösung und vermisse überhaupt nichts. Habe auch schon oft 16:9 Monitore mit FullHD genutzt und fand den Unterschied jetzt nicht so extrem gravierend, dass ich mir sage "Hey, du brauchst so ein Ding".

Also so supter toll wies die Branche immer hinstellt isses gar nicht. Aber sollen sie weiterhin mit irgendwelchen Superlativen um sich werfen, wenns ihnen Spaß macht.

habe einen full hd 24" 16:10 und einen full hd 23,x" 16:9 monitor und würde jederzeit den 16:10 monitor dem anderen vorziehen. viel angenehmer.
 
Für die visuelle Schärfewahrnehmung spielt auch die horizontale Linienzahl die entscheidene Rolle und ob nun 1050 oder 1080P ist so ziemlich egal.
 
Zuletzt bearbeitet:
Mir persönlich reicht auch immer noch eine nicht HD Auflösung *duckundwech*
 
an riDDi:

Ich warte auch auf PC Monitore mit höherer Pixeldichte zu bezahlbaren Preisen.

Kann doch nicht sein das z.b. 27 Zoll Monitore weniger Pixeldichte als einige Smartphones haben.
 
Es wird auch endlich Zeit mit Ultra HD. Hoffentlich kommt diese Auflösung auch bald für PC Displays. Es ist eine Frechheit das Ultra HD noch nicht durchgängig verfügbar ist. Warum sollte man heutzutage über 1000 Euro für nur Full HD ausgeben. Das geht doch nicht!
 
JohnVienna schrieb:
Kann doch nicht sein das z.b. 27 Zoll Monitore weniger Pixeldichte als einige Smartphones haben.

Doch klar, ist ja auch logisch. Wie nah hälst du dein Smartphone? Und wie nah ist dein Kopf am 27" Monitor?

Angenommen du sitzt beim Monitor 3x so weit weg, dann brauchst du auch nur 1/3 der Pixeldichte für den selben Effekt.
 
Hansdampf12345 schrieb:
Starker Typ Winnie!
Oh, danke, ich bemühe mich jedenfalls nach Kräften. ;)

Hansdampf12345 schrieb:
Die 42bit habe ich nur genommen, weil Teiby1 das in seiner Rechnung ebenfalls gemacht hat. Es ging nur darum zu zeigen, dass die Rechnung nicht hinkommt.

Von TV-Broadcast hat doch keiner gesprochen.
Ok, habe ich nun verstanden. Es geht um die Schnittstellen.

Nun ja. HDMI 1.5 ist derzeit "in der Mache". So soll sich Utra HD mit 60 fps oder alternativ Ultra HD in 3D mit 30 fps darüber übertragen lassen.
Es wird derzeit an den Spezifikationen getüftelt.
Display-Port, DVI oder HDMI unterscheiden sich technisch gesehen nicht so wesentlich. Der Hauptunterschied sind im Prinzip die unterschiedlichen Stecker u. Buchsen.
Vielleicht nutzen die Hersteller dann Vier-Ebenen-Kodierung statt Zwei-Ebenen-Kodierung um die Datenrate zu verdoppeln, weil eine Erhöhung der Taktfrequenz die Länge der Kabel deutlich einschränken würde.

Hansdampf12345 schrieb:
Und in Sachen BluRay...
Gerade auch deshalb, weil niemand ein Abspielgerät im Wohnzimmer haben will, was ne BluRay mit 8facher Geschwindigkeit bewegt (Geräusche und so).
Bleibt die Frage ob Filme in Ultra HD überhaupt auf Blu-ray als Medium gepresst werden. Vielleicht wird es wieder einen neuen Datenträger für Ultra HD geben.
 
WinnieW2 schrieb:
[...]
Bleibt die Frage ob Filme in Ultra HD überhaupt auf Blu-ray als Medium gepresst werden. Vielleicht wird es wieder einen neuen Datenträger für Ultra HD geben.

Das steckt in meiner Aussage drin ;)

Und mögliche Alternative wie die Holodisc oder vielleicht auch Flash-Speicher gibt es ja auch schon.
 
Verdammt und ich hatte auf "ÜberHD" gehofft..
 
Zuletzt bearbeitet von einem Moderator:
an Blaexe:


Wie erklärst du dir dann den Wunsch von vielen Konsumenten nach einer höherern Auflösung, nach mehr Pixeldichte, nach schärferen/ruckelfreien/schlierenlosen, kontraststarken Bildern?

Es wäre doch schön wenn es endlich mal Full-HD (1080p nativ) Filme und Serien sowie Dokus und Sportübertragungen von den öffentlich/rechtlichen sowie den Free TV Sendern geben würde.

Genauso wie es schön wäre endlich mal das komplette Sky Paket in nativen 1080p zu konsumieren, aber leider nicht möglich wegen dem lieben Geld.

In ferner Zukunft gibt es hoffentlich mehr Full-HD Angebote, z.b. im Videospielesektor oder im Free TV, und wenn nicht, dann wenigstens über das Internet und Streaming Angebote, die über die beschnittenen Sachen von heute hinausgehen.

Mein Traum wäre ja eine sogenannte Internet-Filme-Musik-TV-Serien-Spiele Flatrate um eine bestimmte Summe X im Monat, dafür ohne Beschränkung, also uncut, ohne Werbung, mit Aufnahmefunktion, abspielbar auf jedem Player usw. :-)
 
Zurück
Oben