News Der Nachfolger von „Full HD“ heißt „Ultra HD“

Teiby1 schrieb:
Wie wird den das berechnet?
Ich denk mal 4096*2560 = 10485760 Pixel
Das mal 42 Bit ergibt 440401920 Bits
Umgerechnet genau 420MBits
Nun mal 30 FPS ergibt 12,3GBit/s

Passt so oder?

Ps: 2160 MByte/s sind 16,875 GBit/s (M zu G sind 1024)

Also das kann ich so wirklich nicht stehen lassen. Wenn du die Übertragungsbitrate meinst okay.
Aber die Größe der Mediadaten wird nicht mal annähernd so groß ausfallen.
Theoretisch stimmt das, aber wir sind seit x Jahrzehnten nicht mehr dabei 30 einzelne Bilder aneinanderzukleben um eine Sekunde zu füllen^^

Dafür gibt es verdamt clevere Algorithmen die die erforderliche Bitrate extrem schrumpfen lassen. Es macht bsp keinen Sinn den hauptsächlich roten Hintergrund von 60 Bildern(2s) einer ruhigen Szene Pixel für Pixel zu speichern^^
Anderes Beispiel: Ein Text wie wir ihn kennen hat ein sehr "niedrigen" Informationsgehalt. Wenn man ein anderes Alphabet nutzen würde würde man direkt 3x weniger Platz für einen Beitrag brauchen. Man sehe sich nur mal die übermäßige Verwendung gewisser Buchstaben an.
Wenn man diesen Buchstaben eine besonders kurze Codefolge gibt kann man EXTREM viel Platz sparen. Dazu passend kann man sich mal mit den Anfängen der Nachrichtenübertragung beschäftigen(morsen etc.)^^

Nach deinem Rechenweg bräuchte man für FullHD@30fps schon 2,5GBit/s. Das ist nunmal völlig an der Realität vorbei. In der Realität reichen 1/1000 bis 1/100 dieser Bitrate je nach Qualität und Material schon aus.

@topic:

Wenn die einzige Begründung die gegen diese Auflösung spricht "Das braucht doch keiner, ist doch sinnlos, niemand sendet damit" etc. pp. ist Frage ich mich was ihr hier wollt. Bitte bitte lasst diese unglaublich sinnlosen Beitrage und macht doch was nützliches xD
 
Zuletzt bearbeitet:
Draco Nobilis schrieb:
Also das kann ich so wirklich nicht stehen lassen. Wenn du die Übertragungsbitrate meinst okay.
Aber die Größe der Mediadaten wird nicht mal annähernd so groß ausfallen.[...]

So sieht's aus.

Wenn man mal für FullHD die Rechnung aufstellt, wird schnell klar, dass man so nicht rechnen kann.

1920x1080 = 2073600
x42bit = 87091200
x30FPS = 2612736000bit/s

Das wären wie schon geschrieben 2,433Gbit/s. Die BluRay-Spezifikation gibt aber nur maximal 48Mbit/s bzw. 72Mbit/s für 3D-BluRays her. Also 50x weniger Daten, als errechnet.

Für den reinen Videostream sind laut Wiki sogar nur 40Mbit/s vorgesehen. Für UltraHD bräuchte man also 168Mbit/s bei gleicher Quali.

Ein Laufwerk, dass mit 6facher oder 8facher Geschwindigkeit liest, bekommt das locker hin.
 
ich hab damals bei DVD und Röhrenfernseher schon gedacht, was man da noch besser machen kann. Kam mir perfekt vor. Dann kam HD und ich merkte es geht doch besser. Wird bei Ultra HD nicht anderes sein.

Man sollte nicht immer alles in Frage stellen, nur weil man sich selbst vorstellen kann es gebrauchen zu nkönnen. Tellerrand, Standpunkt mit Radius = 0 und so....
 
man müsste mal die Beiträge zusammen zählen, in denen die Leute schreiben, dass man sowas "nicht braucht" oder dass sie auch so schon zufrieden und glücklich sind. ^^ Dann benutzt ihr also den Rest Eures Lebens nen 1900X1200 Monitor? EIne höhrere Auflösung wär ja völlig überflüssig und schwachsinnig...
Ich kenn die Diskussion sehr gut. Als 800x400 überstiegen wurde, gab es exakt dieselben Einwände wie "braucht keiner" und "es ist ja dann alles viel zu klein" etc. Oder Leute in Fotografieforen, die ankündigen VGA-Monitore zu horten zu wollen...
Wenn ihr ein Problem mit steigender Auflösung habt, dann ruft Samsung oder LG an und beschwert euch
 
Zuletzt bearbeitet:
Hansdampf12345 schrieb:
1920x1080 = 2073600
x42bit = 87091200
x30FPS = 2612736000bit/s

Eine Übertragung mit 42 Bit sieht kein derzeitiger Videocodec vor. Akt. Videocodecs unterstützen höchstens 30 Bit, oftmals erfolgt die Übertragung der Videos nur mit 24 Bit Farbtiefe.
In Europa werden ausserdem nur 25 fps übertragen; Spielfilme auf Blu-ray haben praktisch immer 24 fps.

Hansdampf12345 schrieb:
Für den reinen Videostream sind laut Wiki sogar nur 40Mbit/s vorgesehen.
Solch hohen Datenraten werden nur auf der Blu-ray genutzt, beim TV-Broadcast wird nur mit Datenraten zwischen 10 und 15 MBit/s pro HDTV-Programm gesendet.

Hansdampf12345 schrieb:
Ein Laufwerk, dass mit 6facher oder 8facher Geschwindigkeit liest, bekommt das locker hin.
Es steht noch gar nicht fest ob Videomaterial in 4k UHD überhaupt auf Blu-ray verkauft werden wird.
Zudem wird bei 4k UHD Video wahrscheinlich auf den modernern HEVC Codec gewechselt.
Weniger als ca. 50 MBit/s halte ich bei 4k UHD dennoch nicht für sinnvoll.
 
Starker Typ Winnie!

Die 42bit habe ich nur genommen, weil Teiby1 das in seiner Rechnung ebenfalls gemacht hat. Es ging nur darum zu zeigen, dass die Rechnung nicht hinkommt.

Von TV-Broadcast hat doch keiner gesprochen. Von mir aus können die da auch mit 2Mbit/s senden. Hier ging es nur darum, dass eine theoretische Annahme widerlegt werden sollte.

Und in Sachen BluRay: das war auch nur ne theoretische Annahme, um zu zeigen, dass die derzeitige Technik das hinbekommen würde. Mir ist auch klar, dass sich bis dahin sicherlich noch einiges tun wird.
Gerade auch deshalb, weil niemand ein Abspielgerät im Wohnzimmer haben will, was ne BluRay mit 8facher Geschwindigkeit bewegt (Geräusche und so).
 
@Draco Nobilis
@Hansdampf12345

Ich habe die Berechnung für die Datenübertagung von PC->Bildschirm (über DisplayPort Kabel) geschrieben und nicht von der Bitrate eines komprimierten Videos auf der Festplatte.
Und ich behaute jetzt mal, das der PC das komprimierte Video erst dekomprimieren muss und schickt es dann an den Bildschirm, so das jedes einzelne Pixel angesprochen werden kann (deshalb die hohe Datenrate).

Ich hab auch gerade mal nachgeschaut, wieviele Farben mein Bildschirm darstellen kann. Es sind 1,07 Milliarden. Also 30 Bit. Denk mal das ist bei jedem PC-Bildschirm so.

Allerdings weiss ich nicht genau, wieviele Bilder in der Sekunde übertragen werden. Es könnten auch 60 sein (so wie die Bildwiederholungsfrequenz), aber dann komm ich auf 17,6GBit/s und maximal sind 16,9GBit/s möglich.
Warscheinlich sind es dann nur 24 FPS, da HDMI nur 10GBit schafft und man mit 24 FPS nur 6GBit/s benötigt.
 
Zuletzt bearbeitet:
Ich hab leider nur den Quote von dir in Dracos Beitrag gesehen.

Da war natürlich der Bezug auf den Beitrag mit den Display-Port Kabeln nicht mehr dabei, sorry :)
Dann könnte je nach Farbtiefe die Rechnung stimmen.

Laut Wiki sind sowohl Display-Port, als auch HDMI für 4K tauglich.
 
Andregee schrieb:
Ergänzung ()

klar. spiele mal bf3 in ultra mit 5040x1080p. da hast du bei einer high end single gpu 25fps bestenfalls
mit 4k dann halt 30. selbst eine 690 gtx blockt auf ultra keine 60fps und es dropt teils auf 40fps. da ist schon ein sehr potentes multi gpu system gefragt.

Lies bitte was ich geschrieben habe. 8-10 GraKa-Generationen weiter (nämlich dann, wenn diese Geräte erschwinglich sein werden), wird die Auflösung auch für <100 € Karten kein Problem mehr darstellen. Die 690gtx steht da längst im Museum.
 
chris233 schrieb:
^^ Dann benutzt ihr also den Rest Eures Lebens nen 1900X1200 Monitor? EIne höhrere Auflösung wär ja völlig überflüssig und schwachsinnig...
Ich kenn die Diskussion sehr gut. Als 800x400 überstiegen wurde, gab es exakt dieselben Einwände wie "braucht keiner" und "es ist ja dann alles viel zu klein" etc. Oder Leute in Fotografieforen, die ankündigen VGA-Monitore zu horten zu wollen...
Wenn ihr ein Problem mit steigender Auflösung habt, dann ruft Samsung oder LG an und beschwert euch

Es geht hier primär um Fernseher, nicht um Monitore. Das ist eine ganz andere Welt. Niemand hier sagt dass eine höhere Auflösung bei Monitoren nicht erstrebenswert und sinnvoll ist.

Und das mit früheren Auflösungen zu vergleichen ist auch Quark. Irgendwann ist einfach eine sehphysiologische Grenze erreicht, und das ist bei den meisten Leuten beim TV mit FullHD bereits der Fall.

Diejenigen die meinen unbedingt 4k zu brauchen, mit denen würde ich mal gerne einen Blindtest mit 720p und 1080p machen. Ich wette die meisten könnten nichtmal das zuverlässig unterscheiden.
 
Hihi, "Blindtest" ist in dem Fall irgendwie lustig :)

Willst du denn einmal 720p Material hochskaliert auf nem FullHD Monitor gegen 1080p Material testen oder willst du einen Fernseher mit FullHD Auflösung gegen einen Fernseher mit gleicher Größe und nativer 720p-Auflösung testen?
 
Ideal wäre natürlich der Gleiche TV, einmal mit 1080p-Panel, einmal mit 720p-Panel. Sonst keine Unterschiede. Das gibt es allerdings nicht.

Wie in einem Test festgestellt wurde, lässt sich die Wahrgenommene Auflösung nämlich leicht manipulieren.

A few years ago I did a TV face-off with trained TV reviewers and untrained participants with Pioneer's Kuro plasma (768p) against several 1080p LCDs and plasmas. Not one person noticed the Kuro wasn't 1080p. In fact, most lauded it for its detail. Why? Its contrast ratio was so much better than on the other TVs that it appeared to have better resolution. The difference between light and dark is resolution. If that difference is more pronounced, as it is on high-contrast ratio displays, they will have more apparent resolution.

http://reviews.cnet.com/8301-33199_7-57366319-221/why-4k-tvs-are-stupid/

Ich denke aber auch dass die meisten hochskaliertes 720p nicht unterscheiden können, mit ihrem Sitzabstand und der TV-Größe. (Der Durchschnitt dürfte irgendwo bei 40" liegen)
 
Marius schrieb:
Denk an die Farben und Bewegungen... 1 Pixel, wäre ja schön, wenn er gleich aus der richtigen Farbe bestünde.. tuts aber nicht, da müssen erst die Nachbarpixel zusammenhelfen und aus 3 Farben + der Hintergrundbeleuchtung das Bild mischen...
Ansonsten wäre AA nicht nötig und wie jeder weis sieht ein Bild erst mit 8x AA halbwegs gut aus.
Ich erlaube mir mal zu sagen, dass das alles falsch ist.
 
Blaexe schrieb:
Ich denke aber auch dass die meisten hochskaliertes 720p nicht unterscheiden können, mit ihrem Sitzabstand und der TV-Größe. (Der Durchschnitt dürfte irgendwo bei 40" liegen)

Damit dürftest du recht haben...
Bei den meisten die ich kenne ist der Sitzabstand bei ~2,5-3m und der TV bei ~42" da sieht gutes 720P sogar manchmal besser aus als schlechtes 1080P.
Skalieren muss der TV sowieso fast immer, daher wäre bessere Technik auf diesem Gebiet wünschenswerter als höhere Auflösung die noch höhere Anforderungen an den Scaler stellt.

Wenn ich mir die Bildgrütze einiger BDs anschaue, dann wird mir schlecht und das wird nicht besser wenn der TV eine noch höhere Auflösung hat, zumal man bei älteren Filmen nichts mehr ändern kann wenn es wirtschaftlich bleiben soll womit wir wieder beim Scaler wären.

In Deutschland wird sich in den nächsten Jahren auch nichts an den bisherigen Auflösungen ändern was aus Kostengründen nachvollziehbar ist und damit werden die meisten Ultra HD erst kaufen wenn es keine guten Full HD mehr gibt - den Ups-Effekt hatten schon zu viele beim Umstieg von CRT auf LCD/Plasma.
 
4K erinnert zu sehr an Y2K und hat damit eindeutig einen negativen Touch. :)
 
Für TV Geräte ab 60 Zoll macht Ultra-HD Sinn.

Für Beamer macht Ultra-HD auch Sinn.

Fürs (IMAX) Kino macht Ultra-HD auch Sinn.




Keinen Sinn macht Ultra-HD fürs "normale" Fernsehprogramm, da immer noch in max. 720p ausgestrahlt wird, oder eben in 1080i wie z.b Sky.

Keinen Sinn macht Ultra-HD bei Spielekonsolen, auch nicht bei der nächsten Generation die können max. 1080p nativ darstellen, die bald am Markt erscheinende Wii-U z.b.

(Noch) keinen Sinn macht Ultra-HD beim PC, dafür müsste die Hardware leistungsfähiger und gleichzeitig auch nicht zu teuer sein.



Aber, ich hoffe auch das die bestehende Technik, wie z.b. LCD/LED/Plasma noch verbessert wird, und wenn nicht, das zumindest OLED oder andere Verfahren zügig weiterentwickelt werden und wir Konsumenten davon profitieren.

Leider ist das "normale" Fernseh-Programm mit den geschnittenen Filmen, den vielen Werbeunterbrechungen, den ca. 2 Jahren nach dem Kino oder ca. 1 Jahr nach Blu-Ray/DVD Premiere folgenden Erstausstrahlungen im Free-TV, nicht in der Lage die Bedürfnisse von vielen Konsumenten zu befriedigen, daher wird sich das Streamen übers Internet und Video on Demand immer mehr durchsetzen, und das ist gut so.

Ich selber befürworte als interessierter Konsument jede technische Weiterentwicklung am Unterhaltungssektor, daher freue ich mich auch schon auf 4K-Ultra-HD in der Zukunft.
 
Blaexe schrieb:
Aber, ich hoffe auch das die bestehende Technik, wie z.b. LCD/LED/Plasma noch verbessert wird, und wenn nicht, das zumindest OLED oder andere Verfahren zügig weiterentwickelt werden und wir Konsumenten davon profitieren.

Alle drei Techniken basieren auf einer festen Displayauflösung, also wird das Problem bei allen immer bleiben - nur bessere Scaler wären eine Lösung von der alle gleichermassen provitieren würden, leider ist es nicht so leicht damit zu werben...

Nicht die Technik ist das Problem sondern deren Umsätzung und daran wird auch Ultra HD nichts ändern - viele ältere Filme könnte man jederzeit mit 4k abtasten, tut man jedoch nicht...
 
Da komm ich mir vor wie ein Kleinkind wenn ich so etwas lese ... "ultra HD"

Es ist nicht zu vergessen, dass "kilo", "mega", "giga", "terra", "peta" etc. mathematische Größen sind.
Hingegen"full", "super", "ultra", "retina", etc. nur Ausdrücke für klein Kinder, um Ihnen nicht erklären zu müssen, was denn dahinter steckt. Weil es eh schon danach klingt, als gäbe es keine genaue Definition dafür. Es soll einfach sagen, "Ultra HD - das ist einfach toll, fertig". Darum finde ich es echt scheiße, dass alles so verdiedlicht wird. Aber gut, die Masse soll es ja auch nicht vetstehen, sondern nur kaufen und sich, weil sie es nicht verstehen, durch Wörter wie "Ultra" besser fühlen...
 
blei2k schrieb:
für den normalen wohnzimmer tv ist ultra hd nicht interessant. das bild ist dort bereits in full hd absolut scharf womit ultra hd keine wirklich sichtbare verbesserung darstellt.
das kann man gut vergleichen wenn man einen 32 zoll tv mit hd ready auflösung gegen einen 32 zoll full hd tv sieht. der unterschied fällt einfach so gut wie garnicht ins gewicht.

ouh doch.... du musst denn natürlich dementsprechendes material anschauen und nicht irgend eine drecks-tv-sendung denn wirst du den unterschied schon merken.

aber leider wird Ultra HD hiernoch lange auf sich warten. ich hab erst vor 2 wochen meine röhre entsorgt und wollte eigentlich keinen 1920*1060 Fernsehr holen.
 
ich finde 4k ist noch für die meisten uniteressant, weil die meisten tv sender nicht mal in nativen 1080p senden können. Für kinos wäre das aber anders. ein erhöhung der auflösung wird den leuten in den vordersten reihen auf jedenfall mehr freude breiten. Da kann nvidia und amd schon beginnen gpus zu bauen, die 4k spiele ruckelfrei wiedergeben können.
 
Zuletzt bearbeitet:
Zurück
Oben