HD-Material & die Hardware

Kagee

Lt. Junior Grade Pro
Registriert
Feb. 2005
Beiträge
431
Hallo!

Vielleicht weiß ja jemand von eucht weiter. In den Stickies für die Systemzusammenstellungen werden einige Tipps für die wiedergabe von HD-Material gegeben. Viele gebe auch bereitwillig Auskunft, ob z.B. auf dem Prozessor eine Full-HD-Wiedergabe möglich ist.

Aber:

Ich würde gern ein wenig über die Hintergründe erfahren. Ich habe schon Wikipedia und das Doom9-Forum durchforstet, bin aber nicht über die Theorie und Software hinaus gekommen. Kernfrage dieses Threads ist: Welche Hardware kann welche HD-Materialien wiedergeben?
Ich beziehe mich hier ausschließlich auf den H.264-Standard und deren Implementierungen (allen voran x264 und den BluRay-Formaten) und auf das Format 1080p, also die Profile 4.0 mit 1080p und 4.1 mit 1080p (BluRay!).
Zur Information: Encoding Video for Blu-Ray using H264/AVC
H.264 bei Wikipedia
LIST of MPEG-4 AVC/H.264 VIDEO CODECS

1. Lösung: CPU-Power
Die erste Lösung ist natürlich immer die CPU-Lösung. Die CPU kann stets alle Berechnungen ausführen, da sie die universelle Recheneinheit im Computer ist. Die Frage bei einer CPU ist eigentlich nur, ob sie schnell genug ist, die jeweiligen Materialien zu decodieren. Ein ATOM vermag dies bei Level 4.1 nicht allein. Kann dies ein i3? Ein i5 auf jeden Fall denke ich und wie sieht's bei AMD aus? Wie hoch gehen die Prozessoren allein (4.2, 5+)?

2. Lösung: Grafikkarte mitrechnen lassen
Nun habe ich von einigen Ansätzen gelesen, die die Grafikkarte auch in die Decodierung mit einbezieht. Wie funktioniert das genau? Die GPU ist ja auch noch recht universell was die Typen an berechnungen betrifft - so wie ich das bis jetzt verstanden habe nur optimiert auf Fließkommaberechnung. Welche Hardware muss diese Weiterleitung an die GPU unterstützen? Nur der Chipsatz und die Graka selbst? Die Grafikkarte braucht CUDA oder OpenCL support? Wie steht es mit den internen Grafiklösungen der neusten Prozssoren? Ist dort eine solche Unterstützung grundsätzlich gegeben?

3. Lösung: Dedizierter Decoderchip
Die letze Möglichkeit, die mir nun einfällt ist eine Hardware zu verbauen, welche ausschließlich entworfen wurde um H.264 zu decodieren. Diese Lösungen sind preiswerter aber sehr unflexibel (?), da meist nur wenige Level von H264 unterstützt werden, oder? Dies wird doch für klasssische (Hardware-)BluRay-Player verwendet oder?

Ich bin für jede Antwort auf die Teilfragen oder Links zu Orten, wo Antworten zu finden sind dankbar (vll sogar hier im Forum? Nicht dass ich nicht gesucht hätte....).
 
Zurück
Oben