News Videokompressionsstandard H.265 freigegeben

Tekpoint schrieb:
Es gibt wirklich noch Leute die das Wahrhaben wollen das man bei weniger Datenmenge und weniger Bitrate, gleiche Bildqualität hat wie in originalen ?
Ich Zitiere mal was feines aus den Nett was mir einer Quasi aus den Mund genommen hat.


Quelle: Hardware.de

Du hast halt keine Ahnung von Kompression. Mit verlustfreier Komression hättest du genau das was du als unmöglich erachtest: Aufs Bit exakt gleiche Qualität bei weniger Datenrate.

Die verlustbehaftete Kompression treibt das weiter und versucht bei gleicher wahrgenommener Qualität eine drastisch niedrigere Datenrate zu erzielen. Das funktioniert wunderbar, natürlich über viele Tricks.

Abgesehn davon ist unkomprimiertes Video sowieso unmöglich in der Praxis.

Ich wette mit dir um 1000€, dass du nen gut encodeten x264/h.265 Film nicht vom verlustfreien Original unterscheiden kannst bei normalen Seh-bedingungen (-> keine Lupe und keine Standbilder).

Aber Leute wie du sind normalerweise eh unbelehrbar.....
 
haha, Quad Core Tegra3 soll reichen? Der war gut! Ich denke mal wenn überhaupt könnte das Tegra 4 oder Samsung Exynos 5 Octa Core mit 4x Quad A15 CPU schaffen. Oder Qualcomm S800. Vermutlich wird es frühstens 2014 Smartphones geben die das können. Wohl eher 2015.

von was redest Du? H264 HD-Material kann man schon auf einem Dualcore-Smartphone flüssig gucken, und zwar allein über die CPU.
Wer sagt überhaupt, dass H265 beim Dekodieren mehr Leistung bräuchte als sein Vorgänger? Wahrscheinlich verwechseln hier einige Encodieren mit Decodieren.
 
Also ich weiß ja nicht was ihr macht aber auf meinem S2 kann ich selbst 1080p Filme mit 8GB flüssig abspielen.. (Was natürlich recht sinnlos ist wenn das Handy eine Auflösung von 480p hat xD) Vielleicht solltet ihr alle mal auf CM10 flashen :lol:
 
fabi_amd schrieb:
edit: Von welcher Hardware reden wir denn da? zB das HTC One X, mit 1.5GHZ und Trega 3, reicht das?

"For example encoding 300 frames (like 10 seconds) of 1080p video
takes about 6 hours on a Core i7 machine with the reference encoder
(still the only available encoder). In the next few months we'll
probably see the first optimized encoders being released."

"The core i5 laptop I use is sufficient to decode 1080p in realtime,
so a modern CPU will do."

Quelle:
> http://www.reddit.com/r/technology/...s_approved_potential_to_cut_bandwidth/c83vd9w
 
Es ist ja schon sehr viel möglich mit h.264.
Schön dass es sich weiterentwickelt, aber... warten wir erstmal ab. Ich hoffe aktuelle Hardware kann es in Zukunft auch noch abspielen, sonst kann man erstmal getrost bei h.264 bleiben. Meine ganzen Videos habe ich erst in h.264 codiert...
 
planter88 schrieb:
Hardware-Encodierung hängt nicht von der Auflösung ab sondern vom verwendeten Codec (und den genutzten Profile/Level). H264 Level 5.1 kann z.B. auch 4K Videos decodieren und sofern eine Hardwarebeschleuniger das implementiert hat, funktionierts.

Je höher die Auflösung umso höher die Bitrate ergo hängt die Hardware-Encodierung schon davon ab.
 
planter88 hat schon Recht. Ein H.264 De-/Encoder, der Level 5.1 unterstützt muss eben auch einen Stream mit 4096 × 2304 bei 25fps und je nach Profil 240 bis 960MBit/s (de-)kodieren können. Die Decoder in den üblichen Desktop GPU Chips unterstützten afaik L5.1, wie das bei den ARM und anderen embedded Chips aussieht kann ich allerdings nicht sagen. Hardware-Encoder sind wohl häufig auf L4.1 (wie bei BluRays) begrenzt.
 
Zuletzt bearbeitet:
Und schon wieder ein Grund für Apple, die nächste iOS Version für die alten Geräte nicht mehr zur Verfügung zu stellen und damit die Benutzer dieser zu zwingen, sich ein neues Gerät zuzulegen, um weiterhin im Internet Videos anschauen zu können :(

Das passt auch zum Mega Release: Nun kann man im Mega Speicherplatz Kontingent doppelt so viele Filme hochladen :D
(Natürlich meine ich damit die privaten FullHD-Urlaubsvideos, und nicht den großen Blockbuster aus dem Kino ;))
 
Kasmopaya schrieb:
Wen es intressiert, hab mal 4k auf Youtube getestet:

Sandy Quad mobile; GTX 560M -> bis zu 80% Auslastung
Ivy Quad mobile; GTX 650M -> 5-10%

Ergo Kepler hat schon 4k Decodierung dabei.

Die maximale Videoauflösung bei Youtube ist nur noch bei 2048x1536 und nicht bei 4k, das war nur mal kurzzeitig. Kann man auch nachprüfen falls ihr es nicht glaubt, Rechte Maustaste/Videoinfos.
 
H.265 ist schon nicht schlecht aber durch die in der Praxis oft zu geringen Bitraten leidet leider die Qualität immer mehr. Am deutlichsten sichtbar war das beim Digitalen Satellitenfernsehen, vom nahezu perfekten analogen Satellitenbild mit Audio in CD Qualität ist nicht viel übrig geblieben mit hoch komprimierten MPEG2-Matsch und mp2 ohne Höhen. Bei HDTV mit H.264 ist aufgrund der geringen Bitraten oft ein extremer Detailverlust auszumachen und bei H.265 wird das sicher nicht viel besser, da die Bitraten ja aus Effizienz- und Kostengründen eher sinken werden.

Der Trend sollte eher zu Lossless-Verfahren und höheren Bandbreiten gehen, der Qualität zu liebe.
 
@etking
Das würde man machen, wenn es nicht zu teuer wäre. Vollformat 4k unkomprimiert (was ja lossless entspricht) hat eine Bandbreite von 900 MB/s bzw. 7,2 GBit/s (= 4096px x 3072px x 3 Byte Farben x 25 Hz)!
Es ist technisch machbar, entsprechende Sender und Empfänger dafür zu konstruieren. Bezahlen willst du das aber in Form eines 2000€-Receivers nicht. Und den Boden zu deinem Haus muss man auch aufreißen bzw. neue Satelliten ins All schießen. Unsere vorhandene Infrastruktur ist bei weitem nicht leistungsfähig genug, diese Datenmengen (und dazu noch mehrere TV-Kanäle, also das ganze mal x) zu übertragen.

Und nach 5 Jahren kommt der Nachfolgestandard raus und dann geht alles von vorne los.
 
Habe erst jetzt von dem neuen Standard gelesen. Vorherige Nachrichten müssen wohl an mir vorbei gegangen sein. Für den "Zuschauer" ist das sicherlich toll, wegen der geringeren Ladezeiten etc. pp. Für das Unternehmen wie Youtube auch, denn halbierter Speicherplatzbedarf = doppelt so viele Video bzw. geringere Kosten bei Festplattenanschaffung. Aber auch für die Leute die eigene Videos "drehen" ist das super. Ich sehs ja an mir, ich mach dann und wann mal ein Video bspw. mal nen Grafiktest von nem neuen Spiel auf meiner Gammelhardware. Jetzt geht das Video vll. 5-6 Minuten, dafür dauert das hochladen aber gleich mal 180min (notfalls sogar noch länger - Youtube-Angaben). Und somit würde sich die Upload-Zeit auch halbieren.
Mich interessiert da dann auch in wiefern AMD und Intel ihre iGPUs darauf ausrichten werden.
 
Hypeo schrieb:
Und schon wieder ein Grund für Apple, die nächste iOS Version für die alten Geräte nicht mehr zur Verfügung zu stellen und damit die Benutzer dieser zu zwingen, sich ein neues Gerät zuzulegen, um weiterhin im Internet Videos anschauen zu können :(

Sollte das jetzt irgendwie witzig sein? Weil ich kann den Witz da nicht finden. :freak:



etking schrieb:
H.265 ist schon nicht schlecht aber durch die in der Praxis oft zu geringen Bitraten leidet leider die Qualität immer mehr. Am deutlichsten sichtbar war das beim Digitalen Satellitenfernsehen, vom nahezu perfekten analogen Satellitenbild mit Audio in CD Qualität ist nicht viel übrig geblieben mit hoch komprimierten MPEG2-Matsch und mp2 ohne Höhen. Bei HDTV mit H.264 ist aufgrund der geringen Bitraten oft ein extremer Detailverlust auszumachen und bei H.265 wird das sicher nicht viel besser, da die Bitraten ja aus Effizienz- und Kostengründen eher sinken werden.

Was dann ja eher ein Problem der Anbieter ist und nicht des Codecs. Ich komprimiere hier in h264 und ich habe keinerlei (sichtbaren) Nachteile im Vergleich zum Original.
Gut, bei extrem schwierigem Ausgangsmaterial ist das Ergebnis am Ende nicht wirklich viel kleiner als das Original, aber dafür ist die Quali noch top. Bei gutem Material gehts runter bis auf zu 20% des Originals.



Der Trend sollte eher zu Lossless-Verfahren und höheren Bandbreiten gehen, der Qualität zu liebe.

Nicht machbar, nicht mal im Ansatz! :rolleyes:

Und wie gesagt, wenn man einem kodierten Video genug Bandbreite spendiert, siehst du keinen Nachteil bei der Qualität.
 
Wie viel Luft ist auf diesem Gebiet noch drin?

Bei Bildern macht sich heutzutage ja keiner mehr die Mühe nach besseren Kompressionsalgorithmen umzuschauen.

Schon jetzt schwirren einem der Kopf angesichts der Containerformaten und Kompressionsverfahren mit den damit verbundenen Patenminenfeldern. Da erscheint mir auch eine zugegebenermaßen beeindruckende Verbesserung nicht gerade reizvoll. Es sei denn natürlich es ist das Ende der Fahnenstange erreicht und von jetzt an sind nur noch Verbesserungen in einstelligen Prozentbereichen drin.
 
Tekpoint schrieb:
Es gibt wirklich noch Leute die das Wahrhaben wollen das man bei weniger Datenmenge und weniger Bitrate, gleiche Bildqualität hat wie in originalen ?
Kommt drauf an wie du Bildqualität definierst. Videos sind nicht dafür gedacht, dass du einen Bild-für-Bild Vergleich mit dem unkomprimierten Original anstellst.
x264 sieht nur durch zahlreiche psychovisuelle Tricks so gut aus. Eigentlich sollte es H.264 auch erlauben z.B. prozedurales Bildrauschen mit einem Post-Processing Filter hinzuzufügen, nur unterstützt das fast kein Decoder.
 
Zurück
Oben