News VVC alias H.266: Designierter Nachfolger von H.265 erlangt Serienreife

Autokiller677 schrieb:
Also mein Smartphone kodiert ganz locker 4k/60Hz in h265 weg, realtime. Man braucht halt einen Hardware-Encoder.
wobei du da diese Bitrate zu Quali Ziele nicht ansatzweise erreichen wirst. Die sind ja aufs Optimum bezogen, also reiner CPU Encode mit bestmöglichen und optimierten Settings.

Nvidia GPU HEVC Encode kommt auch so eben an X264 CPU ran, qualitativ.
 
Also,ich konvertiere seit einigen Jahren Filme häufig (Handbrake). Zuerst in AVC (H264) seit 2-3 Jahren nur noch in HEVC (H265). Ich bis u.U. im Extremfall reduzierte Größe auf nur noch 15 % der Quellgröße ein nettes Ding, bei rd. 3500 vorhandenen Filmen. Allerdings mit angepassten Settings (das für mich optimale zu finden, hat schon einige Zeit gebraucht.) Und...sehr hohe Settings brauchen auch ordentlich Rechenpower.:D
 
Marcel55 schrieb:
Aber irgendwann müsste da ja ein Ende haben, eine physikalische Grenze, sonst kann man bald wieder die 1,44MB Disketten rauskramen und dort einen dreistündigen Film in 16K mit top Qualität drauf speichern, das wäre doch mal was, aber ich denke das wird immer unmöglich bleiben. Auf eine 50GB BD, da könnte das passen.
Für verlustlose Kompression ist die Grenze Dank Shannon schon seit einigen Jahrzehnten bekannt und die Theorie dahinter ist sogar recht einfach zu verstehen.
https://de.wikipedia.org/wiki/Entropie_(Informationstheorie)
Bei verlustbehafteter Codierung, wie man sie für Bild und Ton verwendet, ist die Sache aber viel komplizierter und man kann keine so einfache Regel aufstellen. Da wird ja auch viel mit der Wahrnehmung des Menschen getrickst, um genau die Bild/Toninformationen wegzuschmeißen, deren Fehlen Menschen am wenigsten merken.

Ein einfaches Beispiel einer dieser "Tricks" dafür ist die Farbunterabtastung.
https://de.wikipedia.org/wiki/Farbunterabtastung
Menschen sehen Farbtöne in einer geringeren Auflösung als Helligkeitsunterschiede, also darf auch das Bild für Farben eine geringere Auflösung haben.

Wo da die Grenze ist, wenn man immer mehr und mehr solcher Kniffe anwendet? Who knows? Eine Grenze wird es aber selbstverständlich geben, irgendwann hat man ja alle Informationen weggeschmissen, die für eine qualitativ akzeptable Rekonstruktion des Bildes nicht notwendig sind. Will man dann noch mehr loswerden, sieht man das auch.
 
Ich habe alles in H.264. H.265 werde ich mir schenken und gleich zu H.266 gehen, wenn es nötig wird.

Dazu wird dann wohl auch ein neuer TV nötig.
Implementierungen in Hardware sollen laut dem ursprünglichen Terminplan aber erst im Juli 2021 folgen.
 
Alpha.Male schrieb:
Also,ich konvertiere seit einigen Jahren Filme häufig (Handbrake). Zuerst in AVC (H264) seit 2-3 Jahren nur noch in HEVC (H265).

Mache ich ähnlich. Was mich von AV1 abgehalten hat, war die Renderzeit. GPU Rendern ist als erstes ausgeschieden, auch mit meiner 5700XT war GPU Rendern in egal welchem Codec eine Katastrophe. Entweder war die Qualität bei gleicher Dateigröße absurd schlecht, oder die Datei war am Ende 10x so groß wie eine mit Software über die CPU gerenderte.
Dann kam AV1 vs h265. Dateigröße war am Ende mehr oder weniger gleich, für AV1 habe ich aber teilweise bis zu 20x länger gebraucht. Da VLC h265 unterstützt, habe ich mich dann auch dafür entschieden. Unter Win10 hab ich mir für 1,5€ oder so den h265 Codec gekauft, um Thumbnails zu haben. Da ich mittlerweile aber nur noch Linux nutze, ist das auch kein Problem mehr. Hat schon immer hervorragend funktioniert mit den Thumbnails.

Ich würde wirklich gerne einen freien Codec nutzen, aber die Renderzeiten sind wirklich absurd. Und da ich privat ja auch nix dafür zahle (VLC/FFMPEG)... was solls.
 
  • Gefällt mir
Reaktionen: Alpha.Male
andi_sco schrieb:
Geht Ihr alle kostenlos arbeiten oder wie funktioniert das bei euch?

Moin,
naja in dem Bereich Codecs ist das etwas komplexer... Ursprünglich sollten die frei verfügbar sein, nur dann kam wieder, was so oft kommt... Firmen erheben Ansprüche auf Patente. Niemand soll natürlich umsonst arbeiten müssen.
https://www.golem.de/news/videocodec-h-265-nachfolger-vvc-ist-fertig-2007-149477.html

...
" Als Alternative zu HEVC und nun auch VVC gibt es seit einiger Zeit bereits den freien Videocodec der AV1 der Alliance for Open Media (Aomedia). Hauptziel von AV1 war neben den eigentlichen technischen Verbesserungen ein Codec, der mit einer freien Patentlizenz von allen genutzt werden kann. Im Gegensatz dazu erheben inzwischen drei verschiedene Patentkonsortien sowie einige weitere einzelne Firmen Ansprüche auf HEVC und verlangen entsprechende Gebühren. Für VVC existiert mit dem Media Coding Industry Forum (MC-IF) inzwischen auch ein völlig neues Konsortium für VVC. Der MPEG-Gründer Leonardo Chiariglione sah wegen der komplizierten Patentsituation rund um die Codecs bereits vor mehr als zwei Jahren deren Geschäftsmodell gefährdet. "
...

Klingt in dem Kontext dann doch "komisch" oder?

vg Chris
 
Dark Soul schrieb:
AV1 wird bisher noch sehr selten in HW unterstützt. Erst mit HW Unterstützung kann man sagen, dass grosse Namen darauf setzen. Ist alles noch in den Kinderschuhen bei AV1. LG sollte dieses Jahr glaube ich als erster TV Hersteller Geräte bringen, welche AV1 Decodierung unterstützen :)

Und VVC können noch gar keine Geräte ist also nicht so entscheidend. Den Quasi Vorgänger von AV1, VP9 gibts ja unter anderem seit dem Snapdragon 820 (2016). Und da sämtliche relevanten Chiphersteller in der Allianz vertreten sind ist es nur eine Frage der Zeit bis AV1 in deren Produkte Einzug hält - für VVC ist das nicht gesagt.


Dark Soul schrieb:
Apple setzt schon seit Ewigkeiten auf HEVC (h.265). Netflix & co sind auch schon seit mehreren Jahren dabei, jeder TV der Netflix kann, kann HEVC in HW.

VP9 war halt Googles Steckenpferd, mit AV1 ändert sich das aber und Apple wird ebenso aufspringen.
Netflix unterstützt zwar h.265 nutzt aber z.B. auf Android schon ewig VP9 und seit diesem Jahr vereinzelt auch AV1. Ziel ist zukünftig kompklett auf AV1 umzustellen.

https://www.heise.de/newsticker/meldung/Netflix-Android-App-setzt-AV1-Codec-ein-4654532.html

Langfristig will der Streaming-Anbieter AV1 laut Blogeintrag auf allen Plattformen einsetzen.
 
@Snowi Du renderst nicht, du encodierst.
GPU-kodierung ist mehr für Streaming in Echtzeit gedacht, damit effizient zu encoden ist bei keinem Codec möglich. Da muss immer die CPU ran (und selbst bei der gibt es 'ne Obergrenze wie viele Threads man auf das Video loslassen sollte).
 
Nureinnickname! schrieb:
Man kann schon verlustfrei komprimieren, h.265 macht es nur nicht.
https://de.wikipedia.org/wiki/Datenkompression#Verlustlose_Kompression
macht es schon, ist aber nur begrenzt sinnvoll
https://x265.readthedocs.io/en/default/lossless.html
ich vermute diejenigen die sowas häufig brauchen/bräuchten - also filmproduzenten vor allem - nutzen andere codecs oder verzichten gleich ganz darauf und machen einfach ein gutes crf encoding. gefühlt gehen so oft rohdaten von filmen verloren und behindern später die erstellung eines remasters, oder einfach nur guten neuencodings dass da irgendwas komisch sein muss :/
andi_sco schrieb:
Geht Ihr alle kostenlos arbeiten oder wie funktioniert das bei euch?
nein, wir wollen alle arbeiten gehen und verlangen neben 325€ die stunde noch anreisepauschale, kilometergebühr, zeitgebühr für laufwege auf arbeit, lärmzuschlag, sonderzahlungen für viele besondere verwendungszwecke unserer arbeit usw etc pp
und deshalb will uns keine einstellen :heul:

oder so ähnlich muss das aus sicht der mpeg aussehen
lizenzen sind immer unbequem wenn eine freie alternative verfügbar ist und beide ähnliche leistung bieten. darüber hinaus sind sie auch unbequem und hinderlich für kleinere projekte ohne rechtsabteilung. historisch scheint es als seien freie standards und freier zugang zu basisfunktionalitäten besser für die wirtschaft als lizenzvernagelte varianten O.o

macht natürlich das geschäftsmodell 'standards erstellen' kaputt, aber wenn jeder ein recht auf funktion seiner geschäftsidee hätte ...
stattdessen haben sich hier als konkurenz diejenigen zusammengesetzt die videocodecs nutzen und brauchen um freie standards zur verfügung zu stellen. dagegen wirkt die mpeg eben wie ein geier ;)
Autokiller677 schrieb:
Gibts irgendwo wirklich gutes legales High-Bitrate Material zum Download, um einfach mal den Fernseher zu "benchmarken" quasi?
probiers doch mal mit den demonstrationsvideos von blender. die neueren gibts auch in 2k/4k
nur welchen download man da am besten nimmt ist geschmackssache. ich nehme bei sowas lieber bittorrent.
BiGfReAk schrieb:
das ist ja alles schön und gut, aber bereits jetzt dauert es ewig Filme in x265 zu encoden. (ca 1/20 der Geschwindkeit von x264)
also meine encodings waren schon langsamer, aber ganz sicher nicht faktor 20 bei ähnlichen einstellungen O.o
da würde ich vermuten stimmt was anderes nicht.
allerdings kommt man mit high quality settings wieder in den sub-1fps bereich mit kleinen 4- oder 6-kernern ^^
Autokiller677 schrieb:
Also mein Smartphone kodiert ganz locker 4k/60Hz in h265 weg, realtime. Man braucht halt einen Hardware-Encoder.
nvenc auf nVidia GPUs macht einem auch schön Realtime h265.
das sieht dann aber auch entsprechend mittelmäßig aus und lässt sich üblicherweise in der qualität/kompression mit einem besseren h.264 encoding erreichen und mit einem guten schlagen. besonders bei eigentlich gut komprimierbarem material ist das hardwareencoding das ich bisher gesehen habe eher besch...eiden mangels optionen. ist eben ein festes preset das dafür schnell durchgeht.
aber da ist nix mit 8, oder gar mehr bframes oder ähnlichem.
ich habe etwas ausführlicher geguckt ob ich nicht auf den hardwareencoder von nvidia oder amd zurückgreifen kann/will, doch letztlich war die qualität einfach zu begrenzt wenn es nicht wirklich nur auf geschwindigkeit ankommt. dann lieber ein gutes cpu encoding und dafür teils deutlich kleinere dateien. speicherplatz kostet langfristig mehr.
 
Erkläre mir mal bitte einer was bezüglich Lizenz:
Es gibt doch die freie Bibliothek x265.
Wenn da Lizenzen auf h265 drauf sind, wie kann diese Bibliothek dann frei verfügbar sein?
 
Piak schrieb:
Die Frage an den Autor @SV3N ist doch, wie wurde es erreicht? So hat diese Meldung kaum News Charakter, außer hier ist die neue Version. Gibt es denn schon Firmen, die es konkret einsetzen wollen? Wie siehts mit Treiber seitens Nvidia, AMD, Intel aus
Die News war doch eher, das VVC gerade erst finalisiert wurde. An Treiber, Hardwareimplementierung etc. brauchst also im nächsten (halben)Jahr nicht dran denken. Dann kannst mal vorsichtig gucken, wann es etwas gibt.
Hardware gibts frühestens in zwei Jahren.
 
Zuletzt bearbeitet: (Ergänzt)
ich frag mich was die sich gedacht haben als AOmedie an die Öffentlichkeit ging...
"Ach du Scheisse. Wer kauft denn jetzt unsere Lizenzen? Gleich mal den Nachfolger von h265 Entwickeln und sehen ob da noch wer dafür bezahlt!"

Was ich aber bis heute nicht kapiere ist wieso es keine Dedicated Video Chips auf FPGA Basis gibt die anstatt 5 verschiedene codecs drauf haben einfach eine Variable FPGA partition bieten. Dann könnte man auch Zukunftsfähige Chips bauen die alle codecs in der Zukunft durch Updates können.
Oder sind FPGAs so viel ineffizienter als direkte Hardware?
 
@Haldi
Vor allem sind FPGAs deutlich teurer als fixed-Function Hardware. Die Effizienz sollte ähnlich sein, das ist ja gerade der Sinn eines FPGA. Aber für Großserie ist das einfach zu teuer.
 
  • Gefällt mir
Reaktionen: Haldi
@Haldi FPGAs sind schon cool und würden sicherlich kein Problem mit Decodierung haben. Können idR nicht so schnell getaktet werden wie ASICs, erfüllen ansonsten aber dieselbe Funktionalität. Es existieren auch schon FPGA-Lösungen für AV1, sagt wiki.
FPGAs sind aber nur eingeschränkt massenmarkttauglich. Für Nvidia, Intel & co wäre es ein enormer Kostenpunkt, wenn sie auf ihre Chips einen dedizierten FPGA packen würden, den sie von Xilinx kaufen müssten.
Außerdem würde das natürlich enorm viel Platz schlucken. Für Mobilgeräte somit natürlich undenkbar aber auch bei einer iGPU oder GraKa schon ein Problem.
Eine Garantie, dass du den FPGA in Zukunft einfach umprogrammieren und so einen weiteren Codec unterstützen kannst, hast du auch nicht, kann ja sein, dass die Ressourcen dann nicht ausreichen.

Wo ein FPGA sicherlich gut funktionieren würde, wäre in TVs. Aber wieso sollte man das tun? Dann müsste man ja Updates für alte Geräte anbieten statt zum Kauf eines neuen anzuregen.
 
  • Gefällt mir
Reaktionen: Haldi
FPGA sind eher als Prototyp für Hardwareencoder gedacht, denn sie brauchen für eine Funktion die als ASIC sehr kompakt wäre eine unverhältnismäßig größere Fläche. Darauf kann man wunderbar die Schaltung testen, die man dann später im Prozessordesign oder als ASIC integriert. Dann ist es halt ein statisches Gebilde. Wenn also der Codec nachträglich neue Features bekommt oder ein Fehler im Design entdeckt wird, kann man nichts mehr machen. FPGAs hingegen sind programmierbar. Aber zu groß und viel zu teuer für diesen Einsatzzweck.
Das ausführen der Funktion ist auf FPGAs nach wie vor sehr effizient, der Flächenverbrauch der Funktion hingegen nicht.

Wobei ich ja generell ein Freund davon wäre, wenn die CPU-Hersteller ein FPGA, evtl als Chiplet ins CPU-Design integrieren würden. Dann könnten Programme für spezialisierte Aufgaben ihren eigenen "Hardwareencoder" mitbringen, in den FPGA programmieren und damit die Aufgabe effizienter abarbeiten. Intel hat sich nicht umsonst Altera gegönnt, die machen das teilweise schon. Ich will das aber auf Consumerchips.

FPGAs in Bildschirmen gab es schon (immer noch?) auf einigen GSYNC-Modulen, wo alleine die Platine um die 500€ gekostet hat.
https://www.computerbase.de/2018-06/uhd-monitore-144-hz-g-sync-modul-kosten/
Bei Echtzeit-DSP mit hohem Datendurchsatz kommt man um FPGAs kaum herum.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Haldi
RizzoSpacerat schrieb:
Die Gretchenfrage bleibt das Lizenzmodel. Der Decoder MUSS umsonst sein sonst geht garnix. Der Encoder muss über ein einfaches simples Lizenzmodel vertrieben werden was nicht Unsummen kostet. Sonst kommt es wie es kommen muss, Nicht H.266 wird gewinnen sondern die freie VP1 variante. Wenn VP1 nur um wenige %-te schlechter ist interessiert das keinen. Hauptsache man zahlt nix.

Du zahlst es naher so oder so. Nur das du es nicht explizit mitbekommst weil es in den Preisen inkludiert ist. Die neuen UHD Player werden einfach pro Stück etwas teurer (Lizenzgebühr der Hersteller für den Decoder) und ebenso kostet jede UHD (wegen dem encodierten H266) etwas mehr ebenso wie der direct-stream (also der Einzelkauf eines neunen Films bevor er in Abos und auf Disc zu kaufen gibt) minimal mehr kosten wird. Und dann über kurz oder lang werden ALLE Streaming Anbieter ihre einzelnen Abo Arten schlicht um zb. 50cent bis 1€ pro Monat erhöhen damit sie ihre Lizenzkosten da sie ja jeden Film in dem neuen Codec encodieren müssen so an dich weiter geben.

Was meint ihr warum eine UHD-BluRay teurer ist als eine BluRay? Das ist nicht nur die Gier der Film Firmen sondern auch die Lizenzgebühr für das in H265 encodierte Video auf jeder UHD. Das Fraunhofer Institut hat auch an H265 Jahrelang geforscht und so bekommen sie ihre Arbeit im Nachhinein bezahlt.
 
Ich habe auch sämtliche Filme via ffmpeg bei jeweils gleicen Einstellungen mit h264 und h265 kodiert...

Meine Erfahrung:

In den meisten Fällen ist h265 besser. Aber gelegentlich hat sogar h264 eine wesentliche niedrigere Dateigröße erreicht als h265 - bei gleichen qualitiven Einstellungen. So 100% scheint h265 also nicht besser gewesen zu sein. Bin mal gespannt wie es bei h266 aussieht...

Natürlich schade, dass für 1% Verbesserung gefühlt sich der Rechenaufwand jeweils locker um 20% erhöht, bzw. alte HW Decoder unbrauchbar werden. Aber inzwischen beträgt die Zeitspanne ja durchaus zweistellige Jahre, bevor die Leistung für den 0815 Bereich unbrauchbar wird, insofern geht das mit der Ressourcen-Verschwendung in Ordnung.
Vor über 10 Jahren gab es schon den AMD X6 1055T bzw. 1090 für 200/300€, welche selbst heute noch genug Dampf haben für Allerweltsaufgaben imho.
 

Ähnliche Themen

Zurück
Oben