News VVC alias H.266: Designierter Nachfolger von H.265 erlangt Serienreife

Mushi schrieb:
Die Bitrate sagt nichts über die Bildqualität eines Films aus.
Ich kann ein Film mit schlechten Encode-Settings kodieren (um Zeit zu sparen) welcher später eine höhere Bitrate und schlechtere Bildqualität aufweist als derselbe Film mit besseren Encode-Settings.

Die FFmpeg-Parameter dafür würden mich interessieren. Bitrate ist immer noch König. Mit den Upscalern in modernen Fernsehern kann auf einem Full- oder UHD-Gerät 720p mit entsprechender Bitrate sogar besser aussehen als 1080p mit mieser Bitrate.
 
TriggerThumb87 schrieb:
Soll ich jetzt also alle X Jahre ein neues Abspielgerät (GPU, Fernseher, Smartphone, Mini-PC) holen, nur weil die mal wieder den Codec verändern?
Zwingt Dich ja keiner, afaik bekommt man auch noch alle aktuellen Filme als DVDs falls du den letzten Player vor 20 Jahren gekauft hast.
VHS wird natürlich schwierig falls du noch darauf setzt.
Netflix und co bieten für alte Geräte den Kram ja durchaus auch mit altem Codec an, selbst auf ner fast 15 Jahre alten Xbox 360 läuft das noch.
Wo siehst du da die geplante Obsoleszenz?
 
  • Gefällt mir
Reaktionen: chartmix
Blutschlumpf schrieb:
Wo siehst du da die geplante Obsoleszenz?

Blutschlumpf schrieb:
Netflix und co bieten für alte Geräte den Kram ja durchaus auch mit altem Codec an, selbst auf ner fast 15 Jahre alten Xbox 360 läuft das noch.

Bei dem "co".

Aktuelle Beispiele mit h264, h265 und vp9:
-Dass ich mit dem RaspberryPi bspw. manche YT-Videos nicht sehen kann bzw. ich Software brauche, die up to date ist und entsprechende neue Formate automatisch rausschmeißt aus der Auswahl. Möchte ich mir ein solches Video runterladen, muss ich entsprechend aufpassen wo ich das dann gucken kann und wo nicht. Weil da das Containerformat nicht unbedingt aussagekräftig ist, ist es dann gut Glück ob es nachher dann läuft.
-Dass manche Mediatheken auch entsprechende Formate haben, die man dann nicht mehr abspielen kann auf Endgeräten
-Dass man für den Fernseher dann einen extra Decoder braucht

Schon alleine die Aufstellung, dass man für die Codecs Lizenzen braucht (teils von mehreren Firmen gleichzeitig) schreit nach geplanter Obsoleszenz, weil damit die Kompatibilität (auch rückwirkend) verkompliziert wird.

Was bringt mir ein 3Mbit/s h265-Stream, den ich nicht abspielen kann, wenn mir ein 6MBit/s h264 Stream dieselbe Qualität liefert, und mich auch ein 3MBit/s h264 Stream nicht interessiert einbußenmäßig, ich aber letztere beiden Fälle ohne Probleme abspielen kann?

Was ist, wenn ich Filme lokal auf einem Homeserver habe?
Wenn ich 3TB Filmmaterial habe in h264, wären das im Idealfall 1,5TB in h265. Bei 30€ pro TB sind das 45€ "Ersparnis". Jetzt brauche ich aber für jeden Abspielplatz neue Hardware.
Alleine die Situation, dass man bei kleinen Geräten vorher wissen muss was abgespielt werden kann und was nicht, ist ein Graus. Und zukunftssicher ist das nicht. Und dabei will man mit dem Gerät im schlimmsten Falle NUR abspielen und sonst nichts anderes machen.
 
Zuletzt bearbeitet:
@TriggerThumb87 Also ich verstehe dein Problem nicht so wirklich. Youtube bietet seine Videos ins verschiedensten Formaten an. Du bekommst die Videos in h.264, in VP9 und in AV1. Was willst du noch? Praktisch alles, was nicht hoffnungslos veraltet ist, kann Hardwarebeschleunigung für h.264 und selbst wenns irgendwie nicht gehen sollte, lässt sich h.264 noch auf vielen Geräte in Software decodieren.

Youtube stellt seine Videos in verschiedensten Versionen zur Verfügung und verbrät so selbst mehr Speicher, damit beim User alles kompatibel ist.
Und wenn du beim Runterladen das falsche Format auswählst, ist das jawohl deine Schuld und hat nichts mit Obsoleszenz zu tun.
Und um die Lizenzen für verschiedene Codecs brauchst du als Privatnutzer dir ohnehin keine Gedanken machen.

Gerade Internetdienste achten eigentlich fast immer darauf ihre Videos entweder in mehreren Formaten anzubieten oder zumindest den kleinsten gemeinsamen Nenner zu nutzen - h.264.
Das schlimmste, was einem mal passieren kann, ist ein webm-Video in VP8 oder VP9, dem sich dann sämtliche Applegeräte verweigern und auch sowas wird dir nie bei großen Video-on-Demand-Anbietern passieren.
 
Mushi schrieb:
@Moep89
Ich hatte mich im Wesentlichen auf diese Behauptung bezogen, welche ich nicht teilen kann.
Richtig. Wenn man einen alten Streifen hat mit viel Noise braucht man auch die 30 Mbit, aber ein neuer, eher ruhiger Titel, kommt sogar mitunter unter 10 Mbit aus. In 4K HDR.
Ergänzung ()

DeusoftheWired schrieb:
Die FFmpeg-Parameter dafür würden mich interessieren.
Das ist ganz übliches Constant Quality. Das produziert je nach Film konstante Qualität zu aber unterschiedlichen Bitraten.
 
@Beitrag
Irgendwie komisch. Einmal verstehst du mein Problem nicht (du tust es tatsächlich nicht, denn es geht nicht nur um Youtube), dann ist es meine Schuld, dass ich ein falsches Format auswählen würde (ich sage ja dass der Container nicht aussagekräftig ist und ich das daher nicht immer nach Dateiendung machen kann), und dann bringst du doch noch auch ein Beispiel, was ich auch gebracht hatte, und scheinst es somit doch zu verstehen.
Gerade YT hat eine Scheiß-API, was Unterstützung durch Software schwierig macht. Z.B. braucht man für das YT-Addon auf KODI mittlerweile einen Google-Dev-Key. (Das geht soweit, dass ich anstelle der API, wenn ich suchen will, lieber einen normale Anfrage starte und dann mittels Regex die Antwort parse.) Wenn ich dann ein Video runterladen möchte um es "offline" ansehen zu können, habe ich wieder das Problem, dass ich peinlichst genau darauf achten muss, welches Format ich nehme (oder meine zu nehmen).

Beitrag schrieb:
Und um die Lizenzen für verschiedene Codecs brauchst du als Privatnutzer dir ohnehin keine Gedanken machen.

Das hast du irgendwie auch nicht verstanden. Ob ich mir über die Lizenzen Gedanken machen muss oder nicht, ist nicht mein Problem. Es ist mein Problem, dass dadurch Geräte gewisse Formate aus rechtlichen Gründen nicht abspielen können und ich dann das Problem habe, dass ich mich beim Kauf darüber informieren muss, und ich im Nachhinein nicht weiß ob mal eine SW-Dekodierung eines neueren Formates wegen Juristen-Lari-Fari in der Zukunft nicht möglich sein wird.

Beitrag schrieb:
Gerade Internetdienste achten eigentlich[1] fast[2] immer[...]

Doppelte Einschränkung, da lese ich als Verbraucher "Nein".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Marflowah
Krautmaster schrieb:
Das ist ganz übliches Constant Quality. Das produziert je nach Film konstante Qualität zu aber unterschiedlichen Bitraten.

Wenn das Ausgangsmaterial z. B. mit 500 kbit/s vorliegt und man mit CR von 35000 kbit/s enkodiert, dann sicherlich. Meine Frage zielte eher darauf, mit welchen Parameter man von einer guten Quelle (Remux) trotz hoher Bitrate schlechte Optik erzeugen kann.
 
Puh wüsste ich auch nicht. Aber Constant Rate ist halt die Verschwendung schlecht hin, kann ich mir die Codec Wahl fast sparen.
Ergänzung ()

Wer übrigens nen aktuellen FFMPEG braucht mit high Bitrate usw Ink
https://1drv.ms/u/s!Ar_eIBtD4lGqhfkbu7O-ix06oZVf8g
 
TriggerThumb87 schrieb:
dann ist es meine Schuld, dass ich ein falsches Format auswählen würde
Natürlich ist es das. Wenn YT extra verschiedene Formate für die Kompatibilität zu verschiedenen Geräten vorhält und du dich beschwerst, dass du dann beachten musst das richtige auszuwählen und das als Argument für "neuen Codec einführen = Obsoleszenz" nutzt, ist das doch reichlich ironisch. Also wirklich, diese Argumentation will mir einfach nicht in den Kopf, die ist doch völlig verdreht.
Deine Vorgehensweise beim Runterladen von YT kenne ich nicht, ich selbst nutze dafür entweder JDownloader oder youtube-dl und in beiden Fällen ist es absolut kein Problem das richtige Format auszuwählen. Man kann bei YT sogar Tonspur und Videospur getrennt laden und selbst nach Belieben zusammenmuxen.
Und wenn ich mal bei anderen VoD-Anbietern, bei denen das geht, einen Stream runterlade, dann ist es immer h.264 - der kleinste gemeinsame Nenner, der Codec, den jedes nicht vollkommen hoffnungslos veraltetes Gerät kann.
Wenn, dann ist DRM ein Problem, aber sicher nicht verschiedene Codecs.
TriggerThumb87 schrieb:
Ob ich mir über die Lizenzen Gedanken machen muss oder nicht, ist nicht mein Problem. Es ist mein Problem, dass dadurch Geräte gewisse Formate aus rechtlichen Gründen nicht abspielen können und ich dann das Problem habe, dass ich mich beim Kauf darüber informieren muss, und ich im Nachhinein nicht weiß ob mal eine SW-Dekodierung eines neueren Formates wegen Juristen-Lari-Fari in der Zukunft nicht möglich sein wird.
Najaaa. Also wie schon geschrieben können bspw. Apple-Geräte nicht mit VP8 und VP9 umgehen. Das sind aber beides freie Codecs, wo das nichts mit Lizenzkosten zu tun hat, sondern Apple wollte einfach nicht.
HEVC hingegen wird ja sehr breitflächig unterstützt, trotz der Lizenzkosten und AVC sowieso.
Wenn du dir ein neues Gerät kaufst, dann musst du dich sowieso darüber informieren, mit welchen Codecs es umgehen kann, Lizenzen hin oder her.
Sei lieber froh, dass neue Codecs entstehen. Irgendwann nutzen dann alle den offenen Standard AV1 und für die Übergangszeit werden die Contentanbieter weiterhin alte Formate vorhalten, sodass deine Geräte mitnichten plötzlich unbrauchbar werden.
Die Reise geht nunmal hin zu hohen Auflösungen wie 4K sowie höheren FPS und wenn man da ewig lange auf der Stelle treten würde, bräuchte man viel mehr Bandbreite zum Streamen und es würde viel mehr Speicherplatz verbraucht werden. Solange Abwärtskompatiblitität bis zu einem gewissen Grad möglich ist, - und das ist es - sehe ich hier kein Problem und keine geplante Obsoleszenz. Technik veraltet, das hat sie schon immer, da tut sie auch hier aber nicht in einem Maße, das man beklagen müsste.
Am kritischsten ist es vielleicht noch bei TVs, weil man die recht lange behält und die nicht so flexibel sind wie ein PC. Aber selbst da kann man sich für wenig Geld einen Fire Stick, eine TV Box o.ä. holen oder von vorneherein einen HTPC nutzen
 
DeusoftheWired schrieb:
Wenn das Ausgangsmaterial z. B. mit 500 kbit/s vorliegt und man mit CR von 35000 kbit/s enkodiert, dann sicherlich. Meine Frage zielte eher darauf, mit welchen Parameter man von einer guten Quelle (Remux) trotz hoher Bitrate schlechte Optik erzeugen kann.

Ich wollte nur verdeutlichen dass die Bitrate nichts über die Bildqualität von nem Film aussagt.

Beispiel:
Source: 50MBit/s

1. Kodierung: konstante Bitrate von 25MBit/s
2. Kodierung: konstanter CRF von 18 (Mit durchschnittlichen 15MBit/s als Ergebnis)

2. Kodierung fällt von der Dateigröße logischerweise kleiner aus, wird aber höchstwahrscheinlich eine bessere Bildqualität aufweisen, weil für detailreiche Szenen für die Bitrate kein Limit gesetzt wurde. Sprich der Encoder verwendet soviel Bitrate wie nötig ist, um die gewünschte Qualität zu erreichen (CRF 18)
Und jeder der meint, dass er zwischen CRF18 und Quellmaterial eindeutige Qualitätsunterschiede erkennt, kann ich nur meine Hochachtung aussprechen, habe nämlich schon zig Vergleiche zwischen Remux und Encoded durchgeführt und bei CRF20 muss ich wirklich schon fast mit der Lupe nach Unterschieden zwischen 2 "Standbildern" suchen. Nutze CRF18 eigentlich nur um ne Nummer sicher zu gehen und ein besseres Gewissen zu haben, eine kleinere Videodatei ohne sichtbaren Qualitätsunterschied der Source zu besitzen ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DeusoftheWired
Beitrag schrieb:
Natürlich ist es das. Wenn YT extra verschiedene Formate für die Kompatibilität zu verschiedenen Geräten vorhält und du dich beschwerst, dass du dann beachten musst das richtige auszuwählen und das als Argument für "neuen Codec einführen = Obsoleszenz" nutzt, ist das doch reichlich ironisch. Also wirklich, diese Argumentation will mir einfach nicht in den Kopf, die ist doch völlig verdreht.

Ist das anwenderfreundlich? Kann das der normale Nutzer? Nein. Werden dadurch "ältere" Geräte benachteiligt? Ja. Thema gegessen.

Beitrag schrieb:
Und wenn ich mal bei anderen VoD-Anbietern, bei denen das geht, einen Stream runterlade, dann ist es immer h.264 - der kleinste gemeinsame Nenner, der Codec, den jedes nicht vollkommen hoffnungslos veraltetes Gerät kann.
Wenn, dann ist DRM ein Problem, aber sicher nicht verschiedene Codecs.

Ich glaube es ist jetzt das dritte Mal, dass ich sage, dass ich beispielhaft Mediatheken nenne, das aber nicht ankommt.

Beitrag schrieb:
Najaaa. Also wie schon geschrieben können bspw. Apple-Geräte nicht mit VP8 und VP9 umgehen. Das sind aber beides freie Codecs, wo das nichts mit Lizenzkosten zu tun hat, sondern Apple wollte einfach nicht.

Das stimmt. Ich vergas allerdings zu erwähnen, dass SW-Dekodierung natürlich absolute S... ist und bei den Geräten nicht performant umsetzbar ist.

Beitrag schrieb:
HEVC hingegen wird ja sehr breitflächig unterstützt, trotz der Lizenzkosten und AVC sowieso.

Wieder so eine Verallgemeinerung.

Beitrag schrieb:
Wenn du dir ein neues Gerät kaufst, dann musst du dich sowieso darüber informieren, mit welchen Codecs es umgehen kann, Lizenzen hin oder her.

Jo, und das ist scheiße, wie ich schon sagte.

Beitrag schrieb:
Sei lieber froh, dass neue Codecs entstehen.

Wieso? Absurde Vorstellung. Wieso soll ich froh sein, wenn mein Eigentum unbrauchbar wird?
Froh wäre ich, wenn du mir jedesmal Ersatz kaufen würdest. :D

Beitrag schrieb:
Irgendwann nutzen dann alle den offenen Standard AV1 und für die Übergangszeit werden die Contentanbieter weiterhin alte Formate vorhalten, sodass deine Geräte mitnichten plötzlich unbrauchbar werden.

Kannst du mir das denn schriftlich und rechtlich verbindlich geben?
Weil irgendwann ist auch jeder hier in DE mit Glasfaser versorgt.

Beitrag schrieb:
Solange Abwärtskompatiblitität bis zu einem gewissen Grad möglich ist, - und das ist es - sehe ich hier kein Problem und keine geplante Obsoleszenz.

Ist es nicht. Bitte antworte nicht auf meine Postings, wenn du die Inhalte ignorierst. Das ist doch doof.

Beitrag schrieb:
Technik veraltet, das hat sie schon immer

Was das mit Veraltung zu tun hat? Ich sage doch von vornerein, dass in meinen Fällen der Bedarf nach Ersatz künstlich erstellt wird. Also, naja, wieder nicht gelesen.

Beitrag schrieb:
da tut sie auch hier aber nicht in einem Maße, das man beklagen müsste.

Danke, dass du das generalisiert entscheiden kannst, wenn du nichtmal in der Lage bist die geschriebenen Erfahrungen eines anderen auf dem Gebiet zu erfassen.

Beitrag schrieb:
Am kritischsten ist es vielleicht noch bei TVs, weil man die recht lange behält und die nicht so flexibel sind wie ein PC. Aber selbst da kann man sich für wenig Geld einen Fire Stick, eine TV Box o.ä. holen oder von vorneherein einen HTPC nutzen

Wie gesagt, Geld ist Geld. Was viel ist und was nicht, bleibt nicht jedem vorbelassen, sondern ist jedem unterschiedlich vorgegeben. Auch ein PC kann Probleme mit entsprechendem Material haben, wenn über Software dekodiert werden muss.

Aber das dreht sich hier ja im Kreis, weil Kommunikation hier leider nicht möglich ist.
 
Ich verstehe nicht so recht was du genau möchtest bzw. inwiefern die Entwicklung eines neues Codecs damit zu tun hat.
Wenn Youtube seine API ändert und du da mit nem Raspi irgendwas nicht mehr runterladen kannst, ist das doch ein vollkommen anderes Thema und hat nichts mit dem Codec zu tun.
Wenn du die (für Endkunden gedachte) Youtube-App benutzt und brav die Werbung guckst, hast du solche Probleme nämlich nicht.

Und haben $irgendwelche Mediatheken jetzt mit h.266 zu tun?

Ich glaube du beschreibst eher "Ich bastel was mit nem veralteten Raspi"-Probleme als reale Probleme eines Consumers.
Der kauft sich nen Samsung/LG TV, nen Fire TV Stick, ne PS/XBox, vielleicht ne Shield oder nen Chromcast.
Den Kram nutzt der dann 10 Jahre und dann fliegt das Zeug raus weils veraltet oder kaputt ist.
Keiner der 0815 User benutzt die YT-API und keiner davon bekommt mit in welchem Containerformat und mit welchem Codec er da gerade Katzenvideos guckt.
Und da funktioniert die ARD-Mediathek auch noch noch 10 Jahren.
 
  • Gefällt mir
Reaktionen: Deinorius, chartmix und Beitrag
MotherPink schrieb:
Hat man dann überhaupt noch qualitative Vorteile gegenüber x264?

Es geht nicht um qualitative Vorteile. H265 aber auch alle Vorherigen Video Codecs wie DivX , Xvid , HDX4 , 3ivx zu MPEG 2 zu AVC zu HEVC wurden nur weiter bzw. neu entwickelt um bei gleicher Qualität weniger Bitrate und dadurch weniger Speicherplatz zu benötigen. Es ist das gleiche bei Ton Codecs wie AAC zu MP3. AAC klingt nicht besser. Es benötigt nur weniger Bitrate für die gleiche Klangqualität was am Ende auf die Masse gesehen weniger Speicherplatz bedeutet. Das gleiche gilt auch für AC3 vs. EAC3 also Dolby Digital vs. Dolby Digital Plus. Dolby Digital Plus benötigt weniger Bitrate wodurch Dolby erstmals in Komprimierter Form mit EAC3 7.1 anstatt nur AC3 5.1 Ton abspeichern kann. Und durch Encodierung der Metadaten darin auch die Atmos 9.1 Deckenkanäle.

0x8100 schrieb:
encodieren über die grafikkarte ist im grunde nur fürs streaming gut. bei guter qualität ist ansonsten die benötigte bitrate viel zu hoch oder bei gleicher bitrate wie beim software-encoder die qualität wesentlich schlechter.

Ich habe hier mittlerweile tausende H265 Filme in Hardware encodiert. Es spart bei gleicher Qualität deutlich Speicherplatz ein. Du musst nur MANUELL die Einstellungen dafür finden bei dem jeweils genutztem Hardware Encoder für die gewünschte Auflösung. Außerdem solltest du NICHT die berühmten Standbild vergleiche durchführen! Denn du zoomst dabei in ein Komprimiertes Bild hinein und vergrößerst damit die durch die Komprimierung erzeugten Artefakte. Du musst das mit dem Auge in der jeweils encodierten Auflösung und vor allem in Bewegung vergleichen. Wenn du es nicht unterscheiden kannst. So sind die gewählten Einstellungen vollkommen ausreichend. Du wirst gegenüber AVC in der Regel mindestens 40% einsparen. Und das ist das Ziel.

Ach ja noch was. Wenn aktuell davon gesprochen wird das sie nochmals 50% einsparen dann meinen sie damit Verlustfrei! Denn ihr müsst unterscheiden zwischen AVC/H264 einer Bluray und euren eigenen H264 Rips davon ebenso wie das Lossless HEVC/H265 auf einer UHD und dann wiederum euren Rip davon! Dieses DETAIL vergessen hier die meisten!
Denn wenn die FullHD Version eines Filmes als H264 auf der BluRay schon zb. 30Gb nur für das Bild benötigt würde das UHD H264 Video die Größe fast vervierfachen! Erinnert euch an die ersten Lossless H264 Videos in UHD Auflösung!
 
TriggerThumb87 schrieb:
Ist das anwenderfreundlich? Kann das der normale Nutzer? Nein. Werden dadurch "ältere" Geräte benachteiligt? Ja. Thema gegessen.
Tun normale Nutzer sowas? Laden normale Nutzer überhaupt irgendwas von YouTube runter, statt es wie von Google gewünscht und vorgesehen zu streamen?
Nein. Thema gegessen.
TriggerThumb87 schrieb:
Ich glaube es ist jetzt das dritte Mal, dass ich sage, dass ich beispielhaft Mediatheken nenne, das aber nicht ankommt.
"beispielhaft" - also ein konkretes Beispiel dazu hast du sicher nicht genannt, weder ein mal noch dreimal.
TriggerThumb87 schrieb:
Ich vergas allerdings zu erwähnen, dass SW-Dekodierung natürlich absolute S... ist und bei den Geräten nicht performant umsetzbar ist.
Also:
Du kaufst dir einen Raspi, der - wie du vorher wusstest oder hättest wissen können - zu schwachbrüstig für Softwaredecoding ist und klagst dann über Obsoleszenz, wenn du mal ein Format abspielen willst, für das dein Raspi keinen Hardwaredecoder hat.
:rolleyes:
TriggerThumb87 schrieb:
Wieder so eine Verallgemeinerung.
So wie deine "beispielhaften Mediatheken"?

TriggerThumb87 schrieb:
Jo, und das ist scheiße, wie ich schon sagte.
Es ist doof, wenn man sich über die Features des Produktes, das man kaufen möchte, informieren muss?
Stimmt schon. Eigentlich auch hammer schlimm, dass man beim Autokauf immer gucken muss, welche Extras alle drin sind. Wäre doch viel besser, wenn einfach alle Autos immer Minimalausstattung hätten, dann gälte ein Auto ja auch nicht plötzlich als veraltet, nur weil es kein ABS hat und noch ein Kassettenspieler drin ist.
Ach ja, Autovergleiche funktionieren einfach immer.🚗
TriggerThumb87 schrieb:
Ist es nicht. Bitte antworte nicht auf meine Postings, wenn du die Inhalte ignorierst. Das ist doch doof.
So? Dannn möchte ich jetzt endlich mal von deinen dubiosen Mediatheken hören, die ja angeblich nicht mehr abgespielt werden können. Worum geht's da? Um alte Schmuddelfilme aus den 90ern?

TriggerThumb87 schrieb:
Was das mit Veraltung zu tun hat? Ich sage doch von vornerein, dass in meinen Fällen der Bedarf nach Ersatz künstlich erstellt wird. Also, naja, wieder nicht gelesen.
"künstlich erstellt", weil deine veraltete Technik nicht mehr unterstützt wird. Ich muss mir auch ein neues Windows installieren, wenn mein altes Windows 95 nicht mehr unterstützt wird. Meinen Uraltbrowser updaten, wenn er neue Internetstandards nicht mehr kann. Alle x Jahre 'ne neue CPU kaufen, wenn mir die alte für moderne Software zu langsam wird. Meine alte Ölheizung austauschen, wenn sie die 30 Jahre voll hat.
Das ist der normale Lauf der Dinge, ich weiß nicht. Warum du dich da jetzt so sehr beschwerst. Und es geht mit technischem Fortschritt einher.
TriggerThumb87 schrieb:
Danke, dass du das generalisiert entscheiden kannst, wenn du nichtmal in der Lage bist die geschriebenen Erfahrungen eines anderen auf dem Gebiet zu erfassen.
Bitte, gern geschehen. Nein, im Ernst: Wie @Blutschlumpf schon geschrieben hat: Man merkt, dass du hier offenbar einen Sonderfall hast. Inhalte im Internet werden nun mal aber nicht exklusiv für dich angeboten. Wenn Google irgendwann in einigen Jahren sieht: "Aha, nur noch x % unserer User benötigen den Fallback auf h.264", dann werden sie irgendwann auch aufhören die Videos in h.264 anzubieten. Es lohnt sich für sie dann nicht mehr, da inzwischen ja fast alle User Geräte verwenden, die kein Problem mit den neueren Codecs haben. Also wäre es nur unnötiger Mehraufwand weiterhin all die vielen Videos in h.264 vorzuhalten, damit sich ein paar User hin und wieder mal von alten Geräten was davon ansehen. Google hat dann lange genug für Abwärtskompatibilität gesorgt, indem sie alte und neue Codecs parallel angeboten haben und dann wird der alte abgesägt. Nun ist der User am Zug seine Technik zu erneuern.

Das ist der ganz normale Lauf der Dinge, den es absolut überall gibt und nicht nur bei Videocodecs und einfach nur um ein Aufrüsten zu vermeiden keinen technischen Fortschritt mehr zulassen wollen, also ganz ehrlich: Mit so einer Einstellung ist man in einem Forum voller Nerds am falschen Ort. Das will hier niemand. :p
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Deinorius
gintoki schrieb:
Ohne Komprimiereung wäre schon ziemlich sportlich, da sind die SSDs schnell voll.
Nein, nicht ganz ohne kompression, da hast du mich missverstanden :)
wobei ... back to the roots, ein film auf 3 bändern a 4 TB? g
was ich meinte war dass man einfach crf 10 nimmt anstelle von 'crf 0' oder richtig lossless preset weil der unterschied erstmal nicht sichtbar ist, die datenmenge aber schon spürbar kleiner wird. zumindest vorstellen könnte ich mir das gut, aber ich habe noch nie einen blick hinter die kulissen einer filmproduktion geworfen.
ich vermute einfach dass es auch da fälle geben wird wo weder besonders korrekte, noch film/foto/artefaktnörgler oder nerds daran sitzen.
quasi die sanfte variante von 'ich speichere text als jpeg'
TriggerThumb87 schrieb:
Aktuelle Beispiele mit h264, h265 und vp9:
-Dass ich mit dem RaspberryPi [...]
also nenn mich snob, aber ich denke mir spontan dass dort schon der fehler liegt. abgesehen davon dass ein raspi eher eine bastelplatine ist als ein pc, ist der nun wirklich ziemlich schwach. ich habe selbst freude beim versuch gehabt höherqualitative animes oder filme mit viel bewegung auf einem alten core2duo (penryn 2,26 ghz) zu gucken und das war eher nicht mehr hübsch.
der anspruch mit etwas zwischen taschenrechner und schwachem desktop pc aktuelle videocodecs abzuspielen ist einfach zu hoch. dafür wurden die nicht gemacht. für sowas lädt man das ganze einfach in guter quali (sofern verfügbar) runter und recoded das dann in einem angemesseneren codec und optionen.

keine ahnung was ein raspi noch flüssig abspielt, aber schon bei h.264 lässt sich relativ viel machen indem man keine gemischten referenzen, keine bframes, kein mbt und so nutzt. bin nicht sicher ob die deblocking einstellungen beim encoding relevant sind.
ich habe es irgendwann einfach aufgegeben auf meinem laptop filme zu gucken, bzw wenn es denn unbedingt sein muss recode ich die eben vorher auf dem desktop mit irgendeinem einfachen preset und hoher bitrate.

wenn nur ein raspi zur verfügung steht ist man natürlich angeschmiert. aber das ist kaum zu vermeiden. wenn 30 € hardware ausreichen würde käme schnell jemand daher und würde einen codec bauen der besser komprimiert, aber mehr leistung braucht ;)
 
Gamefaq schrieb:
Ich habe hier mittlerweile tausende H265 Filme in Hardware encodiert. Es spart bei gleicher Qualität deutlich Speicherplatz ein. Du musst nur MANUELL die Einstellungen dafür finden bei dem jeweils genutztem Hardware Encoder für die gewünschte Auflösung.
Kommt auch auf die jeweilige HW drauf an. Ich hab das heute auch mal ausprobiert mit der GTX 1080. War tatsächlich ganz gut, wenn man Videos zum Vergleich nimmt, die ohnehin recht groß sind. Ich hab ein Video (h.264, 1080p, 24:40, 1,72 GB, wahrscheinlich crf 16...18) ein mal in h.264 und ein mal in h.265 mit dem HW-encoder von Nvidia encodiert und hatte am Ende in beiden Fällen ein Video, auf dem ich zumindest keine Unterschiede erkennen konnte und das sogar kleiner war. Allerdings hatte ich da als avg Bitrate 6000 eingestellt, was ja immer noch recht viel ist. Habe dann nochmal mit 'nem besser komprimierten h.264-Video von YT experimentiert, da sind die Dateien geringfügig größer gewesen, sahen aber gleichwertig aus, also auch ok.

Die Encoder scheinen deutlich besser geworden zu sein. Ich weiß noch, was für katastrophalen Pixelbrei ich früher mit 'ner Radeon HD 7000 kreiert hab, als ich das mal ausprobiert hatte. Da konnte man auch fast nichts einstellen und es ging, wenn ich mich recht entsinne, nur constant Bitrate - was natürlich schlecht für kleine Dateien ist.

Mit dem NV-Encoder für h.264 kann ich neben ein paar Presets (hab Blu-ray genommen) eine durchschnittliche Bitrate und eine Obergrenze auswählen, das ist schon deutlich besser und vor allem kann ich auswählen, dass B-Frames verwendet werden sollen und ich kann die GOP-Größe einstellen, auf bis zu 250.
Maximal erlaubte konsekutive B-Frames hochgestellt auf 4 (max) und GOP auf 250 (max) und die mittlere Bitrate an die Quelle angelehnt, schon hatte ich vernünftige Ergebnisse. Habe Avidemux verwendet (basiert auf ffmpeg).
Beim HEVC-HW-Endcoder konnte ich nur mittlere und maximale Bitrate auswählen. Die Dateien waren am Ende meist genauso groß wie die von h.264-HW-Encoder, hier scheint das HW-Encoding also noch ordentlich Potenzial brach liegen zu lassen aber der h.264-Encoder von Pascal ist echt brauchbar.
Ergänzung ()

Ok, zu viel des Lobes. Ist wohl einfach zu sehr vom Inhalt abhängig, wie sich der NV-Encoder so macht. Das erstgenannte Video in meinem Beitrag war aus einer Animeserie. Viele Standbilder/ruhige Bilder und natürlich gezeichnetes Bildmaterial.
Das zweite war ein einfaches 720p-Musikvideo (ohne krasse Bühneneffekte, Explosionen etc.), bei dem die Quelle selbst bereits nicht so ne gute Quali hatte, der NVencoder aber auch bei ähnlichem Speicherplatzverbrauch nichts schlimmer gemacht hat.
Jetzt zum Schluss hab ich noch das hier getestet. Diese ganzen Lichteffekte sind dem NV-Encoder dann aber einfach zu viel und es gibt ordentlich Artefakte, wenn man dieselbe Größe wie die Quelle erreichen möchte (h.264 1080p von yt als Quelle).
 
Zuletzt bearbeitet:
Mich würde das alles für Streams ala Twitch und Co. interessieren, dort geht ja nach wie vor nur H264, da die Betreiber dieser Plattformen ja auch immer auf ihre Ressourcen achten müssen ist man halt begrenzt auf max. 6Mbit/s, genau da würden doch diese neuen Codecs wie AV1, H265/266 sinn machen, weniger Bitrate, mehr Qualität, aber genau da gibt es all das nicht. Sind Codecs wie 256/266 oder AV1 evtl. nicht geeignet für Livestreaming?
 
Hoffentlich werden da zeitnah auch entsprechende Decoderchips auf den Markt kommen.

Eine höhere Komprimierung ist zwar schön und toll, allerdings steigt der fürs En- und insbesondere auch Decodieren nötige Rechenaufwand auch extrem stark an.

Wenn man immer wieder neue Codecs auf den Markt bringt sorgt man halt auch dafür, dass immer wieder neue Hardware benötigt wird um die neuen Codecs überhaupt nutzen zu können - oder um eine flüssige Wiedergabe zu ermöglichen, da den Geräten abseits der Hardwarebeschleunigung oft schlicht die Rechenleistung fehlt. Ein Faktor der insbesondere mobile Geräte betrifft: Selbst wenn die Rechenleistung da ist, nuckelts den Akku viel, viel schneller leer (klar, die Akkus altern auch, aber das ist mit ein Hauptgrund, weshalb viele die Akkulaufzeiten bei garnicht mal so alten Geräten als extrem schlecht erleben).

Viele den Nutzern eigentlich ausreichende Geräte werden wohl einzig deshalb ersetzt, weil einzig ein vermeintlich simples Video nicht mehr flüssig abgespielt werden kann. Hat mich mit meinem Surface Pro 4 auch getroffen - YouTube über 1080P ist dank des VP9-Codecs schwierig, 1440P ist schon nicht mehr immer flüssig möglich (und nuckelt den Akku schneller leer...). Gerade bei mobilen Geräten und Unterhaltungselektronik fehlt da die Möglichkeit, entsprechende Decodierungshardware nachzurüsten...

Vorausgesetzt man hat genügend Bandbreite wird man sich irgendwann mal die Frage stellen müssen, ob der Aufwand den man ins En- und Decodieren steckt noch energieeffizienter ist als mehr Bandbreite zu nutzen.
 
Zuletzt bearbeitet:
0x8100 schrieb:
@ThePlayer die codecs arbeiten nicht auf pixel-ebene, sondern fassen ganze flächen zusammen, für die nur die bewegungsvektoren gespeichert werden. bei einem höher aufgelösten video hast du mehr blöcke, aber nicht 4x soviele. siehe z.b. https://sonnati.wordpress.com/2014/06/20/h265-part-i-technical-overview/
Klar aber wenn die Daten entstehen sind das ja erstmal 4x soviele Rohdaten. Das der Codec das effizienter Komprimieren kann ist was anderes. Ich sehe aber auch bei mehr als 4K noch keinen Vorteil für Heimanwender. Da bräuchte ich ja schon einen TV mit über 100" Diagonale um den unterschied zu sehen. Gut wenn ich eine Videowand wie Barney Stinson hätte würde es bestimmt Sinn machen.
 

Ähnliche Themen

Zurück
Oben