Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Qualitätseffizienterer Video-Codec vorgestellt
- Ersteller mischaef
- Erstellt am
- Zur News: Qualitätseffizienterer Video-Codec vorgestellt
Falls du es nicht mitbekommen haben solltest, der DVB-T2 Standard existiert bereits seit 2009 und wird in einigen Ländern auch schon verwendet. Desweiteren wird im DVB-Standard keine Quellencodierung spezifiziert, da es im Standard hauptsächlich um den physical Layer geht.Telesto schrieb:Dann bitte schleunigst DVB-T2 mit H.265 Codec in HD verabschieden und diesen DVB-T-Pixelmüll abschalten.
Prinzipiell kannst du jedes beliebige Codierverfahren verwenden.
Die öffentlich rechtlichen senden schon lange mit höherer Bitrate als die meisten privaten.
Wenn du HD schauen willst dann nutze halt DVB-C und DVB-S2.
T
Telesto
Gast
Nasenbär schrieb:Wenn du HD schauen willst dann nutze halt DVB-C und DVB-S2.
Das ist wohl kaum eine Alternative, da sowohl DVB-C als auch HD+ über DVB-S2 gebührenpflichtig sind. Wir schreiben das Jahr 2012, da sollte man eigentlich kostenloses HD über DVB-T2 erwarten können. Stattdessen wird weiterhin kostbare Bandbreite mit schlecht dekodiertem SD zugemüllt.
franeklevy schrieb:Eine sehr begrüßenswerte Entwicklung. Allerdings sollte man eben auch nicht vergessen, dass innerhalb der nächsten Jahre eben auch HD zu 4k werden wird.
Ich weiß natürlich nicht, welchen Zeitraum du mit "nächsten Jahre" meinst, allerdings glaube ich, dass QHD im TV-Bereich noch lange brauchen wird. Bisher bekommt man ja noch nicht einmal 1080p zu sehen. Es ist gut möglich, dass auf Seiten der Aufnahme und für's Kino in den nächsten Jahren umgesattelt wird, aber bis Videos in der Auflösung auch bei den Haushalten ankommt wird noch viel Zeit vergehen. Ich würde nicht vor 2020+ damit rechnen (zumindest in Europa).
Laut englisch-sprachigem Wikipedia-Artikel erlaubt Level 5.2 1920x1080 bei 60Mbit/s (Main) bzw. 240Mbit/s (High)WinnieW2 schrieb:…Die Datenrate für die 1920 x 1080 Auflösung ist bei H.265 auf 50 MBit/s begrenzt.…
Alles haben wollen und das natürlich kostenlos, ist klar.Telesto schrieb:Wir schreiben das Jahr 2012, da sollte man eigentlich kostenloses HD über DVB-T2 erwarten können.
Du wolltest die ÖR in höherer Bitrate. Per Kabel oder Satellit bekommst du die Sender in HD.
Versetz dich doch mal in die Lage der privaten Sender. Warum sollten die kostenlos in HD ausstrahlen? Davon haben die ja nichts außer wesentlich höhere Kosten.
Solange in Deutschland kaum einer bereit ist für gute Qualität zu bezahlen, solange wird sich auch nicht viel ändern. Alle Sender auf DVB-T2 umzurüsten ist auch mit großen Kosten verbunden, zudem wäre der Aufschrei groß wenn man plötzlich mit den DVB-T Receivern nichts mehr anfangen könnte und für einen parallel Betrieb steht wohl nicht genug Bandbreite zur Verfügung, da ja einige Frequenzbänder für eine anderweitige Nutzung abgegeben wurde (z.B. LTE).
Von MP3 auf AAC war auch kein wirklicher Fortschritt, sondern hat nur zu nur noch mieserer Qualität wegen kleinerer Bitraten geführt, mp3 ist ab 256kb/s in Blindtests nicht mehr zu toppen. Wer meint, dass Bild bei H.264 sei auch nur ansatzweise auf Originalniveau, der sollte sich mal eine Brille kaufen. Die Qualität ist gerade beim H.264 Digitalfernsehen nur dann gut, wenn man nicht genau hinseht, Komprimierungsartefakte sind selbst bei ARD und ZDF mit ihren trotz geringer Auflösung verschwenderisch hohen Bitraten massiv und deutlich sichtbar.
Ebenso das Bild auf Bluerays, doch da die Menschen das Original nicht kennen, beschwert sich keiner. Den Unterschied würde man sofort deutlich merken. Sicher sind immer die Bitraten entscheidend und H.264 ist von der Effizienz sehr gut. Aber das Bild wird dadurch in der Praxis eher schlechter, eben weil massiv an den Bitraten gespart wird.
Anstatt immer mehr Artefakte und Komprimierung sollte es eher weniger sein, damit die Bildqualität wieder besser wird.
Ebenso das Bild auf Bluerays, doch da die Menschen das Original nicht kennen, beschwert sich keiner. Den Unterschied würde man sofort deutlich merken. Sicher sind immer die Bitraten entscheidend und H.264 ist von der Effizienz sehr gut. Aber das Bild wird dadurch in der Praxis eher schlechter, eben weil massiv an den Bitraten gespart wird.
Anstatt immer mehr Artefakte und Komprimierung sollte es eher weniger sein, damit die Bildqualität wieder besser wird.
Zuletzt bearbeitet:
Dein Post ist doch totaler Unsinn. Du schreibst doch selber dass die schlechte Qualität daher kommt, dass so niedrige Bitraten gewählt werden. AAC schafft bei gleicher Qualität eine geringere Datenmenge, was soll daran schlecht sein?
Dein Beispiel mit H264 ist genauso haarsträubend. Glaubst du ernsthaft, wenn statt H264 MPEG2 genutzt würde, würde die Betreiber höhere Bitraten wählen?
Nur weil der neue Standard mehr Komprimierung bietet, heißt das noch lange nicht, dass du automatisch mehr Artefakte hast. Es ist immer ein Trade-off Qualität<->Datenmenge
Aber solange mit jedem Standard bei gleicher Qualität die Datenrate verringert wird ist doch alles super.
Und bei einer gescheiten BluRay siehst du bei normalem Sitzabstand keine großartigen Artefakte mehr.
Dein Beispiel mit H264 ist genauso haarsträubend. Glaubst du ernsthaft, wenn statt H264 MPEG2 genutzt würde, würde die Betreiber höhere Bitraten wählen?
Nur weil der neue Standard mehr Komprimierung bietet, heißt das noch lange nicht, dass du automatisch mehr Artefakte hast. Es ist immer ein Trade-off Qualität<->Datenmenge
Aber solange mit jedem Standard bei gleicher Qualität die Datenrate verringert wird ist doch alles super.
Und bei einer gescheiten BluRay siehst du bei normalem Sitzabstand keine großartigen Artefakte mehr.
HighTech-Freak
Rear Admiral
- Registriert
- Juli 2005
- Beiträge
- 5.164
Is jetzt der Codec Schuld, wenn der User die Bitrate falsch wählt? Bei gleicher Bandbreite ist h264 dzt. einer der effizientesten Codecs. Eine Reduktion um weitere 50% ist aber wohl tatsächlich Wunschvorstellung.etking schrieb:Das geht garantiert massiv zu Lasten der Bildqualität. Das Bild von H.264 ist schon heute voller Artefakte und Bildfehler, nur fehlt den meisten Leuten der direkte Vergleich.
Aber bei dem ganzen Gedöns rund um Video, sei's jetzt der Codec, die 4K-Auflösung, Pseudo-3D oder schlagmichtot-HD-Sound: Alles für de Fisch, wenn sie nicht endlich mal auf die Reihe kriegen Videos mit dynamischen FPS (VFR, variable frame rate) zu enkodieren -zusammen mit gepuffertem Dekodieren um die Leistungs-Peaks abzufagen die bei hohen FPS auftreten. Früher hat man zB auf Mobilgeräten nur 20FPS gehabt, damit das Bild bei der von der CPU dekodierbaren Bitrate noch halbwegs Artefakt-frei.
Wenn sie Frame-Rate endlich dynamisch anpassen würden (beim Encodieren des Files wird durch einen Algorithmus automatisch erkannt, wann mehr FPS nötig sind), statt pauschal mit 25-30fps zu filmen, wären wohl schon alleine dadurch 10-20% gespart, gibt oft genug Szenen, die einem Standbild gleichen...
MfG, Thomas
Falls auf DVB-T2 umgestellt werden sollte dann werden die privaten TV-Sender entweder aussteigen oder grundverschlüsseln.Telesto schrieb:Das ist wohl kaum eine Alternative, da sowohl DVB-C als auch HD+ über DVB-S2 gebührenpflichtig sind. Wir schreiben das Jahr 2012, da sollte man eigentlich kostenloses HD über DVB-T2 erwarten können.
DVB-T2 würde nur einen Vorteil bei den Öffentlich-Rechtlichen bringen. Diese müssen sich die Umstellung auf DVB-T2 allerdings erstmal vom Rundfunkrat und der KEF genehmigen lassen.
Nahezu alle privaten TV-Sender wollen die Verschlüsselung bei HDTV haben.
Doch die Zuschauer schon, aber die meisten privaten Anbieter nutzen die bessere Kompression um Verbreitungskosten einzusparen, weil dann mehr Programme in einen Kanal passen.M.B.H. schrieb:Wie wärs mal mit Bandbreite GLEICH lassen und dafür mal die Videoqualität hochschrauben damit die ganzen videos nicht so extrem kaputt komprimiert aussehen? daran denkt mal wieder keiner....
Würde ich auch sagen. Vermutlich wird da erstmal Pay-TV mit Quad-HD, a.k.a. 4k starten..Limit schrieb:Ich würde nicht vor 2020+ damit rechnen (zumindest in Europa).
Das stimmt, für HDTV reicht allerdings Level 4.1Limit schrieb:Laut englisch-sprachigem Wikipedia-Artikel erlaubt Level 5.2 1920x1080 bei 60Mbit/s (Main) bzw. 240Mbit/s (High)
Wozu soll die Übertragung von mehr als 100 Bilder/s im TV-Bereich gut sein?
Weshalb ist der User schuld? Im TV-Broadcast-Bereich ist es der Anbieter der die Bitrate zu niedrig ansetzt.HighTech-Freak schrieb:Is jetzt der Codec Schuld, wenn der User die Bitrate falsch wählt?
Und da kann ich etking aus eigener Erfahrung zustimmen, da ich das bei Livesendungen in HD bei privaten TV-Sendern kenne.
Kamera ruhig -> Details im Bild vorhanden , Kamera schwenkt langsam -> Details verschwinden aus dem Bild obwohl diese für das Auge sichtbar wären,
Kameraschwenk beendet -> Details im Bild wieder da
Sowas kann echt nervig sein. Werben mit 1080er Bildauflösung, aber wehe da bewegt sich was dann sind die Details aus dem Bild verschwunden.
Was will uns das sagen? HD-Auflösung ja, aber nur solange sich im Bild nichts bewegt?
Zuletzt bearbeitet:
HighTech-Freak schrieb:Aber bei dem ganzen Gedöns rund um Video, sei's jetzt der Codec, die 4K-Auflösung, Pseudo-3D oder schlagmichtot-HD-Sound: Alles für de Fisch, wenn sie nicht endlich mal auf die Reihe kriegen Videos mit dynamischen FPS (VFR, variable frame rate) zu enkodieren
VFR ist eigentlich ein überholtes Konzept. Dank der verbesserte Effizienz der neueren Codecs ist das Einsparpotential deutlich geringer als es bei älteren Codecs gewesen wäre. Eine ruhige Szene mit 50fps codiert kostet bei AVC z.B. nur noch wenig mehr als bei 25fps. Statt VFR würde ich es eher begrüßen, wenn die verwendeten FPS generell erhöht würden, von heute 23,976/25 auf 50 oder 60.
HighTech-Freak schrieb:…zusammen mit gepuffertem Dekodieren um die Leistungs-Peaks abzufagen die bei hohen FPS auftreten.…
Das müssen die heutigen Dekoder sowieso schon machen, schon allein um P- bzw. B-Frames benutzen zu können.
HighTech-Freak schrieb:Früher hat man zB auf Mobilgeräten nur 20FPS gehabt, damit das Bild bei der von der CPU dekodierbaren Bitrate noch halbwegs Artefakt-frei.
Das ist heute nicht mehr nötig. Mobile Geräte haben fast immer HW-Dekoder dabei und PC/Konsolen haben genügend Rechenleistung. Falls es doch einmal nicht reicht, unterstützen viele Dekoder Frame-Dropping.
HighTech-Freak schrieb:Wenn sie Frame-Rate endlich dynamisch anpassen würden (beim Encodieren des Files wird durch einen Algorithmus automatisch erkannt, wann mehr FPS nötig sind), statt pauschal mit 25-30fps zu filmen, wären wohl schon alleine dadurch 10-20% gespart, gibt oft genug Szenen, die einem Standbild gleichen...
Wie oben schon gesagt, sorgt die verbesserte Bewegungsvorhersage und die Zwischenbildkodierung dafür, dass der Gewinn durch VFR bei den neueren Codecs immer geringer wird. Den geringen Gewinn, den man erzielen kann wiegt bei weitem nicht die Probleme auf, die man bekommt, wenn man versucht eine solche Datei zu bearbeiten und den Ton am Schluss immer noch synchron zu haben.
WinnieW2 schrieb:Wozu soll die Übertragung von mehr als 100 Bilder/s im TV-Bereich gut sein?
Naja, einen Film mit 50fps in 3D
WinnieW2 schrieb:Und da kann ich etking aus eigener Erfahrung zustimmen, da ich das bei Livesendungen in HD bei privaten TV-Sendern kenne.
Kamera ruhig -> Details im Bild vorhanden , Kamera schwenkt langsam -> Details verschwinden aus dem Bild obwohl diese für das Auge sichtbar wären,
Kameraschwenk beendet -> Details im Bild wieder da
Sowas kann echt nervig sein. Werben mit 1080er Bildauflösung, aber wehe da bewegt sich was dann sind die Details aus dem Bild verschwunden.
Was will uns das sagen? HD-Auflösung ja, aber nur solange sich im Bild nichts bewegt?
Jo, deswegen finde ich es gut, dass ARD/ZDF mit 50fps produzieren. Problem sind allerdings die Fremdproduktionen, die ursprünglich in 24 oder 23.976fps aufgenommen und/oder produziert wurden.
Du hast den Post von HighTech-Freak falsch verstanden. In diesem Falle ist doch der TV-Sender der User des Codecs.WinnieW2 schrieb:Weshalb ist der User schuld? Im TV-Broadcast-Bereich ist es der Anbieter der die Bitrate zu niedrig ansetzt.
Seine Aussage ist schon richtig. Das Codierverfahren ist doch nicht Schuld, dass mit so niedriger Datenrate gesendet wird.
T
Telesto
Gast
Nasenbär schrieb:Alles haben wollen und das natürlich kostenlos, ist klar.
Du wolltest die ÖR in höherer Bitrate. Per Kabel oder Satellit bekommst du die Sender in HD.
Versetz dich doch mal in die Lage der privaten Sender. Warum sollten die kostenlos in HD ausstrahlen? Davon haben die ja nichts außer wesentlich höhere Kosten.
Solange in Deutschland kaum einer bereit ist für gute Qualität zu bezahlen, solange wird sich auch nicht viel ändern. Alle Sender auf DVB-T2 umzurüsten ist auch mit großen Kosten verbunden, zudem wäre der Aufschrei groß wenn man plötzlich mit den DVB-T Receivern nichts mehr anfangen könnte und für einen parallel Betrieb steht wohl nicht genug Bandbreite zur Verfügung, da ja einige Frequenzbänder für eine anderweitige Nutzung abgegeben wurde (z.B. LTE).
Wie bitte? Ich soll für werbefinanziertes Free-TV noch zusätzliche Gebühren zahlen? HD ist heute Standard, kein Luxus. Guck dich doch mal im Ausland um, da ist HD seit Jahren der Normalfall, ohne Zusatzgebühren und mit wesentlich höherer Bitrate. Nur in Deutschland wird man immer noch mit minderwertigen SD-Signalen abgespeist.
Der einzige Trost ist da wirklich, dass die privaten Sender von Jahr zu Jahr schlechter werden bzw. sich durch mangelhafte bis missbräuchliche Nutzung neuer Standards (kein O-Ton, Verschlüsselung) langsam aber sicher selbst überflüssig machen - zumindest für den gebildeten Teil der Bevölkerung.
Trotzdem sehe ich es nicht ein, mir zukünftig eine hässliche Satellitenschüssel an den Balkon zu hängen oder Mondpreise für die Nutzung (!) eines Kabelanschlusses zu zahlen, nur um die ÖR in HD zu sehen, wenn das längst über DVB-T(2) möglich wäre. Wenn man für seine GEZ-Gebühren wenigstens einen kostenlosen HD-Livestream bekäme, aber auch hier tut sich ja überhaupt nichts.
Zuletzt bearbeitet:
ghostwriter2
Lt. Commander
- Registriert
- Juli 2012
- Beiträge
- 1.692
Wenn ich mir die Beiträge hier so anschaue, stoppen wir doch die Entwicklung komplett und bleiben die nächsten 50 Jahre bei 50 halbbilder Röhrenfernsehen. Da wird was Weiterentwickelt, und jeder verdammt es (aber euerer Meinung seid Ihr untreu, wenn Ihr zum "Medizinisch Weiterentwickeltem" Arzt geht als zum Schamanen oder so).
Wenn die TV-Sender mist mit dem Codec bauen ist nicht die Entwicklung schuld. Vielleicht liegts daran, das die Qualität der privaten Sender absichtlich so schlecht gehalten wird damit die Leute einen ansporn haben, das HD-Abo zu holen.
Und das mp3 mit 256 kbit nicht zu toppen ist mag vielleicht für einen typen mit ipod oder 200 Euro Stereoanlage gelten (oder für Menschen, die man auf der Straße aufgreift und deren Wahrnehmungsvermögen nicht besonders ausgeprägt ist und die bemitleidenswert sind. Ich kenne diese Tests, und wer behauptet alles über mp3 256 kbit sei überflüssig kann ich gerne vom Gegenteil überzeugen, nach Terminvereinbarung natürlich). Könnte auch daran liegen, das die meisten Menschen nicht so helle sind, keine eigene Meinung haben (denken trotzdem die meisten Leute) und in solchen Tests genau das Wunschergebnis erziehlen. (Wie unsagbar dumm, begriffsstutzig und *leicht* beeinflussbar ein großteil der Menschen ist, musste ich leider Gottes während meiner Ausbildung kennenlernen. Und wenn man solche Menschen auf einen Test loslässt, na dann gute nacht).
Wenn die TV-Sender mist mit dem Codec bauen ist nicht die Entwicklung schuld. Vielleicht liegts daran, das die Qualität der privaten Sender absichtlich so schlecht gehalten wird damit die Leute einen ansporn haben, das HD-Abo zu holen.
Und das mp3 mit 256 kbit nicht zu toppen ist mag vielleicht für einen typen mit ipod oder 200 Euro Stereoanlage gelten (oder für Menschen, die man auf der Straße aufgreift und deren Wahrnehmungsvermögen nicht besonders ausgeprägt ist und die bemitleidenswert sind. Ich kenne diese Tests, und wer behauptet alles über mp3 256 kbit sei überflüssig kann ich gerne vom Gegenteil überzeugen, nach Terminvereinbarung natürlich). Könnte auch daran liegen, das die meisten Menschen nicht so helle sind, keine eigene Meinung haben (denken trotzdem die meisten Leute) und in solchen Tests genau das Wunschergebnis erziehlen. (Wie unsagbar dumm, begriffsstutzig und *leicht* beeinflussbar ein großteil der Menschen ist, musste ich leider Gottes während meiner Ausbildung kennenlernen. Und wenn man solche Menschen auf einen Test loslässt, na dann gute nacht).
DaSaeschOnAir
Cadet 3rd Year
- Registriert
- Juni 2005
- Beiträge
- 35
Haldi schrieb:P.P.S Wie siehts mit HTML5 und H265 aus? gibts dazu irgendwelche infos?
Ein Video-Codec wird nur dann einmal als offizieller Standard des W3C festgelegt werden, wenn er nicht mit Patenten behaftet ist. Leider ist dies sowohl bei H.264 als auch bei H.265 der Fall. Deshalb gab es in der Vergangenheit diverse Versuche mit Theora/Vorbis und später dann WebM. Beide sind jedoch kläglich gescheitert, weshalb für HTML5 Video der H.264-Codec der De-facto-Standard geworden ist.
Fazit: H.264 wird aufgrund der Patente niemals offizieller Standard beim W3C werden und ist dennoch das, was weltweit am meisten für HTML5 Video genutzt wird. Demnach kann ich mir gut vorstellen, dass langfristig auch im Browser auf H.265 umgestellt wird, denn der Versuch patentfreie Alternativen einzuführen ist, wie gesagt, schon lange gescheitert.
Zuletzt bearbeitet:
Für H.265 allerdings derzeit noch nicht, und ein einfaches Softwareupdate wird höchst wahrschrscheinlich nicht ausreichen um das Gerät fit für H.265 zu machen.Limit schrieb:Mobile Geräte haben fast immer HW-Dekoder dabei...
3D wird meist über eine Multiview-Erweiterung beim Videocodec realisiert, weil das ist effizienter.Limit schrieb:Naja, einen Film mit 50fps in 3D
Die Bilder abwechselnd fürs linke und rechte Auge in einem komprimierten Stream zu übertragen ist nicht besonders effizient.
Filme mit 50 fps u. 3D sind mir keine bekannt.
Die Anzahl der Eigenproduktionen ist allerdings geringer als die Anzahl der Fremdproduktionen.Limit schrieb:deswegen finde ich es gut, dass ARD/ZDF mit 50fps produzieren. Problem sind allerdings die Fremdproduktionen, die ursprünglich in 24 oder 23.976fps aufgenommen und/oder produziert wurden.
Live-Sportveranstaltungen werden meistens in 1080i produziert, was für H.265 nicht optimal ist, denn H.265 ist auf Video mit Vollbildmaterial optimiert. Interlaced-Video kann der Codec nicht besonders gut komprimieren.
Ok. Dann habe ich die ursprüngliche Aussage wohl nicht korrekt verstanden.Nasenbär schrieb:Du hast den Post von HighTech-Freak falsch verstanden. In diesem Falle ist doch der TV-Sender der User des Codecs.
Seine Aussage ist schon richtig. Das Codierverfahren ist doch nicht Schuld, dass mit so niedriger Datenrate gesendet wird.
Das kann derzeit leider niemand sagen wie die Sache in Puncto HTML5 Video weitergehen wird.DaSaeschOnAir schrieb:Fazit: H.264 wird aufgrund der Patente niemals offizieller Standard beim W3C werden und ist dennoch das, was weltweit am meisten für HTML5 Video genutzt wird.
Sollte allerdings wider Erwarten ein lizenzkostenpflichtiger Codec vom W3C gewählt werden dann bedeutet das dass die meisten Webbbrowser dann entweder kostenpflichtig werden oder sich über Werbeeinblendungen finanzieren müssten.
Unternehmen wie Mozilla oder Opera könnten die Lizenzkosten für die Videodecoder nicht aus ihrem derzeitigen Budget decken.
DaSaeschOnAir
Cadet 3rd Year
- Registriert
- Juni 2005
- Beiträge
- 35
WinnieW2 schrieb:Das kann derzeit leider niemand sagen wie die Sache in Puncto HTML5 Video weitergehen wird.
Sollte allerdings wider Erwarten ein lizenzkostenpflichtiger Codec vom W3C gewählt werden dann bedeutet das dass die meisten Webbbrowser dann entweder kostenpflichtig werden oder sich über Werbeeinblendungen finanzieren müssten.
Unternehmen wie Mozilla oder Opera könnten die Lizenzkosten für die Videodecoder nicht aus ihrem derzeitigen Budget decken.
Wie es genau weitergehen wird, kann man in der Tat nicht genau sagen. Immerhin könnte rein theoretisch irgendwann doch noch ein patentfreier Codec kommen, auf den sich alle Browserhersteller einigen. Jeder, der sich jedoch schon einmal detailliert mit den Vorstellungen der einzelnen Browserhersteller zu diesem Thema auseinandergesetzt hat, weiß, dass man sich von dieser Vorstellung quasi verabschieden kann.
Demnach stellt sich nur noch die Frage, wie es mit den patentbelasteten Codecs weitergeht. Und hier gibt es zwei Fakten, die quasi felsenfest stehen:
1. Das W3C wird niemals patentbelastete Codecs als Standard verabschieden, denn dies widerspräche der gesamten Philosophie, auf der das Konsortium von je her aufbaut und auch immer gehandelt hat. Eher gibt es gar keinen Standard als einen mit Patenten.
2. Browserprojekte wie Opera und Mozilla werden in absehbarer Zeit das Geld für Lizenzkosten von Codecs wie H.264 nicht aufbringen können, denn das entspräche (ich bin mir nicht mehr genau sicher) ca. 10% des Jahresumsatzes des Unternehmens.
Eine Lösung muss es jedoch geben, denn HTML5 Video existiert nunmal und ebenso existiert nunmal H.264 als De-facto-Standard. Und eine Lösung gibt es für die finanziell schwächeren Browserprojekte auch in der Tat. Diese lautet: Codec unterstützen aber nicht im Browser integrieren. Der Benutzer muss den Codec manuell auf der Festplatte installieren und dann kann der Browser darauf zugreifen. So kann der Benutzer H.264-Videos ansehen und der Browserhersteller muss keine Lizenzkosten bezahlen. Dies wird sogar von Mozilla schon in Angriff genommen, weil Mozilla sein eigenes mobiles Betriebssystem "Firefox OS" an den Start bringt und H.264 auf mobilen Geräten noch viel mehr der De-facto-Standard ist als auf dem Desktop. Die Problemlösung, die Mozilla für Firefox OS entwickelt hat, wird nun quasi auf den Desktopbereich zur Vermeidung von Lizenzkosten angewendet.
Die Mozilla Foundation wird finanziell in 5-6 Jahren einen katastrophalen Kollaps erleiden. Der Marktanteil liegt in Deutschland je nach Messung zwischen 50% und 45%. Die Tendenz ist fallend. Der Weltmarktanteil liegt bei ca. 20% und ist bedenklich schnell fallend.
Gründe dafür sind, dass seit dem der Takt von neuen Veröffentlichungen angezogen wurde, instabile Versionen mit vielen Bugs der Standard geworden sind. Die Triple A Programmierer wurden vor allem von Microsoft mit guten Jobangeboten, aber auch von Google abgeworben.
Die Entwicklung zu vieler Produkte, wie Thunderbird und Firefox Mobile und dem OS verstärken die angespannte Personallage zusätzlich.
Als erste Maßnahme wurde nun angekündigt die Entwicklung von Thunderbird einzustellen. In wiefern sich dies gegen den Druck der Nutzer letzlich durchsetzen wird ist fraglich.
Sollte sich kein indischer, arabischer Risikoinvestor finden, wird die Zukunft bei Chrome in Europa und Microsoft Produkten auf dem Weltmarkt liegen. Unabhängige Entwickler, die sich exakt auf eine Kundengruppe ausrichten werden die Nischen besetzen. Als Beispiel sei hier der Boat Browser genannt, der aus Datenschutzrechtsbedenken sicherste Browser.
Gründe dafür sind, dass seit dem der Takt von neuen Veröffentlichungen angezogen wurde, instabile Versionen mit vielen Bugs der Standard geworden sind. Die Triple A Programmierer wurden vor allem von Microsoft mit guten Jobangeboten, aber auch von Google abgeworben.
Die Entwicklung zu vieler Produkte, wie Thunderbird und Firefox Mobile und dem OS verstärken die angespannte Personallage zusätzlich.
Als erste Maßnahme wurde nun angekündigt die Entwicklung von Thunderbird einzustellen. In wiefern sich dies gegen den Druck der Nutzer letzlich durchsetzen wird ist fraglich.
Sollte sich kein indischer, arabischer Risikoinvestor finden, wird die Zukunft bei Chrome in Europa und Microsoft Produkten auf dem Weltmarkt liegen. Unabhängige Entwickler, die sich exakt auf eine Kundengruppe ausrichten werden die Nischen besetzen. Als Beispiel sei hier der Boat Browser genannt, der aus Datenschutzrechtsbedenken sicherste Browser.
Der Nutzer muss allerdings einen funktionierenden H.264 auf dem Rechner haben. Bei Windows ist das relativ einfach, ab Windows 7 ist ein Decoder für H.264 mit dem Media Player dabei.DaSaeschOnAir schrieb:...eine Lösung gibt es für die finanziell schwächeren Browserprojekte auch in der Tat. Diese lautet: Codec unterstützen aber nicht im Browser integrieren. Der Benutzer muss den Codec manuell auf der Festplatte installieren und dann kann der Browser darauf zugreifen.
Manuell installieren, ok, nur begibt sich jeder Anbieter von Software die H.264 dekodieren kann prinzipiell in die Lizenzfalle, nur bei Privatleuten die solche Decoder ohne Geschäftsinteresse anbieten könnten die Patentinhaber ein Auge zudrücken.
Viele Anbieter die H.264 Decoder in ihrer Software implementiert haben bewegen sich momentan in einer Grauzone, denn sobald ein Richter ihre Tätigkeit (Software anbieten) als kommerziell einstufen würde hätten diese ein gewaltiges Problem.
Diese Einschätzung teile ich nicht so ganz. Opera überlebt mit einem deutlich geringeren Marktanteil bei ihrem Browser.qwertzuio schrieb:Die Mozilla Foundation wird finanziell in 5-6 Jahren einen katastrophalen Kollaps erleiden. Der Marktanteil liegt in Deutschland je nach Messung zwischen 50% und 45%. Die Tendenz ist fallend. Der Weltmarktanteil liegt bei ca. 20% und ist bedenklich schnell fallend.
Richtig ist, Firefox ist v.a. in Europa beliebt. Weiterer Vorteil Open Source. Jeder der Programmcode lesen kann kann sich versichern dass keine versteckten Funktionen eingebaut sind um im Hintergrund Daten von den Nutzern abzugreifen oder diese auszuspähen.
Ich persönlich nutze den Firefox bereits seit 8 Jahren und mir sind bislang keine wirklichen Bugs in dem Programm aufgefallen. Meist werden Abstürze durch fehlerhafte Add-Ons oder Plug-ins ausgelöst.qwertzuio schrieb:Gründe dafür sind, dass seit dem der Takt von neuen Veröffentlichungen angezogen wurde, instabile Versionen mit vielen Bugs der Standard geworden sind.
Die meisten Leute setzen verstärkt auf Webmail, von daher sind e-Mail-Clients hauptsächlich noch für Unternehmen interessant, dort aber haben sich bereits Mailanwendungen von anderen Herstellern etabliert.qwertzuio schrieb:Als erste Maßnahme wurde nun angekündigt die Entwicklung von Thunderbird einzustellen.
Chrome ist der Browser von Google u. Google versucht den VP8 Video-Codec als Standard für HTML5 Video u. WebRTC durchzudrücken.qwertzuio schrieb:...wird die Zukunft bei Chrome in Europa und Microsoft Produkten auf dem Weltmarkt liegen.
Die Videos auf Youtube wurden bereits im VP8 Format kodiert.
Das sind die Lager die sich gegenüber stehen:
Google (+ Linux-Gemeinde) mit VP8 vs. Microsoft u. Apple mit H.264
als zukünftigen Codec bei HTML5
H.265 wird es nicht schaffen als Codec in den HTML5 Standard aufgenommen zu werden, da sprechen Patente u. Lizenzgebühren dagegen. Ich sehe H.265 eher im Bereich HDTV-Broadcast.
Zuletzt bearbeitet:
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.324
selbst wenns "nur" 25% im Schnitt sind, ein Lossless Trancoding -> h264 -> 265 wäre cool. Da würde ich glatt meine Sicherungskopieren reencoden.
Ähnliche Themen
- Antworten
- 7
- Aufrufe
- 1.824
- Antworten
- 75
- Aufrufe
- 10.712
- Antworten
- 10
- Aufrufe
- 1.907
- Antworten
- 191
- Aufrufe
- 39.874
- Antworten
- 23
- Aufrufe
- 6.096