Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
empfohlen wird in der Regel libaom mit einem splitting tool wie Av1an. SVT-AV1 hängt wohl feature und qualitätstechnisch hinterher, während libaom große Fortschritte beid er Geschwindigkeit macht.
Man muss aber sagen, dass alle encoder noch nicht wirklich "final" sind und noch viel entwickelt wird.
Z.B. das sehr interessante Film Grain Synthesis Feature steckt noch in den Kinderschuhen.
Bregor schrieb:
Wäre echt cool wenn die Rx 6000er schon AV1 encoding könnten
Wohl nicht, perfekte Obsoleszenz, wir sollen doch neu kaufen.
Der 4 Jahre alte Samsung kann dann aber auch nicht h266, heißt er wird auch mit einem erfolgreichen MPEG Standard obsolet.
Tatsächlich wird es wohl auf absehbare Zeit nicht den Standard geben, den alle Geräte unterstützen.
Deshalb halten die Streaming Anbieter alle möglichen Formate vor.
Wenn man selbst Dateien versendet, ist das sicherste immer noch h264.
Ich habe von sowas leider keine Ahnung, deswegen stelle ich eine wohl dumme Frage: Kann man das als Art Gegenstück zu Nvenc sehen? Wobei Nvenc wohl nur ein Codec zum aufnehmen ist. Also wahrscheinlich heißt die Antwort nein.
Falls ich mir dieses Jahr eine AMD GPU kaufe würde Nvenc wegfallen. Was schade wäre, denn nur mit Nvenc bekomme ich bei mir eine gute Videoqualität hin ohne das es ruckelt. Naja, vielleicht schafft da auch der Ryzen 5900X Abhilfe im Gegensatz zu meinem 7700K.
Laut Computerbase Meldung muss die Option Datensparsamkeit aktiv sein und Netflix muss das Video in AV1 vorhalten.
Zum probieren kannst du ja mal irgendeinen aktuell populären Pop-Song mit 1Mio+ Klicks testen.
Zur XBox Series X gab es doch vor einiger Zeit Meldungen, dass die kein AV1 unterstützt. Zur PS5 finde ich auf die Schnelle nichts.
Wenn die beiden neuen Konsolen AV1 doch unterstützen sollten, wäre das natürlich ein großer Boost für den Codec. Nicht wenige werden ihre Spielkonsole auch für Videostreaming nutzen. Auf jeden Fall relevanter als Untertützung durch High-End-Gaming-Grafikkarten.
Die Konsolen Chips haben ein anderes VCN als die Desktop pendants und werden leider AV1 nicht unterstützen.
Ob die CPU für SW decoding reicht wird sich zeigen.
Viel zu pauschal, und das Produkt, was du als Kunde am Ende kaufst, ist eine Grafikkarte. Da zählt das Gesamtpaket, wo so ein Modul nur zu kleinen Teilen einfließt.
"Kein Mensch braucht [Hier fortschrittliche Technologie einsetzen]!" ist halt genauso abgedroschen und praktisch immer falsch. Dass du es jetzt gerade nicht brauchst ist kein hinreichender Beleg, dass es niemanden gibt dem das nicht Nutzen stiftet bzw. in Zukunft Nutzen stiften könnte.
Und noch was: Bleiben wir mal realistisch! Keine Sau braucht (oder profitiert irgendwie von) 8K. Und bitte nicht schon wieder mit den ewig gestrigen Sprüche zum Thema "640 KB" ankommen, das war damals ein völlig anderer Fall. Wenn überhaupt, zählt die Performance in 4K.
Zudem hab ich die Vermutung, dass die av1 decoder ein Problem mit 8K haben.
Beim Verlkinten Japan in 8K60 Video läuft Format 401 (4K60) mit 5Watt Verbrauch ohne einen einzigen Framedrop durch.
402 und 571 (8K60 mit unterschiedlicher Bitrate) verknuspern dann auf einmal 60Watt+ mit ständigen Framedrops.
Der Unterschied zwischen 401 und 402 in ihrer Bitrate beträgt je nach Szene gerade mal +20% bis +50%.
Dies allein sollte keinen so hohen Unterschied bei Softwaredecodierung verursachen.
Wenn du bei normaler Schreibtisch-Entfernung den Sprung von 80dpi auf 160dpi nicht erkennen kannst, dann bin es eindeutig nicht ich, der mal zum Augenarzt sollte.
HaZweiOh schrieb:
Nein. Die Technik stößt an Grenzen, die durch die Natur und die Fähigkeiten des Menschen vorgegeben werden.
Nimm dir mal ein modernes Handy mit >=Full HD Display, und halte es mal neben einen normalo ~80-90dpi Bildschirm. Am besten auf beiden Wikipedia oder ähnliches öffnen: Falls du keinen Unterschied in der Schärfe erkennen kannst, dann kann ich zumindest an der Stelle nicht widersprechen, dass deine menschlichen Fähigkeiten irgendwo eingeschränkt sind.
HaZweiOh schrieb:
Ich weiß, dass die Marketing-Abteilungen dir was anderes einreden wollen. Die Frage ist nur, ob man darauf reinfällt.
HEVC ist tot im Internet, alle Streamingdienste steigen langfristig auf AV1 um (von Disney+ hab ich noch nix gehört, aber hc). Wenn jetzt noch die ganzen Gopros, Kameras usw HEVC rauswerfen war es das mit MPEG. Hoffentlich für immer.
Die Rechteinhaber sind etwas mächtiger - siehe diverse DRM Maßnahmen bei Bluray, Netflix und Google.
zB 720p max. Auflösung bei "komischen" Browser, Widevine Levels / "Zertifizierung"
enthält nichts über eine Radeon 6000.
Es steht afaik auch nirgends, dass die Hardware für den Linux-Treiber im Laden zu kaufen sein soll.
Bis die Hardware erhältlich ist, ist es Spekulation (aber vermutlich gut begründet).
Das aktuelle Android sieht für "Handheld" (Handy) und "Television" Geräteklassen zwingend den HEVC/H265 Codec (p18) vor. CDD Android 11 - sonst würde das Gerät kein echtes Android 11 Gerät sein.
Außerdem muss zB HDCP 2.2 unterstützt sein bei TV Geräteklassen ohne Monitor. (p19)
Das Beispiel passt nicht ganz. Bei Raubkopien geht es um viel Geld. Aber den Rechteinhabern wird wohl egal sein, welcher Videocodec für ihren Film verwendet wird.
Der MPEG-Chef hätte in dem Interview auch nicht so resigniert geklungen, wenn er einen Einfluss darauf hätte.
Ist das so?
Fragen wir jemanden, der sich mit dem Thema auskennt: z. B. den Chef der MPEG.
Der müsste ja eigentlich deine markigen Sprüche unterstützen...
Wenn Du meine 'markigen' Sprüche gelesen hast, hast Du bestimmt auch gelesen, dass ich allgemein für AV1 bin, gell?
Ich trenne nur zwischen technisch berechtigtem Wunschdenken, versus Realität.
Und meine Realität gibt mir ein ziemliches dejavu-Erlebnis in Richtung DivX, XVid und den seinerzeit beschworenen Untergang von MPEG.
Und wenn ich mich richtig erinnere, lieferte XViD eine ca. 40-60% höhere Kompressionsrate als das damalige MPEG, blei gleichzeitig höherer Bitrate.
Da hieß es, spätestens 2010 wird kein Gerät mehr MPEG unterstützen.
HaZweiOh schrieb:
Es lässt sich ruckelfrei auch auf Smartphones abspielen.
Und? Handys und Gaming-PC sind so ziemlich kurzlebigsten Geräte und daher naturgemäß die Ersten, die sowas auch in HW können. Weiterhin sind Handys idR deutlich neuer, als ihre TV und Settop-Box Kollegen.
Bei meinen Eltern steht ne ca. 6 jahre alte Settop-Box. Und solange die Platte nicht schlapp macht, wird da auch nichts neues geholt. Und die schauen auch Netflix darüber. Das ist der normale Verbraucher, sicherlich nicht die Technikfreunde hier die sowas nach 3 Jahren spätestens austauschen.
Ebenso sind Prozessoren in den TV's schon bei Release ihren Handy-Kollegen zwei bis drei Jahre zurück.
Dann rechne vier Jahre Nutzungsdauer hinzu und du kommst ungefähr in die Richtung von 10 Jahren, die es benötigt, bis ein neues Gerät mit neuer Technik im Wohnzimmer steht.
Beispiel: Der aktuelle TV ist aus 2016, hat aber 2016 einen ARM aus der Resterrampe von 2013 bekommen. Und das ist noch positiv geschätzt. Das Gerät hat also somit nun Technik-Stand von vor 7 Jahren.
Und bis nicht das letzte Gerät im Wohnzimmer etwas anderes nativ unterstützt, werden die Streaming-Anbieter auch immer MPEG mitschleifen. Und so kommen die Hersteller wiederum erstmal nicht in die Situation "take it or leave it".
HaZweiOh schrieb:
Und noch was: Bleiben wir mal realistisch! Keine Sau braucht (oder profitiert irgendwie von) 8K. Und bitte nicht schon wieder mit den ewig gestrigen Sprüche zum Thema "640 KB" ankommen, das war damals ein völlig anderer Fall. Wenn überhaupt, zählt die Performance in 4K.
Gutes Beispiel. Und wenn Du nun ein Gerät hast, das 4K MPEG in HW auf 60fps decoden kann, AV01 aber höchstens per Software mit 30fps und ohne DD, welches Format würde Netflix wohl für den Kunden auswählen? Und bis diese Geräte alle verschwunden sind, dauerts eben. Das ist mein Punkt.
Weiterhin handelt es sich ja um ein Konsortium. Jeder Pfenning den die dort verdienen, geht anteilig an die Hersteller zurück.
DeusoftheWired schrieb:
DivX und XviD sind Codecs. Matroska ist dagegen ein Containerformat, das noch dazu konstant weiterentwickelt wird und vor kurzem z. B. Dolby-Vision-Unterstützung erhalten hat. Außerhalb von Kommerziellem erfreut sich MKV immer noch großer Beliebtheit und das wird auf absehbare Zeit so bleiben.
Das ist richtig, so weit wollte ich gar nicht runter. Mir ging es mehr um offizielle Unterstützung seitens der Hersteller. Und da wird idR für MKV jeglicher Support verweigert "(kann laufen, muss aber nicht)"
Wobei zum jeweiligen Release-Zeitpunkt völlig klar ist, was seitens Matroska unterstützt wird. Und das könnte man dann ja auch entsprechend supporten, mit nochmals gesteigerter Kompression durch MKV.
Es ist also technisch deutlich überlegen. Hats sichs kommerziell durchgesetzt? Nö.
Ergänzung ()
HaZweiOh schrieb:
Nur theoretisch, denn was die MPEG baut, ist hochgradig Patent-verseuchter Schrott.