News Microsoft: AMD Radeon RX 6000 beschleunigen AV1-Videos

Ich Versuch das morgen mal.
Erstmal Danke!
Gute Nacht!
Gruß
 
Das Norwegen 8k30 Video (Format 571) läuft trotz höherer Bitrate im Vergleich zum Japan 8k60 (Format 402) geschmeidig ohne Framedrop mit durschnittlich 10Watt Verbrauch durch.
Irgendwas stimmt mit Japan 8K60 nicht. Der gesteigerte Leistungshunger steht in keinem Verhältnis.
 
  • Gefällt mir
Reaktionen: Haldi
Haldi schrieb:
Das Funktioniert in Software ja wesentlich effizienter als erwartet!
Ich musste das Video auf 8k Hoch schalten um überhaupt erst etwas mehr last als Normales Browsen zu bemerken.
Naja, das hängt natürlich von deinen Erwartungen ab, aber toll ist es nicht - du hast ja auch ne richtig fette CPU verbaut - klar, dass es da geschmeidig läuft. ^^
Bei mir zickt die HW-Beschleunigung in FF gerne mal rum und dann fängt es mit VP9 bei 4K60 so langsam mit den Framedrops an, geht je nach Hintergrundlast gerade noch, dann ist der i5 7600K@4,5GHz aber auch voll ausgelastet. Bei av1 ebenso.

Mit der HW-Beschleunigung macht die GTX 1080 auch vp9 8K60 noch komplett flüssig und die Intel iGPU schafft auf jeden Fall noch 4K60 und 8K30 in vp9.

@Topic War absehbar, dass RDNA 2 mit 'nem av1 Decoder kommt. Alles andere wäre auch eine herbe Enttäuschung gewesen. Finde sowieso, dass die Video Engine allgemein in vielen GraKa-Tests etwas zu kurz kommt. Wobei man durch das von AMD mit Zen wiedereröffnete Multicore-Rennen auf einem neuen Rechner auch mit Software Decoding auskommen würde, wie Haldi schön gezeigt hat. ;)
 
Weiß nicht ob es schon geschrieben wurde, aber zumindest die Xbox Series X (und dann wahrscheinlich auch die PS5) wird AV1 nicht unterstützen.
Hätte mich auch sehr darüber gefreut wenn der Codec h264 und h265 verdrängen würde, aber so werden Netflix und Co nie darauf umsteigen können.

Haldi schrieb:
Find ich aber tolle das das in Hardware kommt. Besonders das ENkodieren.
Und wehe die sind geizig und bieten kein 8k Encoding an!

Keine der hier vorgestellten Lösungen wird Hardware-Encodingsupport bieten. Es geht rein um Decoding.

second.name schrieb:
Kann mir kurz jemand erklären, weshalb explizit spezielle Hardware benötigt wird?
Könnte mir vorstellen, dass ein Anpassen der Treiber auch den Einsatz älterer Hardware ermöglicht, oder!?

Videos zu dekodieren ist sehr komplex. Man sieht ja wie hier selbst CPUs mit über zehn Kernen Videos in 8K60 nicht flüssig wiedergeben können. Das kann man noch etwas optimieren, aber auch nur zu einem gewissen Grad.

Zum Glück ist aber, vereinfacht gesagt, die Art und Weise wie ein Video dekodiert wird zu 100% bekannt und immer gleich. Das heißt man kann hoch effiziente Hardware designen die nichts anderes machen kann als mit diesem Codec erstellte Videos zu dekodieren.
 
Zuletzt bearbeitet:
Beitrag schrieb:
du hast ja auch ne richtig fette CPU verbaut - klar, dass es da geschmeidig läuft. ^^
Challenge accepted.
Update heute Abend :)

Killerattacks schrieb:
Keine der hier vorgestellten Lösungen wird Hardware-Encodingsupport bieten. Es geht rein um Decoding.



Videos zu dekodieren ist sehr komplex. Man sieht ja wie hier selbst CPUs mit über zehn Kernen Videos in 8K60 nicht flüssig wiedergeben können.
Pardon, hab nicht deutlich genug Bezug auf die Neue AMD generation genommen.
Wenn die NUR den AV1 Decoder verbauen werden aber den Encoder noch eine Generation zurück schieben wäre ich stark enttäuscht.


Und wenn ein Video 8k 23fps mit 20% CPU load flüssig läuft aber 8k 60fps gar nicht erst läuft oder nur extrem stockt und nicht mehr CPU load verursacht würde ich auf ein anderes Problem tippen.
 
Haldi schrieb:
Pardon, hab nicht deutlich genug Bezug auf die Neue AMD generation genommen.
Wenn die NUR den AV1 Decoder verbauen werden aber den Encoder noch eine Generation zurück schieben wäre ich stark enttäuscht.

Dann bist du wohl stark enttäuscht. Einen AV1-Encoder kann man ausschließen, denke ich. Auch für die nächste Generation. Bislang gibt es nicht mal einen VP9-Encoder. Die Nachfrage danach ist einfach zu klein und der Entwicklungsaufwand zu groß. Und wer profitiert am Ende davon? Die Qualität von CPU-Encoding ist besser, daher ist das für die meisten die allererste Wahl. Zeitkritisches Encoding geht ja trotzdem: Streamer/Youtuber können weiterhin H.264/H.265 nutzen.
 
Web-Schecki schrieb:
Und wer profitiert am Ende davon? Die Qualität von CPU-Encoding ist besser, daher ist das für die meisten die allererste Wahl. Zeitkritisches Encoding geht ja trotzdem: Streamer/Youtuber können weiterhin H.264/H.265 nutzen.

Für moderne Codecs ist spezialisierte Hardware sicher im Vorteil da energieeffizienter als CPUs.
Ich denke wenn wir alle Codecs auch in Hardware haben ist mobile Videotelefonie und WebRTC im Allgemeinen für Videokonferenzen angenehmer da die Leitung weniger belastet wird.

Auf absehbare Zeit werden wir alte Codecs nicht los, da die Hardware mehrere Generationen hält und neuere sich erst verbreiten muss.

Das CPUs besser sind hör ich jedesmal, aber merkt man das wirklich noch so sehr im Vergleich zu hoch optimierten Streamingdiensten die genug Power und Zeit haben um das letzte Quäntchen noch rauszuholen?

PS:
ich hoffe das die MPEG dank AV1 aufgeben muss und ihre Techniken für AV2 mit einfliessen :)
 
Haben es offene Format in dem Bereich nicht eh immer etwas schwerer? Oben schrieb jemand das Hersteller für HEVC/AVC 20ct/Lizenz zahlen - gedeckelt auf x Mio. Wow ... DAS ist Einsparpotential - hier jetzt stattdessen etwas offenes zu implementieren. Netflix & Co können wegen der schlechten HW-Verfügbarkeit noch lange nicht umstellen auf AV1 ... die TV-Hersteller sehen ebenfalls keine Not. Am Ende wird HEVC/h.265 und nachfolgend weiter am Ball sein. (und nebenbei: die 20ct sind im VK am Ende eh als min. 2€ kalkuliert)

MKV z.b. - SUPER Container-Format. Wird stetig weiter entwickelt und kann nahe zu alles an Codecs aufnehmen. Nur leider ist der Support der HW-Hersteller auch nicht perfekt (bei der TV-Suche letztes Jahr hatten wir tatsächlich TVs die kein MKV konnten - aber konnten trotzdem schon einige - so ist es nicht) ... warum? Kostet doch NICHTS. MKV hat einfach einen illegalen Ruf (illegale Filme ausm Netz sind heute doch zu bestimmt 99% in MKV-Containern - ob 720p, UHD, HDR, 3D - Egal). Genauso wie DivX und XVid damals. Geräte die das lange Zeit nur konnten kamen nicht von bekannten Herstellern (mein DVD-Player musste NoName sein damit DivX von CD/DVD abgespielt werden konnte). MPEG2 hingegen war "Mainstream" bei den HW-Herstellern.

Das sich AV1 durchsetzt sehe ich daher noch lange nicht. Die Geschichte der Elektronik zeigt uns doch immer wieder das nicht das beste System gewinnt .... sonderm am Ende das mit der besseren Lobby ... wessen Lobby ist bei AV1 vs. mpeg(AVC/HEVC) besser?
 
Ich würde sagen wenn die Streamingdienste an einem Strang ziehen haben sie genug Gewicht (Hardwarehersteller sind auch dabei) gegen MPEG zu gewinnen. Was hilft ein Standard wenn die wichtigen Player was Eigenes gebaut haben und nicht auf dein Produkt und Lizenzkosten angewiesen sind?

Ja es mag kaum Hardware geben, NOCH. H266 hat auch gar keine Hardware.
Neue Dinge verbreiten sich nicht von heut auf morgen.
 
riloka schrieb:
Für moderne Codecs ist spezialisierte Hardware sicher im Vorteil da energieeffizienter als CPUs.
Ich denke wenn wir alle Codecs auch in Hardware haben ist mobile Videotelefonie und WebRTC im Allgemeinen für Videokonferenzen angenehmer da die Leitung weniger belastet wird.
Klar, aber das betrifft jetzt eher mobile Geräte. Die können sowieso kein CPU-Encoding von modernen Codecs in hohen Auflösungen, da sind also Fixed-Function-Units zwingend nötig. Das hat aber nichts mit Grafikkarten für Desktop-PCs zutun. Bei Videotelefonie ist die Auflösung und Bildwiederholrate auch eher gering, ich weiß gar nicht, ob moderne Codecs da so stark auftrumpfen können. H.264 sollten Android-Geräte mittlerweile zumindest alle beherrschen, das wird für den Zweck auch erstmal ausreichen, denke ich.


riloka schrieb:
Das CPUs besser sind hör ich jedesmal, aber merkt man das wirklich noch so sehr im Vergleich zu hoch optimierten Streamingdiensten die genug Power und Zeit haben um das letzte Quäntchen noch rauszuholen?
Man vergleicht CPU-Encoding ja nicht mit Streamingdiensten, sondern mit der Encodierung über Fixed-Function-Units auf GPUs. Das sind die zwei Optionen, die ich als Anwender zuhause am Rechner habe. Wie Netflix/Amazon/Google ihre Videos enkodieren hat damit ja nichts zutun?
Und mit CPUs hat man halt nun mal ein besseres Verhältnis von Qualität zu benötigter Bitrate, u.a. weil solche Sachen wie two-pass-encoding möglich sind und allgemein der Algorithmus eben nicht in Hardware gegossen ist, sondern sich beliebig komplex an den Input anpassen kann.
GPU-Encoding hat seine Berechtigung, zum Beispiel wenns zeitkritisch ist oder CPU-Resourcen geschont werden sollen (twitch livestreaming oder Let's Plays für Youtube aufnehmen). Und wie gesagt, dafür lohnt sich die Entwicklung von AV1-Hardware-Encoding einfach (noch?) nicht, denke ich.
 
Bei den 4K Testvideos habe ich mit VP9 1440p (passend zu meinen 3440x1440), sobald ich AV1 bevorzugen auswähle gibt es maximal nur noch 1080p.
Da bleibe ich erstmal noch bei VP9 wenn sonst nicht alle Auflösungen verfügbar sind.
 
@Beitrag
There we go.... mein altes Surface Pro 3 ^^

720p:
720p.png


1080p:
1080p.png


1440p:
1440p.png


4k: Unspielbar. Ruckelt nur und dropt die hälfte der frames.
4k.png
 
Wulfman_SG schrieb:
Genauso wie DivX und XVid damals. Geräte die das lange Zeit nur konnten kamen nicht von bekannten Herstellern (mein DVD-Player musste NoName sein damit DivX von CD/DVD abgespielt werden konnte). MPEG2 hingegen war "Mainstream" bei den HW-Herstellern.
DivX/Xvid war jedoch MPEG4, bzw. leicht modifiziert. Der gute (in Bezug auf PQ) HW Kram in den (teureren) DVD Playern konnte halt oft nur MPEG2, insbesondere die teuren Chips. Und da es DVDs und SVCDs (wurden übrigens auch damals sehr gerne bzw. fast ausschließlich für Kopien benutzt) nur in MPEG2 gibt, wurden halt nur die unterstützt. Die billig Chips konnten halt früher MPEG4, das war alles.

Wulfman_SG schrieb:
Das sich AV1 durchsetzt sehe ich daher noch lange nicht. Die Geschichte der Elektronik zeigt uns doch immer wieder das nicht das beste System gewinnt .... sonderm am Ende das mit der besseren Lobby ... wessen Lobby ist bei AV1 vs. mpeg(AVC/HEVC) besser?
Die Lobby von AV1 (Google, Netflix & Co) ist mittlerweile größer als der MPEG LA das recht ist ;) Da wird ja schon kräftig geheult... H.266 wird keine Adaption bei den genannten finden, das steht fest. H.264 und H.265 (und Google natürlich noch VP9) werden sie aus legacy Gründen noch einige Jahre parallel bereitstellen müssen.
 
estros schrieb:
Lies mal bitte meinen ganzen Post.

Ich habe mich vor allem auf deine Aussage "bei mir unterstützt noch kein Gerät AV1" bezogen. Doch sie tun es, nur eben nicht hardwarebeschleunigt. Aber es wird auch ohne Hardwareunterstützung öfter verwendet als man glaubt. Bei Streaming wird es sich sicher durchsetzten auf kurz oder lang.

Ob es überhaupt noch ein physisches Medium nach der UHD Bluray geben wird oder ob 8k nur noch gestreamt bzw. gespeichert wird kann man noch nicht sagen. HEVC hat sich vor allem aus einem Grund durchgesetzt --> weil es der einzige erlaubte Codec für die UHD Bluray ist und alle Endgeräte sich an dem orientiert haben.
 
paul1508 schrieb:
Ich habe mich vor allem auf deine Aussage "bei mir unterstützt noch kein Gerät AV1" bezogen. Doch sie tun es, nur eben nicht hardwarebeschleunigt.
Ganz ehrlich, lies bitte nochmal meinen ganzen Post. Ich kann dir da echt nicht helfen.:D
Oder machst du das mit Absicht? Streaming habe ich doch genannt, dass es dafür wohl verwendet wird. Meine Frage bezog sich auf die Erzeugung von AV1 Inhalten. Wie kann man das bitte nicht verstehen? Ich filme zB mit iPhone und GoPro. Beide können HEVC, aber kein AV1. Und selbst HEVC nutze ich gar nicht, wenn ich ehrlich bin, denn h264 reicht aus. Da stellt sich mir die Frage, wie weit AV1 erfolgreich sein wird.
 
Zurück
Oben