Tenferenzu
Vice Admiral
- Registriert
- Okt. 2017
- Beiträge
- 6.532
OT: Video und Audio -> Copy und dann den richtigen Container auswählen.-Slayer- schrieb:Also wirklich nur den Container ändern sonst nichts?
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
OT: Video und Audio -> Copy und dann den richtigen Container auswählen.-Slayer- schrieb:Also wirklich nur den Container ändern sonst nichts?
Deine 3080 Ti kann nur decoden, heißt dass wenn Youtube irgendwann auf AV1 umstellt, du es zum ansehen verwenden kannst.P21121970 schrieb:Wie stell ich ein , dass das die GPU macht? Meine 3080Ti sollte das können? Besser als der 13900KF?
Also manche Leute brauchen sowas um Videos zu encoden. ^^Piak schrieb:Ich frag mich noch wofür ich das brauche. Früher mal, wo die Player noch nicht alles abspielen konnten.
Das liegt daran dass Videoencoding 'echte arbeit' istP21121970 schrieb:Der prozessor wurde auf manchen Kernen recht heiß bis 92° mit aber nur wenigen % Auslastung. Unter CBR23 wird das auf den Kernen ähnlich heiß aber mit 100% Auslastung. Woran liegt das?
einfache Aufgaben, oder Benchmarks? Aufgrund er GUI ist Handbrake meist einfacher für einfache (schnelle) Sachen. Außer man ist ohnehin fit mit ffmpeg. Benchmarks eher nicht so wenn man das automatisieren will.flaphoschi schrieb:Wäre für einfache Aufgaben ein Test mit FFMPEG zielführender? Ich habe auch drn Eindruck, dass es da schneller geht mit Hardwareunterstützung.
Handbrake hat einen GUI, was bei Benchmarks die Arbeit nicht leichter macht.
tox1c90 schrieb:Das mag sein, aber in puncto Effizienz/Geschwindigkeit ist es einfach komplett irre, die Filmsammlung über die CPU zu jagen.
Verwendet Handbrake alle Kerne mit AV1? Bei FFMPEG musste ich das damals immer als Parameter mitgeben wie viele Kerne/Kacheln verwendet werden sollen.P21121970 schrieb:Der prozessor wurde auf manchen Kernen recht heiß bis 92° mit aber nur wenigen % Auslastung.
Braucht es einen Parameter um alle Kerne zu verwenden oder macht das Handbrake automatisch? Vor knapp 1,5 Jahren musste man nämlich noch die Kachelanzahl spezifizieren welche der Thread/Kernzahl entsprechen konnte um die Kerne alle auszulasten.Haldi schrieb:Ist ja Wahnsinn wie gut das läuft.
ffmpeg.exe -i 2Min_Testfile.mkv -c:v libaom-av1 -crf 50 -row-mt 1 -tiles 2x4 -b:v 2000k -cpu-used 8 2Min_Testfile-AV1-Software-CRF50-cpu-used-5.webm
Kannst du mal was in UHD probieren? Preset Fast und Slow? Am besten "richtiges" FilmmaterialHaldi schrieb:Ist ja Wahnsinn wie gut das läuft.
Ich wollte hier schon die leichte Offtopic Frage stellen, warum x.264/x.264 nicht auf CUDA implementiert wurde.aelo schrieb:Ich habe in der Vergangenheit sowohl GpGpu programmiert (OpenCL und Cuda)
Hm. Mein Urteil würde anders aussehen.duskstalker schrieb:AV1 (intel) ist am besten in allem. beste qualität, beste qualität pro größe. h264 ist am schlechtesten. h265 ist son mittelding, aber h264 und h265 sind näher zusammen als h265 und av1. h265 ist keine wirkliche alternative, da lizenzpflichtig - hw support ist nicht wirklich flächendeckend gegeben. AV1 ist hier richtiges "next gen" und ein gamechanger.
habe neulich in davinci resolve das erste mal über meine A770 in AV1 exportiert und in h264 und h265 brauchst da einfach nicht mehr exportieren - schnee von gestern.
GpGpu eigenet sich sehr gut für Probleme die sich hochgradig paralellisieren lassen. Da rede ich jetzt auch nicht von sowas wie 16-32 Threads, sondern je nach Problemstellung mind. von Tausenden. Die ganzen Compute-Units der GPU müssen mit Instruktionen gefüttert werden. Der Vorteil dieser liegt nämlich darin dass sie in Vergleich zu einer generellen CPU extrem einfach sind, aber dafür gibts eben viele. Das merkt man beispielsweise wenn die eigenen Shader Branches (Sprünge) enthalten, da bricht bspw. die Performance sofort stark ein. D.h. Algorithmen wie Sortieren sind als ein Beispiel eher schlechter auf einer GPU umzusetzen.Fusionator schrieb:Ich wollte hier schon die leichte Offtopic Frage stellen, warum x.264/x.264 nicht auf CUDA implementiert wurde.
Sollte damit sowas nicht um längen schneller laufen?
Ich gehe mal davon aus, das wird früher oder später noch kommen. Die Hardware von Intel ist halt auch schon einige Monate länger auf dem Markt.aelo schrieb:auch finde ich es etwas genugtuend wenn Nvenc nicht unterstützt wird
Kommt drauf an, wie viele Kerne du hast, unbegrenzt skaliert nämlich kein Encoder. Und dann hängt das auch noch von der Auflösung des Quellmaterials und den Einstellungen (bspw. Preset) ab.Tenferenzu schrieb:Verwendet Handbrake alle Kerne mit AV1?
Die hat auch einen Einfluss auf die Effizienz, deshalb ist es wohl eher wenig empfehlenswert, da das Maximum auszureizen. Wenn es um Skalierung geht, kommt man früher oder später nicht um ein Programm wie Av1an herum, das das Quellmaterial in viele "Portionen" aufteilt, die dann parallel kodiert werden können.Tenferenzu schrieb:Kachelanzahl
Das liegt teilweise auch daran, das die Encoder nicht unbedingt darauf optimiert werden. rav1e scheint in dieser Hinsicht wohl vielversprechender zu sein als SVT-AV1 und Libaom. Generell hat Film-Grain-Synthese durchaus einiges an Potential, um entsprechendes Quellmaterial bei gleicher Qualität weitaus platzsparender zu kodieren, als es aktuell mit x264/x265 möglich ist. Dazu muss das aber natürlich gut implementiert werden.Katzenjoghurt schrieb:Auf niedrigen Bitraten triumphieren h265/AV1… aber wenn man wirklich hohe Qualität will, fallen die Unterschiede in der gesparten Bitrate weniger dolle aus, als man es sich erhoffte.
Nur kein Stress. Das wird sowieso noch einige Jahre dauern bis es sich wirklich durchgesetzt hat.PiraniaXL schrieb:Ich werde bis auf weiteres noch bei h264 bleiben.
Freut mich, ich will auch viel… ich freue mich erstmal, dass es überhaupt einen Anbieter gibt n0tenoughav1 war mir zu instabil….High Definition schrieb:will ich sehen.
Katzenjoghurt schrieb:Grain und Rottöne verwandelte x265 einfach zu Matsche [...]