Tenchi Muyo schrieb:Sicher mag x265 kleiner sein, aber eine bessere Qualität konnte ich bisher noch nicht feststellen.
x265 schafft es deutlich besser bei niedrigen bis sehr niedrigen Bitraten Qualität zu erhalten. Ab mittleren Bitraten hat atm. x264 noch gleiche bis bessere Qualität, einfach weil es ausgereifter ist. Sicherlich wird x265 in diesem Bereich mit der Zeit aufholen und schließlich etwas bessere Qualität liefern können.
Auf Grund dieser Charakteristik überrascht es sicherlich nicht, dass HEVC als erstes für Streaming und bei UHD-Videos zum Einsatz kommen sollen.
Tenchi Muyo schrieb:Dazu die Problematik das x265 auf Mobilen Geräten richtig Last beim decodieren erzeugt = weniger Akkuleistung.
Das dürfte sich im kommenden Jahr ändern. Es sieht so aus, dass die meisten 64-Bit ARM-Chips HEVC in Hardware unterstützen, manche sogar bei UHD-Auflösungen.
Tom Keller schrieb:Meines Wissens unterstützt momentan noch keine GPU Hardware-Decodierung für HEVC-Video. Es ist ja schließlich auch nicht so, dass die GPU an sich die Video-Decodierung übernimmt
nVidias Maxwell-GPUs unterstützen afaik HEVC. Intel hat die VA-API (Linux Schnittstelle für HW-beschleunigtes Video-(de/en)coding) gerade erste um HEVC-Unterstützung erweitert. Daraus schließe ich, dass es bald entsprechende Hardware geben wird, die diese auch nutzt. Bei AMD fährt man wohl zweigleisig. Für ältere GPUs soll es eine Implementierung geben, die die Shader benutzt. Die nächste GPU-Generation sollte es dann auch in Hardware können.
Zuletzt bearbeitet: