4k film ruckelt

El_Chapo

Lieutenant
Registriert
Sep. 2016
Beiträge
756
Hi, ich habe soeben meinen neuen samsung 55" 6series installiert und auch netflix eingerichtet, die qualität gefällt mir sehr gut.

ich habe per hdmi den tv mit meinem pc verbunden und in VLC einen 4K Film (Kingsman) laufenlassen.. leider ruckelt das bild sehr und man kann den film so echt nicht ansehen. meine CPU ist auf 90-100% ausgelastet, vermute da stimmt was nicht. ich lasse es am hdmi port meiner gtx 1079 von gainward GS laufen. die grafikkarte sollte doch genug power haben für diese wiedergabe, was mache ich falsch?

soll ich den film freigeben und über die festplatte direkt am TV starten?
 
Benutze andere Videoplayer. MPC-HC z.B.
 
Das Video ist wahrscheinlich mit CABAC encodiert worden. VLC hat damit so seine Probleme.

Mal prüfen: Klick
 
Bei einer GTX 1079 (1070?) gehe ich von einer ähnlich potenten CPU aus?
 
wahrscheinlich decodiert die gpu den film gar nicht (dann bleibts bei der cpu hängen). aber auch der mpc-hc kann das nicht out-of-the-box. optionen --> interne filter --> video decoder ---> (im rechten bereich) haken rein bei "UHD" und ggf. "HEVC". erst dann decodiert die gpu auch uhd/4k auflösungen. möglicherweise gibts beim vlc player eine ähnlich versteckte funktion
 
Bei mir klappt es auch mit dem MPC-HC nicht. Die von habichtfreak vorgeschlagenen Optionen habe ich eingestellt. Meine CPU (Signatur) ist dann vermutlich doch zu schwach/alt.
 
@Anoubis wie soll das Decodieren über die Grafikkarte auch bei dir funktionieren wenn du eine alte Grafikkarten hast die H265 NICHT in Hardware decodieren kann!?

Bevor die Frage kommt was "in Hardware decodieren" bedeutet...

Jede Grafikkarte hat seit einigen Jahren in ihrem GPU Chip einen weiteren Chip verbaut der nur die Decodierung von Videomaterial im bestimmten Videoformaten übernimmt. Dies nennt sich in Hardware Decodieren weil eben die CPU sich darum überhabt nicht kümmern muss sondern es der Grafikkarte überlassen kann, die sich sonnst sprichwörtlich die Eier schaukeln würde während ihr einen Film seht. Und deine Karte kann noch kein H265 Videomaterial decodieren, nur VC1, MPEG2, MPEG4 und H264 (welches dann auch eine 4k Auflösung haben kann!).

Sprich du musst wenn von 4k die Rede ist (wie hier im Thema) darauf achten ob von 4k in H264 oder 4k in H265 gesprochen wird. Da hier H265 nicht explizit erwähnt wurde solltest du jedoch davon ausgehen das das hier und auch in anderen Themen damit ein H265 4k Film gemeint ist weil ein Film in 4k als H264 codiert enorm viel Speicherplatz belegen würde. Was niemand freiwillig so abspeichern würde.
 
Ja mist, es geht um HEVC/H.265. Also kann ich da erstmal wohl nichts machen.

Videomaterial, das mit CABAC komprimiert wurde, kann ich tatsächlich abspielen.
 
Zuletzt bearbeitet:
Ich werde es heute Abend testen :) danke für die Infos!

Ist h265 nun Standard, vielleicht liege ich falsch, aber kann man damit nicht h264 lösen, da die komprimierung bei gleicher qualität um ein vielfaches sich verbessert hat? Somit könnte man einen FullHD film von 10GB auf unter 5GB bringen? Oder habe ich alles missverstanden?
 
El_Chapo schrieb:
Ist h265 nun Standard, vielleicht liege ich falsch, aber kann man damit nicht h264 lösen, da die komprimierung bei gleicher qualität um ein vielfaches sich verbessert hat? Somit könnte man einen FullHD film von 10GB auf unter 5GB bringen? Oder habe ich alles missverstanden?

es gibt keinen standard, nur vorgänger und nachfolger. h264 ist älter, wird heute von fast jedem gerät unterstützt und ist heute erste wahl. h.265 ist der nachfolger und noch recht jung. kaum ein gerät unterstützt es bisher, auch weil sich der codec immer weiter entwickelt. wenn h265 irgendwann mal sein volles potenzial entfaltet (bei h264 hat es auch jahre gedauert), wird er eine deutlich bessere kompression bieten als h264. derzeit ist da noch kaum ein unterschied.
 
Natürlich gibt es Standards und sowohl H264, als auch H265 sind solche. Und diese Videocodecs sind wiederum Standard in unterschiedlichen Übertragungsstandards (DVB-T, DVB-T2, ...)* und standardisierten, physikalischen Medien (Blu-Ray, UHD-Blu-Ray, ...).

Wie der Name schon vermuten lässt ist H265 der Nachfolger, welcher bisher noch nicht sonderlich gut in Hardware unterstützt wird. Das liegt schlicht am Alter des Standards (2013), sowie der Entwicklungs- und Verbreitungszeit der ASICs. Die Platzersparnis liegt aktuell bei rund 25 %, je nach Implementierung auch weniger.



*Eigentlich nicht ganz richtig, DVB-T definiert nur die physikalische Schicht.
 
Zuletzt bearbeitet:
Für 4K ist h265 eigentlich Pflicht, für die reibungsfreie Nutzung muss der Datenstream durch einen aktuelle Hardwarechip dekodiert werden. Dieser Chip/Zusatzchip befindet sich aber noch im zu wenigen Geräten (aktuelle TVs) um sich komplett von h264 zu lösen. Externe Geräte die 4K h265 decodieren können sind rar (kann man an einer Hand abzählen). Dazu kommt dann auch noch die 8Bit/10Bit Problematik bei 4K h265. Hat man ein 4K h265 Video in 8Bit läuft es meistens auf den Geräten einwandfrei, aber bei 4K 10Bit kann es trotz Hardwarechip dennoch ruckeln (Hardware ist zu schwach) /garnicht erst abgespielt/oder wird in 8Bit transcodiert.
 
@El_Chapo

Jein. Es kommt auch darauf an was für ein Tonformat mit dabei ist. Da der Ton ja nicht auch weiter komprimiert wird, belegt er schlicht die gleiche Größe egal ob H265 oder H264. Und was für Encoder Einstellungen zuvor beim H264 Video verwendet wurden. Ansonsten hast du aber Recht. Ich Encodiere aktuell meine Filmsammlung (seit Wochen....) neu in H265. Es gibt Filme da lassen sich (von einem ~8GB Film ausgehend) gegenüber einem vorherigen in CRF 20 codiertem H264 Video "nur" ~2GB als CRF26 codiertem H265 Film einsparen. (Die CRF 26 Einstellung des Encoders bei H265 einspricht Qualitativ CRF 20 bei H264) Aber es gibt auch Filme da sparrt man direkt knapp 6GB bei gleicher Qualität Einstellung des Encoders ein. Im Schnitt bei einer Filmsammlung kannst du sagen das du mit H265 bis zu 50% an Speicherplatz einsparen wirst.

Persönlich Codiere ich nur noch in H265 aber es setzt voraus das man einen Encoder verwendet der die Grafikkarte für die Berechnung nutzen kann sowie die Grafikkarte die Encodierung auch "in Hardware" durchführen kann. Da es sonnst extrem lange dauert bis die CPU alleine die Encodierung in H265 durchgeführt hat. Zum Vergleich. Eine Encodierung nur über die CPU kann locker 2 Tage von einem Film dauern. Hilft die Grafikkarte mit werden es je nach Leistung der Grafikkarte nur noch ~5-6 Stunden. Kann die Grafikkarte es jedoch "in Hardware" Encodieren nur noch je nach Film 8-16 Minuten!
 
Zuletzt bearbeitet:
hab grad mal einen versuch gemacht:

quelle: FHD, 5000Kbit/s, AVC

mit h264 (CQ20): zu 720p, 2300kbit/s (L4.1, alles andere default)
mit h265 (cq20): zu 720p, 2400kbit/s (L3.1; 8bit, progressive)

h264 war etwas kleiner, schneller und hat im direkten vergleich eines einzelnen frames die bessere qualität.
 
Wenn du ein geringeres Profil verwendest ist es kein Wunder das die Qualität schlechter ist. Außerdem ist die Bitrate wenn du CRF nutzt unerheblich da du NICHT die Bitrate von H265 1zu1 H264 gegenübersetzen kannst! Denn genau DAS ist der Vorteil von H265. Es benötigt für die gleiche Qualität weniger Bitrate. Sprich die Encoder Einstellungen die bei H264 "gut" sind sind bei H265 völlig überzogen da der H265 Encoder deutlich effektiver arbeitet.
 
Eine Einsparung von 75 % bei gleicher visueller Qualität halte ich für vollkommen utopisch, erst recht wenn der Videostream davor bereits in einem anderen, verlustbehaftet komprimierten Format codiert war.

Immer unter der Annahme, dass das Ausgangsvideo nicht mit viel zu hoher Bitrate encodiert wurde.

@habichtfreak
CQ oder CRF?

@Gamefaq
Welches Profil? Da sind nur Level angegeben und die sagen nichts aus. Ich lasse die immer automatisch setzen ...
Und überhaupt, was soll an diesem Test das Problem sein? Die Qualität ist bei gleicher Bitrate schlechter ... ist aussagekräftig. Nicht aussagekräftig wäre der Vergleich, wenn beide Encodes transparent wären.
 
Zuletzt bearbeitet:
gintoki schrieb:
Eine Einsparung von 75 % bei gleicher visueller Qualität halte ich für vollkommen utopisch, erst recht wenn der Videostream davor bereits in einem anderen, verlustbehaftet komprimierten Format codiert war.

Natürlich nicht. Quelle ist immer die Original BD.

Aktueller Vergleich da grade encodiert.

Film1:
High@L4.1 H264 CRF 20 mit 1 deutschen Tonspur DTS-HD = 6.71GB
Main@L5@High H265 CRF 26 mit 1 deutschen Tonspur DTS-HD = 5,22GB
dagegen
Film2:
High@L4.1 H264 CRF20 mit 1 deutschen Tonspur DTS-HD = 8.36GB
Main@L5@High H265 CRF26 mit 1 deutschen Tonspur DTS-HD = 2.67GB

Encoder Settings waren immer identisch! Meine private Filmsammlung hat über 1k Filme und ich habe mittlerweile gut über 100 in H265 neu Encodiert. Und kann es daher nur wiederholen es variiert extrem je nach Film.
 
Zuletzt bearbeitet: (Encoder Settings hinzugefügt)
Zurück
Oben