Leserartikel HEVC (H.265) kodierte Videos abspielen

habichtfreak

Captain
Registriert
Aug. 2006
Beiträge
3.542
HEVC (H.265) kodierte Videos abspielen

Da in letzter Zeit häufiger die Frage im Forum auftaucht, ob der eigene PC Videos mit den neuen Codec HEVC abspielen kann, hier eine kleine Zusammenfassung welche Hardware diesen Codec unterstützt und welche nicht.

Grundlagen:

HEVC steht für High Efficiency Video Coding und ist auch unter den Namen H.265 und MPEG-H Teil 2 bekannt. Er ist der Nachfolger von AVC (oder H.264) und findet Anwendung bei Streaming Angeboten, DVB-T2 und Blu-Ray Disk mit 4k Auflösung. Fälschlicherweise wird HEVC oft mit 4k/UHD gleichgesetzt. Der Codec wurde zwar entwickelt um höhere Auflösungen als FullHD effizient speichern zu können, jedoch muss eine Videodatei mit höherer Auflösung nicht zwingend diesen Codec verwenden. 4K kann auch mit AVC kodiert sein. HEVC bietet gegenüber AVC Platzersparnis (bei gleicher Qualität) oder bessere Qualität bei gleiche Bitrate. Insbesondere bei sehr niedrigen Bitraten ist der Vorteil gut sichtbar. Während AVC zu Kompressionsartefakten neigt, ist die Qualität bei HEVC deutlich besser.

Damit ein Video abgespielt werden kann, muss der entsprechende Decoder vorhanden sein. Ist keiner vorhanden, übernimmt die Aufgabe die CPU. Die ist jedoch denkbar ungeeignet für diese Aufgabe weshalb die Wiedergabe meist nicht flüssig ist. Der Decoder ist Bestandteil der Grafikkarte bzw. IGP. Die großen Hersteller bezeichnen ihre En- bzw. Decoder als Unified Video Decoder (AMD), PureVideo HD (Nvidia) bzw. Quick Sync (Intel).


Decoder (Intel):

HEVC (8 Bit)HEVC (10 Bit)
Ivy Bridge und ältereNeinNein
HaswellTeilweise*Nein
BroadwellTeilweise*Teilweise**
Skylake, BraswellJaNein***
Kaby Lake, BroxtonJaJa
*: Seit dem Treiber 15.36.14.4080 unterstützen folgende IGPs auch HEVC 8 Bit: HD 4400/4600/5000/5500/6000; Iris 5100/6100 und Iris Pro 5200 (Hybrid Decoder)
**: Seit dem Treiber 15.36.14.4080 unterstützen folgende IGPs auch HEVC 10 Bit:HD 5500/6000 und Iris 6100 (Hybrid Decoder)
***: Bei einige IGPs ist HEVC 10 Bit aktiviert (HD 520/530), auf anderen nicht (HD 515) (Quelle)


Decoder (AMD):

HEVC (8 Bit)HEVC (10 Bit)
UVD 1 bis 4 (GCN 1; GCN 2 und ältere)NeinNein
UVD 5 (Tonga, Antigua, Iceland)JaNein
UVD 6 (FIJI, Bristol Ridge, Carrizo)JaNein
UVD 6.3 (Polaris, Stoney Ridge, Raven Ridge)JaJa


Decoder (Nvidia):

HEVC (8 Bit)HEVC (10 Bit)
VP 1 - VP 5 (Fermi, Kepler und ältere)NeinNein
VP 6 (Maxwell außer GM206)Ja*Ja*
VP 7 (GM206), VP 8 (Pascal) JaJa
*: use a combination of the PureVideo hardware and software running on the shader array to decode HEVC (H.265) as partial/hybrid hardware video decoding


Dekoder überprüfen:

Ob bzw. welcher Dekoder bei eurer Hardware vorhanden ist, könnt ihr mit dem DXVA Checker überprüfen. Ist der Eintrag "HEVC_VLD_Main" vorhanden, wird HEVC (8 Bit) unterstützt. "HEVC_VLD_Main10" zeigt die Unterstützung für HEVC (10 Bit). Zusätzlich werden die unterstützten Auflösungen angegeben.

dxva-png.612647



Dekodieren mit CPU:

Bietet eure GPU/iGP keinen Decoder für HEVC übernimmt die CPU diese Aufgabe. Ob diese genügend Leistung hat ein bestimmtes Video abzuspielen lässt sich allgemein nicht beantworten. Insbesondere Auflösung und Bitrate spielen eine Rolle, aber auch weitere Faktoren. Im nachfolgenden Beispiel wird der Einfluss von Decoder (H.264 bzw. H.265), Auflösung (FullHD bzw. UHD) und Bitrate (25 bis 120 MBit/s) näher betrachtet. Ich weise darauf hin, dass sich die Erkenntnisse aus diesem Beispiel nicht auf jedes Video übertragen lassen. Als Beispiel dienen die Videos von http://jell.yfish.us/.

IDCodecBitrateAuflösungFPSProfileLevelFarbtiefe
1AVC401920 x 108029,97High4.18 Bit
2HEVC401920 x 108029,97Main4.18 Bit
3HEVC401920 x 108029,97Main104.110 Bit
4AVC1203840 x 216029,97High5.18 Bit
5HEVC1203840 x 216029,97Main105.110 Bit
6HEVC503840 x 216029,97Main105.010 Bit
7HEVC253840 x 216029,97Main105.010 Bit
8HEVC103840 x 216029,97Main105.010 Bit
9HEVC233840 x 216029,97Main5.08 Bit
ID 6 bis 8: Diese Varianten sind nicht auf http://jell.yfish.us/ verfügbar und wurden von mir im Vorfeld erstellt.
ID 9: Variante für den Test von Intels Hybrid Decoder

Testplattform:
  • Betriebssystem: Windows 7 Ultimate 64 Bit
  • CPU: Intel i5-4590
  • GPU: Intel HD 4600 (Hybrid Decoder inaktiv)
  • Player: Media Player Classic – Home Cinema 1.7.10 (64 Bit)
  • CPU-Last mit perfmon aufgezeichnet (1 Sek Intervall, Nachkommastellen gerundet)

d1-png.612426


Während H.264 keine besondere Herausforderung darstellt – die Aufgabe übernimmt der vorhandene Decoder – muss die CPU bei HEVC (in FHD) bereits sichtlich arbeiten. Auf einem vergleichbaren Dual-Core (z.B. Pentium) könnte es vereinzelt zu einer stockenden Wiedergabe kommen. 10 Bit benötigt in diesem Beispiel rund 10,8% mehr Leistung gegenüber 8 Bit. HEVC (in UHD) benötigt zu viel Leistung, sodass eine flüssige Wiedergabe nicht möglich ist. Obwohl das Video nur 30 Sekunden lang ist, schließt sich der Player erst nach knapp 40 Sekunden. Um herauszufinden ob Auflösung oder Bitrate belastender für die CPU ist, habe ich drei weitere Beispiele mit reduzierter Bitrate getestet:

d2-png.612427


Trotz deutlich reduzierter Bitrate ist eine flüssige Wiedergabe nicht möglich. Während die FHD Variante mit 40 MBit/s flüssig läuft, kann die UHD Variante mit 10 MBit/s nicht (vollständig) genossen werden. Die Bitrate des Videos hat entsprechend weniger Einfluss als die verwendete Auflösung. Jedoch macht es keinen Sinn, die Bitrate soweit abzusenken, nur damit bei einer sehr hohen Auflösung eine flüssige Wiedergabe möglich ist, denn es entstehen - auch bei HEVC - irgendwann Kompressionsartefakte.

Zurück zur Frage, wie viel HEVC schafft eine CPU: Der Codec ist an keine bestimmte Auflösung gebunden. Er kann für FHD, UHD, 8K aber auch für 240p (320 x 240 Pixel) verwendet werden. Wurde ein Video sinnvoll kodiert, geht eine höhere Auflösung immer mit einer höheren Bitrate einher. Für FHD sollte eine CPU der letzten Jahre mit 4 Kernen bzw. 4 Threads ausreichend sein. HEVC (UHD) auf einer CPU zu dekodieren erfordert hingegen derart viel Rechenleistung (und damit einhergehend auch erhöhter Stromverbrauch und Geräuschkulisse), dass es nicht sinnvoll ist dies ohne Decoder zu tun. Jede aktuelle Grafikkarte von AMD bzw. Nvidia bringt einen HEVC Decoder mit und selbst im kleinen Celeron bzw. Atom von Intel ist einer zu finden.



Hohe CPU-Last trotz vorhandenem Decoder:

Leider reicht ein verbauter Decoder nicht immer aus, auch die Software muss ihn nutzen können. Neben den Treibern (die möglichst aktuell sein sollten), spielt auch der Player eine Rolle. Ein Beispiel aus der Vergangenheit: AMDs Fiji (Radeon R9 Fury) konnte mit dem MPC-HC und dem internen LAV Video Decoder 0.65.0.9 den vorhanden Decoder nicht nutzen. Erst mit Version 0.66 war dies möglich. Apropos MPC: Schaut mal unter Optionen --> Interne Filter --> Video Decoder …

o-png.612428


Habt ihr einen HEVC Decoder, setzt den Haken (nur dann wird er auch genutzt). Auch bei UHD (4K) sollte der Haken gesetzt sein. Ist das nicht der Fall, werden Videos mit einer höheren Auflösung als HD (gemeint ist hier 1080p) unnötigerweise mit CPU dekodiert. Diese Einstellung bezieht sich nicht nur auf HEVC, sondern auf alle unterstützen Decoder (insbesondere auch H.264).



Intels Hybrid Decoder im Test:

Wie bereits im Abschnitt Decoder (Intel) angemerkt, lieferte Intel mit einem Treiberupdate einen HEVC 8 Bit Support für Haswell/Broadwell nach. Hierbei handelt es sich sich um einen Hybrid Decoder (ähnlich wie bei Nvidias Maxwell). CPU und GPU teilen sich die Arbeit. Ob und wie gut das ganze funktioniert, habe ich an einem Beispiel getestet (ID 9 aus oben stehender Liste):

Neben dem Treiber (15.36.14.4080 oder neuer) muss - zumindest im MPC-HC - unter Optionen der HEVC Decoder noch aktiviert werden (Haken setzen). Der DXVA Checker bestätigt, dass HEVC (8 Bit) unterstützt wird. Verwendet habe ich den Treiber 15.36.33.4578 (von Januar 2017):

d4-png.612652


Tatsächlich sinkt die CPU-Last um etwa 50%, im Gegenzug verdoppelt sich die Last auf der IGP. Der Hybrid Decoder funktioniert erst einmal und entlastet die CPU.

Subjektive Beurteilung: Während das Video per CPU dekodiert wird, läuft es nach einigen kleineren Rucklern in den ersten 5 Sekunden flüssig. Wird der Hybrid Decoder aktiviert, läuft das Video hingegen über weite Strecken nur stockend. Tastenbefehle (z.B. Pause) werden erst nach 2-3 Sekunden registrierst.

Die HD 4600 ist die schnellste IGP der Haswell Baureihe. Leider reicht ihre Leistung in diesem Beispiel aber nicht aus. Und das obwohl die Bitrate mit 23 MBit/s noch relativ niedrig ist. 4k (HEVC) Videos sind und bleiben auf einer Haswell Platform kein Genuss, daran kann auch ein Hybrid Decoder nichts ändern.
 

Anhänge

  • d1.PNG
    d1.PNG
    82,7 KB · Aufrufe: 65.509
  • d2.PNG
    d2.PNG
    91,1 KB · Aufrufe: 65.620
  • o.png
    o.png
    236 KB · Aufrufe: 65.417
  • dxva.png
    dxva.png
    26,5 KB · Aufrufe: 65.226
  • d4.PNG
    d4.PNG
    79,1 KB · Aufrufe: 63.968
Zuletzt bearbeitet von einem Moderator: ([TABLE]-BBCode korrigiert)
  • Gefällt mir
Reaktionen: Sester, KCX, Syagrius und 26 andere
Bin gerade durch die Notiz auf die Übersicht aufmerksam geworden, schon mal vielen Dank dafür, aber kann man mir hier auch mal sagen, was genau der Odroid C2 hardwareseitig dekodieren kann?

Überall steht nur
aber welche Profile, Level und Farbtiefe sind damit genau gemeint?

Falls sich das hier wirklich nur um x86 PC Hardware drehen soll, kann man die Frage hier gerne verschieben oder verschrotten.
 
Ich habe einen 6700K und eine GTX 980

Laut deiner Tabelle funktioniert 8 bit HEVC bei Maxwell nur mit einer Kombination aus GPU und CPU decodierung und 10 Bit quasi gar nicht.


Wie erklärst du dir nun, dass ich das jellyfish-120-mbps-4k-uhd-hevc-10bit.mkv Video absolut ruckelfrei abspielen kann?
Screenshot.png

Würde das rein auf der CPU decodiert werden, wäre flüssiges abspielen ja selbst bei halbierter Bitrate noch undenkbar. Bei mir Taktet die CPU aber nichtmal vollständig hoch.


Ich habe das ganze während einer Diskussion in nem anderen Forum schon mal ausprobiert und man wollte mir es erst nicht glauben. Scheinbar gehts aktuell nur mit dem Windows 10 Videoplayer.
Die IGPU ist im BIOS deaktiviert.


Anmerken muss ich aber, dass ich nur einen 1080p Monitor nutze. Ich weiß nicht, in wiefern die Last ansteigen würde, wenn ich einen 4K Monitor nutzen würde.
Ich könnte es aber eigentlich mit DSR testen, fällt mir gerade ein...
 
Zuletzt bearbeitet von einem Moderator:
Laggy.NET schrieb:
Wie erklärst du dir nun, dass ich das jellyfish-120-mbps-4k-uhd-hevc-10bit.mkv Video absolut ruckelfrei abspielen kann?

möglicherweise greift der hybrid modus auch bei 10 bit. aus den quellen die ich gefunden habe, ging das nicht hervor. falls dem aber so ist, ändere ich das gerne.
 
Hoffe ihr könnt' mich aufklären, da ich einige Dinge immer noch nicht 100%ig verstehe:

Kaby Lake kann ja per Hardware de- und enkodieren. Heisst dass das die CPU oder die IGP de- bzw. enkodiert?
Skylake kann dies anscheinend nicht.

Jetzt können allerdings Grafikkarten anscheinend viel schneller de- und enkodieren.
Gibt es dort beim Enkodieren immer noch diese vergleichsweise schlechte Qualität im Vergleich zu einer Enkodierung rein per CPU?

Ich möchte mir einen neuen PC zusammenstellen, der ausschliesslich zur HEVC-FullHD und - 4K enkodierung genutzt werden soll.
Muss ich da mehr auf die CPU achten oder auf die GPU? Oder auf die IGP?

Vielen Dank vorab!
 
Kaby Lake kann ja per Hardware de- und enkodieren. Heisst dass das die CPU oder die IGP de- bzw. enkodiert?
cpu kann beides und immer (auch eine 10 jahre alte cpu kann das, nur nicht schnell genug). der hardware-decoder sitzt auf der igp. diese war früher im chipsatz untergebracht, heute in der cpu. dh. die cpu kann mit ihren kernen rechnen (nicht zu empfehlen) oder mit dem eingebauten en-/decoder der igp.

Skylake kann dies anscheinend nicht
richtig, wenn sich deine frage nur auf hevc 10bit bezieht, ansonsten:
h264: De- / Enkodieren
h265 8bit: De- / Enkodieren
h265 10bit: Nein
VP8: De- / Enkodieren
VP9: Dekodieren
AVC: De- / Enkodieren
VC-1: Dekodieren

Gibt es dort beim Enkodieren immer noch diese vergleichsweise schlechte Qualität im Vergleich zu einer Enkodierung rein per CPU?
soweit ich gelesen habe, ja. nvidia ist qualitativ sehr weit weg, intels quicksync ist gleichauf, benötigt aber 10% mehr bitrate, amd kA. hängt auch alles von der unterstützung der software ab.
 
Haswell kann mit dem aktuellen Treiber HEVC 8-Bit in der iGPU decodieren.

https://communities.intel.com/thread/59216

EDIT: Ab HD-4400-Grafik, was auf alle Core-i-CPUs für den Desktop und die mobilen Core-i-CPUs der M- und U-Klasse zutrifft. Nur die Y-Klasse sowie Pentiums und Celerons sind draußen.

EDIT2: Habe auf meinem System gerade mal das 120MBit-4k-HEVC-10-Bit-Video getestet (W10 Pro 64, MPC-HC 1.7.10, i7-3770 @4x4,1GHz, AMD RX 480). Mit AMD-Grafik und HW-Decoder kein Problem, niedrige CPU-Last, wie zu erwarten. Schalte ich den HW-Decoder im MPC-HC ab und lasse die CPU rechnen, geht die Last zunächst auf 100%, um sich nach ca. 15 Sekunden bei etwa 65% einzupendeln. Das Video läuft dem Augenschein nach die ganze Zeit flüssig. Dazu kommt, dass es für die Ausgabe auf meinem 1920x1200-Monitor noch von UHD auf FHD skaliert werden muss. Gleiches Szenario mit einem i5-3470 @4x3,8GHz und FHD-Monitor, ohne HW-Decoder, die CPU-Last geht auf 100%, bleibt dort, und das Video ruckelt. Wie es scheint, macht das Hyperthreading der i7-CPUs den Unterschied gegenüber den i5, ob es ohne HW-Decoder läuft oder nicht.
 
Zuletzt bearbeitet:
Ich habe seit 2 Wochen einen Pentium G4560 und nutze nur die IGPU, das System ist für Videos optimal, alles läuft nun flüssig, auch die Jelly-Fish-Clips mit HEVC 10Bit 400mbit. Aber eins kann der Kaby Lake (Intel HD 610) nicht in Hardware, 8k-Videos die mit dem alten H264 codiert sind, 8k HEVC oder VP9 auch kein Problem, habe schon diverse clips von Youtube getestet. Und was ich besonders wunderbar finde ist die hardwareseitige Encodierung von 4k-Videos von HEVC zu H264 oder umgekehrt. Erst in ein paar Monaten werde ich mir nen I5 oder I7 zulegen, damit ich auch in Anwendungen mehr Power habe. Ach ja, bei 4k HEVC-Videos ist die CPU Last unter 10%, nutze den aktuellsten MPC-HC 1.7.11

Habe gerade mal ein 8k-video mit VP9 abgespielt, cpu last unter 30%, einfach nur WOOOOW !!!
 
Zuletzt bearbeitet:
ThommyDD schrieb:
Haswell kann mit dem aktuellen Treiber HEVC 8-Bit in der iGPU decodieren.

https://communities.intel.com/thread/59216

EDIT: Ab HD-4400-Grafik, was auf alle Core-i-CPUs für den Desktop und die mobilen Core-i-CPUs der M- und U-Klasse zutrifft. Nur die Y-Klasse sowie Pentiums und Celerons sind draußen.

danke für den hinweis. ich hab das gleich mal ausprobiert mit HD 4600. video ist wieder jellyfish, 8bit, uhd und 23mbit.

d3-png.612557


was man im diagramm nicht sieht: ohne decoder läuft es flüssig. mit hybrid decoder hingegen nicht. auch der player reagiert sehr träge. stoppe ich beispielsweise das video, läuft es 2-3 sek weiter und stoppt erst dann. ich werde es im faq ergänzen, meine begeisterung für diese treiberupdatelösung hält sich jedoch in grenzen.

EDIT2: Habe auf meinem System gerade mal das 120MBit-4k-HEVC-10-Bit-Video getestet (W10 Pro 64, MPC-HC 1.7.10, i7-3770 @4x4,1GHz, AMD RX 480). Mit AMD-Grafik und HW-Decoder kein Problem, niedrige CPU-Last, wie zu erwarten. Schalte ich den HW-Decoder im MPC-HC ab und lasse die CPU rechnen, geht die Last zunächst auf 100%, um sich nach ca. 15 Sekunden bei etwa 65% einzupendeln. Das Video läuft dem Augenschein nach die ganze Zeit flüssig. Dazu kommt, dass es für die Ausgabe auf meinem 1920x1200-Monitor noch von UHD auf FHD skaliert werden muss. Gleiches Szenario mit einem i5-3470 @4x3,8GHz und FHD-Monitor, ohne HW-Decoder, die CPU-Last geht auf 100%, bleibt dort, und das Video ruckelt. Wie es scheint, macht das Hyperthreading der i7-CPUs den Unterschied gegenüber den i5, ob es ohne HW-Decoder läuft oder nicht.

zumindest die erkenntnis, dass der i5 nicht ausreicht, kann ich bestätigen. ob der i7 dann ausreichend ist, kann ich leider nicht testen, ich glaube aber es könnte stimmen.
 

Anhänge

  • d3.PNG
    d3.PNG
    48,7 KB · Aufrufe: 9.015
Zuletzt bearbeitet:
"Zählen" auch SoftwareDecoder zum Thema dazu ?

cbtestarossa hatte mich kürzlich auf den LentoidHEVC decoder aufmerksam gemacht. wollte ich eigentlich auch mit aufnehmen, leider war es ein krampf den überhaupt zum laufen zu bringen. und als er dann endlich lief, war die 4k wiedergabe auch nicht flüssig. ich will nicht bestreiten, dass es bei anderen funktioniert, bei hats leider nix gebracht.
 
@habichtfreak , sicher unter Windows 7 , wie bei mir , da will er auch nicht richtig. Und unter Windows 10 kommts mir vor als wird der gar nicht verwendet beim Decodieren mit MPC.

ok, mußte "BEVORZUGEN" wählen, dann hat er ihn genommen, aber das ist der W10 Decoder besser.
 
Zuletzt bearbeitet von einem Moderator:
Und unter Windows 10 kommts mir vor als wird der gar nicht verwendet beim Decodieren mit MPC.

das kriegst du doch ganz leicht raus. wenn der player läuft Strg+J drücken. in der .... fünftletzten zeile oder so steht welcher decoder verwendet wird
 
joh, das klappt er nimmt den "Lentoid" Decoder, was auffällt ist die ZU SEHR HOHE Framerate des Abgespielten Videos, kann man das auf 30 FPS begrenzen, dann kommt vllt auch die CPU mit.

Merke grade das war MAIN 10
 
Zuletzt bearbeitet von einem Moderator: (vertippt nochmal)
was auffällt ist die ZU SEHR ROHE Framerate des Abgespielten Videos
war bei mir ähnlich. video wurde zu schnell abgespielt. alle paar sekunden hat es dann gestockt (vermutlich um wieder synchron zu laufen), dann lief es zu schnell weiter ... usw. war aber auch nicht bei jedem video so und unterschiedlich ausgeprägt. für mich ne frickellösung.

eine anmerkung zu intels hevc decoder per treiberupdate: igp hat streckenweise 100% last (+50% cpu-last). deswegen reagiert dann kurz gar nix. naja, einen echten decoder kann man eben nicht per patch nachreichen, den muss man schon verbauen ;)
 
habichtfreak schrieb:
was man im diagramm nicht sieht: ohne decoder läuft es flüssig. mit hybrid decoder hingegen nicht. auch der player reagiert sehr träge. stoppe ich beispielsweise das video, läuft es 2-3 sek weiter und stoppt erst dann. ich werde es im faq ergänzen, meine begeisterung für diese treiberupdatelösung hält sich jedoch in grenzen.
Hm, schade. Ich habe leider kein Haswell-System zur Hand, um das zu probieren. Ich bin jedoch am Überlegen, für meine Eltern ein Haswell-System zu kaufen. Die HEVC-Unterstützung wäre zwar nicht zwingend nötig, allerdings ein Kriterium bei der Überlegung, ob es nicht auch ein Ivy-Bridge-System täte. Wenn HEVC unter Haswell nicht zufriedenstellend läuft (es bliebe abzuwarten, was ein weiteres Treiberupdate brächte), würde es für deutlich weniger Geld auch ein Ivy-Bridge-System tun. HEVC-4k würde dann eben nicht laufen, da wie dort. Es ginge um einen Laptop mit deutlich weniger Taktfrequenz als mein übertaktetes Desktop-System, weshalb ich vermute, dass auch ein i7 dann zu knapp wäre für Software-Decodierung.
 
@ThommyDD , vllt kein neues System aber ne Android TV Box mit AmLogic S905x Chipsatz würde doch fürn Anfang reichen, bin allerdings nicht sicher ob die echtes 4K abspielen können, hab hier nur FHD Bildschirme am Start.
 
Ich hätte da eine kurze Frage:

Laut dieser Liste dürfte meine Grafikkarte HEVC in Hardware nicht unterstützen:

decoder.PNG

Warum kann ich dann HEVC anwählen, obwohl ich ne GCN 1.0 Grafikkarte habe?

Und im DXVAChecker habe zwei Einträge, MPEG4prt2 - ist das MPEGH Teil 2?

hevc.PNG

H.265 Videos kann ich jedenfalls in 1080p abspielen, und die CPU Auslastung ist dieselbe wie unter H.264.
 
Der Raucherdackel! hat wohl Windows 10 installiert ? Das reicht um HEVC abzuspielen, wenn ne "gute" CPU vorhanden ist.

Wie bereits beschrieben kann man nachschauen welches Codec aktuell decodiert wird, bzw. welche Decoder grade laufen, während dem Abspielen in MPC einfach die Tastenkombination Strg+J drücken.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben