Natriumchlorid
Lt. Junior Grade
- Registriert
- Sep. 2013
- Beiträge
- 432
Während mir der Unterschied zwischen einem Hardware und einem Software Encoder bewusst ist, stellen sich mir doch einige Fragen bzgl. der technischen Umsetzung bzw. Implementierung eines Hardware Encoders einer GPU.
Bei OBS habe ich die Möglichkeit zwischen zwei Encodertypen zu wählen: Hardware (NVEnc) und Software (x264).
So wird beim Software-Encoder der Videostream genommen und in das gewünschte Ausgabeformat (h.264), mihilfe von x264, encodiert. Das ist soweit verständlich. Hier rechnet einfach die CPU.
Beim Hardware Encoder verstehe ich bloss nicht, wie das funktioniert. Die Nvidia GPUs (beginnend ab Kepler) bringen eigene Encoder mit, welche sich über die Generationen hinweg stets verbessert haben. Während meine GT 710 bei 1080p maximal 30 fps unterstützt, schafft die GTX 1660S ohne Probleme 1440p bei 60 fps.
Nun, wenn ich einen Hardware Encoder bei OBS auswähle und die Aufnahme starte:
Falls ihr interessante Quellen habt, dürft ihr diese natürlich gerne verlinken.
Bei OBS habe ich die Möglichkeit zwischen zwei Encodertypen zu wählen: Hardware (NVEnc) und Software (x264).
So wird beim Software-Encoder der Videostream genommen und in das gewünschte Ausgabeformat (h.264), mihilfe von x264, encodiert. Das ist soweit verständlich. Hier rechnet einfach die CPU.
Beim Hardware Encoder verstehe ich bloss nicht, wie das funktioniert. Die Nvidia GPUs (beginnend ab Kepler) bringen eigene Encoder mit, welche sich über die Generationen hinweg stets verbessert haben. Während meine GT 710 bei 1080p maximal 30 fps unterstützt, schafft die GTX 1660S ohne Probleme 1440p bei 60 fps.
Nun, wenn ich einen Hardware Encoder bei OBS auswähle und die Aufnahme starte:
- Was passiert dann im Detail in der GPU?
- Woher weiss der Encoder in welches Dateiformat er den Stream konvertieren soll?
- Woher weiss OBS, dass die GPU einen HW-Encoder zur Verfügung stellt?
- Warum wird die Performance im Spiel nicht degradiert, wenn die GPU nebenbei encodiert?
- Ist ein Hardware-Encoder gegenüber einem Software-Encoder benachteiligt?
Falls ihr interessante Quellen habt, dürft ihr diese natürlich gerne verlinken.