Il Raspberry Pi eseguirà la codifica h264 con accelerazione hardware durante la registrazione di video dalla scheda della fotocamera. Come posso codificare h264 (usando l'accelerazione hardware) quando le immagini sorgente non provengono direttamente dalla fotocamera?
Esistono strumenti da riga di comando che supportano questo?
In caso negativo, quali API dovrei guardare per renderlo possibile?
raspiyuv -o - | rpi-encode-yuv
(circa) dove l' rpi-encode-yuv
utensile è da qui . Le dimensioni del frame sono codificate in questo strumento, quindi è necessario modificarlo all'inizio del file C e ricompilare. Sfortunatamente non sono ancora riuscito a ottenere un output correttamente allineato, poiché raspiyuv
non sembra codificare la dimensione del frame nel suo output. Ottengo un'immagine che cambia gradualmente e alla fine si trasforma in spazzatura. Ci sto ancora lavorando.