1. 從rtsp流種取出一幀:
ffmpeg -stimeout 10000000 -rtsp_transport tcp -loglevel quiet -y -i $rtsp -vframes 1 /home/xx/xx/snapshot/.$mac\_snapshot_tmp.jpg; mv -f /home/xx/xx/.$mac\_snapshot_tmp.jpg /home/xx/xx/snapshot/$mac\_snapshot.jpg
2.從mp4、ts里取出一幀:
ffmpeg -loglevel quiet -y -i 1.ts/1.mp4 -vframes 1? snapshot_tmp.jpg
3.拉流
ffmpeg硬編解碼:強行轉1280x720p, 5幀,碼率512K
在ubuntu18.04.3上,直接安裝aac這個庫: sudo apt install libfdk-aac1?
在ubunut20.4上,需要升級內核,步驟如下:
1. sudo apt install linux-oem-20.04
2. sudo apt install libfdk-aac1
3. sudo usermod -a -G video, render cue? ? ?---添加用戶權限
4. reboot后:
codec:??
h264_qsv? ?h264
hevc_qsv? ?h265
ffmpeg -stimeout 10000000 -rtsp_transport tcp -loglevel quiet -hwaccel qsv -c:v h264_qsv -i rtsp://admin:admin@192.168.1.103/h264/ch2/sub/av_stream -vf vpp_qsv=framerate=5,scale_qsv=w=1280:h=720 -c:v h264_qsv -b:v 512K -g 10 -f flv -an rtmp://127.0.0.1/cams/C7387555012982394
ffmpeg -stimeout 10000000? 這個超時是讀rtsp流的超時參數
最近遇到問題,使用硬件加速ffmpeg
1. 看直播,畫面是慢放,解決方式:vpp_qsv=framerate=5? ? =====> fps=fps=5.?
這個https://github.com/Intel-Media-SDK/MediaSDK/issues/1768
2. ts切邊不生成了,拉流報錯。
暫時解決方式:a 方式 參考 https://blog.csdn.net/Kami_Jiang/article/details/115733588
ffmpeg -stimeout 10000000 -rtsp_transport tcp -loglevel quiet -hwaccel qsv -c:v h264_qsv -i rtsp://admin:admin@192.168.1.103/h264/ch2/sub/av_stream -vf vpp_qsv=framerate=5,scale_qsv=w=1280:h=720 -c:v h264_qsv -b:v 512K -g 10 -rw_timeout 5000000 -f flv -an rtmp://127.0.0.1/cams/C7387555012982394
?加了-rw_timeout 5000000 寫超時的參數
b方式 這是錯誤日志 av_interleaved_write_frame(): Broken pipe
Error writing trailer of rtmp://127.0.0.1/cams/C6ba802bbacecb67e: Broken pipe
然后在ffmpeg代碼這處,加直接退出代碼,然后重新編譯ffmpeg
c. 直接寫個守護腳本,定時查看有沒有ts文件生成,沒有的話,重啟進程。
3. 使用media sdk的ffmpeg硬編解碼,如果rtsp流的分辨率是1280x720 ---->1280x720的,有綠條
解決措施:參數修改
scale_qsv filter would always try to encode video even the resolution is same.
vpp_qsv filtere will bypass upon same resolution
5.1韓國攝像頭,在h264_qsv報錯了
這種攝像頭是h264 high profile,普通攝像頭是main profile,qsv對high profile支持不好
解決措施:就是先轉 -f mpegts格式,再管道過去再執行:
/home/cue/ffmpeg_qsv/ffmpeg -timeout 10000000 -rtsp_transport tcp -i "rtsp://xxxx:xxxxx@10.255.255.8/stream1" -vcodec copy -an -f mpegts -| /home/cue/ffmpeg_qsv/ffmpeg -hwaccel qsv -c:v h264_qsv -f mpegts -i pipe: -vf fps=fps=5,vpp_qsv=w=1280:h=720,format=yuv420p -c:v h264_qsv -b:v 1M -g 10 -rw_timeout 5000000 -f flv -an "rtmp://127.0.0.1/cams/tt"
5.2. ffmpep報錯:av_interleaved_write_frame(): Broken pipe :https://blog.csdn.net/qq_23282479/article/details/107579597
運行3路ffmpeg正常,一超過3路,就報上面的錯誤
應該是網絡帶寬問題,?網絡只協商出10M帶寬,所以無法拉超過3路,改2路
還有也解決措施:就是修改客戶的相機參數,將碼率(比特率)調低點
5.3? :? 拉流報錯
升級了jelly-fin ffmpeg版本,(https://trac.ffmpeg.org/ticket/9970)
5.4 [ rtsp @ 0x583870055c00] method SETUP failed: 500 Internal Server Error
? ? ? rtsp://xx:xx@ip/ddwqqwe: Server returned 5XX Server Error reply
問題: 攝像頭上的rtsp server 問題
處理: 將拉流進程停止個適當的時間,然后就拉流正常一會(大幾個小時),也沒其它辦法應該?;蛘咧貑z像頭試試。
6.相機有的用戶名或者密碼有特殊字符的,需要url編碼下,我的進程是用supervidord管理的,配置文件里有url編碼過的,supervisord不識別,就是不識別%,而supervisord的轉義是用%,所以需要再%前再加一個%轉義
7. 將相機的編碼類型改為變碼率,視頻流,即可拉到流,具體原因沒弄清楚
反正是各種poc項目,各種問題,各種的攝像頭廠商,現場各種網絡問題
http://www.lxweimin.com/p/3964b332e954? ffmpeg 使用arm rockship的硬件加速,沒有交叉編譯,直接在arm上編譯的
使用rockship的ffmpeg 硬件加速,使用supervisorctl stop進程(之前使用ffmpeg的管道的時候),產生孤兒進程:
需要再進程配置文件里配置這2個參數
stopasgroup=true, 進程被殺,是否向進程組發送stop信號,包括子進程
killasgroup=true? ?向進程組發送kill信號,包括子進程
正常 的copy:
ffmpeg -stimeout 10000000 -rtsp_transport tcp -loglevel quiet -i rtsp://admin:admin@192.168.1.109/h264/ch2/main/av_stream -c copy -f flv -an rtmp://127.0.0.1/cams/C95d94d6a3ced8e31
usb可見光相機使用ffmpeg推流:
dev=/dev/videoX; res=1920x1080
多使用參數:
?-f v4l2? ? -----v4l2框架??
?-pix_fmt yuv420p? ? ?----? ?像素格式
exec nice -n 10 /usr/bin/ffmpeg -f v4l2 -s "$res" -r $rate -loglevel quiet -i $dev -g $gop -pix_fmt yuv420p -c:v libx264 -b:v 800K -maxrate 1000K -bufsize 800K -preset ultrafast -f flv "rtmp://127.0.0.1/cams/$camid" >/dev/null 2>&1
使用h265的:
4.合成視頻
file.txt
file '/path/to/video1.mp4'
file '/path/to/video1.mp4'
file '/path/to/video1.mp4'
ffmpeg -f concat -i file.txt -c copy output.mp4
ffmpeg -y -loglevel quiet -i $FILE_OUTPUT -vcodec copy -c copy -an $MP4_OUTPUT
FILE_OUPUT:m3u8文件
5 視頻轉化
ffmpeg? -i? 1.avi -c copy -map O video.mp4
6. 移動偵測
exec nice -n 10 /usr/bin/ffmpeg -y -f x11grab -s "$res" -r $rate -loglevel quiet -i :0.0 -vcodec libx264 -preset ultrafast -vf "scale=iw*$scale:ih*$scale,select=gt(scene\,0.003),setpts=N/($rate*TB)" -g $gop -f hls -start_number 0 -hls_flags append_list -hls_time $seg_size -hls_list_size $seg_list -an -use_localtime 1 -hls_segment_filename "$hls_dir/%s000.ts" $hls_dir/index.m3u8 >/dev/null 2>&1
幀變化值,慢慢調式來的
移動偵測: 比較2幀前后的變化,變化大了,就開始錄屏
https://blog.csdn.net/xuheazx/article/details/51969535?utm_medium=distribute.pc_relevant.none-task-blog-2~default~baidujs_baidulandingword~default-8.queryctr&spm=1001.2101.3001.4242.5&utm_relevant_index=11? ?這個很全ffmpeg參數使用說明
https://www.cnblogs.com/Finley/p/8646711.html?
https://www.xiebruce.top/1159.html
此鏈接是ffmpeg學習
在視頻上加時間戳
ffmpeg -t 5 -i input.mp4 -vf “drawtext=fontsize=160:text=’%{pts:hms}’” -c:v libx264 -an -f mp4 output.mp4 -y
-re 以本地幀頻讀數據,主要用于模擬捕獲設備
視頻是h264格式的,ffmpeg命令能拉取rtsp流,保存為h264的裸碼流? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?ffmpeg?-re?-i?rtsp://xxx/xx/xxx?out.h264 ??
參考:https://blog.csdn.net/leixiaohua1020/article/details/12751349
https://github.com/0voice/ffmpeg_develop_doc? 推薦個零聲學院的ffmpeg文檔
https://juejin.cn/post/7034411980316213256 arm