站在大牛肩膀上編程—— i_have_an_Apple??
上面那句話是我扯淡呢,大家樂一樂就好
在本文的開始,我們要感謝真正的大牛,雷神。
這是雷神的博客
此篇文章,主要是對大牛 demo 的詳細注釋,本人最近在研究 FFmpeg 也有很多不懂的地方,歡迎各位小伙伴留言一起討論。
FFmpeg 的編譯與集成這里不再贅述,這里直接進入正題
首先定義一些相關的結構體,并將它們初始化
這邊我提供了一個推流地址,這個地址是我自己搭建的 SRS(simple-rtmp-server) 服務器地址,因為服務器是收費的,我也不能一直開著,各位如果想測試 demo ,大家可以自己搭建一個虛擬機,同樣可以作為服務器。
char input_str_full[500] = {0};
char output_str_full[500] = {0};
//文件地址
NSString *input_str = [[NSBundle mainBundle] pathForResource:@"war3end.mp4" ofType:nil];
//推流地址
NSString *output_str = @"rtmp://106.75.92.197/live/test";
//將地址寫入到創建好的容器
sprintf(input_str_full, "%s",[input_str UTF8String]);
sprintf(output_str_full, "%s",[output_str UTF8String]);
NSLog(@"input_str_full:%s",input_str_full);
NSLog(@"output_str_full:%s",output_str_full);
//初始化
AVOutputFormat *ofmt = NULL;
//輸入format和輸出format
AVFormatContext *ifmt_ctx = NULL, *ofmt_ctx = NULL;
AVPacket pkt; //存儲解碼前數據
char in_filename[500] = {0};
char out_filename[500] = {0};
int ret, i;
int videoindex = -1;
int frame_index = 0;
int64_t start_time = 0;
//strcpy(a,b) 把 b 中的內容復制到 a 中
strcpy(in_filename, input_str_full);
strcpy(out_filename, output_str_full);
//注冊
av_register_all();
//網絡初始化
avformat_network_init();
讀取本地的 MP4 文件,并打開推流地址
//Input
//打開文件,存儲到輸入上下文中
if ((ret = avformat_open_input(&ifmt_ctx, in_filename, 0, 0)) < 0) {
printf("未能打開文件\n");
goto end;
}
//查找輸入流數據
if ((ret = avformat_find_stream_info(ifmt_ctx, 0)) < 0) {
printf("未能找到輸入流數據\n");
goto end;
}
//輸入流數據的數量循環
for (i = 0; i < ifmt_ctx->nb_streams; i ++) {
if (ifmt_ctx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO) {
videoindex = i;
break;
}
}
//檢查一些設置的參數有無問題
av_dump_format(ifmt_ctx, 0, in_filename, 0);
//Output
//初始化輸出上下文
avformat_alloc_output_context2(&ofmt_ctx, NULL, "flv", out_filename); //RTMP
// avformat_alloc_output_context2(&ofmt_ctx, NULL, "mpegts", out_filename); //UDP
if (!ofmt_ctx) {
printf("輸出上下文未能初始化成功\n");
ret = AVERROR_UNKNOWN;
goto end;
}
//從輸出上下文中拿到存儲輸出信息的結構體
ofmt = ofmt_ctx->oformat;
for (i = 0; i < ifmt_ctx->nb_streams; i ++) {
//獲取輸入視頻流
AVStream *in_stream = ifmt_ctx->streams[i];
//為輸出上下文添加音視頻流(初始化一個音視頻流容器)
AVStream *out_stream = avformat_new_stream(ofmt_ctx, in_stream->codec->codec);
if (!out_stream) {
printf("未能成功添加音視頻流\n");
ret = AVERROR_UNKNOWN;
goto end;
}
//將輸入編解碼器上下文信息 copy 給輸出編解碼器上下文
ret = avcodec_copy_context(out_stream->codec, in_stream->codec);
if (ret < 0) {
printf("copy 編解碼器上下文失敗\n");
goto end;
}
//這里沒看懂....
out_stream->codec->codec_tag = 0;
if (ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER) {
out_stream->codec->flags = out_stream->codec->flags | CODEC_FLAG_GLOBAL_HEADER;
}
}
//檢查參數設置有無問題
av_dump_format(ofmt_ctx, 0, out_filename, 1);
//打開輸出地址(推流地址)
if (!(ofmt->flags & AVFMT_NOFILE)) {
ret = avio_open(&ofmt_ctx->pb, out_filename, AVIO_FLAG_WRITE);
if (ret < 0) {
printf("無法打開地址 '%s'",out_filename);
goto end;
}
}
接下來就是最重要的推流了
前面我們已經通過服務器地址打開了服務器,以我的理解推流實際上就是往服務器寫入文件,然后剩下的事情比如轉發等等就是服務器的工作了。
下面的代碼中,計算
PTS(Presentation Time Stamp)顯示播放時間戳
DTS(Decoding Time Stamp)解碼時間戳
比較重要
//寫視頻文件頭
ret = avformat_write_header(ofmt_ctx, NULL);
if (ret < 0) {
printf("在 URL 所在的文件寫視頻頭出錯\n");
goto end;
}
//取得時間
start_time = av_gettime();
while (1) {
//輸入輸出視頻流
AVStream *in_stream, *out_stream;
//獲取解碼前數據
ret = av_read_frame(ifmt_ctx, &pkt);
if (ret < 0) {
break;
}
/*
PTS(Presentation Time Stamp)顯示播放時間
DTS(Decoding Time Stamp)解碼時間
*/
//沒有顯示時間(比如未解碼的 H.264 )
if (pkt.pts == AV_NOPTS_VALUE) {
//AVRational time_base:時基。通過該值可以把PTS,DTS轉化為真正的時間。
AVRational time_base1 = ifmt_ctx->streams[videoindex]->time_base;
//計算兩幀之間的時間
/*
r_frame_rate 基流幀速率 (不是太懂)
av_q2d 轉化為double類型
*/
int64_t calc_duration = (double)AV_TIME_BASE/av_q2d(ifmt_ctx->streams[videoindex]->r_frame_rate);
//配置參數
pkt.pts = (double)(frame_index*calc_duration)/(double)(av_q2d(time_base1)*AV_TIME_BASE);
pkt.dts = pkt.pts;
pkt.duration = (double)calc_duration/(double)(av_q2d(time_base1)*AV_TIME_BASE);
}
//延時
if (pkt.stream_index == videoindex) {
AVRational time_base = ifmt_ctx->streams[videoindex]->time_base;
AVRational time_base_q = {1,AV_TIME_BASE};
//計算視頻播放時間
int64_t pts_time = av_rescale_q(pkt.dts, time_base, time_base_q);
//計算實際視頻的播放時間
int64_t now_time = av_gettime() - start_time;
if (pts_time > now_time) {
//睡眠一段時間(目的是讓當前視頻記錄的播放時間與實際時間同步)
av_usleep((unsigned int)(pts_time - now_time));
}
}
in_stream = ifmt_ctx->streams[pkt.stream_index];
out_stream = ofmt_ctx->streams[pkt.stream_index];
//計算延時后,重新指定時間戳
pkt.pts = av_rescale_q_rnd(pkt.pts, in_stream->time_base, out_stream->time_base, (AV_ROUND_NEAR_INF|AV_ROUND_PASS_MINMAX));
pkt.dts = av_rescale_q_rnd(pkt.dts, in_stream->time_base, out_stream->time_base, (AV_ROUND_NEAR_INF|AV_ROUND_PASS_MINMAX));
pkt.duration = (int)av_rescale_q(pkt.duration, in_stream->time_base, out_stream->time_base);
//字節流的位置,-1 表示不知道字節流位置
pkt.pos = -1;
if (pkt.stream_index == videoindex) {
printf("Send %8d video frames to output URL\n",frame_index);
frame_index++;
}
//向輸出上下文發送(向地址推送)
ret = av_interleaved_write_frame(ofmt_ctx, &pkt);
if (ret < 0) {
printf("發送數據包出錯\n");
break;
}
//釋放
av_free_packet(&pkt);
}
//寫文件尾
av_write_trailer(ofmt_ctx);
最后是一個 end 節點,上述過程中有多個跳轉 end 節點,在出錯時結束程序并釋放各個結構體
//end 節點
end:
//關閉輸入上下文
avformat_close_input(&ifmt_ctx);
//關閉輸出上下文
if (ofmt_ctx && !(ofmt->flags & AVFMT_NOFILE)) {
avio_close(ofmt_ctx->pb);
}
//釋放輸出上下文
avformat_free_context(ofmt_ctx);
if (ret < 0 && ret != AVERROR_EOF) {
printf("發生錯誤\n");
return;
}
return;
按照慣例,在這最后的最后,放上 demo 源碼
點這里點這里點這里點這里