使用 FFmpeg 做一個簡單的 RTMP 推流

站在大牛肩膀上編程—— i_have_an_Apple??

上面那句話是我扯淡呢,大家樂一樂就好

在本文的開始,我們要感謝真正的大牛,雷神。
這是雷神的博客

此篇文章,主要是對大牛 demo 的詳細注釋,本人最近在研究 FFmpeg 也有很多不懂的地方,歡迎各位小伙伴留言一起討論。

FFmpeg 的編譯與集成這里不再贅述,這里直接進入正題

首先定義一些相關的結構體,并將它們初始化

這邊我提供了一個推流地址,這個地址是我自己搭建的 SRS(simple-rtmp-server) 服務器地址,因為服務器是收費的,我也不能一直開著,各位如果想測試 demo ,大家可以自己搭建一個虛擬機,同樣可以作為服務器。

    char input_str_full[500] = {0};
    char output_str_full[500] = {0};
    
    //文件地址
    NSString *input_str = [[NSBundle mainBundle] pathForResource:@"war3end.mp4" ofType:nil];
    //推流地址
    NSString *output_str = @"rtmp://106.75.92.197/live/test";
    
    //將地址寫入到創建好的容器
    sprintf(input_str_full, "%s",[input_str UTF8String]);
    sprintf(output_str_full, "%s",[output_str UTF8String]);
    
    NSLog(@"input_str_full:%s",input_str_full);
    NSLog(@"output_str_full:%s",output_str_full);
    
    //初始化
    AVOutputFormat *ofmt = NULL;
    //輸入format和輸出format
    AVFormatContext *ifmt_ctx = NULL, *ofmt_ctx = NULL;
    AVPacket pkt;  //存儲解碼前數據
    char in_filename[500] = {0};
    char out_filename[500] = {0};
    int ret, i;
    int videoindex = -1;
    int frame_index = 0;
    int64_t start_time = 0;
    
    //strcpy(a,b) 把 b 中的內容復制到 a 中
    strcpy(in_filename, input_str_full);
    strcpy(out_filename, output_str_full);
    
    //注冊
    av_register_all();
    //網絡初始化
    avformat_network_init();

讀取本地的 MP4 文件,并打開推流地址

    //Input
    //打開文件,存儲到輸入上下文中
    if ((ret = avformat_open_input(&ifmt_ctx, in_filename, 0, 0)) < 0) {
        printf("未能打開文件\n");
        goto end;
    }
    //查找輸入流數據
    if ((ret = avformat_find_stream_info(ifmt_ctx, 0)) < 0) {
        printf("未能找到輸入流數據\n");
        goto end;
    }
    
    //輸入流數據的數量循環
    for (i = 0; i < ifmt_ctx->nb_streams; i ++) {
        if (ifmt_ctx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO) {
            videoindex = i;
            break;
        }
    }
    
    //檢查一些設置的參數有無問題
    av_dump_format(ifmt_ctx, 0, in_filename, 0);
    
    
    //Output
    //初始化輸出上下文
    avformat_alloc_output_context2(&ofmt_ctx, NULL, "flv", out_filename); //RTMP
//    avformat_alloc_output_context2(&ofmt_ctx, NULL, "mpegts", out_filename); //UDP
    
    if (!ofmt_ctx) {
        printf("輸出上下文未能初始化成功\n");
        ret = AVERROR_UNKNOWN;
        goto end;
    }
    
    //從輸出上下文中拿到存儲輸出信息的結構體
    ofmt = ofmt_ctx->oformat;
    
    for (i = 0; i < ifmt_ctx->nb_streams; i ++) {
        
        //獲取輸入視頻流
        AVStream *in_stream = ifmt_ctx->streams[i];
        //為輸出上下文添加音視頻流(初始化一個音視頻流容器)
        AVStream *out_stream = avformat_new_stream(ofmt_ctx, in_stream->codec->codec);
        if (!out_stream) {
            printf("未能成功添加音視頻流\n");
            ret = AVERROR_UNKNOWN;
            goto end;
        }
        
        //將輸入編解碼器上下文信息 copy 給輸出編解碼器上下文
        ret = avcodec_copy_context(out_stream->codec, in_stream->codec);
        if (ret < 0) {
            printf("copy 編解碼器上下文失敗\n");
            goto end;
        }
        
        //這里沒看懂....
        out_stream->codec->codec_tag = 0;
        if (ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER) {
            out_stream->codec->flags = out_stream->codec->flags | CODEC_FLAG_GLOBAL_HEADER;
        }
        
    }
    
    //檢查參數設置有無問題
    av_dump_format(ofmt_ctx, 0, out_filename, 1);
    
    //打開輸出地址(推流地址)
    if (!(ofmt->flags & AVFMT_NOFILE)) {
        ret = avio_open(&ofmt_ctx->pb, out_filename, AVIO_FLAG_WRITE);
        if (ret < 0) {
            printf("無法打開地址 '%s'",out_filename);
            goto end;
        }
    }

接下來就是最重要的推流了

前面我們已經通過服務器地址打開了服務器,以我的理解推流實際上就是往服務器寫入文件,然后剩下的事情比如轉發等等就是服務器的工作了。
下面的代碼中,計算
PTS(Presentation Time Stamp)顯示播放時間戳
DTS(Decoding Time Stamp)解碼時間戳
比較重要

    //寫視頻文件頭
    ret = avformat_write_header(ofmt_ctx, NULL);
    if (ret < 0) {
        printf("在 URL 所在的文件寫視頻頭出錯\n");
        goto end;
    }
    
    //取得時間
    start_time = av_gettime();
    
    while (1) {
        //輸入輸出視頻流
        AVStream *in_stream, *out_stream;
        //獲取解碼前數據
        ret = av_read_frame(ifmt_ctx, &pkt);
        if (ret < 0) {
            break;
        }
        
        /*
         PTS(Presentation Time Stamp)顯示播放時間
         DTS(Decoding Time Stamp)解碼時間
         */
        //沒有顯示時間(比如未解碼的 H.264 )
        if (pkt.pts == AV_NOPTS_VALUE) {
            //AVRational time_base:時基。通過該值可以把PTS,DTS轉化為真正的時間。
            AVRational time_base1 = ifmt_ctx->streams[videoindex]->time_base;
            
            //計算兩幀之間的時間
            /*
             r_frame_rate 基流幀速率  (不是太懂)
             av_q2d 轉化為double類型
             */
            int64_t calc_duration = (double)AV_TIME_BASE/av_q2d(ifmt_ctx->streams[videoindex]->r_frame_rate);
            
            //配置參數
            pkt.pts = (double)(frame_index*calc_duration)/(double)(av_q2d(time_base1)*AV_TIME_BASE);
            pkt.dts = pkt.pts;
            pkt.duration = (double)calc_duration/(double)(av_q2d(time_base1)*AV_TIME_BASE);
        }
        
        //延時
        if (pkt.stream_index == videoindex) {
            AVRational time_base = ifmt_ctx->streams[videoindex]->time_base;
            AVRational time_base_q = {1,AV_TIME_BASE};
            //計算視頻播放時間
            int64_t pts_time = av_rescale_q(pkt.dts, time_base, time_base_q);
            //計算實際視頻的播放時間
            int64_t now_time = av_gettime() - start_time;
            if (pts_time > now_time) {
                //睡眠一段時間(目的是讓當前視頻記錄的播放時間與實際時間同步)
                av_usleep((unsigned int)(pts_time - now_time));
            }
        }
        
        in_stream = ifmt_ctx->streams[pkt.stream_index];
        out_stream = ofmt_ctx->streams[pkt.stream_index];

        //計算延時后,重新指定時間戳
        pkt.pts = av_rescale_q_rnd(pkt.pts, in_stream->time_base, out_stream->time_base, (AV_ROUND_NEAR_INF|AV_ROUND_PASS_MINMAX));
        pkt.dts = av_rescale_q_rnd(pkt.dts, in_stream->time_base, out_stream->time_base, (AV_ROUND_NEAR_INF|AV_ROUND_PASS_MINMAX));
        pkt.duration = (int)av_rescale_q(pkt.duration, in_stream->time_base, out_stream->time_base);
        //字節流的位置,-1 表示不知道字節流位置
        pkt.pos = -1;
        
        if (pkt.stream_index == videoindex) {
            printf("Send %8d video frames to output URL\n",frame_index);
            frame_index++;
        }
        
        //向輸出上下文發送(向地址推送)
        ret = av_interleaved_write_frame(ofmt_ctx, &pkt);
        
        if (ret < 0) {
            printf("發送數據包出錯\n");
            break;
        }
        
        //釋放
        av_free_packet(&pkt);
        
    }
    
    //寫文件尾
    av_write_trailer(ofmt_ctx);

最后是一個 end 節點,上述過程中有多個跳轉 end 節點,在出錯時結束程序并釋放各個結構體

//end 節點
end:
    
    //關閉輸入上下文
    avformat_close_input(&ifmt_ctx);
    //關閉輸出上下文
    if (ofmt_ctx && !(ofmt->flags & AVFMT_NOFILE)) {
        avio_close(ofmt_ctx->pb);
    }
    //釋放輸出上下文
    avformat_free_context(ofmt_ctx);
    if (ret < 0 && ret != AVERROR_EOF) {
        printf("發生錯誤\n");
        return;
    }
    return;

按照慣例,在這最后的最后,放上 demo 源碼
點這里點這里點這里點這里

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內容