android rtmp推流直播學習(二)----視頻軟編碼x264

上篇文章我們已經(jīng)采集到了視頻源數(shù)據(jù),這篇文章將介紹對視屏源數(shù)據(jù)的編碼

準備工作:
1.x264開源庫:http://www.videolan.org/developers/x264.html
2.可編譯jni項目的android studio工程

1.對于x264來源庫的使用,可以選擇直接下載,復制到項目里面,也可以通過編譯腳本編譯為靜態(tài)庫使用。

2.可編譯jni的android studio項目

android studio現(xiàn)在可支持cmake編譯接你工程,通過CMakeLists來配置
具體步驟:

1.創(chuàng)建支持jni的android studio項目

創(chuàng)建新項目:


RPU@QG`U`F_6@@3DPOUG@WU.png

勾選c++支持


6AP6SNBFKH`BS_GA`_CL~VV.png

然后一直到項目的創(chuàng)建完成
這時會發(fā)現(xiàn)項目目錄里面多了個CMakeLists.txt配置文件,這就是android studio支持jni的配置文件,跟eclipse的Android.mk配置文件類似

打開build.gradle文件,你會發(fā)現(xiàn)在defaultConfig節(jié)點下面多了

        externalNativeBuild {
            cmake {
                cppFlags "-fexceptions"
                abiFilters "armeabi-v7a"
                arguments "-DANDROID_PLATFORM=android-9"
            }
        }

這是配置jni支持的手機cpu類型

在android節(jié)點下面多了

    externalNativeBuild {
        cmake {
            path "CMakeLists.txt"
        }
    }

此處就是cmake的配置文件路徑

2.CMakeLists簡單配置

1.設置全局路徑:

set(my_lib_path ${CMAKE_SOURCE_DIR}/src/main/cpp/lib)

2.導入第三方庫

#導入編譯好的靜態(tài)庫
add_library(x264 STATIC IMPORTED)
#設置導入的路徑
set_target_properties(x264 PROPERTIES IMPORTED_LOCATION ${my_lib_path}/libx264.a)

3.設置頭文件

include_directories(src/main/cpp)

4.宏定義

set(CMAKE_CXX_FLAGS "${CMAKE_CXX_FLAGS} -std=c++11")

具體可參照項目CMakeLists配置

3.引入x264開源庫

當項目創(chuàng)建完成之后,你會發(fā)現(xiàn)在與java同級目錄下多了個cpp文件夾,這個文件夾就是用來寫c++的,只需將下載下來的x264或者編譯好的靜態(tài)庫拷貝到cpp下面,再在CMakeLists配置一下就行了

4.編碼

1.初始化x264編碼器:
    LOGD("video encoder setting");
    x264_param_t param;
    //ultrafast cpu占用最小,zerolatency 不緩存幀
    x264_param_default_preset(&param,"ultrafast","zerolatency");
    param.i_csp = X264_CSP_I420;
    //配置x264編碼器參數(shù) 寬高調換,因為視頻解碼參數(shù)為旋轉90度的參數(shù)
    param.i_width = mHeight;
    param.i_height = mWidth;
    param.i_keyint_max = 10*2;
    param.i_fps_num = 10;//幀率分子
    param.i_fps_den = 1;//幀率分母
    param.i_threads = 1; // 建議為cpu個數(shù)
    param.b_repeat_headers = 1;//復制sps和pps放在每個關鍵幀的前面 該參數(shù)設置是讓每個關鍵幀(I幀)都附帶sps/pps。
//    param.b_cabac = 1; //自適應上下文算術編碼,baseline 不支持

    param.rc.i_bitrate = mBitrate/1000;//碼率(比特率,單位Kbps)
    param.rc.i_rc_method = X264_RC_ABR;//參數(shù)i_rc_method表示碼率控制,CQP(恒定質量),CRF(恒定碼率),ABR(平均碼率)
    param.rc.i_vbv_buffer_size = mBitrate/1000;//設置了i_vbv_max_bitrate必須設置此參數(shù),碼率控制區(qū)大小,單位kbps
    param.rc.i_vbv_max_bitrate = (int) (mBitrate / 1000 * 1.2);//瞬時最大碼率
    param.rc.f_rf_constant_max  =45;
    param.rc.b_mb_tree = 0;


    x264_param_apply_profile(&param,"baseline");
    LOGD("open video encoder");
    videoEncHandle = x264_encoder_open(&param);
    pic_in = (x264_picture_t *) malloc(sizeof(x264_picture_t));
    pic_out = (x264_picture_t *) malloc(sizeof(x264_picture_t));
    //配置x264編碼器參數(shù) 寬高調換,因為視頻解碼參數(shù)為旋轉90度的參數(shù)
    x264_picture_alloc(pic_in,X264_CSP_I420,param.i_width,param.i_height);
    x264_picture_init(pic_out);
2.編碼

前篇視頻采集的源數(shù)據(jù)是nv21數(shù)據(jù)及yuv420sp,需要轉換成yuv420p數(shù)據(jù),轉換方法

    public static void Nv21ToI420(byte[] data, byte[] dstData, int w, int h) {

        int size = w * h;
        // Y
        System.arraycopy(data, 0, dstData, 0, size);
        for (int i = 0; i < size / 4; i++) {
            dstData[size + i] = data[size + i * 2 + 1]; //U
            dstData[size + size / 4 + i] = data[size + i * 2]; //V
        }
    }

由于視頻采集的數(shù)據(jù)是被旋轉90度的,所以要顯示原數(shù)據(jù)需要旋轉,旋轉算法:

void Stream::n420_spin(char *dstyuv, char *srcdata, int imageWidth, int imageHeight) {
    int i = 0, j = 0;
    int index = 0;
    int tempindex = 0;
    int div = 0;
    for (i = 0; i < imageWidth; i++) {
//        div = i + 1; //逆時針旋轉90度
        div = imageWidth -i;//順時針旋轉90度
        tempindex = 0;
        for (j = 0; j < imageHeight; j++) {
            tempindex += imageWidth;
            dstyuv[index++] = srcdata[tempindex - div];
        }
    }
    //u起始位置
    int start = imageWidth * imageHeight;
    //u v 數(shù)據(jù)的長度
    int udiv = start >> 2;
    //u v 數(shù)據(jù)寬度
    int uWidth = imageWidth >> 1;
    //u v 數(shù)據(jù)高度
    int uHeight = imageHeight >> 1;
    //數(shù)據(jù) 下標位置
    index = start;
    for (i = 0; i < uWidth; i++) {
//        div = i + 1; //逆時針旋轉90度
        div = uHeight -i;//順時針旋轉90度
        tempindex = start;
        for (j = 0; j < uHeight; j++) {
            tempindex += uHeight;
            dstyuv[index] = srcdata[tempindex - div];
            dstyuv[index + udiv] = srcdata[tempindex - div + udiv];
            index++;
        }
    }
}

數(shù)據(jù)還原之后就需要視頻編碼:

void Stream::add_video_yuv420(UCHAR * yuv,jboolean isBack) {
    UCHAR * buf = new UCHAR[mWidth*mHeight*3/2];
    //旋轉算法 次算法為順時針旋轉90度算法
    if(isBack){
        n420_spin((char *) buf, (char *) yuv, mWidth, mHeight);
    } else{
        n420_spin2((char *) buf, (char *) yuv, mWidth, mHeight);
    }

    isEncoding = 1;
    if(!readyPushing || !pushing){
        LOGD("pusher thread is not start readyPushing:%d  pushing:%d",readyPushing,pushing);
        pthread_mutex_lock(&encoder_mutex);
        pthread_cond_signal(&encoder_cond);
        pthread_mutex_unlock(&encoder_mutex);
        isEncoding = 0;
        return;
    }
    pthread_mutex_lock(&encoder_mutex);
    //將yuv數(shù)據(jù)分別拷貝
    memcpy(pic_in->img.plane[0], buf, (size_t) (mWidth * mHeight));//y
    memcpy(pic_in->img.plane[1],buf+mWidth*mHeight, (size_t) (mWidth * mHeight >> 2));//u
    memcpy(pic_in->img.plane[2],buf+mWidth*mHeight+(mWidth*mHeight>>2),(size_t) (mWidth * mHeight >> 2));//v
    free(buf);
    int nNal = -1;
    x264_nal_t *nal = NULL;
    long  l = (long) RTMP_GetTime();
//    LOGD("編碼開始");
    //編碼
    if(!x264_encoder_encode(videoEncHandle,&nal,&nNal,pic_in,pic_out)){
        LOGD("encode faile");
        pthread_cond_signal(&encoder_cond);
        pthread_mutex_unlock(&encoder_mutex);
        isEncoding = 0;
        return;
    }
    pic_in->i_pts++;
    pic_out->i_pts++;
    int sps_len,pps_len;
    UCHAR *sps;
    UCHAR *pps;
//獲取sps  pps 和視頻數(shù)據(jù)幀
    for (int i = 0; i < nNal; i++) {
        if(nal[i].i_type == NAL_SPS){
            sps_len = nal[i].i_payload - 4;
            sps = (UCHAR *) malloc((size_t) (sps_len + 1));
            memcpy(sps,nal[i].p_payload+4, (size_t) sps_len);
        } else if(nal[i].i_type == NAL_PPS){
            pps_len = nal[i].i_payload - 4;
            pps = (UCHAR *) malloc((size_t) (pps_len + 1));
            memcpy(pps,nal[i].p_payload+4, (size_t) pps_len);
            add_264_header(pps,sps,pps_len,sps_len);
            free(sps);
            free(pps);
        } else{
            add_264_body(nal[i].p_payload,nal[i].i_payload);
        }
    }
//    LOGD("編碼完成");
    pthread_cond_signal(&encoder_cond);
    pthread_mutex_unlock(&encoder_mutex);
    isEncoding = 0;
}

5.調用

//java方法與jni比較
//com.dzm.live.LivePusher.initVedioEncode
//Java_com_dzm_live_LivePusher_initVedioEncode
JNIEXPORT void JNICALL
Java_com_dzm_live_LivePusher_initVedioEncode(JNIEnv *env, jobject instance,jint threadSize) {

    if(!stream)
        return;
    stream->initVideoEncoder(threadSize);

}
    static {
        System.loadLibrary("Dvr");
    }

    /**
     * 初始化視頻編碼器
     */
    public native void initVedioEncode(int threadSize);

創(chuàng)建jni項目的時候系統(tǒng)會自動創(chuàng)建java調用c++的調用類,可仿照修改

總結:
1.想學習軟編嗎,需要學習jni只有,要有c++基礎,主要是android studio的CMakeLists配置,稍有差錯將導致編譯不通過
2.視頻編解碼學習是一個長期的過程,推薦雷神的學習博客,原雷神一路走好,感謝
3.開源庫的編譯,可以學習通過linux腳本編譯開源庫為靜態(tài),或動態(tài)庫,方便使用

項目地址

最后編輯于
?著作權歸作者所有,轉載或內(nèi)容合作請聯(lián)系作者
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內(nèi)容

  • Android 自定義View的各種姿勢1 Activity的顯示之ViewRootImpl詳解 Activity...
    passiontim閱讀 173,511評論 25 708
  • 今天去人才市場找工作,人很多,職位也很多,看了幾家比較大的公司,看了幾個比較中意的崗位,卻遲遲不敢去問,因為心里沒...
    愿是一棵樹007閱讀 270評論 0 0
  • 也許我的前半生都有人陪,不論做什么事情,我都先考慮找誰陪?不能找不到,我情愿不去,所以獨立于我總是很遙遠,也從未認...
    猶若男生閱讀 372評論 0 0
  • 閱讀課程的制作 招生活動的樣式修改 招生新版的功能梳理與實現(xiàn)(TODO) 問題 富文本編輯在移動端上體驗比較差,功...
    LiLiLiH閱讀 195評論 0 0
  • 夏夜的風, 從海邊來, 飄到了十樓, 來到我的窗臺; 便拉開簾,款著這熟風, 再滿上一杯月, 和著些冰酒, 靜念一...
    zbcao閱讀 403評論 2 3