(SLAM)提取特征總結(jié)

我們要知道三維空間中的點(diǎn)在圖像中的位置,就需要提取特征與特征匹配了。
1.檢測(cè)特征點(diǎn)
2.計(jì)算描述子
3.特征匹配


1.檢測(cè)特征點(diǎn)
我們用到的檢測(cè)特征點(diǎn)的方法是FAST算法,最大的特點(diǎn)就是快!

算法原理:遍歷圖像,找到所有的角點(diǎn)。我們就拿一個(gè)角點(diǎn)舉例,例如只拿到一個(gè)角點(diǎn)p,設(shè)其像素灰度值為I,取這個(gè)角點(diǎn)以三為半徑的圓上的所有像素點(diǎn),能取到16個(gè),然后設(shè)定一個(gè)閾值t,如果連續(xù)n個(gè)像素點(diǎn)的灰度值都大于I+t或者都小于I-t。我們則認(rèn)為其為特征點(diǎn)。接著計(jì)算方向:特征點(diǎn)與重心的角度。

2.計(jì)算描述子

描述子我們可以理解為在每一個(gè)特征點(diǎn)旁邊有一個(gè)向量,或者說也可以理解為數(shù)組,記錄著特征點(diǎn)周圍的信息。這里用的事BRIEF描述子。BRIEF描述子是一個(gè)二進(jìn)制描述子,就是在特征點(diǎn)周圍隨機(jī)取128對(duì)點(diǎn)對(duì)或者是256對(duì)點(diǎn)對(duì)pq,若p大于q,則記為1,否則記為0。這就組成了一個(gè)128個(gè)數(shù)的[0,1,1,0.....]序列。

3.特征匹配

此時(shí)我們得到了所有的特征點(diǎn)和描述子。此時(shí)進(jìn)行暴力匹配,對(duì)圖1中的每一個(gè)特征點(diǎn)分別和圖像2中的特征點(diǎn)的描述子比較,我們用Hamming距離來度量?jī)蓚€(gè)描述子的相似程度,如果Hamming距離小于兩倍的最小距離則認(rèn)為匹配正確,否則認(rèn)為匹配錯(cuò)誤。

代碼如下:

#include <opencv2/core/core.hpp>
#include <opencv2/features2d/features2d.hpp>
#include <opencv2/highgui/highgui.hpp>

using namespace std;
using namespace cv;

int main ( int argc, char** argv )
{
    if ( argc != 3 )
    {
        cout<<"usage: feature_extraction img1 img2"<<endl;
        return 1;
    }
    //-- 讀取圖像
    Mat img_1 = imread ( argv[1], CV_LOAD_IMAGE_COLOR );
    Mat img_2 = imread ( argv[2], CV_LOAD_IMAGE_COLOR );

    //-- 初始化
    std::vector<KeyPoint> keypoints_1, keypoints_2;
    Mat descriptors_1, descriptors_2;
    Ptr<FeatureDetector> detector = ORB::create();
    Ptr<DescriptorExtractor> descriptor = ORB::create();
    Ptr<DescriptorMatcher> matcher  = DescriptorMatcher::create ( "BruteForce-Hamming" );

    //-- 第一步:檢測(cè) Oriented FAST 角點(diǎn)位置
    detector->detect ( img_1,keypoints_1 );
    detector->detect ( img_2,keypoints_2 );

    //-- 第二步:根據(jù)角點(diǎn)位置計(jì)算 BRIEF 描述子
    descriptor->compute ( img_1, keypoints_1, descriptors_1 );
    descriptor->compute ( img_2, keypoints_2, descriptors_2 );

    Mat outimg1;
    drawKeypoints( img_1, keypoints_1, outimg1, Scalar::all(-1), DrawMatchesFlags::DEFAULT );
    imshow("ORB特征點(diǎn)",outimg1);

    //-- 第三步:對(duì)兩幅圖像中的BRIEF描述子進(jìn)行匹配,使用 Hamming 距離
    vector<DMatch> matches;//matches存儲(chǔ)特征點(diǎn)信息
    matcher->match ( descriptors_1, descriptors_2, matches );

    //-- 第四步:匹配點(diǎn)對(duì)篩選
    double min_dist=10000, max_dist=0;

    //找出所有匹配之間的最小距離和最大距離, 即是最相似的和最不相似的兩組點(diǎn)之間的距離
    for ( int i = 0; i < descriptors_1.rows; i++ )
    {
        double dist = matches[i].distance;
        if ( dist < min_dist ) min_dist = dist;
        if ( dist > max_dist ) max_dist = dist;
    }

    printf ( "-- Max dist : %f \n", max_dist );
    printf ( "-- Min dist : %f \n", min_dist );

    //當(dāng)描述子之間的距離大于兩倍的最小距離時(shí),即認(rèn)為匹配有誤.但有時(shí)候最小距離會(huì)非常小,設(shè)置一個(gè)經(jīng)驗(yàn)值30作為下限.
    std::vector< DMatch > good_matches;
    for ( int i = 0; i < descriptors_1.rows; i++ )
    {
        if ( matches[i].distance <= max ( 2*min_dist, 30.0 ) )
        {
            good_matches.push_back ( matches[i] );
        }
    }

    //-- 第五步:繪制匹配結(jié)果
    Mat img_match;
    Mat img_goodmatch;
    drawMatches ( img_1, keypoints_1, img_2, keypoints_2, matches, img_match );
    drawMatches ( img_1, keypoints_1, img_2, keypoints_2, good_matches, img_goodmatch );
    imshow ( "所有匹配點(diǎn)對(duì)", img_match );
    imshow ( "優(yōu)化后匹配點(diǎn)對(duì)", img_goodmatch );
    waitKey(0);

    return 0;
}

如有錯(cuò)誤,歡迎指正~

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

推薦閱讀更多精彩內(nèi)容