【火爐煉AI】機器學習022-使用均值漂移聚類算法構建模型
(本文所使用的Python庫和版本號: Python 3.5, Numpy 1.14, scikit-learn 0.19, matplotlib 2.2 )
無監督學習算法有很多種,前面已經講解過了K-means聚類算法,并用該算法對圖片進行矢量量化壓縮。下面我們來學習第二種無監督學習算法----均值漂移算法。
1. 均值漂移算法簡介
均值漂移算法是一種基于密度梯度上升的非參數方法,它經常被應用在圖像識別中的目標跟蹤,數據聚類,分類等場景。
其核心思想是:首先隨便選擇一個中心點,然后計算該中心點一定范圍之內所有點到中心點的距離向量的平均值,計算該平均值得到一個偏移均值,然后將中心點移動到偏移均值位置,通過這種不斷重復的移動,可以使中心點逐步逼近到最佳位置。這種思想類似于梯度下降方法,通過不斷的往梯度下降的方向移動,可以到達梯度上的局部最優解或全局最優解。
如下是漂移均值算法的思想呈現,首先隨機選擇一個中心點(綠色點),然后計算該點一定范圍內所有點到這個點的距離均值,然后將該中心點移動距離均值,到黃色點處,同理,再計算該黃色點一定范圍內的所有點到黃點的距離均值,經過多次計算均值--移動中心點等方式,可以使得中心點逐步逼近最佳中心點位置,即圖中紅色點處。
1.1 均值漂移算法的基礎公式
從上面核心思想可以看出,均值漂移的過程就是不斷的重復計算距離均值,移動中心點的過程,故而計算偏移均值和移動距離便是非常關鍵的兩個步驟,如下為計算偏移均值的基礎公式。
其中Sh:以x為中心點,半徑為h的高維球區域; k:包含在Sh范圍內點的個數; xi:包含在Sh范圍內的點
第二個步驟是計算移動一定距離之后的中心點位置,其計算公式為:
其中,Mt為t狀態下求得的偏移均值; xt為t狀態下的中心
很顯然,移動之后的中心點位置是移動前位置加上偏移均值。
1.2 引入核函數的偏移均值算法
上述雖然介紹了均值漂移算法的基礎公式,但是該公式存在一定的問題,我們知道,高維球區域內的所有樣本點對求解的貢獻是不一樣的,而基礎公式卻當做貢獻一樣來處理,即所有點的權重一樣,這是不符合邏輯的,那么怎么改進了?我們可以引入核函數,用來求出每個樣本點的貢獻權重。當然這種求解權重的核函數有很多種,高斯函數就是其中的一種,如下公式是引入高斯核函數后的偏移均值的計算公式:
上面就是核函數內部的樣子。
1.3 均值漂移算法的運算步驟
均值漂移算法的應用非常廣泛,比如在聚類,圖像分割,目標跟蹤等領域,其運算步驟往往包含有如下幾個步驟:
1,在數據點中隨機選擇一個點作為初始中心點。
2,找出離該中心點距離在帶寬之內的所有點,記做集合M,認為這些點屬于簇C.
3,計算從中心點開始到集合M中每個元素的向量,將這些向量相加,得到偏移向量。
4,將該中心點沿著偏移的方向移動,移動距離就是該偏移向量的模。
5,重復上述步驟2,3,4,直到偏移向量的大小滿足設定的閾值要求,記住此時的中心點。
6,重復上述1,2,3,4,5直到所有的點都被歸類。
7,分類:根據每個類,對每個點的訪問頻率,取訪問頻率最大的那個類,作為當前點集的所屬類。
1.4 均值漂移算法的優勢
均值漂移算法用于集群數據點時,把數據點的分布看成是概率密度函數,希望在特征空間中根據函數分布特征找出數據點的模式,這些模式就對應于一群群局部最密集分布的點。
雖然我們前面講解了K-means算法,但K-means算法在實際應用時,需要知道我們要把數據劃分為幾個類別,如果類別數量出錯,則往往難以得到令人滿意的分類結果,而要劃分的類別往往很難事先確定。這就是K-means算法的應用難點。
而均值漂移算法卻不需要事先知道要集群的數量,這種算法可以在我們不知道要尋找多少集群的情況下自動劃分最合適的族群,這就是均值漂移算法的一個很明顯優勢。
以上部分內容來源于博客文章,在此表示感謝。
2. 構建均值漂移模型來聚類數據
本文所使用的數據集和讀取數據集的方式與上一篇文章【火爐煉AI】機器學習020-使用K-means算法對數據進行聚類分析一模一樣,故而此處省略。
下面是構建MeanShift對象的代碼,使用MeanShift之前,我們需要評估帶寬,帶寬就是上面所講到的距離中心點的一定距離,我們要把所有包含在這個距離之內的點都放入一個集合M中,用于計算偏移向量。
# 構建MeanShift對象,但需要評估帶寬
from sklearn.cluster import MeanShift, estimate_bandwidth
bandwidth=estimate_bandwidth(dataset_X,quantile=0.1,
n_samples=len(dataset_X))
meanshift=MeanShift(bandwidth=bandwidth,bin_seeding=True) # 構建對象
meanshift.fit(dataset_X) # 并用MeanShift對象來訓練該數據集
centroids=meanshift.cluster_centers_ # 質心的坐標,對應于feature0, feature1
print(centroids) # 可以看出有4行,即4個質心
labels=meanshift.labels_ # 數據集中每個數據點對應的label
# print(labels)
cluster_num=len(np.unique(labels)) # label的個數,即自動劃分的族群的個數
print('cluster num: {}'.format(cluster_num))
-------------------------------------輸---------出--------------------------------
[[ 8.22338235 1.34779412]
[ 4.10104478 -0.81164179]
[ 1.18820896 2.10716418]
[ 4.995 4.99967742]]
cluster num: 4
--------------------------------------------完-------------------------------------
可以看出,此處我們得到了四個質心,這四個質心的坐標位置可以通過meanshift.cluster_centers_獲取,而meanshift.labels_ 得到的就是原來樣本數據的label,也就是我們通過均值漂移算法自己找到的label,這就是無監督學習的優勢所在:雖然沒有給樣本數據指定label,但是該算法能自己找到其對應的label。
同樣的,該怎么查看該MeanShift算法的好壞了,可以通過下面的函數直接觀察數據集劃分的效果。
def visual_meanshift_effect(meanshift,dataset):
assert dataset.shape[1]==2,'only support dataset with 2 features'
X=dataset[:,0]
Y=dataset[:,1]
X_min,X_max=np.min(X)-1,np.max(X)+1
Y_min,Y_max=np.min(Y)-1,np.max(Y)+1
X_values,Y_values=np.meshgrid(np.arange(X_min,X_max,0.01),
np.arange(Y_min,Y_max,0.01))
# 預測網格點的標記
predict_labels=meanshift.predict(np.c_[X_values.ravel(),Y_values.ravel()])
predict_labels=predict_labels.reshape(X_values.shape)
plt.figure()
plt.imshow(predict_labels,interpolation='nearest',
extent=(X_values.min(),X_values.max(),
Y_values.min(),Y_values.max()),
cmap=plt.cm.Paired,
aspect='auto',
origin='lower')
# 將數據集繪制到圖表中
plt.scatter(X,Y,marker='v',facecolors='none',edgecolors='k',s=30)
# 將中心點繪制到圖中
centroids=meanshift.cluster_centers_
plt.scatter(centroids[:,0],centroids[:,1],marker='o',
s=100,linewidths=2,color='k',zorder=5,facecolors='b')
plt.title('MeanShift effect graph')
plt.xlim(X_min,X_max)
plt.ylim(Y_min,Y_max)
plt.xlabel('feature_0')
plt.ylabel('feature_1')
plt.show()
visual_meanshift_effect(meanshift,dataset_X)
########################小**********結###############################
1,MeanShift的構建和訓練方法和K-means的方式幾乎一樣,但是MeanShift可以自動計算出數據集的族群數量,而不需要人為事先指定,這使得MeanShift比K-means要好用一些。
2, 訓練之后的MeanShift對象中包含有該數據集的質心坐標,數據集的各個樣本對應的label信息,這些信息可以很方便的獲取。
#################################################################
注:本部分代碼已經全部上傳到(我的github)上,歡迎下載。
參考資料:
1, Python機器學習經典實例,Prateek Joshi著,陶俊杰,陳小莉譯