7. 降維-PCA
n_components為降到多少維,用原數據fit后,再用transform轉換成降維后的數據。
from sklearn.decomposition import PCA
pca = PCA(n_components = 6)
pca.fit(good_data)
reduced_data = pca.transform(good_data)
reduced_data = pd.DataFrame(reduced_data, columns = ['Dimension 1', 'Dimension 2'])
8. 聚類-選擇類別數
用 silhouette coefficient 計算每個數據到中心點的距離,-1 (dissimilar) to 1 (similar) 根據這個系數來評價聚類算法的優劣。
from sklearn.cluster import KMeans
from sklearn.metrics import silhouette_score
cluster = KMeans(n_clusters=2, random_state=0).fit(reduced_data)
preds = cluster.predict(reduced_data)
score = silhouette_score(reduced_data, preds)
選擇分數最大的個數作為聚類的類別數。
9. 恢復維度
例如數據,先經過 log,又經過 PCA降維, 要恢復回去,先用 pca.inverse_transform,再用 np.exp
log_centers = pca.inverse_transform(centers)
true_centers = np.exp(log_centers)
true_centers = pd.DataFrame(np.round(true_centers), columns = data.keys())
數據變化:
10. 自定義accuracy
分類問題可以自己寫accuracy的函數
def accuracy_score(truth, pred):
""" Return accuracy score for input truth and prediction"""
if len(truth)==len(pred):
return "Accuracy for prediction: {:.2f}%.".format((truth==pred).mean()*100)
else:
return "Numbers do not match!"