主要分以下幾個方面進(jìn)行說明:
一、矩陣分解
二、線性最小二乘
三、非線性最小二乘
四、直接稀疏矩陣方法
五、迭代方法
一、矩陣分解
1.奇異值分解(SVD)
奇異值分解可將任意實數(shù)矩陣
分解成如下形式:
其中,,矩陣
和
是正交矩陣,即
和
。其中
主對角線上的值為矩陣
的奇異值,所有奇異值均是非負(fù)的,并按照降序排列。如果僅有前r個奇異值是正的,那么矩陣A的秩即為r,同時SVD下標(biāo)可用r取代。
引用自《計算機視覺-算法與應(yīng)用》
應(yīng)用
1.求偽逆(求解線性最小平方、最小二乘問題):
若矩陣的奇異值分解為
,那么
的偽逆為
,其中
是
的偽逆,將原矩陣主對角線上每個非零元素求倒數(shù)之后再轉(zhuǎn)置得到。
2.矩陣近似值(PCA降維):
PCA算法的作用是把數(shù)據(jù)集映射到低維空間,數(shù)據(jù)集的特征值(在SVD中用奇異值表征)按照重要性排列,降維的過程就是舍棄不重要的特征向量的過程,而剩下的特征向量組成的空間即為降維后的空間。
2.特征值分解
如果矩陣是對稱陣
那么其特征值分解的形式:
這里是特征向量,
是特征值且
其中對稱陣可以通過一系列外積之和來構(gòu)造
在這種情況下,我們可以保證所有特征值都是非負(fù)的。
此時產(chǎn)生的矩陣是半正定矩陣,即對任意非0列向量
,存在
如果矩陣
滿秩所有特征值均為正,稱為對稱正定矩陣(SPD)。
對稱正定矩陣在數(shù)據(jù)統(tǒng)計分析中表示一組數(shù)據(jù)點圍繞其中心
產(chǎn)生的協(xié)方差
矩陣的特征值和特征向量與
的奇異值和奇異向量有著緊密聯(lián)系若有
則
由此我們可以知道
且矩陣
的左奇異向量就是矩陣
的特征向量。