PCA降維去中心化
『壹』 python sklearn pca降維前需要數據歸一化嗎
不用
fromsklearn.decompositionimportPCA
pca=PCA(n_components=1)
newData=pca.fit_transform(data)
可以去這里看看,有詳細說明。
http://doc.okbase.net/u012162613/archive/120946.html
『貳』 我用PCA做特徵降維後svm分類效果不好,為啥
K-L變換是離散變換的簡稱,又被稱為主成分變換(PCA)。它是對某一多光譜圖像X,利用K-L變換矩陣A進行線性組合,而產生一組新的多光譜圖像Y,表達式為:
Y=AX
式中,X為變換前的多光譜空間的像元矢量;
Y為變換厚德主分量空間的像元矢量;
A為變換矩陣,是X空間協方差矩陣∑x的特徵向量矩陣的轉置矩陣。
從幾何意義上看,變換後的主分量空間坐標系與變換前的多光譜空間坐標系相比旋轉了一個角度,而新坐標系的坐標軸一定指向數據信息量較大的方向。就變換後的新波段主分量而言,它們所包含的信息不同,呈現逐漸減少趨勢。
建議你看看《數字圖像處理與機器視覺》張錚、王艷平、薛桂香等人編著,第10章講得很細致。
『叄』 matlab用PCA方法把矩陣降維之後,得到的新矩陣的物理意義是什麼
有兩種方法可以實現:
轉置矩陣:
b
=
a';
通用方法:reshape()函數
示例如下:
說明:reshape(a,m,n)
表示將矩陣a變換為m行n列的矩陣,通常用於矩陣形狀的改變,例如下面代碼將原來的1行4列矩陣轉換為2行2列矩陣:
『肆』 數組用PCA降維之後,維數是固定的,能自己設定的嗎
PCA在給定輸入後就無法干預運算過程直至結果輸出的方法,輸出維數是按照分離出的特徵值占總特徵值的比例計算的,比如你設置要求精度0.65,PCA就會選取出特徵值占總特徵值0.65以上的相互正交的特徵值,它們對應的特徵向量的個數就是得到的輸出維數
『伍』 主成分分析PCA演算法:為什麼要對數據矩陣進行均值化
個人覺得
去均值化是為了方面後面的協方差,去均值化後各維度均值為零,
協方差中的均值也就是零了,方便求解。
具體,假設矩陣A去中心化後得到B,那麼B的協方差就是B*B的轉置
『陸』 在matlab中,關於PCA降維運算,求得特徵向量矩陣之後,又要如何才能得到我需要的投影矩陣呢
把你的特徵根從大到小排序。取對應的前10個特徵向量。
『柒』 利用PCA進行降維之後,如何利用降維後的特徵值和特徵向量恢復數據矩陣
pca 降維處理在綜合分析評價中是最好的應用方法。對於你的問題就是所說的重構概念,由特徵值和其對應的特徵向量已知的情況下,是不難重構原來的線性系統矩陣數據的。
『捌』 如何用python實現pca降維
首先2個包:
importnumpyasnp
fromsklearn.decompositionimportPCA
然後一個m x n 的矩陣,n為維度,這里設為x。
n_components = 12 是自己可以設的。
pca=PCA(n_components=12)
pca.fit(x)
PCA(=True,iterated_power='auto',n_components=12,random_state=None,
svd_solver='auto',tol=0.0,whiten=False)
float_formatter=lambdax:"%.2f"%x
np.set_printoptions(formatter={'float_kind':float_formatter})
print'explainedvarianceratio:'
printpca.explained_variance_ratio_
print'cumulativesum:'
printpca.explained_variance_ratio_.cumsum()
『玖』 圖像的PCA降維原理
K-L變換是離散變換的簡稱,又被稱為主成分變換(PCA)。它是對某一多光譜圖像X,利用K-L變換矩陣A進行線性組合,而產生一組新的多光譜圖像Y,表達式為:
Y=AX
式中,X為變換前的多光譜空間的像元矢量;
Y為變換厚德主分量空間的像元矢量;
A為變換矩陣,是X空間協方差矩陣∑x的特徵向量矩陣的轉置矩陣。
從幾何意義上看,變換後的主分量空間坐標系與變換前的多光譜空間坐標系相比旋轉了一個角度,而新坐標系的坐標軸一定指向數據信息量較大的方向。就變換後的新波段主分量而言,它們所包含的信息不同,呈現逐漸減少趨勢。
建議你看看《數字圖像處理與機器視覺》張錚、王艷平、薛桂香等人編著,第10章講得很細致。