PCA降维去中心化
『壹』 python sklearn pca降维前需要数据归一化吗
不用
fromsklearn.decompositionimportPCA
pca=PCA(n_components=1)
newData=pca.fit_transform(data)
可以去这里看看,有详细说明。
http://doc.okbase.net/u012162613/archive/120946.html
『贰』 我用PCA做特征降维后svm分类效果不好,为啥
K-L变换是离散变换的简称,又被称为主成分变换(PCA)。它是对某一多光谱图像X,利用K-L变换矩阵A进行线性组合,而产生一组新的多光谱图像Y,表达式为:
Y=AX
式中,X为变换前的多光谱空间的像元矢量;
Y为变换厚德主分量空间的像元矢量;
A为变换矩阵,是X空间协方差矩阵∑x的特征向量矩阵的转置矩阵。
从几何意义上看,变换后的主分量空间坐标系与变换前的多光谱空间坐标系相比旋转了一个角度,而新坐标系的坐标轴一定指向数据信息量较大的方向。就变换后的新波段主分量而言,它们所包含的信息不同,呈现逐渐减少趋势。
建议你看看《数字图像处理与机器视觉》张铮、王艳平、薛桂香等人编著,第10章讲得很细致。
『叁』 matlab用PCA方法把矩阵降维之后,得到的新矩阵的物理意义是什么
有两种方法可以实现:
转置矩阵:
b
=
a';
通用方法:reshape()函数
示例如下:
说明:reshape(a,m,n)
表示将矩阵a变换为m行n列的矩阵,通常用于矩阵形状的改变,例如下面代码将原来的1行4列矩阵转换为2行2列矩阵:
『肆』 数组用PCA降维之后,维数是固定的,能自己设定的吗
PCA在给定输入后就无法干预运算过程直至结果输出的方法,输出维数是按照分离出的特征值占总特征值的比例计算的,比如你设置要求精度0.65,PCA就会选取出特征值占总特征值0.65以上的相互正交的特征值,它们对应的特征向量的个数就是得到的输出维数
『伍』 主成分分析PCA算法:为什么要对数据矩阵进行均值化
个人觉得
去均值化是为了方面后面的协方差,去均值化后各维度均值为零,
协方差中的均值也就是零了,方便求解。
具体,假设矩阵A去中心化后得到B,那么B的协方差就是B*B的转置
『陆』 在matlab中,关于PCA降维运算,求得特征向量矩阵之后,又要如何才能得到我需要的投影矩阵呢
把你的特征根从大到小排序。取对应的前10个特征向量。
『柒』 利用PCA进行降维之后,如何利用降维后的特征值和特征向量恢复数据矩阵
pca 降维处理在综合分析评价中是最好的应用方法。对于你的问题就是所说的重构概念,由特征值和其对应的特征向量已知的情况下,是不难重构原来的线性系统矩阵数据的。
『捌』 如何用python实现pca降维
首先2个包:
importnumpyasnp
fromsklearn.decompositionimportPCA
然后一个m x n 的矩阵,n为维度,这里设为x。
n_components = 12 是自己可以设的。
pca=PCA(n_components=12)
pca.fit(x)
PCA(=True,iterated_power='auto',n_components=12,random_state=None,
svd_solver='auto',tol=0.0,whiten=False)
float_formatter=lambdax:"%.2f"%x
np.set_printoptions(formatter={'float_kind':float_formatter})
print'explainedvarianceratio:'
printpca.explained_variance_ratio_
print'cumulativesum:'
printpca.explained_variance_ratio_.cumsum()
『玖』 图像的PCA降维原理
K-L变换是离散变换的简称,又被称为主成分变换(PCA)。它是对某一多光谱图像X,利用K-L变换矩阵A进行线性组合,而产生一组新的多光谱图像Y,表达式为:
Y=AX
式中,X为变换前的多光谱空间的像元矢量;
Y为变换厚德主分量空间的像元矢量;
A为变换矩阵,是X空间协方差矩阵∑x的特征向量矩阵的转置矩阵。
从几何意义上看,变换后的主分量空间坐标系与变换前的多光谱空间坐标系相比旋转了一个角度,而新坐标系的坐标轴一定指向数据信息量较大的方向。就变换后的新波段主分量而言,它们所包含的信息不同,呈现逐渐减少趋势。
建议你看看《数字图像处理与机器视觉》张铮、王艳平、薛桂香等人编著,第10章讲得很细致。