关于特征值特征向量和矩阵分解的理解总结
本文已参与「新人创作礼」活动,一起开启掘金创作之路。
我们知道,矩阵乘法对应了一个变换,是把任意一个向量变成另一个方向或长度都大多不同的新向量。在这个变换的过程中,原向量主要发生旋转、伸缩的变化。如果矩阵对某一个向量或某些向量只发生伸缩变换,不对这些向量产生旋转的效果,那么这些向量就称为这个矩阵的特征向量,伸缩的比例就是特征值。 实际上,上述的一段话既讲了矩阵变换特征值及特征向量的几何意义(图形变换)也讲了其物理含义。物理的含义就是运动的图景:特征向量在一个矩阵的作用下作伸缩运动,伸缩的幅度由特征值确定。特征值大于1,所有属于此特征值的特征向量身形暴长;特征值大于0小于1,特征向量身形猛缩;特征值小于0,特征向量缩过了界,反方向到0点那边去了。 关于特征值和特征向量,这里请注意两个亮点。这两个亮点一个是线性不变量的含义,二个是振动的谱含义。 ——《线性代数的几何意义》
如果存在某个或某些向量在A作用之后,它只是伸长或者缩短,其位置仍停留在其原来张成的直线上,那么称之为A的特征向量,伸长或者缩短的倍数称为对应特征向量的特征值。公式表达为: A\overline v=λ\overline v ,\quad|A−λI|=0 \tag{1} 个特征向量就是 个标准正交基,而特征值的模则代表矩阵在每个基上的投影长度。
在查找相关资料时,知乎马同学大佬讲解的非常详细,这里再总结一下!特征值和特征向量,称为一个特征空间,如果反复乘一个矩阵,该向量会越贴合最大值所对应的特征向量!引用马同学知乎中的一张图。
该向量会沿着特征值最大的特征空间的方向!一个很重要的性质!有大佬上传了视频到YouKu上面。
如果A为样本的协方差矩阵,特征值 的大小就反映了变换后在特征向量方向上变换的幅度,幅度越大,说明这个方向上的元素差异也越大,换句话说这个方向上的元素更分散。
关于矩阵分解,就是为了得到特征值和特征向量,对于矩阵可以对角化的话,可以通过相似矩阵进行下面这样的特征值分解: 其中为对角阵,的列向量是单位化的特征向量。特征值就是拉伸的比例,特征向量确定了拉伸的方向。
特征向量正交,这样变换后才能保证变换最大的方向在基方向。如果特征向量不正交就有可能不是变化最大的方向。
矩阵特征值是对特征向量进行伸缩和旋转程度的度量,实数是只进行伸缩,虚数是只进行旋转,复数就是有伸缩有旋转。其实最重要的是特征向量,从它的定义可以看出来,特征向量是在矩阵变换下只进行“规则”变换的向量,这个“规则”就是特征值。
1) 和 有相同的特征值,但是特征向量不一定相同 证明:
2)若 且 则
3)若方阵的n个特征值为,则有① ,也就是所有的特征值之和就为矩阵对角线元素之和;②
4)互不相同的特征值 对应的特征向量 线性无关
5)对4)进行补充,如果每个特征向量有多对特征值,那么这些特征向量也是线性无关的
6) 重特征根,对应的线性无关的特征向量的个数小于等于
其它性质: 1) 是 的特征值
2) 是 的特征值, 是 的特征值
3) 是 的特征值; 是 的特征值
参考文章: 1.特征值和特征向量 2.特征值(eigenvalue)特征向量(eigenvector)特征值分解(eigenvalue decomposition) 3.如何理解矩阵特征值? 4.【线性代数(13)】矩阵的特征值与特征向量含义及性质