下面的理解可能不够严谨,做出这样的理解只是为了方便记忆公式,仅供参考。

不同的特征值一定对应不同的线性无关的特征向量,相同的特征值可能对应不同的线性无关的特征向量,也可能对应线性相关的特征向量。

下面我们来讨论存在重特征值的情况。

如果 $n$ 阶矩阵 $A$ 有两个特征值是相等的,其余特征值都是和这两个特征值不相等且其余特征值之间也互不相等的,那么,这两个相等的特征值其实只能算是一个特征值,因为把他俩带入到 $(\lambda_{i}E-A)x=0$ 这个公式中起到的效果是一样的。这个时候,如果这个 $2$ 重特征值还是只能使矩阵 $\lambda_{i} E – A$ 中的某一行或者某一列变为全零,那么这个 $2$ 重特征值只能对应一个特征向量,或者说这个 $2$ 重特征值对应了两个线性相关的特征向量($2$ 个线性相关的向量就相当于 $1$ 个)。因为,不管是几重特征值都只相当于一个特征值,一个特征值只能带入求特征向量的公式 $(\lambda_{i}E-A)x=0$ 中计算一次,而在一次计算中向量 $x$ 只能被赋值一次,从而只会产生一个特征向量。

如上所述,在判断矩阵是否可以相似对角化的题目中常常会用到该知识,在考研数学中,该知识十分重要。