特征向量怎么求 求特征值和特征向量的步骤


特征值与特征向量在数学与统计领域中展现出卓越的特性,它们是线性代数的重要概念之一,并在多元统计分析方法中有着广泛的应用。

在数学,尤其是线性代数的世界里,当A为一个n阶矩阵,若数λ与非零n维向量v满足Av=λv的关系时,数λ即被称为A的特征值,而v则对应于特征值λ的特征向量。

在多元统计领域,特征值与特征向量的概念在主成分分析和因子分析中起着核心作用。

关于主成分分析:

1. 特征向量的正交化确保了主成分之间相互独立,无相关性。

2. 单位化处理简化了主成分表达式中线性组合的系数。

3. 主成分的方差与其相应的特征值相匹配。特征值的总和与原始变量方差的总和相等,这表示所有主成分共同反映了原始变量的全面信息。

4. 在选择主成分的过程中,特征值通过限定方差的贡献程度,有效控制了包含重要信息的主成分。

特征向量之间始终保持正交,这一特性在数学推导和物理应用中都有着重要的意义。

特征值的总和等于矩阵R的迹(即主对角线元素的总和),它代表了总方差。而特征值的乘积则等于矩阵的行列式值,与广义方差相关联。

再谈因子分析:

特征值和特征向量在因子模型中扮演着关键角色,特别是在对应分析中用于计算因子载荷矩阵。

为了进一步阐释特征值与向量的重要性,我们可以假设一个双变量模型。给定相关系数矩阵R,我们可以从中得出两对特征值和特征向量。

特征向量决定了椭圆形状的两条轴的方向。椭圆轴的半长与特征值的平方根成比例。在两个变量的情境下,特征值较大的特征向量代表长轴方向。我们处于一个平面图形的环境中。

在原坐标系中,每个样本都有其特定的横纵坐标。有了特征向量后,我们可以顺着其方向绘制新的轴,即围绕椭圆建立新的坐标轴。尽管轴心位置未变,但样本的横纵坐标会发生变化。

由于轴的顺序是根据特征值大小排列的,因此在解释样本变异方向时,排在前面的轴具有更高的重要性。

如上图所示,尽管特征值总和均为2,但各图的特征值与向量分布各有不同。在左图中,由于两个特征值相近,椭圆轴长度也相近,样本散布接近圆形。中间图的λ1略大于λ2,表示负相关关系更为普遍。而在右图,λ1远大于λ2,显示出强烈的正相关关系。