4

使用scipy,我想计算一个广义特征值问题(请参阅此链接)。

就我而言,matrix A它是对称且真实的,尽管不是肯定的(它不需要是 afaik)。Matrix B是实数、对称和正定的。因此,两种scipy算法eigeigh应该工作,我希望它们产生相同的结果。

但事实并非如此。要重现,请考虑以下试验矩阵:

A = [[-0.19031723,-0.40125581],[-0.40125581,-0.19031723]]
B = [[1.0,0.38703254],[0.38703254,1.0]]

>>> scipy.linalg.eig(A,B)
# Eigenvalues:
[-0.42650264+0.j,  0.34412688+0.j]
# Eigenvectors:
[[-0.70710678, -0.70710678],[-0.70710678,  0.70710678]]

>>> scipy.linalg.eigh(A,B)
# Eigenvalues:
[-0.42650264,  0.34412688]
# Eigenvectors:
[[-0.60040137,  0.90316332],[-0.60040137, -0.90316332]]

这不仅发生在我的计算机上,而且可以在不同的机器上重现。

我很困惑,为什么两种算法中的特征向量不相同?我需要担心吗?


重现代码(例如在https://www.katacoda.com/courses/python/playground):

import scipy.linalg as la
A = [[-0.19031723,-0.40125581],[-0.40125581,-0.19031723]]
B = [[1.0,0.38703254],[0.38703254,1.0]]

print("Result of scipy.linalg.eig(A,B)")
print(la.eig(A,B))
print("------------------")
print("Result of scipy.linalg.eigh(A,B)")
print(la.eigh(A,B))
4

1 回答 1

1

eigh仅适用于对称矩阵,因此使用更快(且不同)的算法。这就是为什么它会产生不同的结果。任何给定的特征值都有无限数量的特征向量,所以我认为你不需要担心。

我从来没有使用过这些方法,只是脱离了我的线性代数知识以及我在网上找到的东西eigheig所以如果我错了,请纠正我。

于 2018-08-08T16:21:58.167 回答