使用scipy
,我想计算一个广义特征值问题(请参阅此链接)。
就我而言,matrix A
它是对称且真实的,尽管不是肯定的(它不需要是 afaik)。Matrix B
是实数、对称和正定的。因此,两种scipy
算法eig
都eigh
应该工作,我希望它们产生相同的结果。
但事实并非如此。要重现,请考虑以下试验矩阵:
A = [[-0.19031723,-0.40125581],[-0.40125581,-0.19031723]]
B = [[1.0,0.38703254],[0.38703254,1.0]]
>>> scipy.linalg.eig(A,B)
# Eigenvalues:
[-0.42650264+0.j, 0.34412688+0.j]
# Eigenvectors:
[[-0.70710678, -0.70710678],[-0.70710678, 0.70710678]]
>>> scipy.linalg.eigh(A,B)
# Eigenvalues:
[-0.42650264, 0.34412688]
# Eigenvectors:
[[-0.60040137, 0.90316332],[-0.60040137, -0.90316332]]
这不仅发生在我的计算机上,而且可以在不同的机器上重现。
我很困惑,为什么两种算法中的特征向量不相同?我需要担心吗?
重现代码(例如在https://www.katacoda.com/courses/python/playground):
import scipy.linalg as la
A = [[-0.19031723,-0.40125581],[-0.40125581,-0.19031723]]
B = [[1.0,0.38703254],[0.38703254,1.0]]
print("Result of scipy.linalg.eig(A,B)")
print(la.eig(A,B))
print("------------------")
print("Result of scipy.linalg.eigh(A,B)")
print(la.eigh(A,B))