线性代数基础

本征向量、本征值、正定矩阵的定性理解

对于一个非零向量x和一个矩阵A,如果标量a使得:Ax=ax,则称a为A的本征值,x为本征向量。

本征值和本征向量的求法:

Ax-ax=0

(A-aI)x=0

只要|A-aI|=0,就可以求出a,然后代入a求出本征向量x里元素的关系。

本征值在几何上的意义:会将对应本征向量方向上的向量进行缩放,也可以说:缩放的倍数就是本征值

正定矩阵:对于任意非零的向量x和一个对称矩阵A,如果满足:xTAx>0,就称A为正定矩阵。

正定矩阵在几何上面的理解:

在空间中找到一组为正交的向量,经过正定矩阵的变化,变化后他们还是正交的,且方向会不变。但是他们的向量的模会改变。

猜测:可以用来对图片进行缩放。

特征值分解和奇异值分解

参考资料:

  1. https://www.cnblogs.com/MyUniverse/p/10146907.html

TensorNetwork_1

首先学python。

python numpy函数:dot()

dot函数是矩阵乘,*是对应元素相乘。

1
2
3
4
5
6
a = np.array([[1, 1], [1, 1]])
b = np.array([[1, 0], [0, 1]])
c = np.dot(a, b)
# print(a.dot(b))
# print(np.inner(a, b))
# print(np.dot(a, b))
1
2
c = a * b
print(c)

transpose函数:请看这里

ndarray请看这里

tensordot请看这里

einsum请看这里