🎯要点
🎯亚光子光神经网络矩阵计算 | 🎯光学扇入计算向量点积 | 🎯表征测量确定不同光子数量下计算准确度 | 🎯训练全连接多层感知器基准测试光神经网络算法数字识别 | 🎯物理验证光学设备设置 | 🎯使用多像素光子计数器作为光子探测器和光学能耗测量 | 🎯光学检测像素调整条件 | 🎯数学矩阵计算准确度
📜光学和散射用例
🍪语言内容分比
🍇PyTorch爱因斯坦矩阵矢量
在数学中,尤其是数学物理和微分几何中线性代数的使用,爱因斯坦符号(也称为爱因斯坦求和约定或爱因斯坦求和符号)是一种符号约定,它意味着对公式中的一组索引项求和,从而实现简洁。作为数学的一部分,它是里奇演算的符号子集。然而,它经常用于不区分正切和余切空间的物理应用中。它是由阿尔伯特·爱因斯坦于 1916 年引入物理学的。
根据约定,当索引变量在一项中出现两次且未另行定义时,则意味着该项对所有索引值的求和。因此,索引的范围可以在集合
{
1
,
2
,
3
}
\{1,2,3\}
{1,2,3} 上,
y
=
∑
i
=
1
3
c
i
x
i
=
c
1
x
1
+
c
2
x
2
+
c
3
x
3
y=\sum_{i=1}^3 c_i x^i=c_1 x^1+c_2 x^2+c_3 x^3
y=i=1∑3cixi=c1x1+c2x2+c3x3
简化为:
y
=
c
i
x
i
y=c_i x^i
y=cixi
上面的索引不是指数,而是坐标、系数或基向量的索引。也就是说,在这种情况下, x 2 x^2 x2 应该被理解为 x x x 的第二个分量,而不是 x x x 的平方(这有时会导致歧义)。 x i x^i xi 中的上索引位置之所以如此,是因为索引在术语的上位置(上标)和下位置(下标)中出现一次。通常, ( x 1 x 2 x 3 ) \left(x^1 x^2 x^3\right) (x1x2x3) 相当于传统的 ( x y z ) (x y z) (xyz)。
代码示例
使用爱因斯坦符号和 einsum 函数,我们只需使用一个函数就可以计算向量和矩阵:torch.einsum(equation, *operands)
。
让我们看一个简短的例子:
torch.einsum(‘ik, kj->ij’, X, Y)
此处是矩阵乘法。 i i i和 j j j是所谓的自由索引,k是求和索引。后者可以定义为发生求和的索引。如果我们将矩阵乘法想象为嵌套循环, i i i 和 j j j 将是外部循环,k 循环将是求和循环:
转置:
import torch
X = torch.rand((4, 5))
Y = torch.rand((5, 2))
Z = torch.empty((4, 2))
for i in range(X.shape[0]):
for j in range(Y.shape[1]):
total = 0
for k in range(X.shape[1]):
total += X[i,k] * Y[k,j]
Z[i,j] = total
其可能用于其他用途,但转置向量或矩阵似乎是最著名的用例。
求和:
import torch
X = torch.rand((2, 3))
a = torch.einsum('ij->', X)
torch.sum(X)
print(a)
简单求和,我们不返回索引。输出是一个标量。或者,准确地说,是一个只有一个值的张量。
行和列求和:
import torch
X = torch.rand((2, 3))
a = torch.einsum('ij->i', X)
torch.sum(X, axis=1)
print(a)
b = torch.einsum('ij->j', X)
torch.sum(X, axis=0)
print(b)
逐元素乘法:
import torch
X = torch.rand((3, 2))
Y = torch.rand((3, 2))
A = torch.einsum('ij, ij->ij', X, Y)
torch.mul(X, Y) # or X * Y
print(A)
点积:
import torch
v = torch.rand((3))
c = torch.rand((3))
a = torch.einsum('i, i->', v, c)
torch.dot(v, c)
print(a)
外积:
import torch
v = torch.rand((3))
t = torch.rand((3))
A = torch.einsum('i, j->ij', v, t)
torch.outer(v, t)
print(A)
矩阵向量乘法
import torch
X = torch.rand((3, 3))
y = torch.rand((1, 3))
A = torch.einsum('ij, kj->ik', X, y)
torch.mm(X, torch.transpose(y, 0, 1)) # or torch.mm(X, y.T)
print(A)
矩阵矩阵乘法
import torch
X = torch.arange(6).reshape(2, 3)
Y = torch.arange(12).reshape(3, 4)
A = torch.einsum('ij, jk->ik', X, Y)
torch.mm(X, Y)
print(A)
批量矩阵乘法
import torch
X = torch.arange(24).reshape(2, 3, 4)
Y = torch.arange(40).reshape(2, 4, 5)
A = torch.einsum('ijk, ikl->ijl', X, Y)
torch.bmm(X, Y)
print(A)