文章目录
- 前言
- 矩阵/向量操作
- 来源
前言
线性代数中一些矩阵、向量操作
矩阵/向量操作
import torch
A=torch.arange(20).reshape(5,4)
# 转置A
print(A.T)
# 通过分配新内存,将A的副本分配给B
B=A.clone()
print(B)
# 两矩阵按元素乘法 (哈达玛积)
print(A*B)
# 矩阵所有元素+ * 一个值
a=2
print(A+a)
print(A*a)
A=torch.arange(20*2).reshape(2,5,4)
print(A)
# 对第一个维度求和
A_sum_axis0=A.sum(axis=0)
print(A_sum_axis0)
print(A_sum_axis0.shape)
# 对第二个维度求和
A_sum_axis1=A.sum(axis=1)
print(A_sum_axis1)
# 同时对两个维度求和
print(A.sum(axis=[0,1]))
# 对某个维度求平均值
A=torch.arange(20*2, dtype=torch.float32).reshape(2,5,4)
# print(A.shape[0])
print(A.mean(axis=0))
print(A.sum(axis=0)/A.shape[0])
# 求和或均值后想保持维度不变,keepdims=true
print(A.sum(axis=1))
print(A.sum(axis=1,keepdims=True))
# 按行累加 第二行=第一行+第二行 ,第三行=第三行+新的第二行....
print(A.cumsum(axis=0))
# 点积 相同位置按元素相乘并求和
y=torch.ones(4,dtype=torch.float32)
x=torch.tensor([0.,1,2,3])
print(x)
print(y)
print(torch.dot(x,y))
# 也可以 用sum计算两者想乘的结果
print(torch.sum(x*y))
# 矩阵向量积
A=A.sum(axis=0)
print(A.shape)
print(x.shape)
print(torch.mv(A,x))
# 矩阵矩阵乘法 5*4矩阵 * 4*3矩阵
B=torch.ones(4,3)
print(torch.mm(A,B))
# 向量长度:向量元素平方和的平方根
u=torch.tensor([3.0,-4.0])
print(torch.norm(u))
# 向量元素的绝对值之和
print(torch.abs(u).sum())
# 矩阵元素的平方和的平方根
print(torch.norm(torch.ones((4,9))))
来源
b站 跟李沐学AI 动手学深度学习v2 05