基于官网pytorch.org
pytorch 动态 比较优秀
py3.7支持是最多的啦
原来anaconda 是蟒蛇的意思
细思极恐 python 是蛇 yi
Introduction to PyTorch Tensors — PyTorch Tutorials 2.0.0+cu117 documentation
omygaga
英语极差 哈哈哈
tensor 多维数组
矩阵二维数组
Tensors are the central data abstraction in PyTorch.
张量是 PyTorch 中的核心数据抽象。 这个翻译属实有点抽象
First things first, let’s import the PyTorch module.
We’ll also add Python’s math module to facilitate some of the examples.
import torch
import math
np 和张量共享一个内存
1. 张量的创建方式
从列表中创建一个张量
从numpy变成张量
默认的数据类型
或者是从另外一个张量初始化到另一个张量
生成一个全为一的张量 torch.ones_like(v)
生成一个全为0的张量 torch.zeros_like(v)
还有一个生成随机的张量torch.random_like(b)
根据一个形状随即生成一个张量
其中随便加上一个, 其实并不影响
但是不能写成set 集合
接下来是关于tensor的一系列操作
tensor 有一百多种操作
刚才是在cpu 上显示的张量
先判断下 有没有这个 cuda环境
返回张量的个数
rang 生成连续遍历的索引 比下面这个arange 是要长一个单位的
arang返回的是一维的张量
9 是包括的哦
训练部署的话 直接用torch.arange就可以了(训练10轮)
for i in torch.arange(10):
print("epoch:", i)
生成对角线为1 的矩阵
创建张量的一种新形势 torch.full(size, fill)
size可以是 列表元组 或者是torch.size的类型
cat 相当于concat 对两个张量进行连接
tensors:多个tensor的列表 需要有同样的形状 除了需要conca的维度 可以不一样
chunk split a tensor into a specific number of chunks.特定数目的张量
dstack
hstack
gather 沿着某一些维取一些变量
这个还有点难 不好理解
让我来
。。。我把自己绕晕了
3-dim
顿悟了。。。学到三维就懂了
reshape是非常重要的
返回一个张量 这个张量和输入的张量大小相同
说的啥呀
reshape 不会改变顺序
-1 就是默认的总的长度
-1 放后面就是 张开的行向量
今晚就先到这吧 临时要赶英语作业 太难了 研究生还要做作业的吗