没有合适的资源?快使用搜索试试~ 我知道了~
PyTorch autograd模块1
需积分: 0 0 下载量 192 浏览量
2022-08-03
17:15:47
上传
评论
收藏 440KB PDF 举报
温馨提示
试读
5页
PyTorch autograd模块1
资源详情
资源评论
资源推荐
PyTorch autograd模块
autograd 库主要提供了对Tensors上所有运算操作的自动微分功能,属于
define-by-run ;类型框架。即反向传播操作的定义是根据代码的运行方式。因此每
次迭代都可以是不同的
1.张量
torch.Tensor 设置他的属性 .requires_grad=True 就会开始追踪在该变量上的
所有操作,而完成计算后,可以调用 .backward 并自动计算所有梯度,得到的梯度
都保存在属性 .grad 中。
调用 detach() 方法分离出计算的历史,可以停止一个tensor变量继续追踪其历史信
息,也可以防止未来的计算也被追踪。
如果希望防止跟踪历史以及使用内存,可以将代码块放在 with torch.no_grad():
内,这个做法在使用一个模型进行评估时常使用,因为模型会包含一些带有
require_grad=True 的训练参数。
Tensor 和 Function 两个类时有关联并建立了一个非循环的图,可以编码一个
完整的计算记录。每个tensor变量都带有属性 .grad_fn ,该属性引用了创建
了这个变量的 Function (除非时是用户创建的Tensors,它们
grad_fn=None )
如果要进行求导运算,可以调用一个 Tensor 变量的方法 .backward 如果该变量是
一个标量,不需要传递任何参数给 .backward() 。当包含多个元素时,必须指定一
个 gradient 参数,表示匹配尺寸大小的tensor。
代码实现:
导入必须的库:
开始创建一个tensor,并让 requires_grad=True 来追踪该变量相关的计算操作:
输出:
improt torch
x = torch.ones(2, 2, requires_grad=True)
print(x)
断脚的鸟
- 粉丝: 19
- 资源: 301
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 论文(最终)_20240430235101.pdf
- 基于python编写的Keras深度学习框架开发,利用卷积神经网络CNN,快速识别图片并进行分类
- 最全空间计量实证方法(空间杜宾模型和检验以及结果解释文档).txt
- 5uonly.apk
- 蓝桥杯Python组的历年真题
- 2023-04-06-项目笔记 - 第一百十九阶段 - 4.4.2.117全局变量的作用域-117 -2024.04.30
- 2023-04-06-项目笔记 - 第一百十九阶段 - 4.4.2.117全局变量的作用域-117 -2024.04.30
- 前端开发技术实验报告:内含4四实验&实验报告
- Highlight Plus v20.0.1
- 林周瑜-论文.docx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功
评论0