没有合适的资源?快使用搜索试试~ 我知道了~
pytorch-distributed:pytorch 分布式训练的快速入门和基准测试
共12个文件
py:6个
sh:2个
gitignore:1个
需积分: 5 6 下载量 187 浏览量
2021-08-04
22:56:29
上传
评论 1
收藏 33KB ZIP 举报
温馨提示
Distribution is all you need Take-Away 笔者使用 PyTorch 编写了不同加速库在 ImageNet 上的使用示例(单机多卡),需要的同学可以当作 quickstart 将需要的部分 copy 到自己的项目中(Github 请点击下面链接): 简单方便的 nn.DataParallel 使用 torch.distributed 加速并行训练 使用 torch.multiprocessing 取代启动器 使用 apex 再加速 horovod 的优雅实现 GPU 集群上的分布式 补充:分布式 这里,笔者记录了使用 4 块 Tesla V100-PICE 在 ImageNet 进行了运行时间的测试,测试结果发现 Apex 的加速效果最好,但与 Horovod/Distributed 差别不大,平时可以直接使用内置的 Distributed。D
资源推荐
资源详情
资源评论
收起资源包目录
pytorch-distributed-master.zip (12个子文件)
pytorch-distributed-master
.gitignore 378B
README.md 28KB
apex_distributed.py 15KB
distributed.py 12KB
LICENSE 1KB
multiprocessing_distributed.py 12KB
distributed_slurm_main.py 12KB
requirements.txt 61B
statistics.sh 764B
start.sh 468B
horovod_distributed.py 13KB
dataparallel.py 11KB
共 12 条
- 1
资源评论
tafan
- 粉丝: 40
- 资源: 4652
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功