没有合适的资源?快使用搜索试试~ 我知道了~
BYOL:使用DistributedDataParallel引导您自己的潜在(BYOL)pytorch实现
共14个文件
py:4个
yml:2个
sh:2个
需积分: 21 0 下载量 152 浏览量
2021-05-02
19:46:55
上传
评论
收藏 24KB ZIP 举报
温馨提示
BYOL-火炬 在使用DistributedDataParallel(1GPU:1Process)实现BYOL。 这样就可以扩展到任何批量大小。 例如,使用64 gpu时可能会产生4096个批处理大小,在FP32中每个批处理大小为64,分辨率为224x224x3(请参阅下面的FP16支持)。 用法单个GPU NOTE0 :这不会产生SOTA结果,但是对于调试非常有用。 作者对SOTA使用4096+的批处理大小。 注意1 :设置你的github ssh令牌; 如果您从git clone获得身份验证问题,则很可能是这样。 > git clone --recursive git+ssh://git@github.com/jramapuram/BYOL.git # DATADIR is the location of imagenet or anything that works with i
资源推荐
资源详情
资源评论
收起资源包目录
BYOL-master.zip (14个子文件)
BYOL-master
slurm
run.sh 2KB
.gitignore 1KB
README.md 6KB
.gitmodules 189B
.github
FUNDING.yml 21B
environment.yml 5KB
LICENSE 1KB
datasets
objective.py 987B
main.py 35KB
docker
Dockerfile 1KB
run.sh 1KB
optimizers
scheduler.py 2KB
lars.py 4KB
requirements.txt 1KB
helpers
共 14 条
- 1
资源评论
张一库
- 粉丝: 33
- 资源: 4677
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功