没有合适的资源?快使用搜索试试~ 我知道了~
Weighted-Soft-Label-Distillation
共17个文件
py:16个
md:1个
需积分: 15 0 下载量 121 浏览量
2021-05-19
05:53:01
上传
评论
收藏 19KB ZIP 举报
温馨提示
重新考虑软标签以进行知识蒸馏:偏差方差折衷的观点 被ICLR 2021接受 这是论文PyTorch的官方实现,偏方。 要求 Python> = 3.6 PyTorch> = 1.0.1 ImageNet培训 该代码用于培训Imagenet。 我们训练有素的教师模型是Pytorch官方模型。 默认情况下,我们将ImageNet数据打包为lmdb文件,以实现更快的IO。 可以按照以下步骤制作lmdb文件。 生成图像数据列表。 python数据集/mk_img_list.py --image_path'图像数据的路径'--output_path'输出列表文件的路径' 使用上面获得的图像列表制作lmdb文件。 python数据集/img2lmdb.py --image_path'图像数据的路径'--list_path'图像列表的路径'--output_path'输出lmdb文件的路径'--s
资源推荐
资源详情
资源评论
收起资源包目录
Weighted-Soft-Label-Distillation-master.zip (17个子文件)
Weighted-Soft-Label-Distillation-master
models
ResNet.py 8KB
MobileNet.py 2KB
__init__.py 0B
tools
utils.py 790B
__init__.py 0B
collections.py 2KB
train_with_distillation.py 8KB
dataset
lmdb_dataset.py 5KB
torchvision_extension.py 2KB
__init__.py 0B
prefetch_data.py 5KB
mk_img_list.py 968B
imagenet_data.py 5KB
img2lmdb.py 3KB
knowledge_distiller.py 3KB
imagenet_train_cfg.py 1KB
README.md 2KB
共 17 条
- 1
资源评论
管墨迪
- 粉丝: 21
- 资源: 4666
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功