没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
训练自己的MNASNET 动机 我们试图从实现这个MNASNET网络从头开始-并未能实现与我们所用的方法所要求的精度。 嗯,可能这就是为什么在Cadene的存储库中,仅从TF NASNET移动版的原因? 好吧,很高兴知道ImageNet上的培训网络并不像听起来那样简单。 即使我们未能在MNASNET上达到75-76%的top1精度要求,我们仍然相信最有可能的是训练方法(?)。 根据我们在各种培训制度下的经验,这些网络似乎在最高精度上达到了35-40%的峰值。 同样,也许我们应该等待15-30个ImageNET时期以上才能确认培训已停止,但谁知道呢。 事实是,Google在其声称使用了: RMSPROP作为优化器; 批标准化层的非常特殊的设置; 一些具有较高初始LR的预热时间表; 该论文在许多主题上有些含糊: 本文的最初版本没有提到激活层的使用(例如RELU)。 作者澄清这是一个错误/遗漏; FC +池化的确切设计。 作者澄清说,他们只是使用平均池。 上图所示的网络无法正常工作-您将不得不添加一些下采样层; 但是我从未见过成功使用RMSPROP的人。 在与一位成功培训
资源推荐
资源详情
资源评论
收起资源包目录
mnasnet-pytorch-master.zip (41个子文件)
mnasnet-pytorch-master
data
.gitignore 71B
src
models
resnext.py 5KB
__pycache__
InceptionResnet.cpython-36.pyc 9KB
Loss.cpython-36.pyc 5KB
OIClassifier.cpython-36.pyc 8KB
inception4.py 11KB
InceptionResnet.py 11KB
mnasnet.png 212KB
multi_class_loss.py 3KB
classifiers.py 4KB
model_params.py 2KB
semseg_loss.py 6KB
linknet.py 44KB
inception_resnet.py 11KB
resnext101_32x4d_features.py 67KB
decoder.py 8KB
mnasnet.py 8KB
unet.py 20KB
runs
.gitignore 72B
aug
cv2_augs.py 18KB
__pycache__
aug_presets.cpython-36.pyc 4KB
RAugs.cpython-35.pyc 21KB
cv2_augs.cpython-36.pyc 19KB
AugPresets.cpython-35.pyc 4KB
aug_presets.py 4KB
lib
composition.py 1KB
transforms.py 26KB
transforms_interface.py 2KB
__init__.py 212B
functional.py 13KB
train.py 30KB
weights
.gitignore 71B
utils
mutation_presets.py 198B
cyclic_lr.py 7KB
metric.py 1KB
bbox_tools.py 4KB
datasets.py 33KB
util.py 543B
mutations.py 8KB
cluster_random_sampler.py 2KB
README.md 6KB
共 41 条
- 1
资源评论
biuh
- 粉丝: 30
- 资源: 4736
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功