没有合适的资源?快使用搜索试试~ 我知道了~
在不使用任何额外数据的情况下,COCO数据集上物体检测结果为50.9 AP的方法.pdf
1.该资源内容由用户上传,如若侵权请联系客服进行举报
2.虚拟产品一经售出概不退款(资源遇到问题,请及时私信上传者)
2.虚拟产品一经售出概不退款(资源遇到问题,请及时私信上传者)
版权申诉
0 下载量 101 浏览量
2022-05-27
20:08:10
上传
评论
收藏 52KB PDF 举报
温馨提示
试读
1页
。。。
资源推荐
资源详情
资源评论
在不使用任何额外数据的情况下,COCO 数据集上物体检测结果为 50.9 AP
的方法
Google 最新的研究成果 BERT 的热度还没褪去,大家都还在讨论是否
ImageNet 带来的预训练模型之风真的要进入 NLP 领域了。如今,Facebook AI Research
的何恺明、Ross Girshick 及 Piotr Dollar 三位大佬共同完成的最新研究论文 Rethinking
ImageNet Pre-training,却引起了大家对 CV 领域预训练必要性的热议。
有人说大神的研究直接终结了“train from scratch”问题,激发了深度学习领域的活力;有
人认为在某些情况下 ImageNet 预训练模型也不再能提升最终的效果;有人发出感慨“是
时候需要重新思考了”,也有人表示“ImageNet 时代或将很快过去”。而在这篇 Paper 中,
大神们也在最后写到“希望这篇文章给大家在重新思考计算机视觉领域中像 ImageNet 预
训练模型类似的方法时,提供新的实验证据和讨论观点。预训练加微调的方法是否真的是
万能的?”
下面 AI 科技大本营就先为大家分析一下这篇 paper 的方法、实验及主要贡献,也欢迎大
家留言讨论~
摘要
在目标检测和实例分割两个领域,我们使用随机初始化方法训练的模型,在 COCO 数据
集上取得了非常鲁棒的结果。其结果并不比使用了 ImageNet 预训练的方法差,即使那些
方法使用了 MaskR-CNN 系列基准的超参数。在以下三种情况,得到的结果仍然没有降
低:(1)仅使用 10% 的训练数据;(2)使用更深和更宽的模型以及(3)使用多个任务
和指标。
实验表明,使用 ImageNet 的预训练模型可以在训练早期加快收敛速度,但不一定能带来
正则化的效果或最终提高目标任务的准确率。文中阐述了在不使用任何额外数据的情况
下,COCO 数据集上物体检测结果为 50.9 AP 的方法,而这一结果与使用 ImageNet 预
资源评论
春哥111
- 粉丝: 1w+
- 资源: 5万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功