没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
试读
32页
整理了PNAS的相关论文,并做了PPT汇报。提供给有需要的人。 NASNet的计算开销大,而且运行时间长,PNAS改进减少了计算开销,并且效果不比NASNet的差。 PNAS运用SMOB策略,用SMOB取代了RL(强化学习)和EA(进化算法) 使用代理模型引导搜索结构空间。 在相同的搜索空间下比较表明,PNAS在被评估的模型数量方面比RL方法(NAS)效率高5倍,在总计算方面快8倍。 提出了用启发式搜索空间架构,从简单到复杂依次搜索(SMOB)。 在此篇文章中提出一种新的启发式搜索来搜索cell结构的空间,从简单的模型开始一步步过渡到复杂的,在这个过程中抛弃一些不好的架构。在算法迭代b中,有K个候选cell(每个cell有b个block)用于数据集的训练和评估。因为这个过程是昂贵的,提出了一种在预测性能时不需要训练架构的代理模型。 PNAS将大小为b的K个候选对象扩展成大小为b+1的K^’个子对象。应用代理函数对所有K^’的子模型进行排序,选择最前面的K个子模型,然后训练和计算它们。一直迭代直到b=B。 PNAS有很多优点:1 因为简单的架构训练得更快,所以能很快的训练代理通过得到的
资源推荐
资源详情
资源评论
XDU
ProgressiveNeuralArchitectureSearch
ProgressiveNeuralArchitectureSearch
▶ 汇报人:
▶ 汇报时间:2023.03.15
JohnsHopkinsUniversityGoogleAIStanfordUniversity
JohnsHopkinsUniversityGoogleAIStanfordUniversity
CVPR2020
CVPR2020
XDU
目
目
录
录
CONTENT
CONTENT
壹
壹 创新点
03
贰 背景
04
叁 搜索空间 06
肆 渐进模型 10
伍 代理模型 12
问题与方案
西安电子科技大学
3
创新点
背景
搜索空间
主要解决的问题
NASNet的计算开销大,而且运行时
间长,PNAS改进减少了计算开销,
并且效果不比NASNet的差。
主要创新点
• PNAS运用SMOB策略,用SMOB
取代了RL(强化学习)和EA(进
化算法)
• 使用代理模型引导搜索结构空间
PNAS效果
在相同的搜索空间下比较表明,
PNAS在被评估的模型数量方面比RL
方法(NAS)效率高5倍,在总计算
方面快8倍。
解决问题的方法
提出了用启发式搜索空间架构,从简
单到复杂依次搜索(SMOB)
代理模型
渐进模型
NAS背景
西安电子科技大学
4
创新点
背景
搜索空间
代理模型
渐进模型
原文链接:https://blog.csdn.net/weixin_41943637/article/details/102155844
• 学习网络架构的方法主要用的是EA和RL
• EA:每一个神经网络架构被编码成字符串,在搜索空间时随机变化和重
新组合字符串,每一个模型紧接着在验证集上训练和评估,然后表现良
好的模型产生“children”
• RL:agent执行一系列动作,这些动代表模型的架构,这些模型被训练
以及用reward来测量它们的表现性能,使用reward不断更新控制器RNN
。
• RL和EA需要巨大的计算资源。例如RL要训练评估2000个神经网络需要
100GPUs训练4天。
• 本文用的是NASNet那篇论文用的架构搜索空间。
本文主要思想
西安电子科技大学
5
创新点
背景
搜索空间
代理模型
渐进模型
原文链接:https://blog.csdn.net/weixin_41943637/article/details/102155844
剩余31页未读,继续阅读
资源评论
一杯清酒
- 粉丝: 585
- 资源: 2
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功