没有合适的资源?快使用搜索试试~ 我知道了~
tention-cnn:“关于自注意力和卷积层之间的关系”的源代码
共23个文件
py:14个
sh:6个
license:1个
需积分: 30 5 下载量 37 浏览量
2021-02-21
04:27:21
上传
评论 1
收藏 46KB ZIP 举报
温馨提示
自我注意和卷积 该代码随附于 , 和的论文发表于ICLR 2020)。 抽象的 将注意力机制整合到视觉中的最新趋势已导致研究人员重新考虑卷积层作为主要构建块的优势。 除了帮助CNN处理远程依赖关系之外,Ramachandran等人(英文)。 (2019)表明,注意力可以完全取代卷积,并在视觉任务上达到最先进的性能。 这就提出了一个问题:学到的注意力层的运作方式与卷积层的运作方式类似吗? 这项工作提供了证据表明注意力层可以进行卷积,实际上,他们经常在实践中学会这样做。 具体来说,我们证明具有足够数量的头的多头自我注意层至少与任何卷积层一样强大。 然后,我们的数值实验表明该现象也在实践中发生,从而证实了我们的分析。 我们的代码是公开可用的。 与注意力互动 查看我们的。 复制 要在具有GPU的Ubuntu计算机上运行我们的代码,请在全新的Anaconda环境中安装Python软件包: cond
资源推荐
资源详情
资源评论
收起资源包目录
attention-cnn-master.zip (23个子文件)
attention-cnn-master
requirements.txt 79B
models
gaussian.py 2KB
bert_utils.py 9KB
bert.py 93KB
__init__.py 355B
transformer.py 7KB
resnet.py 5KB
LICENSE 11KB
runs
quadratic-generalized-pruned
run.sh 583B
learned
run.sh 474B
many-heads
run.sh 445B
quadratic-generalized
run.sh 445B
quadratic
run.sh 444B
resnet
run.sh 256B
utils
plotting.py 3KB
__init__.py 0B
config.py 2KB
logging.py 2KB
accumulators.py 1KB
learning_rate.py 539B
data.py 829B
README.md 2KB
train.py 25KB
共 23 条
- 1
资源评论
茶了不几
- 粉丝: 30
- 资源: 4772
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功