没有合适的资源?快使用搜索试试~ 我知道了~
squad-transformer:无RNN的TensorFlow模型用于SQuAD上的阅读理解
共18个文件
py:10个
png:2个
sh:1个
需积分: 19 0 下载量 139 浏览量
2021-05-24
09:11:00
上传
评论
收藏 1.84MB ZIP 举报
温馨提示
注意是SQuAD的全部需求 概述 有效的阅读理解模型通常依赖于递归神经网络(RNN)来捕获文本中的位置依存关系。 但是,RNN在构造上是顺序的,这限制了在训练和推理过程中可能发生的并行执行量。 在“,作者尝试在神经机器翻译设置中用自我注意力完全替代RNN模块。 它们替代复发性细胞称为“变形金刚”。 本研究的精神是,我们遵循并实施无RNN,基于注意力的模型,该模型在(SQuAD)上具有竞争力。 特别是,我们仅使用卷积,密集层和自我关注,因此我们的模型训练速度比基于RNN的类似模型快约4.5倍。 在不牺牲有效性的情况下就加快了速度:单个模型获得了67.8 / 77.6 EM / F1分数,而10个模型的集合在开发集上的官方评估中获得了70.6 / 79.6 EM / F1分数。 编码器块 我们模型的主要组成部分称为编码器块。 下图显示了一个变压器(左)和一个编码器块(右)。 请注意,编码器模
资源推荐
资源详情
资源评论
收起资源包目录
squad-transformer-master.zip (18个子文件)
squad-transformer-master
LICENSE 10KB
imgs
model.png 915KB
transformer_vs_encoder_block.png 938KB
code
main.py 21KB
data_batcher.py 4KB
preprocessing
squad_preprocess.py 20KB
__init__.py 0B
download_wordvecs.py 1KB
saver.py 7KB
evaluate.py 5KB
__init__.py 0B
dataset_stats.ipynb 61KB
model.py 27KB
modules.py 33KB
requirements.txt 431B
.gitignore 150B
README.md 9KB
setup_repo.sh 849B
共 18 条
- 1
资源评论
吴玄熙
- 粉丝: 18
- 资源: 4583
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功