pytorch-transformers==1.2.0
tensorboardX==1.8
tensorflow==1.14.0
torch==1.0.1.post2
tqdm==4.31.1
没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
在这里,我们将使用来自谷歌的预训练模型 bert 构建一个机器阅读理解系统,这是 NLP 深度学习的最新进展。 斯坦福问答数据集(SQuAD)是最早的大型英语阅读理解数据集之一。从模型的角度来看,输入以上下文/问题对的形式出现,输出是答案:整数对,索引上下文中包含的答案文本的开头和结尾。
资源推荐
资源详情
资源评论
收起资源包目录
人工智能-项目实践-预训练-基于预训练模型 BERT 的阅读理解.zip (11个子文件)
chinese-qa-with-bert-master
data
cmrc2018_trial.json 781KB
cmrc2018_dev.json 3.15MB
cmrc2018_train.json 7.07MB
input.json 846B
bert_qa.py 28KB
start.sh 434B
requirements.txt 97B
interactive.py 8KB
utils_squad.py 41KB
data-chinese.json 7KB
utils_squad_evaluate.py 14KB
共 11 条
- 1
资源评论
博士僧小星
- 粉丝: 1774
- 资源: 5875
下载权益
C知道特权
VIP文章
课程特权
开通VIP
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功