没有合适的资源?快使用搜索试试~ 我知道了~
Chinese-BERT-wwm:汉语BERT的全字掩蔽预训练(EnglishBERT-wwm系列模型)
共26个文件
md:13个
png:6个
zip:3个
5星 · 超过95%的资源 需积分: 50 38 下载量 107 浏览量
2021-02-03
15:15:24
上传
评论 3
收藏 15.64MB ZIP 举报
温馨提示
| 在自然语言处理领域中,预训练语言模型(预训练语言模型)已成为非常重要的基础技术。为了进一步促进中文信息处理的研究发展,我们发布了基于全词遮罩(Whole Word Masking)技术的中文预训练模型BERT-wwm,以及更多技术相关的模型:BERT-wwm-ext,RoBERTa-wwm-ext,RoBERTa-wwm-ext-large,RBT3,RBTL3。 崔一鸣,车万祥,刘婷,秦兵,杨自清,王世进,胡国平 本项目基于谷歌官方BERT: : 其他相关资源: MacBERT预训练模型: : 中文ELECTRA预训练模型: : 中文XLNet预训练模型: : 知识蒸馏工具TextBrewer: : 查看更多哈工大讯飞联合实验室(HFL)发布的资源: : 新闻 2021年1月27日所有模型已支持TensorFlow 2,请通过变压器库进行调用或下载。 2020/9/15我们的论文被录用为长文。 2020/8/27哈工大讯飞联合实验室在通用自然语言理解评论GLUE中荣登榜首,查看,。 2020/3/23本目录发布的模型已接收 ,查看 2020/3/11
资源推荐
资源详情
资源评论
收起资源包目录
Chinese-BERT-wwm-master.zip (26个子文件)
Chinese-BERT-wwm-master
.gitattributes 27B
.github
stale.yml 784B
pics
cmrc2018.png 70KB
drcd.png 53KB
banner.png 124KB
ner.png 67KB
header.png 228KB
thucnews.png 38KB
LICENSE 11KB
README_EN.md 28KB
README.md 30KB
data
drcd
README.md 40B
bqcorpus
README.md 115B
weibo
README.md 96B
weibo.zip 9.78MB
peopledaily
peopledaily.zip 3.62MB
README.md 61B
cjrc
README.md 73B
thucnews
README.md 104B
msra-ner
README.md 43B
cmrc2018
README.md 33B
xnli
README.md 215B
chnsenticorp
chnsenticorp.zip 1.68MB
README.md 67B
lcqmc
README.md 115B
.gitignore 22B
共 26 条
- 1
资源评论
- ʕ•̫͡•ʕ*̫͡*ʕ•͓͡•ʔ2021-08-14用户下载后在一定时间内未进行评价,系统默认好评。
我和这个世界
- 粉丝: 20
- 资源: 4616
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功