没有合适的资源?快使用搜索试试~ 我知道了~
Laboro-BERT-Japanese:Laboro BERT日语
共21个文件
py:7个
gitkeep:5个
tsv:3个
需积分: 10 2 下载量 6 浏览量
2021-03-08
20:33:11
上传
评论
收藏 99KB ZIP 举报
温馨提示
Laboro BERT日语:日语BERT经过Web-Corpus的预培训 介绍 关于我们的BERT模型 该日语BERT模型是在和该的基础上使用我们自己的Web语料库进行预训练的。 到目前为止,已经使用相同的Web语料库进行了预训练的基本模型(12层,隐藏768、12头,110M参数)和大型模型(24层,隐藏1024、16头,340M参数)已经被使用。已发布。 从下载基本模型。 从下载大型模型。 表现如何 该模型已针对两个任务进行了评估,Livedoor新闻分类任务和驾驶域问题解答(DDQA)任务。 在Livedoor新闻分类中,每条新闻应分为九类之一。 在DDQA任务中,给定问题-文章对,可以从文章中找到问题的答案。 与该存储库发布的日语维基百科语料库预先训练的基线模型相比,评估结果显示如下。 注意,结果是多次测量的平均值。 由于评估数据集的大小较小,因此每次结果可能会有所不同。 对于
资源推荐
资源详情
资源评论
收起资源包目录
Laboro-BERT-Japanese-master.zip (21个子文件)
Laboro-BERT-Japanese-master
data
DDQA-1.0
.gitkeep 14B
livedoor
dev_indexed.tsv 51KB
test_indexed.tsv 50KB
create_corpus_from_index.py 1KB
train_indexed.tsv 151KB
README.md 953B
.gitkeep 14B
eval_result
.gitkeep 14B
model
webcorpus_base
.gitkeep 14B
webcorpus_large
.gitkeep 14B
LICENSE 19KB
src
run_squad.sh 788B
run_classifier.py 31KB
run_classifier.sh 564B
optimization.py 6KB
run_squad.py 48KB
modeling.py 37KB
tokenization_sentencepiece.py 6KB
cls_processor.py 5KB
.gitignore 39B
README.md 9KB
共 21 条
- 1
资源评论
参丸
- 粉丝: 16
- 资源: 4658
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功