没有合适的资源?快使用搜索试试~ 我知道了~
bert-japanese:带有SentencePiece的BERT,用于日语文本
共26个文件
py:8个
ipynb:4个
gitkeep:4个
需积分: 41 4 下载量 33 浏览量
2021-05-10
23:25:28
上传
评论
收藏 197KB ZIP 举报
温馨提示
带有SentencePiece的BERT用于日语文本。 这是带有SentencePiece令牌生成器的日语BERT模型的存储库。 要将此存储库与所需的和一起克隆,请: git clone --recurse-submodules https://github.com/yoheikikuta/bert-japanese 预训练模型 我们为日语文本提供了预训练的BERT模型和SentencePiece模型。 训练数据是来自的日本Wikipedia语料库。 请将以下google驱动器中的所有对象下载到model/目录。 训练期间的损失函数如下(在1M步后,损失函数发生了巨大变化,因为max_seq_length从128更改为512 ): ***** Eval results ***** global_step = 1400000 loss = 1.3773012 mask
资源推荐
资源详情
资源评论
收起资源包目录
bert-japanese-master.zip (26个子文件)
bert-japanese-master
.gitmodules 185B
data
wiki
.gitkeep 0B
.gitkeep 0B
model
.gitkeep 0B
config.ini 789B
bert
Dockerfile 642B
notebook
pretraining.ipynb 125KB
check-trained-tokenizer.ipynb 9KB
check-extract-features.ipynb 5KB
finetune-to-livedoor-corpus.ipynb 19KB
.gitkeep 0B
LICENSE 11KB
src
run_classifier.py 30KB
utils.py 315B
extract_features.py 14KB
file-preprocessing.sh 1KB
train-sentencepiece.py 912B
run_pretraining.py 18KB
data-download-and-extract.py 1KB
tokenization_sentencepiece.py 6KB
create_pretraining_data.py 15KB
pretraining-loss.png 155KB
requirements.txt 46B
.gitignore 121B
.dockerignore 11B
wikiextractor
README.md 7KB
共 26 条
- 1
资源评论
咣荀
- 粉丝: 28
- 资源: 4625
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功