BERT_Pre-training of Deep Bidirectional Transformers for Language Understanding

所需积分/C币:34 2018-11-02 08:19:09 578KB PDF
35
收藏 收藏
举报

BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。项目地址:https://github.com/google-research/bert#fine-tuning-with-bert

...展开详情
试读 14P BERT_Pre-training of Deep Bidirectional Transformers for Language Understanding
立即下载 低至0.43元/次 身份认证VIP会员低至7折
一个资源只可评论一次,评论内容不能少于5个字
您会向同学/朋友/同事推荐我们的CSDN下载吗?
谢谢参与!您的真实评价是我们改进的动力~
  • 分享宗师

关注 私信
上传资源赚钱or赚积分
最新推荐
BERT_Pre-training of Deep Bidirectional Transformers for Language Understanding 34积分/C币 立即下载
1/14
BERT_Pre-training of Deep Bidirectional Transformers for Language Understanding第1页
BERT_Pre-training of Deep Bidirectional Transformers for Language Understanding第2页
BERT_Pre-training of Deep Bidirectional Transformers for Language Understanding第3页

试读结束, 可继续读2页

34积分/C币 立即下载