没有合适的资源?快使用搜索试试~ 我知道了~
恋父:ELECTRA:预培训文本编码为鉴救父发电机
共36个文件
py:33个
md:2个
license:1个
需积分: 9 0 下载量 128 浏览量
2021-02-03
15:15:25
上传
评论
收藏 95KB ZIP 举报
温馨提示
电子 介绍 ELECTRA是一种用于自我监督的语言表示学习的方法。 它可以用于使用相对较少的计算来预训练变压器网络。 训练ELECTRA模型以区分由另一个神经网络生成的“真实”输入令牌与“伪”输入令牌,这与的鉴别器类似。 即使在单个GPU上进行训练,ELECTRA在小规模上也能获得出色的结果。 大规模地,ELECTRA在数据集上获得了最新的结果。 有关详细说明和实验结果,请参考我们的ICLR 2020文件。 该存储库包含用于预训练ELECTRA的代码,包括单个GPU上的小型ELECTRA模型。 它还支持对下游任务进行微调ELECTRA,这些任务包括分类任务(例如 ),QA任务(例如 )和序列标记任务(例如)。 该存储库还包含Electric的代码,Electra的版本受基于启发。 Electric提供了ELECTRA作为“负采样”的更原则的观点。 它还可以有效地生成文本的,该可用于重新排列语音识别或机器翻译系统的输出。 有关电气的详细信息,请参阅EMNLP 2020论文“ 。 发行型号 我们最初发布了三个预先训练的模型: 模型 层数 隐藏尺寸 参数 GLUE分数(测试集) 下
资源推荐
资源详情
资源评论
收起资源包目录
electra-master.zip (36个子文件)
electra-master
model
tokenization.py 10KB
__init__.py 606B
optimization.py 7KB
modeling.py 39KB
CONTRIBUTING.md 1KB
pretrain
pretrain_helpers.py 9KB
__init__.py 606B
pretrain_data.py 5KB
flops_computation.py 9KB
run_finetuning.py 12KB
LICENSE 11KB
util
training_utils.py 4KB
__init__.py 606B
utils.py 2KB
README.md 17KB
run_pretraining.py 20KB
build_pretraining_dataset.py 9KB
configure_finetuning.py 7KB
configure_pretraining.py 6KB
build_openwebtext_pretraining_dataset.py 4KB
finetune
preprocessing.py 6KB
task_builder.py 3KB
__init__.py 606B
feature_spec.py 2KB
task.py 2KB
classification
classification_tasks.py 15KB
classification_metrics.py 3KB
qa
squad_official_eval.py 12KB
mrqa_official_eval.py 4KB
qa_tasks.py 24KB
qa_metrics.py 14KB
squad_official_eval_v1.py 4KB
scorer.py 1KB
tagging
tagging_metrics.py 3KB
tagging_utils.py 2KB
tagging_tasks.py 9KB
共 36 条
- 1
资源评论
机器好奇心
- 粉丝: 26
- 资源: 4598
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功