没有合适的资源?快使用搜索试试~ 我知道了~
gpt-2-training:在俄语语料库上培训GPT-2
共24个文件
py:10个
txt:7个
png:3个
需积分: 5 1 下载量 98 浏览量
2021-05-27
11:01:09
上传
评论
收藏 2.12MB ZIP 举报
温馨提示
在俄语语料库上培训GPT-2 免责声明:我和这个仓库都不以任何方式与OpenAI相关联。 我尽我最大的努力进行了DYOR,但是,我可能会完全错误地表达以下内容。 TL; DR 我已经在相当多样化的俄罗斯新闻语料库(〜4Gb)上训练了一个大型GPT-2(1.25B参数),训练损失为2.42,并且对结果感到满意。 训练有素的模型可供下载。 目录 1.快速入门 克隆 注释掉model.py中的if layer == 10:行,以使检查点正常工作(以节省内存) 安装 使用此src/encoder_sp.py (复制到src/目录) 在相关文件(encode.py和采样脚本)中将所有相关的import encoder替换为“ import encoder_sp as encoding”。 使用您的数据集训练sp标记器模型 spm_train --character_coverage
资源推荐
资源详情
资源评论
收起资源包目录
gpt-2-training-master.zip (24个子文件)
gpt-2-training-master
models
1250M
hparams.json 92B
sp.model 1.38MB
sp.vocab 1.09MB
src
sample.py 3KB
accumulate.py 1KB
encoder_sp.py 472B
model.py 6KB
load_dataset.py 3KB
interactive_conditional_samples.py 3KB
encoder.py 4KB
memory_saving_gradients.py 17KB
images
summarizing.png 453KB
final-sample-143k-steps.png 176KB
fanfic.png 583KB
train-horovod-1250M.py 8KB
encode.py 1KB
README.md 14KB
1250M-results
conditional-generation-61k.txt 37KB
trainlog-1250M-61k-to-143k.txt 3KB
finetuning-tweets-1250M.txt 24KB
unconditional-generation-61k.txt 103KB
summarization-1250M-61k.txt 19KB
trainlog-1250M-61k.txt 3KB
trainlog-1250M-143k-to-282k.txt 3KB
共 24 条
- 1
资源评论
Craig林
- 粉丝: 33
- 资源: 4459
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功