GPT_finetuned_with_own_text-源码

所需积分/C币:5 2021-03-21 03:18:25 133KB ZIP
4
收藏 收藏
举报

项目名 用准备好的文本微调GPT-2文本生成模型。 在这种特殊情况下,文字是书籍的串联来自管理,领导力和业务方面的良好实践领域。开始句子包含某种矛盾,以找出经过微调的模型如何建立跟进355M模型用于调整:效果真的很好。 基本信息 GPT-2发行了三种尺寸: 124M(默认):“小型”型号,磁盘上500MB。 355M:“中型”型号,磁盘上有1.5GB。 774M:“大”模型,当前无法与Colaboratory进行微调,但可用于从预先训练的模型中生成文本(请参阅稍后在Notebook中) 1558M:“超大型”真实模型。如果将K80 GPU连接到笔记本计算机,则将无法使用。 (例如774M,无法对其进行微调)。较大的模型具有更多的知识,但需要花费更长的时间进行微调并花费更长的时间来生成文本。您可以通过更改model_name来指定要使用的基本模型。 带有不同前缀的其他示例有时会很有趣

...展开详情
立即下载 低至0.43元/次 身份认证VIP会员低至7折
一个资源只可评论一次,评论内容不能少于5个字
您会向同学/朋友/同事推荐我们的CSDN下载吗?
谢谢参与!您的真实评价是我们改进的动力~
  • 至尊王者

关注 私信
上传资源赚钱or赚积分
最新推荐
GPT_finetuned_with_own_text-源码 5积分/C币 立即下载
1/0