# CDial-GPT-NEZHA
Pytorch实现的一版苏神的DialoGPT,一个基于GPT+NEZHA预训练模型的闲聊多轮对话模型,将Keras训练好的模型参数转成pytorch进行加载和infer。
### 多轮对话效果
```bash
A: '别爱我没结果'
B: '你这样会失去我的'
A: '失去了又能怎样'
生成回复:"我们在一起吧" / "我会好起来的"
A: "我今天腿都废了,你们过节,我搬砖"
B: "辛苦啊,圣诞节还去赚大钱了加油"
生成回复:"你也要加油,我要赚大钱" / "我也觉得,我要努力赚钱了"
A: "这个会不会聚划算"
B: "暂时没有哦"
A: "后期会不会有"
生成回复:"不确定哦" / "不会有哦"
A: "前排,鲁迷们都起床了吧"
B: "标题说助攻,但是看了那球,真是活生生的讽刺了"
生成回复:"我也看了那球,不过没说我是球迷啊,我是看球的,我也觉得鲁蜜挺可怜" / "我也看了"
A: "火锅我在重庆成都吃了七八顿火锅"
B: "哈哈哈哈!那我的嘴巴 可能要烂掉!"
生成回复:"哈哈哈哈哈你可爱死了" / "我的嘴唇也要烂掉"
# 依靠NEZHA处理长文本的能力,处理超多轮次对话
A: "在",
B: "在的亲有什么可以帮您吗",
A: "还送不送的不送货我退了",
B: "亲我们这边帮您更换其他快递了",
A: "31号到今天3天了",
B: "亲真是不好意思呢我这边再帮您催一下快递",
A: "今天不到退了什么鬼快递",
B: "真是对不起了亲",
A: "31号中午就到这边了就是不送",
B: "好的亲我这边帮您向邮政那边反应了",
A: "那我退货算了事不过三你说对吧",
B: "亲最近是元旦呢可能物流量大我明天帮您和EMS联系帮您确认一下具体情况您看可以吗",
A: "今天已经3天了",
B: "亲您都等了三天了呢我明天帮您和快递联系一下知道具体情况后您再决定可以吗不然您这3天都白等了呢",
A: "有什么办法快递都送给我了我还是去实体店买吧心累",
B: "实在是对不起您了那如果后续快递再给您送来的话麻烦您拒收一下就可以退回了亲",
A: "你点下退款吧",
B: "您稍等相应的工作人员会帮您处理的",
A: "快递不送有什么办法",
B: "好的亲",
A: "已经是马上到手的东西叫你等3天你自己想想电话都没一个来安慰一下我",
B: "真对不起了亲您的情况我会帮您记录的您下次再来我们店我们给您送点额外的小礼品",
A: "你自己说对不对",
B: "是的亲",
A: "我这次第二次在你这里买了感觉好才买谁知道快递不给力",
B: "下次麻烦您提醒一下我们给您换其他的快递",
A: "哦你退款了我重新下单",
B: "好的亲退款是相应的工作人员受理的麻烦您等待一下就可以了",
A: "好",
B: "麻烦您了亲"
生成回复:"没事了你看着办吧" / "没事" / "你们公司不给力还有理由吗"
```
模型下载地址[百度网盘](https://pan.baidu.com/s/1GYpOEEXC5jO_n63gBaklSQ) 密码: 7p5i
### 参考
https://kexue.fm/archives/7718
没有合适的资源?快使用搜索试试~ 我知道了~
pytorch版基于gpt+nezha的中文多轮Cdial.zip
共9个文件
py:6个
md:1个
license:1个
需积分: 5 2 下载量 181 浏览量
2024-05-11
20:50:03
上传
评论 1
收藏 25KB ZIP 举报
温馨提示
GPT, 通常指的是“Generative Pre-trained Transformer”(生成式预训练转换器),是一个在自然语言处理(NLP)领域非常流行的深度学习模型架构。GPT模型由OpenAI公司开发,并在多个NLP任务上取得了显著的性能提升。 GPT模型的核心是一个多层Transformer解码器结构,它通过在海量的文本数据上进行预训练来学习语言的规律。这种预训练方式使得GPT模型能够捕捉到丰富的上下文信息,并生成流畅、自然的文本。 GPT模型的训练过程可以分为两个阶段: 预训练阶段:在这个阶段,模型会接触到大量的文本数据,并通过无监督学习的方式学习语言的结构和规律。具体来说,模型会尝试预测文本序列中的下一个词或短语,从而学习到语言的语法、语义和上下文信息。 微调阶段(也称为下游任务训练):在预训练完成后,模型会被应用到具体的NLP任务中,如文本分类、机器翻译、问答系统等。在这个阶段,模型会使用有标签的数据进行微调,以适应特定任务的需求。通过微调,模型能够学习到与任务相关的特定知识,并进一步提高在该任务上的性能。 GPT模型的优势在于其强大的生成能力和对上下文信息的捕捉能力。这使得GPT模型在自然语言生成、文本摘要、对话系统等领域具有广泛的应用前景。同时,GPT模型也面临一些挑战,如计算资源消耗大、训练时间长等问题。为了解决这些问题,研究人员不断提出新的优化方法和扩展模型架构,如GPT-2、GPT-3等,以进一步提高模型的性能和效率。
资源推荐
资源详情
资源评论
收起资源包目录
pytorch版基于gpt+nezha的中文多轮Cdial.zip (9个子文件)
content
bojone_tokenizers.py 15KB
bojone_snippets.py 12KB
cdial_gpt_nezha__infer.py 6KB
configuration
__init__.py 1B
config.py 2KB
LICENSE 1KB
.gitignore 62B
modeling_nezha.py 57KB
README.md 3KB
共 9 条
- 1
资源评论
生瓜蛋子
- 粉丝: 3910
- 资源: 7441
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功