# 基于Luong attention机制的seq2seq2的chatbot
使用seq2seq架构搭建聊天机器人。 灵感是pytorch的[chatbot_tutorial](https://pytorch.org/tutorials/beginner/chatbot_tutorial.html)
torch官方使用了`batch_first=False`的数据组织方式,我则使用了`batch_first=True`的方式(单纯觉得`batch_first=True`更加符合我的理解)
encoder-decoder(Luong attention机制)的图大致如下:
![image.png](https://i.loli.net/2020/10/08/qaGL8uSsI9PTMir.png)
使用Cornell的电影对话数据集,[链接](https://www.cs.cornell.edu/~cristian/Cornell_Movie-Dialogs_Corpus.html) (项目中已经包含数据集,无需额外下载)
## 训练模型
```bash
python main.py --train --root="data" --device="cuda" --batch_size=64 --save_dir="chatbot" --teacher_forcing_ratio=0.95 --learning_rate=0.003 --epoch=15 --print_interval=100 --save_interval=1000
```
## 测试性能
```bash
python main.py --test --root="data" --state_dict=<saved state dict>
```
## 进行推理
推理为一问一答式的开放式问答
```bash
python play.py --state_dict=<saved state dict> --show_confidence
```
通过命令行来进行简单的交互:
![image.png](https://pic3.zhimg.com/80/v2-e129bc07bf6bc2c5c9ab468c410cb61b_720w.png)
没有合适的资源?快使用搜索试试~ 我知道了~
资源推荐
资源详情
资源评论
收起资源包目录
读书笔记:使用seq2seq架构搭建聊天机器人.zip (20个子文件)
读书笔记:使用seq2seq架构搭建聊天机器人
chatbot-based-on-seq2seq2
util.py 20KB
main.py 10KB
.style.yapf 113B
data
dialog.tsv 2.65MB
.git
index 720B
HEAD 23B
refs
heads
master 41B
tags
remotes
origin
master 41B
objects
pack
pack-b48bd407e55f45ed76ae9b7608244607825b6253.pack 917KB
pack-b48bd407e55f45ed76ae9b7608244607825b6253.idx 3KB
info
FETCH_HEAD 137B
logs
HEAD 130B
refs
heads
master 130B
remotes
origin
master 144B
hooks
config 274B
branches
.pre-commit-config.yaml 278B
model.py 12KB
play.py 4KB
.gitignore 35B
README.md 1KB
共 20 条
- 1
资源评论
baidu_16992441
- 粉丝: 311
- 资源: 1041
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功