# NLP
### 介绍
NLP项目,主要包括atten-seq2seq和transformer模型,实现机器翻译以及对话系统。
### 软件架构
软件架构说明
### 安装教程
1. 在文件夹路径下 pip install -r requirements.txt
2. 可能安装完后会提示前面两个东西版本不符合,不用管他
3. transformer对话系统标准模型,在dailydialog训练对话系统模型,链接:https://pan.xunlei.com/s/VN8UfYM4o2Ef4r5hAHYm8KmUA1?pwd=5rht#
提取码:5rht
4. transformer机器翻译的模型就在model/translation文件夹里面。
5. transformer机器翻译的模型是用cuda:1训练的,如果要使用可能需要修改代码
如:gpu->cpu,即在CPU上使用
torch.load('trans_encoder.mdl', map_location= lambda storage, loc: storage)
torch.load('trans_decoder.mdl', map_location= lambda storage, loc: storage)
如:cuda1->cuda0,即在gpu上使用
torch.load('trans_encoder.mdl', map_location={'cuda:1' : 'cuda:0'})
torch.load('trans_decoder.mdl', map_location={'cuda:1' : 'cuda:0'})
6. Seq2Seq模型链接:https://pan.xunlei.com/s/VNSf-x6_dF6bKTECothnVkGYA1?pwd=w43w#
7. 模型名称可能需要修改为对应名称,和代码保持一致
### 使用说明
1. 分对话系统和机器翻译两部分
2. data为数据集
3. model为训练的模型
4. translation文件夹下又分了Seq2Seq和transformer两个模型,大家按需查看使用
5. 以transformer文件夹为例,attention.py主要实现了注意力机制,transformer.py实现了transformer的主体架构,data.py为数据的预处理以及生成了词典、dataset、dataloader,readdata.py运行可以查看数据形状,train.py为训练模型,predict.py为预测,config.py为一些参数的定义。
6. transformer机器翻译的模型是用cuda:1训练的,如果要使用可能需要修改代码
如:gpu->cpu,即在CPU上使用
torch.load('trans_encoder.mdl', map_location= lambda storage, loc: storage)
torch.load('trans_decoder.mdl', map_location= lambda storage, loc: storage)
如:cuda1->cuda0,即在gpu上使用
torch.load('trans_encoder.mdl', map_location={'cuda:1' : 'cuda:0'})
torch.load('trans_decoder.mdl', map_location={'cuda:1' : 'cuda:0'})
### 结果
##### base transformer:
1. 训练集loss 1.040, PPL 2.835
2. 验证集loss 2.768, PPL 17.635
3. BLEU1-4: [0.0773, 0.0376, 0.0104, 0.0053]
4. distinct1-3: [0.02798, 0.15453, 0.36269]
##### schedule sampling tg=0.9, tr=0.95
1. 训练集loss 0.930, PPL 2.538
2. 验证集loss 3.289, PPL 29.728
3. BLEU1-4: [0.0918, 0.0479, 0.0183, 0.0117]
4. distinct1-3: [0.029054, 0.18474, 0.43019]
### 各指标说明
1. loss为cross_entropy_loss,mean(-log(softmax(NLL(X))))
2. ppl:根据每个词来估计一句话出现的概率 ppl=exp(loss)
3. bleu:![img.png](img.png)
4. distinct:不重复数除以总数,以全部结果作测试
没有合适的资源?快使用搜索试试~ 我知道了~
NLP项目,主要包括atten-seq2seq和transformer模型,实现机器翻译以及对话系统
共92个文件
py:45个
txt:24个
zip:4个
需积分: 5 2 下载量 12 浏览量
2024-03-24
12:24:16
上传
评论
收藏 89.09MB ZIP 举报
温馨提示
使用说明 分对话系统和机器翻译两部分 data为数据集 model为训练的模型 translation文件夹下又分了Seq2Seq和transformer两个模型,大家按需查看使用 以transformer文件夹为例,attention.py主要实现了注意力机制,transformer.py实现了transformer的主体架构,data.py为数据的预处理以及生成了词典、dataset、dataloader,readdata.py运行可以查看数据形状,train.py为训练模型,predict.py为预测,config.py为一些参数的定义。 transformer机器翻译的模型是用cuda:1训练的,如果要使用可能需要修改代码 如:gpu->cpu,即在CPU上使用 torch.load('trans_encoder.mdl', map_location= lambda storage, loc: storage) torch.load('trans_decoder.mdl', map_location= lambda storage, loc: storage)
资源推荐
资源详情
资源评论
收起资源包目录
nlp-master.zip (92个子文件)
nlp-master
dialogue
transformer
train (1).ipynb 129KB
readdata.py 498B
BPE.py 2KB
predict.py 2KB
train1.ipynb 34KB
train.ipynb 79KB
data.py 4KB
train-sampling.py 7KB
transformer.py 9KB
train.py 4KB
test.py 5KB
attention.py 6KB
config.py 1KB
Seq2Seq
predict.py 2KB
data.py 3KB
train.py 5KB
Seq2SeqModel.py 3KB
config.py 685B
bert
bert.py 5KB
data.py 9KB
use_bert.py 953B
data
ijcnlp_dailydialog.zip 4.27MB
eng-cmn
eng-chi.txt 1.25MB
eng-cmn.txt 1.25MB
_about.txt 1KB
dataset 2.85MB
zh_vocab 126KB
eng_vocab 87KB
pairs 1.79MB
eng.lang 218KB
cmn.lang 358KB
PersonaChat
4_turns
valid.txt 2.61MB
test.txt 2.48MB
train.txt 21.31MB
ijcnlp_dailydialog
.DS_Store 6KB
validation.zip 187KB
train
dialogues_emotion_train.txt 181KB
dialogues_act_train.txt 181KB
dialogues_train.txt 5.76MB
dialogues_topic.txt 26KB
dialogues_act.txt 214KB
dialogues_emotion.txt 214KB
pairs 3.76MB
test.zip 184KB
dialogues_text.txt 6.81MB
train.zip 1.85MB
test
dialogues_act_test.txt 16KB
dialogues_test.txt 531KB
dialogues_emotion_test.txt 16KB
dialog.lang 501KB
readme.txt 1KB
validation
dialogues_validation.txt 545KB
dialogues_emotion_validation.txt 17KB
dialogues_act_validation.txt 17KB
DailyDialog
valid.txt 1.12MB
test.txt 1.13MB
train.txt 8.98MB
LICENSE 2KB
zh_core_web_sm-3.2.0-py3-none-any.whl 47.17MB
model
translation
trans_decoder.mdl 4.79MB
trans_encoder.mdl 1.98MB
requirements.txt 154B
en_core_web_sm-3.2.0-py3-none-any.whl 13.26MB
translation
transformer
train0.py 5KB
readdata.py 528B
predict.py 2KB
data.py 4KB
transformer.py 9KB
train.py 4KB
test.py 2KB
attention.py 6KB
config.py 710B
Seq2Seq
predict.py 2KB
predict1.py 2KB
ACmodel.py 3KB
data.py 3KB
train.py 5KB
train1.py 5KB
Seq2SeqModel.py 3KB
config.py 784B
transformer1
train0.py 5KB
predict.py 2KB
predata.py 255B
data.py 2KB
transformer.py 4KB
train.py 7KB
Seq2SeqModel.py 3KB
config.py 592B
models
LSTM.py 2KB
RNN.py 3KB
img.png 13KB
README.md 3KB
共 92 条
- 1
资源评论
电子小白的每一天
- 粉丝: 163
- 资源: 37
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功