没有合适的资源?快使用搜索试试~ 我知道了~
Task 04 打卡
需积分: 0 0 下载量 185 浏览量
2021-01-06
20:26:51
上传
评论
收藏 195KB PDF 举报
温馨提示
试读
2页
1. 机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 流程:数据预处理、导入、训练、测试 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 Sequence to Sequence 模型: 训练 预测 具体结构: 2. 注意力机制与Seq2Seq模型 注意力机制 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector
资源详情
资源评论
资源推荐
Task 04 打卡打卡
1. 机器翻译及相关技术机器翻译及相关技术
机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。
主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。
流程:数据预处理、导入、训练、测试流程:数据预处理、导入、训练、测试
Encoder-Decoder
encoder:输入到隐藏状态
decoder:隐藏状态到输出
Sequence to Sequence 模型:模型:
训练
预测
具体结构:具体结构:
2. 注意力机制与注意力机制与Seq2Seq模型模型
注意力机制注意力机制
在“编码器—解码器(seq2seq)”节,解码器在各个时间步依赖相同的背景变量(context vector)来获取输序列信息。当编码器为循环神经络时,背景变量来它最终时间步的隐藏
状态。将源序列输入信息以循环单位状态编码,然后将其传递给解码器以生成目标序列。然而这种结构存在着问题,尤其是RNN机制实际中存在长程梯度消失的问题,对于较长的句
weixin_38529123
- 粉丝: 3
- 资源: 930
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功
评论0