没有合适的资源?快使用搜索试试~ 我知道了~
资源详情
资源评论
资源推荐
笔记本: 深度学习
创建时间: 2018/10/7 11:18 更新时间: 2018/10/7 14:37
作者: beyourselfwb@163.com
NLP中的Encoder-Decoder模型笔记
本文来自 大饼博士X 的CSDN 博客 ,全文地址请点
击:
https://blog.csdn.net/xbinworld/article/details/54605408?
utm_source=copy
基本的Encoder-Decoder模型非常经典,但是也有局
限性。最大的局限性就在于编码和解码之间的唯一联
系就是一个固定长度的语义向量c。也就是说,编码器
要将整个序列的信息压缩进一个固定长度的向量中
去。但是这样做有两个弊端,一是语义向量无法完全
表示整个序列的信息,还有就是先输入的内容携带的
信息会被后输入的信息稀释掉,或者说,被覆盖了。
输入序列越长,这个现象就越严重。这就使得在解码
的时候一开始就没有获得输入序列足够的信息, 那么
解码的准确度自然也就要打个折扣了[3]。
基本的Encoder-Decoder中Encoder和Decoder的唯
一联系被压缩到一个固定长度的语义向量C,这样做的
局限性有:
1、C无法完全表示整个序列的信息;
2、序列前面的内容会被后面的内容稀释,序列越长,
稀释越明显。
杏花朵朵
- 粉丝: 18
- 资源: 333
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功
评论0