没有合适的资源?快使用搜索试试~ 我知道了~
seq2seq到加上attention机制,再整合成transformer
1.该资源内容由用户上传,如若侵权请联系客服进行举报
2.虚拟产品一经售出概不退款(资源遇到问题,请及时私信上传者)
2.虚拟产品一经售出概不退款(资源遇到问题,请及时私信上传者)
版权申诉
5星 · 超过95%的资源 10 下载量 23 浏览量
2021-01-06
20:16:55
上传
评论 1
收藏 593KB PDF 举报
温馨提示
时间问题,,开个好头。 1.机器翻译有一个大问题,就是输入输出的序列长度不一定相等。于是设计出Encoder-Decoder模型 。* 于是就有了Sequence to Sequenceseq模型 简答来说就是在输出的时候:先输入bos,然后以eos为结束标记。 总结: Sequence to Sequence encoder、decoder的网络可以是任意RNN网络:LSTM,双向RNN等; 这里Encoder不需要用到每一个单元的output,只需把H传到Decoder作为初始输入; 注意embedding X的shape(batch_size, seq_len, embed_siz
资源推荐
资源评论
资源评论
- Rulaifo3492023-02-19资源使用价值高,内容详实,给了我很多新想法,感谢大佬分享~
- H枫2024-01-09非常有用的资源,可以直接使用,对我很有用,果断支持!
- Anli_Xu_2023-02-18果断支持这个资源,资源解决了当前遇到的问题,给了新的灵感,感谢分享~
只在当初微笑
- 粉丝: 275
- 资源: 866
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功