没有合适的资源?快使用搜索试试~ 我知道了~
机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer
1 下载量 40 浏览量
2021-01-06
14:26:13
上传
评论
收藏 29KB PDF 举报
温馨提示
试读
1页
机器翻译及相关技术: 解决RNN固定长度输出问题 翻译机制编码器和解码器机制 #编码器和解码器是分别对应输入和输出序列的两个神经网络,我们通常会在输入序列和输出序列后面附上一个特殊字符'' #(end of sequence)表示序列的终止,在测试模型时,一旦输出''就终止当前的序列输出 x=torch.tensor([[[1,1,1], [1,1,1]], [[1,1,1], [1,1,1], [1,1,1]]
资源推荐
资源评论
资源评论
weixin_38745003
- 粉丝: 10
- 资源: 947
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功