没有合适的资源?快使用搜索试试~ 我知道了~
《动手学习深度学习》之二:注意力机制和Seq2seq模型(打卡2.2)
1 下载量 189 浏览量
2021-01-20
11:54:53
上传
评论 1
收藏 775KB PDF 举报
温馨提示
试读
6页
2.注意力机制和Seq2seq模型 2.1.注意力机制 2.1.1.概念 2.1.2.框架 •不同的attetion layer的区别在于score函数的选择,在本节的其余部分,我们将讨论两个常用的注意层 Dot-product Attention 和 Multilayer Perceptron Attention;随后我们将实现一个引入attention的seq2seq模型并在英法翻译语料上进行训练与测试。 import math import torch import torch.nn as nn import os def file_name_walk(file_dir):
资源详情
资源评论
资源推荐
weixin_38732343
- 粉丝: 5
- 资源: 909
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功
评论0