没有合适的资源?快使用搜索试试~ 我知道了~
task2-2
0 下载量 170 浏览量
2021-01-20
11:23:27
上传
评论
收藏 35KB PDF 举报
温馨提示
试读
1页
机器翻译及相关技术 经历数据预处理、分词、建立字典、载入数据集,空格符不是特殊符号,预处理的时候去除。 DECODER-ENCODER class Encoder(nn.Module): def __init__(self, **kwargs): super(Encoder, self).__init__(**kwargs) def forward(self, X, *args): raise NotImplementedError class Decoder(nn.Module): def __init__(self, **kwarg
资源详情
资源评论
资源推荐
task2-2
机器翻译及相关技术机器翻译及相关技术
经历数据预处理、分词、建立字典、载入数据集,空格符不是特殊符号,预处理的时候去除。
DECODER-ENCODER
class Encoder(nn.Module):
def __init__(self, **kwargs):
super(Encoder, self).__init__(**kwargs)
def forward(self, X, *args):
raise NotImplementedError
class Decoder(nn.Module):
def __init__(self, **kwargs):
super(Decoder, self).__init__(**kwargs)
def init_state(self, enc_outputs, *args):
raise NotImplementedError
def forward(self, X, state):
raise NotImplementedError
class EncoderDecoder(nn.Module):
def __init__(self, encoder, decoder, **kwargs):
super(EncoderDecoder, self).__init__(**kwargs)
self.encoder = encoder
self.decoder = decoder
def forward(self, enc_X, dec_X, *args):
enc_outputs = self.encoder(enc_X, *args)
dec_state = self.decoder.init_state(enc_outputs, *args)
return self.decoder(dec_X, dec_state)
贪心算法不是对所有问题都能得到整体最优解,关键是贪心策略的选择,选择的贪心策略必须具备无后效性,即某个状态以前
的过程不会影响以后的状态,只与当前状态有关。
注意力机制与注意力机制与Seq2seq模型模型
Attention 是一种通用的带权池化方法,输入由两部分构成:询问(query)和键值对(key-value pairs)。
点积注意力The dot product 假设query和keys有相同的维度, 通过计算query和key转置的乘积来计算attention score,通常还会
除去根号d减少计算出来的score对维度
weixin_38625708
- 粉丝: 4
- 资源: 945
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功
评论0