没有合适的资源?快使用搜索试试~ 我知道了~
keras-self-attention:处理顺序数据的注意力机制,考虑每个时间戳的上下文
共36个文件
py:25个
yml:2个
sh:2个
需积分: 44 41 下载量 184 浏览量
2021-05-31
10:02:07
上传
评论 3
收藏 26KB ZIP 举报
温馨提示
Keras 自注意力 [| ] 处理顺序数据的注意力机制,考虑了每个时间戳的上下文。 安装 pip install keras-self-attention 用法 基本的 默认情况下,注意力层使用附加注意力并在计算相关性时考虑整个上下文。 以下代码创建了一个注意力层,它遵循第一部分中的方程( attention_activation是e_{t, t'}的激活函数): import keras from keras_self_attention import SeqSelfAttention model = keras . models . Sequential () model . add ( keras . layers . Embedding ( input_dim = 10000 , output_dim =
资源推荐
资源详情
资源评论
收起资源包目录
keras-self-attention-master.zip (36个子文件)
keras-self-attention-master
MANIFEST.in 43B
.github
stale.yml 36B
requirements-dev.txt 84B
README.zh-CN.md 5KB
requirements.txt 12B
publish.sh 82B
.travis.yml 897B
LICENSE 1KB
test.sh 221B
setup.py 1KB
README.md 5KB
tests
__init__.py 0B
scaled_dot_attention
test_save_load.py 1KB
__init__.py 0B
test_history.py 2KB
test_real_former.py 3KB
test_sample.py 1KB
seq_self_attention
test_mask.py 524B
util.py 3KB
test_save_load.py 2KB
test_bias.py 762B
__init__.py 0B
test_local.py 877B
test_history.py 665B
test_mul.py 863B
test_loss.py 995B
test_activation.py 659B
seq_weighted_attention
test_save_load.py 2KB
__init__.py 0B
keras_self_attention
backend.py 890B
__init__.py 249B
scaled_dot_attention.py 3KB
seq_self_attention.py 11KB
seq_weighted_attention.py 2KB
real_former.py 3KB
.gitignore 1KB
共 36 条
- 1
资源评论
向朝卿
- 粉丝: 39
- 资源: 4443
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- python蒙特卡洛模拟.zip
- screen-20240907-175827.mp4
- screen-20240908-085548.mp4
- meanStdDev 函数计算输入图像的均值和标准差 平均值和标准偏差计算
- ASRock Rack D2143D8UM BIOS BMC
- HBuilderX.1.9.4.20190426.zip
- 这是一幅中秋主题图片,意在表达中秋节节日氛围
- 这是一幅国庆主题图片,意在表达国庆节节日氛围
- C#基础语法 while和do...while循环语句
- 计算机二级考试备考需要充分了解考试内容与形式、制定合理的备考计划、掌握有效的备考技巧、保持良好心态以及关注考试动态
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功