没有合适的资源?快使用搜索试试~ 我知道了~
ActivationFunctions:在Tensorflow中从头开始实现激活功能
共6个文件
md:2个
py:1个
utils:1个
需积分: 32 0 下载量 59 浏览量
2021-05-26
09:16:14
上传
评论
收藏 178KB ZIP 举报
温馨提示
在Keras中使用自定义图层的ActivationFunctions 激活函数是深度学习研究的重要领域。正在开发许多新的激活函数,其中包括生物启发性激活,包括其他在内的纯数学激活函数。 尽管有这样的进步,我们通常发现自己通常使用RELU和LeakyRELU而不使用/不考虑其他人。 在以下笔记本中,我展示了使用Keras和Tensorflow中的“自定义层”移植激活功能的难易程度! 链接到主笔记本-> 已实施的激活: 漏泄 参数反射 lu SElu 挥舞 格鲁 结构 src | |-- Activations.ipynb |-- utils |-- Utils.ipynb |-- utils.py references | |--Ref1 |--Refn 用法 git clone https://github.com/Agrover112/A
资源推荐
资源详情
资源评论
收起资源包目录
ActivationFunctions-master.zip (6个子文件)
ActivationFunctions-master
LICENSE 1KB
src
Activation-Functions(GELU,SELU,ELU,LeakyReLU,PRELU).ipynb 280KB
utils
utils.py 2KB
Utils 3KB
references
README.md 764B
README.md 2KB
共 6 条
- 1
资源评论
沪漂购房记
- 粉丝: 19
- 资源: 4614
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功