没有合适的资源?快使用搜索试试~ 我知道了~
optimizers:实现在测试功能上运行的各种优化程序以进行优化
共34个文件
gif:12个
png:7个
py:5个
需积分: 9 0 下载量 138 浏览量
2021-03-19
10:49:40
上传
评论
收藏 164.68MB ZIP 举报
温馨提示
优化器 使用Python和数值库的各种优化算法的实现。 该存储库可作为本文中使用的可视化和评估的来源。 任务清单 动量的随机梯度下降( ) AdaGrad( ) AdaDelta( D.Zeiler ) RMSProp( ) 亚当(亚当( ) NAdam(多扎特( )) AMSGrad( ) 实作 在查看每种算法的完整源代码。 1.具有动量的随机梯度下降 def step ( self , x , y ): g_t = self . func . df ( x , y ) self . v = self . momentum * self . v + self . lr * g_t return ( x - self . v [ 0 ], y - self . v [ 1 ]) 2. AdaGrad def step ( self , x , y ):
资源详情
资源评论
资源推荐
收起资源包目录
optimizers-main.zip (34个子文件)
optimizers-main
find_best_learningrate.py 2KB
imgs
adam_stochastic.png 21KB
Himmelblau.png 271KB
Rosenbrock.png 259KB
amsgrad_1e6_stochastic.png 22KB
Booth.png 873KB
stochastic_nonconvergence.png 24KB
1712644_1712688_Proposal.pdf 428KB
Proposal
sample.bib 1KB
proposal.pdf 433KB
logo.png 294KB
proposal.tex 15KB
lr.csv 343B
visualize.py 3KB
benchmark.py 2KB
README.md 3KB
test_functions.py 2KB
optimizers.py 4KB
.gitignore 25B
gifs
Rosenbrock
Momentum.gif 11.14MB
Adam.gif 10.99MB
AdaDelta.gif 11.07MB
README.md 644B
AdaGrad.gif 11.06MB
Booth
Momentum.gif 14.12MB
Adam.gif 14.07MB
AdaDelta.gif 14.24MB
README.md 708B
AdaGrad.gif 14.3MB
Himmelblau
Momentum.gif 15.49MB
Adam.gif 15.37MB
AdaDelta.gif 15.47MB
README.md 722B
AdaGrad.gif 15.49MB
共 34 条
- 1
法学晨曦
- 粉丝: 15
- 资源: 4608
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功
评论0