没有合适的资源?快使用搜索试试~ 我知道了~
Practices-about-Maching-learning:在此存储库中,我学习了一些有关行进学习的技术,例如迭代搜索优化...
共29个文件
png:18个
npy:4个
jpg:2个
需积分: 5 0 下载量 60 浏览量
2021-04-01
03:52:22
上传
评论
收藏 1.75MB ZIP 举报
温馨提示
进修学习实践 实践1 我已经通过几个样本学习了线性回归和最优的迭代搜索 第1部分 使用这些功能进行最优的迭代搜索 梯度下降实施 Gadient Descent算法是一种通用的迭代优化技术,可以达到局部最优。 为此,我需要一个小的常数作为学习率,用η表示。 我们必须小心使用此常数,因为如果常数太大,则可能无法达到最佳局部,如果常数太小,则可能会达到最佳局部,但是这会带来很大的计算成本。 因此,最佳学习率将取决于我们亏损状况的政策,而政策又取决于数据集。 在数学上解释算法之前,除了学习率之外,还需要一些值初始值W0,这将是我们的出发点和我们想要最小化的函数。 通用方程为: 其中Ein / Wj是微分函数的梯度。 对N中j的所有值同时执行此操作,其中N是一组整数。 并重复应用相同的计算,直到函数的成本无法再最小化或超过X的迭代次数为止,因为它可能找不到最小成本函数。 实现伪代码
资源推荐
资源详情
资源评论
收起资源包目录
Practices-about-Maching-learning-main.zip (29个子文件)
Practices-about-Maching-learning-main
LICENSE 34KB
README.md 3KB
P1
datos
y_test.npy 8KB
X_test.npy 31KB
y_train.npy 29KB
X_train.npy 114KB
Images
Tex2Img_1616618271.jpg 6KB
gd.png 2KB
Tex2Img_1616618057.jpg 8KB
learning rate.png 52KB
descarga.gif 159KB
resultados
sgd.png 37KB
evolucion_3a_comp.png 44KB
ejercicio 3_1.png 116KB
Figure_1.png 100KB
pseudo_inverse.png 39KB
22b.png 143KB
22a.png 60KB
22c.png 146KB
Figure_2.png 208KB
evolucion_3a2_2.png 144KB
evolucion_3a2_1.png 101KB
tabla_3_b.png 46KB
evolucion_3a2_3.png 41KB
graf_3_b.png 37KB
evolucion_3a1.png 22KB
ejercicio 2 74KB
ejercicio 3_2.png 141KB
practica1.py 21KB
共 29 条
- 1
资源评论
汪纪霞
- 粉丝: 35
- 资源: 4700
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功