Block-Coordinate Gradient Descent method
We consider the problem of minimizing the weighted sum of a smooth function f and a convex function P of n real variables subject to m linear equality constraints. We propose a block-coordinate gradient descent method for solving this problem, with the coordinate block chosen by a Gauss-Southwell-q rule based on sufficient predicted descent. We establish global convergence to first-order stationarity for this method and, under a local error bound assumption, linear rate of convergence. If f is convex with Lipschitz continuous gradient, then the method terminates in O(n2/) iterations with an -optimal solution. If P is separable, then the Gauss- Southwell-q rule is implementable in O(n) operations when m = 1 and in O(n2) operations when m>1. In the special case of support vector machines training, for which f is convex quadratic, P is separable, and m = 1, ### Block-Coordinate Gradient Descent Method #### 概述 本文主要介绍了一种称为块坐标梯度下降(Block-Coordinate Gradient Descent, BCGD)的方法,该方法用于解决带有线性等式约束条件的非光滑可分离优化问题。具体地,考虑最小化一个由平滑函数\(f\)和凸函数\(P\)的加权和构成的目标函数,其中目标函数受\(m\)个线性等式的约束。BCGD方法通过选择一个基于Gauss-Southwell-q规则的坐标块来实现迭代更新。 #### 方法原理 **问题定义** 设有一个优化问题,其目标是最小化\(n\)个实变量的加权和,形式为: \[ \min_{x \in \mathbb{R}^n} F_c(x) \triangleq f(x) + cQ(x), \] 其中\(c > 0\)且 \[ Q(x) \triangleq P(x) + \delta_C(x), \] 这里\(f: \mathbb{R}^n \rightarrow \mathbb{R}\)是一个连续可微的平滑函数,\(P: \mathbb{R}^n \rightarrow \mathbb{R} \cup \{+\infty\}\)是凸函数,\(\delta_C\)表示特征函数,\(C\)是满足\(m\)个线性等式约束的闭集。即,对于某个矩阵\(A \in \mathbb{R}^{m \times n}\)和向量\(b \in \mathbb{R}^m\),我们有 \[ C \triangleq \{x \in \mathbb{R}^n | Ax = b\}. \] **BCGD方法** 该方法通过迭代更新来逼近最优解,每次迭代选择一个坐标块,并根据该块上的梯度进行更新。坐标块的选择依据Gauss-Southwell-q规则,该规则基于预测的充分下降程度来决定。当\(P\)是可分离的,即可以写成\(n\)个独立项之和时,Gauss-Southwell-q规则可以有效地实现。特别地,当\(m = 1\)时,该规则可以在\(O(n)\)的时间复杂度内实现;而当\(m > 1\)时,则在\(O(n^2)\)的时间复杂度内实现。 #### 收敛性与复杂度分析 **收敛性** 对于BCGD方法,可以证明它具有全局收敛到一阶驻点的性质。此外,在局部误差界假设下,该方法还具有线性的收敛率。 **复杂度** 如果函数\(f\)是凸的并且梯度是Lipschitz连续的,则BCGD方法可以在\(O(n^2/\epsilon)\)次迭代后找到一个\(\epsilon\)-最优解。这个结果对于支持向量机(Support Vector Machines, SVM)训练来说尤其有意义,因为在SVM训练中\(f\)是凸二次的,\(P\)是可分离的,并且只有\(m = 1\)个线性约束条件。此时,BCGD方法的复杂度与已知的最佳分解方法相当。 #### 特殊情况:支持向量机训练 在支持向量机训练这一特殊情况下,\(f\)是一个凸二次函数,\(P\)是可分离的,并且只存在一个线性等式约束。在这种情况下,BCGD方法不仅有效而且高效。它的复杂度与目前最佳的分解方法相似,这表明BCGD方法在处理这类问题时非常有竞争力。 #### 扩展应用:双层优化问题 如果\(f\)是凸的,可以通过逐渐减少\(P\)的权重至零的方式将BCGD方法扩展应用于双层优化问题。即,最小化\(P\)在\(f + \delta_X\)的极小值集上,其中\(X\)表示可行集的闭包。这种扩展在最小1-范数解的最大似然估计中有应用。 #### 结论 BCGD方法是一种有效的优化算法,适用于带有线性等式约束的非光滑可分离优化问题。它具有良好的理论保证,包括全局收敛性和线性收敛率,并且在支持向量机训练等特殊情况下表现出优秀的性能。此外,该方法还可以通过适当的修改应用于更广泛的优化问题中,如双层优化问题。这些特性使得BCGD成为解决这类优化问题的强大工具。
剩余22页未读,继续阅读
- snowwhitexiang2014-02-27文章确实很经典,非常值得看
- moshe_tianxing2014-05-20文章很经典,帮助很大
- lf2008064102562014-05-14很好!我正需要。
- 胡秀韬2018-06-18有用,个人感觉很好。
- broken33333hf2013-08-14文章很经典,推荐下载
- 粉丝: 9
- 资源: 25
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 基于微信小程序的社团活动助手php.zip
- 懂球短视频微信小程序SpringBoot.zip
- java项目,毕业设计-医患档案管理系统
- 船检测8-YOLO(v5至v11)、COCO、Paligemma、TFRecord、VOC数据集合集.rar
- 好用的网络链接监测工具,支持设置各项ping参数(时延,包长等),支持日志记录
- stm32f407进行直流电机pid调速源程序
- java项目,毕业设计-医院固定资产系统
- 经典好用 的网卡管理 工具,支持多IP绑定,静态路由配置,可永久 保存
- C# WPF客户询单管理系统.zip(源码+数据库文件)
- java项目,毕业设计-在线外卖系统
- 机器学习四大名著,入门学习,中间反复研读都适用
- C# 键盘按键禁用拦截.zip
- 剪映【下载这个,直接安装与原来的共存、不显示VIP直接用】.apk
- 简单易用的一个端口转发及代理工具,可实现地址及端口映射
- stm32f103官方DSP库测试程序 可做128点、256点的fft运算,时间很短
- PHP遍历二叉树的实现,深度优先,广度优先,非递归实现