跳转至

Stochastic First-And zeroth-Order Methods For Nonconvex Stochastic Programming

约 3981 个字 预计阅读时间 27 分钟

1309.5549

PDF 版

Introduction

1951 年,Robbins 和 Monro 提出经典 SA 算法,用噪声梯度替代精确梯度,且在强凸随机规划问题中达到“渐近最优”收敛速率,但实践中因步长策略难以实施而表现不佳。Polyak 与 Polyak & Juditsky 建议采用更长步长并对迭代结果做平均,使算法对步长选择更鲁棒,且仍能实现强凸情形下的渐近最优率。Nemirovski 等引入镜面下降 SA(Mirror Descent SA),证明其对一般非光滑凸 SP 问题具有最优的 \(\mathcal{O}(1/\varepsilon^{2})\) 迭代复杂度,并在某些凸 SP 问题上显著优于样本均值近似法(SAA),Lan 考虑目标函数的光滑性,提出了一种适用于光滑、非光滑和随机优化的优化方法。但是这些方法中,函数的凸性对于 SA 算法的收敛性起到重要的作用。现存的大部分 SA 算法并不能解决非凸目标函数的问题。

考虑如下典型的无约束非线性规划问题:

\[ f^{*} := \inf_{x \in \mathbb{R}^{n}}f(x) \]

要求 \(f\) 可微(不一定要凸函数)有下界,并且满足如下 Lipschitz 条件:

\[ \lVert \nabla f(y)-\nabla f(x) \rVert \leq L \lVert y-x \rVert \]

我们假定使用迭代算法来求解如上问题,在迭代算法中,我们通过随机调用一阶 Oracle (\(\mathcal{SFO}\)) 来获取 \(f\) 的梯度

随机规划(SP)有如下集中应用场景

  • 机器学习的正则化目标函数:
\[ f(x) = \int _{\Xi} L(x,\xi)\mathrm{d} P(\xi)+r(x) \]

其中 \(\Xi \subseteq \mathbb{R}^{d}\) 是分布 \(P\) 的样本空间,损失函数 \(L(x,\xi)\) 和正则化函数 \(r(x)\) 都是非凸的

  • 内生不确定性随机规划
\[ f(x) = \int_{\Xi(x)} F(x,\xi)\mathrm{d}P_{x}(\xi) \]

\(f(x)\) 通常是非凸函数尽管 \(F(x,\xi)\) 相对于 \(x\) 是一个凸函数

  • 基于仿真的优化问题
\[ f(x) = \mathbb{E}_{\xi}[F(x,\xi)] \]

\(F(x,\xi)\) 并没有显式给出,而是通过一个黑箱仿真过程,因此,我们并不知道 \(f(x)\) 是不是一个凸函数。

在无噪声下, Nesterov 证明经典梯度下降在 \(N = \mathcal{O}(1/\varepsilon)\) 步即可保证 \(\min_{k\leq N}\lVert \nabla f(x_{k}) \rVert^{2}\leq \varepsilon\) ,Cartis 证明其界是紧的。尽管如此,Nesterov 的证明并不适用于随机集,即使我们能证明 \(\min_{k\leq N}\lVert \nabla f(x_{k}) \rVert^{2}\leq \varepsilon\) ,因为不能确切知道 \(\lVert \nabla f(x_{k}) \rVert\),所以最优解并不是很容易就能找到。

Stochastic first-order methods

Randomized Stochastic Gradient

Assumption 1

\[ \mathbb{E}[G(x_{k},\xi_{k})]=\nabla f(x_{k}) \]
\[ \mathbb{E}[\lVert G(x_{k},\xi_{k})-\nabla f(x_{k}) \rVert ^{2}]\leq \sigma^{2} \]

其中 \(G(x_{k},\xi_{k})\)Borel 函数 ,由 \(\mathcal{SFO}\) 给出的。也就是说 \(G(x_{k},\xi_{k})\) 是对 \(\nabla f(x_{k})\) 的无偏估计,且随机变量 \(\lVert G(x_{k},\xi_{k})-\nabla f(x_{k}) \rVert\) 的方差是有界。

假设 1 有如下增强形式:

Assumption 2

\[ \mathbb{E}\big[\exp \left\{ \lVert G(x,\xi_{k})-g(x) \rVert^{2}/\sigma^{2} \right\} \big]\leq \exp \left\{ 1 \right\} \]

RSG:A randomized stochastic gradient method

Input: 初始点 \(x_{1}\) ,最大迭代次数 \(N\) ,步长 \({\gamma_{k}}\) ,概率函数 \(P_{R}(\cdot)\)

  1. \(R\) 为由概率函数 \(P_{R}\) 给出的随机变量
  2. 调用随机一阶 Oracle 计算 \(G(x_{k},\xi_{k})\),并取
\[ x_{k+1} = x_{k}-\gamma_{k}G(x_{k},\xi_{k}) \]

Output \(x_{R}\)

与经典的 SA 算法相比,这里使用了随机的迭代次数 \(R\) 来停止 RSG 。或者说,我们运行算法 \(N\) 次,从中挑选搜索点 \(x_{R}\) 作为算法的输出,因此,我们只需要运行算法前 \(R\) 次,并不关心后 \(N-R\) 次的内容,值得强调的是,RSG 算法并不是为了减少计算开支,而是为解决非凸 SP 问题,当然以上的算法内容都只是概念性上的,因为我们并没有给出如何挑选步长和概率函数。

Theorem

假定 RSG 算法中,步长和概率函数满足 \(\gamma_{k}< \frac{2}{L}\)

\[ P_{R}(k) := \mathrm{Prob}\left\{ R=k \right\} = \frac{2\gamma_{k}-L\gamma_{k}^{2}}{\sum_{k=1}^{N}(2\gamma_{k}-L\gamma_{k}^{2}) } \]

那么,根据假设 1 ,给出:

\[ \frac{1}{L}\mathbb{E}[\lVert \nabla f(x_{R}) \rVert ^{2}] \leq \frac{D_{f}^{2}+\sigma^{2}\sum_{k=1}^{N} \gamma_{k}^{2}}{\sum_{k=1}^{N} (2\gamma_{k}-L\gamma_{k}^{2})} \]

其中

\[ D_{f} : = \left[ \frac{2(f(x_{1})-f^{*})}{L} \right] ^{1/2} \]

\(f^{*}\) 是问题的最优解。

如果无约束问题是凸的,则

\[ \mathbb{E}[f(x_{R})-f^{*}] \leq \frac{D_{X}^{2}+\sigma^{2}\sum_{k=1}^{N} \gamma_{k}^{2}}{\sum_{k=1}^{N} (2\gamma_{k}-L\gamma_{k}^{2})} \]

其中

\[ D_{X} := \lVert x_{1}-x^{*} \rVert \]

\(x^{*}\) 是问题的最优解。

基于上面定理给出如下推论:

Corollary

对于 \(\tilde{D}>0\) ,步长由如下方式给出

\[ \gamma_{k}= \min \left\{ \frac{1}{L},\frac{\tilde{D}}{\sigma \sqrt{ N }} \right\} \]

根据假设给出:

\[ \frac{1}{L}\mathbb{E}[\lVert \nabla f(x_{R}) \rVert ^{2}]\leq \mathcal{B}_{N}:= \frac{LD^{2}_{f}}{N}+\left( \tilde{D}+\frac{D_{f}^{2}}{\tilde{D}} \right) \frac{\sigma}{\sqrt{ N }} \]

同样,对于凸优化问题有:

\[ \mathbb{E}[f(X_{R})-f^{*}] \leq \frac{LD^{2}_{X}}{N}+\left( \tilde{D} +\frac{D_{X}^{2}}{\tilde{D}}\right)\frac{\sigma}{\sqrt{ N }} \]

与其随便从 \(\left\{ x_{1},\dots,x_{N} \right\}\) 任意给出一个解,另一种给出解的方式是满足:

\[ \lVert \nabla f(\hat{x}_{N}) \rVert = \min_{k=1,\dots,N}\lVert \nabla f(x_{k}) \rVert \]

\(\mathbb{E}\lVert \nabla f(\hat{x}_{N}) \rVert\) 随着定理和推论中相同的方式收敛到 \(0\)

但是这种方法需要额外计算 \(\lVert \nabla f(x_{k}) \rVert \mathrm{\,for\,all\,}k=1,\dots,N\) ,但由于 \(\lVert \nabla f(x_{k}) \rVert\) 无法被精确计算,所以需要采用蒙特卡洛模拟,会带来额外的误差。

关于 \(\tilde{D}\) 的选取 ,我们可以选择 \(D_{f}\) 求解非凸问题,选择 \(D_{X}\) 求解凸问题。

RSG 算法的的一个缺点是需要选取一个合适的 \(L\) 来估计步长 \(\gamma_{k}\) 的上界,这个会影响到 \(P_{R}\) 的选取(因为其包含)。在一些确定性的梯度下降方法中,我们可以通过用线搜索来加强这些方法的表现以放松我们对 \(L\) 的要求,但是这个方法并不适用于随机集。不过,在 RSG 算法中,我们不需要很精确的估计 \(L\) ,实际上,当步长满足:

\[ \min \left\{ \frac{1}{qL},\frac{\tilde{D}}{\sigma \sqrt{ N }} \right\} \]

其中 \(q\in \left\{ 1,\sqrt{ N } \right\}\) 时,RSG 算法以 \(\mathcal{O}(1/\sqrt{ N })\) 的速率收敛,因此,我们扩大了 \(L\) 的估计范围。我们采用在小数目样本点上计算随机梯度来估计 \(L\)

RSG 方法在凸问题上比其他方法有一定程度的优化

增长的步长方法:

\[ \gamma_{k} = \min \left\{ \frac{1}{L},\frac{\tilde{D}\sqrt{ k }}{\sigma N} \right\} \]

减缓的步长方法:

\[ \gamma_{k} = \min\left\{ \frac{1}{L},\frac{\tilde{D}}{\sigma(kN)^{1/4}} \right\} \]

第二种有利于提早停止算法,第一种有利于更好地获得梯度的本地信息。

方法单次运行时差生的偏差满足

\[ \mathrm{Prob}\left\{ \lVert \nabla f(x_{R}) \rVert^{2}\geq \lambda L \mathcal{B}_{N} \right\}\leq \frac{1}{\lambda} \quad \forall\lambda > 0 \]

调用 \(\mathcal{SFO}\) 次数满足界:

\[ \mathcal{O}\left\{ \frac{1}{\Lambda\varepsilon}+\frac{\sigma^{2}}{\Lambda^{2}\varepsilon^{2}} \right\} \]

A two-phase randomized stochastic gradient method

优化阶段,运行 RSG 生成数个候选方案;后优化阶段,从候选方案中选出一个方案

A two-phase RSG (2-RSG) method

Input : 初始点 \(x_{1}\),运行次数 \(S\) ,迭代限制 \(N\) ,样本大小 \(T\) Optimization phase : 在 \(s=1,\dots,s\) ,在给定条件下调用 RSG 算法,输出 \(\bar{x}_{s}\) Post-optimization phase: 从 \(\left\{ \bar{x}_{1},\dots,\bar{x}_{s} \right\}\) 中挑选解 \(\bar{x} ^{*}\) 满足:

\[ \lVert g(\bar{x}^{*}) \rVert = \min_{s=1,\dots,S} \lVert g(\bar{x}_{s}) \rVert ,g(\bar{x}_{s}) := \frac{1}{T}\sum_{k=1}^{T} G(\bar{x}_{s},\xi_{k}) \]

\(G(x,\xi_{k})\) 是由 \(\mathcal{SFO}\) 算法给出的随机梯度。

或者我们也可以选择满足入下条件的解:

\[ \tilde{f}(\bar{x}^{*}) = \min_{1,\dots,S} \tilde{f}(\bar{x}_{s}),\tilde{f}(\bar{x}_{s}) = \frac{1}{T}\sum_{k=1}^{T} F(\bar{x}_{s},\xi_{k}) \]

2-RSG 解的挑选方式与 Nesterov 的取平均的方法不同。

在 2-RSG 方法中,\(\mathcal{SFO}\) 调用次数分别为 \(S\times N\)(优化阶段),\(S\times T\)(后优化阶段),序列 \(\left\{ \xi_{k} \right\}\) 可以回收使用。

Lemma

给定一个具有 Borel 概率测度 \(\mu\) 的 Polish 空间,以及一个 Borel \(\sigma\) -代数 \(\Omega\) 的递增序列 \(\mathcal{F}_{0}=\left\{ \emptyset,\Omega \right\}\subseteq \mathcal{F}_{1}\subseteq \mathcal{F}_{2} {\subseteq}\dots\) ,设 \(\zeta_{i}\in \mathbb{R}^{n}\) 时定义在 \(\Omega\) 上的 Borel 函数的鞅差序列,满足 \(\zeta_{i}\)\(\mathcal{F}_{i}\) 可测的,且 \(\mathbb{E}[\zeta_{i}|i-1]=0\) ,其中 \(\mathbb{E}[\cdot|i]\) 表示相对于 \(\mathcal{F_{i}}\) 的条件期望,\(\mathbb{E}=\mathbb{E}[\cdot|0]\) 是相对于 \(\mu\) 的期望。

  1. 如果 \(\mathbb{E}[\lVert \zeta_{i} \rVert^{2}]\leq \sigma^{2}_{i}\)\(\mathbb{E}\left[ \left\lVert \sum_{i=1}^{N}\zeta_{i} \right\rVert ^{2}\right]\leq \sum_{i=1}^{N}\sigma_{i}^{2}\) ,有:
\[ \forall N \geq 1 ,\lambda \geq 0: \mathrm{Prob}\left\{ \left\lVert \sum_{i=1}^{N} \zeta_{i} \right\rVert \geq \lambda \sum_{i=1}^{N} \sigma_{i}^{2} \right\} \leq \frac{1}{\lambda} \]
  1. 如果对于几乎所有的 \(i\geq 1\)\(\mathbb{E}\left\{ \exp(\lVert \zeta_{i} \rVert^{2}/\sigma_{i}^{2})|i-1 \right\}\leq \exp (1)\)
\[ \forall N \geq 1 ,\lambda \geq 0: \mathrm{Prob}\left\{ \left\lVert \sum_{i=1}^{N} \zeta_{i} \right\rVert \geq \sqrt{ 2 }(1+\lambda)\sqrt{ \sum_{i=1}^{N} \sigma_{i}^{2}} \right\} \leq \exp (-\lambda^{2} /3) \]

Theorem

  1. 偏差满足
\[ \mathrm{Prob}\left\{ \lVert \nabla f(\bar{x}^{*})^{2} \rVert \geq 2\left( 4L \mathcal{B} _{N} + \frac{3\lambda\sigma^{2}}{T}\right)\right\} \leq \frac{S+1}{\lambda}+2^{-S} \]
  1. 给定 \(\varepsilon> 0\)\(\Lambda \in(0,1)\),记:
\[ \begin{align} S & =S(\Lambda ) :=\lceil \log(2/\Lambda) \rceil \\ N &= N(\varepsilon) :=\left\lceil \max\left\{ \frac{32L^{2}D_{f}^{2}}{\varepsilon} \right\} ,\left[ 32L\left( \tilde{D}+\frac{D^{2}_{f}}{\tilde{D}} \right) \frac{\sigma}{\varepsilon} \right] \right\rceil \\ T &= T(\varepsilon,\Lambda ) := \left\lceil \frac{24(S+1)\sigma^{2}}{\Lambda\varepsilon} \right\rceil \end{align} \]

2-RSG 算法收敛最多要调用

\[ S(\Lambda)[N(\varepsilon)+T(\varepsilon,\Lambda)] \]

\(\mathcal{SFO}\)

Corollary

在假设 1 和 假设 2 情况下,定理可以加强为

  1. 偏差满足 $$ \mathrm{Prob}\left{ \lVert \nabla f(\bar{x}{*}) $$} \rVert \geq 4\left( 2L \mathcal{B} _{N} + 3(1+\lambda)\frac{\sigma^{2}}{T}\right)\right} \leq (S+1 )\exp(-\lambda^{2} /3)+2^{-{S}

  2. 给定 \(\varepsilon> 0\)\(\Lambda \in(0,1)\),S,N 保持不变,T 改写为:

\[ T = T'(\varepsilon,\Lambda ) := \frac{24\sigma^{2}}{\varepsilon}\left[ 1+\left( 3\ln \frac{2(S+1)}{\Lambda} \right)^{1/2} \right]^{2} \]

则 2-RSG 算法收敛最多要调用

\[ S(\Lambda)[N(\varepsilon)+T'(\varepsilon,\Lambda)] \]

\(\mathcal{SFO}\)

复杂度:

\[ \mathcal{O}\left\{ \frac{\log(1 /\Lambda)}{\varepsilon}+\frac{\sigma^{2}}{\varepsilon^{2}}\log \frac{1}{\Lambda} + \frac{\log ^{2}(1/\Lambda)\sigma^{2}}{\varepsilon} \right\} \]

Stochastic zeroth-order methods

考虑如下优化问题:

\[ f^{*}:= \inf_{x \in \mathbb{R}^{n}}\left\{ f(x): = \int_{\Xi}F(x,\xi)\mathrm{d}P(\xi) \right\} \]

假定 \(F(x,\xi)\in \mathcal{C}^{1,1}_{L}(\mathbb{R}^{n})\) ,同时有 \(f(x)\in \mathcal{C}^{1,1}_{L}(\mathbb{R}^{n})\) 。我们关心的问题是在只给出 \(f\) 的零阶 Oracle 的情况如何调用我们的 RSG 算法和 2-RSG 算法

The randomized stochastic gradient free method

在第 \(k\) 次迭代中,我们输入 \(x_{k}\)\(\xi_{k}\) ,随机零阶 Oracle (\(\mathcal{SZO}\)) 会量化 \(F(x_{k},\xi_{k})\)

Assumption 3

对于任意的 \(k\geq 1\),有:

\[ \mathbb{E}[F(x_{k},\xi_{k} )] = f(x_{k}) \]

\(f\) 与任何非负、可测且有界函数 \(\psi\)\(\mathbb{R}^{n}\to \mathbb{R}\) 的卷积,且满足 \(\int_{\mathbb{R}^{n}}\psi(u)\mathrm{d}u=1\) ,是 \(f\) 的一个近似,其平滑程度至少与 \(f\) 相同,函数 \(\psi\) 的一个最重要的例子是概率密度函数。

考虑如下光滑近似:

\[ f_{\mu}(x) = \frac{1}{(2\pi)^{n/2}}\int f(x+\mu u)e^{-1/2\lVert u \rVert ^{2}}\mathrm{d u} =\mathbb{E}_{u} [f(x+\mu u)] \]

其中 \(\mu> 0\) 是平滑参数,\(u\) 是一个 \(n\) 维标准高斯随机向量。

光滑近似满足如下特性(Nesterov)

Theorem

  1. \(f_{\mu}\) 的梯度:
\[ \nabla f_{\mu}(x) = \frac{1}{(2\pi)^{n/2}}\int \frac{f(x+\mu u)-f(x)}{\mu}ue^{-1/2\lVert u \rVert^{2} }\mathrm{d}u \]

满足 \(L_{\mu}\) -Lipschitz 光滑,其中 \(L_{\mu}\leq L\)

  1. 对于任意 \(x \in \mathbb{R}^n\) 有:
\[ \begin{align} \lvert f_{\mu}(x)-f(x) \rvert &\leq \frac{\mu^{2}}{2}Ln \\ \lVert \nabla f_{\mu}(x)-\nabla f(x) \rVert &\leq \frac{\mu}{2}L(n+3)^{3/2} \end{align} \]
  1. 对于任意 \(x \in \mathbb{R}^n\) 有:
\[ \frac{1}{\mu^{2}}\mathbb{E}_{u}[\left\{ f(x+\mu u)-f(x) \right\} ^{2}\lVert u \rVert ^{2}]\leq \frac{\mu^{2}}{2}L^{2}(n+6)^{3}+2(n+4)\lVert \nabla f(x) \rVert ^{2} \]

根据定理第二条的第二小条,可以得出:

\[ \lVert \nabla f_{\mu}(x) \rVert ^{2} \leq 2\lVert \nabla f(x) \rVert +\frac{\mu^{2}}{2}L^{2}(n+3)^{3} \]
\[ \lVert \nabla f(x) \rVert \leq 2\lVert \nabla f_{\mu}(x) \rVert ^{2}+\frac{\mu^{2}}{2}L^{2}(n+3)^{3} \]

\[ f^{*}_{\mu} : = \min_{x \in \mathbb{R}^{n}}f_{\mu}(x) \]

根据定理第二条的第一小条有:

\[ -\mu^{2}Ln \leq [f_{\mu}(x)-f^{*}_{\mu}]-[f(x)-f^{*}]\leq \mu^{2}Ln \]

A randomized stochastic gradient free (RSGF) method

Input : 初始点 \(x_{1}\) ,最大迭代次数 \(N\),步长 \(\left\{ \gamma_{k} \right\}_{k\geq{1}}\) 概率函数 \(P_{R(\cdot)}\) Step 0 :取 R 为 \(P_{R(\cdot)}\) 给出随机变量 Step \(k=1,\dots,R\) ,生成高斯随机向量 \(u_{k}\) ,调用随机零阶 Oracle 按如下方式计算 \(G_{\mu}(x_{k},\xi_{k},u_{k})\):

\[ G_{\mu}(x_{k},\xi_{k},u_{k}) = \frac{F(x_{k}+\mu u_{k},\xi_{k})-F(x_{k},\xi_{k})}{\mu}u_{k} \]

设置:

\[ x_{k+1}= x_{k}-\gamma_{k}G_{\mu}(x_{k},\xi_{k},u_{k}) \]

Output \(x_{R}\)

梯度估计满足:

\[ \mathbb{E}_{\xi,u}[G_{\mu}] =\mathbb{E}_{\mu}[\mathbb{E}_{\xi}[G_{\mu}]]=\nabla f_{\mu}(x) \]

也就是说 \(G_{\mu}\)\(\nabla f_{\mu}(x)\) 的一个无偏估计

Theorem

在 RSGF 算法中,假定步长和概率函数满足: \(\gamma_{k}< 1/[2(n+4)L]\)

\[ P_{R}(k):= \mathrm{Prob}\left\{ R=k \right\} = \frac{\gamma_{k}-2L(n+4)\gamma_{k}^{2}}{\sum_{k=1}^{N} [\gamma_{k}-2L(n+4)\gamma_{k}^{2}]} \]

对于任何 \(N\geq 1\) ,有:

\[\begin{align} &\frac{1}{L}\mathbb{E}[\lVert \nabla f(x_{R}) \rVert ^{2}]\leq \frac{1}{\sum_{k=1}^{N} [\gamma_{k}-2L(n+4)\gamma_{k}^{2}]} \\ &\quad\left[D^{2}_{f}+2\mu^{2}(n+4)\left( 1+L(n+4^{2})\sum_{k=1}^{N} \left( \frac{\gamma_{k}}{4}+L\gamma_{k}^{2} \right) \right) +2(n+4)\sigma^{2}\sum_{k=1}^{N} \gamma_{k}^{2}\right] \end{align} \]

如果问题是凸的,则对于最优解 \(x^{*}\) 有:

\[\begin{align} &\mathbb{E}[\lVert f(x_{R})-f^{*} \rVert ^{2}]\leq \frac{1}{2\sum_{k=1}^{N} [\gamma_{k}-2L(n+4)\gamma_{k}^{2}]} \\ &\quad\left[D^{2}_{X}+2\mu^{2}L(n+4)\sum_{k=1}^{N} [\gamma_{k}+L(n+4)^{2}\gamma_{k}^{2}]+2(n+4)\sigma^{2}\sum_{k=1}^{N} \gamma_{k}^{2}\right] \end{align} \]

Corollary

步长满足

\[ \gamma_{k} = \frac{1}{\sqrt{ n+4 }} \min\left\{ \frac{1}{4L\sqrt{ n+4 }} ,\frac{\tilde{D}}{\sigma \sqrt{ N }}\right\} \]

平滑参数满足:

\[ \mu\leq \frac{D_{f}}{(n+4)\sqrt{ 2N }} \]

在假设 1 和假设 3 条件下,给出:

\[ \frac{1}{L}\mathbb{E}[\lVert \nabla f(x_{R}) \rVert^{2} ] \leq \mathcal{\bar{B}}_{N}:= \frac{12(n+4)LD^{2}_{f}}{N}+ \frac{4\sigma \sqrt{ n+4 }}{\sqrt{ N }}\left( \tilde{D} +\frac{D^{2}_{f}}{\tilde{D}}\right) \]

此外,如果问题是凸的,最优解 \(x^{*}\) ,平滑参数满足:

\[ \mu\leq \frac{D_{X}}{\sqrt{ (n+4) }} \]

\[ \mathbb{E}[f(x_{R})-f^{*}] \leq \frac{5L(n+4)D^{2}_{X}}{N}+\frac{2\sigma \sqrt{ n+4 }}{\sqrt{ N }}\left( \tilde{D}+\frac{D_{X}^{2}}{\tilde{D}} \right) \]

对于凸和非凸的 SP 问题,在 RSGF 中我们都采用相同的步长和概率函数,RSGF 的复杂度界为 \(\mathcal{O}(n /\varepsilon^{2})\) ,对于凸问题,满足 \(\mathbb{E}[f(\bar{x})-f^{*}]\leq \varepsilon\) 的解 \(\bar{x}\) 可以在 \(\mathcal{O}(n /\varepsilon)\) 次迭代中找到。RSGF 的依赖性比解决一般非光滑凸 SP 问题的依赖性弱,这是因为我们处理的是一个更特殊的 SP 问题类别。在 \(\sigma= 0\) 的情况下,RSGF 方法的复杂度降低到 \(\mathcal{O}(n/\varepsilon)\) ,与 Nesterov 的无导数随机搜索方法获得的复杂度相似。

同样的,对于 \(\tilde{D}\) ,其非凸和凸情况下的最优选择分别是 \(D_{f}\)\(D_X\)

\[ \mathrm{Prob}\left\{ \lVert \nabla f(x_R) \rVert ^{2}\geq \lambda L\mathcal{\bar{B}}_{N} \right\} \leq \frac{1}{\lambda} \]

所以找到一个 \((\varepsilon,\Lambda)\) 解的界为:

\[ \mathcal{O}\left\{ \frac{nL^{2}D_{f}}{\Lambda\varepsilon}+\frac{nL^{2}}{\Lambda^{2}}\left( \tilde{D}+\frac{D_{f}^{2}}{\tilde{D}}{} \right)\frac{\sigma^{2}}{\varepsilon^{2}} \right\} \]

A two-phase RSGF(2-RSGF) method

Input : 初始点 \(x_{1}\),运行次数 \(S\) ,迭代限制 \(N\) ,样本大小 \(T\) Optimization phase : 在 \(s=1,\dots,s\) ,在给定条件下调用 RSGF 算法,输出 \(\bar{x}_{s}\) Post-optimization phase: 从 \(\left\{ \bar{x}_{1},\dots,\bar{x}_{s} \right\}\) 中挑选解 \(\bar{x} ^{*}\) 满足:

\[ \lVert g_{\mu}(\bar{x}^{*}) \rVert = \min_{s=1,\dots,S} \lVert g_{\mu}(\bar{x}_{s}) \rVert \quad g_{\mu}(\bar{x}_{s}) := \frac{1}{T}\sum_{k=1}^{T}G_{\mu} (\bar{x}_{s},\xi_{k},u_{k}) \]

收敛特性由如下定理给出:

Theorem

\[ \begin{align} \mathrm{Prob}\Bigg\{ \lVert \nabla f(\bar{x}^{*}) \rVert ^{2} \geq &8L\mathcal{\bar{B}_{N} } + \frac{3(n+4)L^{2}D_{f}^{2}}{2N}+\\ &\frac{24(n+4)\lambda}{T}\left[ L\mathcal{\bar{B}_{N}} +\frac{(n+4)L^{2}D_{f}^{2}}{N} +\sigma^{2}\right]\Bigg \} \\ \leq \frac{S+1}{\lambda}&+2^{-S} \end{align} \]

给定 \(\varepsilon>0\)\(\Lambda \in(0,1)\)\(S\) 由之前定义给出,定义:

\[ \begin{align} N&=\hat{N}(\varepsilon) := \max\left\{ \frac{12(n+4)(6LD_{f})^{2}}{\varepsilon} ,\left[ 72L\sqrt{ n+4 }\left( \tilde{D}+\frac{D_{f}^{2}}{\tilde{D}} \right)\frac{\sigma}{\varepsilon} \right] ^{2}\right\} \\ T& = \hat{T}(\varepsilon,\Lambda): = \frac{24(n+4)(S+1)}{\Lambda} \max \left\{ 1,\frac{6\sigma^{2}}{\varepsilon} \right\} \end{align} \]

2-RSGF 可以计算出一个 \((\varepsilon,\Lambda)\) 的解最多调用

\[ 2S(\Lambda)\left[ \hat{N}(\varepsilon)+\hat{T}(\varepsilon,\Lambda) \right] \]

\(\mathcal{SZO}\)

2-RGSF 方法调用的总的 \(\mathcal{SZO}\) 次数的界为:

\[ \mathcal{O}\left\{ \frac{nL^{2}D_{f}^{2}\log(1/\Lambda)}{\varepsilon} + nL^{2}\left( \tilde{D} +\frac{D_{f}^{2}}{\tilde{D}}\right) \frac{\sigma^{2}}{\varepsilon^{2}} \log \frac{1}{\Lambda}+ \frac{n\log ^{2}(1/\Lambda)}{\Lambda}\left( 1+\frac{\sigma^{2}}{\varepsilon} \right) \right\} \]

比 RGSF 方法小了 \(\mathcal{O}(1/[\Lambda^{2}\log(1/\Lambda)])\) ,二者都是第二项在起主导作用

在本文中,我们提出了一类新的SA(随机逼近)方法,用于解决具有噪声一阶信息的经典无约束NLP(非线性规划)问题。我们建立了一些关于计算这类问题 \(\varepsilon\)-解的复杂度的新结果,并表明当问题是凸的时候,它们几乎是最优的。此外,我们引入了一个后优化阶段,以改善RSG(随机梯度)方法的大偏差性质。这些程序及其复杂度结果随后被专门用于仅提供随机零阶信息的基于模拟的优化问题。此外,我们表明,对于光滑凸SP(优化问题),无梯度方法的复杂度对维度 \(n\) 的依赖性比更一般的非光滑凸SP要弱得多。

Discussion

随机优化问题一直是优化领域关注的一个焦点,现存的大多数随机优化方法如 SGD 、SMD、SVRG 等方法都要求函数的凸性,甚至有些时候要求强凸,但在很多情况下目标函数很难满足凸性,因此文章的方法退而求其次,并不要求凸性,而是要求其满足一定的 Lipschitz 连续条件,弥补了非凸方法的空白,其也适用于一般的凸函数问题。

这个方法的核心就是随机终止机制,因为在非凸问题中,我们无法保证目标函数值单调下降,因此不像在凸优化中那样简单地使用最后一个点或平均点来分析收敛性,因此随机选择输出点能够有效避免依赖函数结构或梯度范数的排序大小,简化了非凸随机优化问题的理论分析于实现。

在只能给出零阶随机信息 \(\mathcal{SZO}\) 的优化问题中引入了光滑近似技术来估计函数梯度,减少了因随机性而带来的噪声干扰的影响,让人眼前一亮,也利用理论分析,确保光滑近似的结果与原始结果近似一致。

但是仍有一些不足:对于该方法本身,我们仍需要其满足 Lipschitz 连续,实际上这是一个严苛的连续条件。而多个收敛性理论和步长选取策略依赖常数 \(L\) ,尽管文章已经限定了估计氛围,但仍有一定影响。