KKT
参考:foundations of machine learning , appendix B
书里没考虑等式约束。
原始的优化问题:
\[\min \limits_{x} f(x)\] \[\text{subject to: } g_i(x)\leq0\]拉格朗日函数:
\[F(x) = f(x)+\sum_{i}\alpha_i g_i(x)\] \[\text{subject to: }\alpha_i \leq 0\]所以
\[f(x) \geq F(x)\]设 \(p^*\leq f(x)\), \(q^*\leq F(x)\)
强对偶:
\[p^*=q^*\]弱对偶:
\[p^*\leq q^*\]接着引入
\[\begin{equation} \max\limits_{\alpha}\min\limits_{x}F(x) \label{maxmin} \end{equation}\]符合公式$\ref{maxmin}$的$x$和$\alpha$,在两种情况下是鞍点(证明书上无)。
1. f,g 都是凸函数,且符合slater条件
2. f,g 都是可微凸函数,且符合弱slater条件。
而鞍点有以下性质:是鞍点,即是原问题的解。
推导:
pass(书上有)
KKT条件:f,g都需要是可微凸函数,
\[\nabla_x \mathcal{L} = \nabla_x f(x)+\sum_i\alpha_i\nabla_x g(x) = 0\] \[\nabla_{\alpha_i} \mathcal{L} = g_i(x) \leq 0\] \[\sum_i \alpha_i g_i(x)=0\]推导:
\[\begin{equation} \begin{split} f(x)-f(\bar{x})&\geq \nabla_x f(\bar{x})(x-\bar{x}) \text{ (f得是凸函数,还能可微)}\\ &=(-\sum_i\alpha_i\nabla_x g(x) )*(x-\bar{x})\\ &\geq -\sum_i\alpha_i (g(x)-g(\bar{x}) \text{ (p得是凸函数并且可微)}\\ &\geq -\sum_i\alpha_i g(x) \geq 0 \end{split} \end{equation}\]
Written on February 8, 2022