凸优化基础

数学基础系列博客是自己在学习了稀牛学院&网易云课堂联合举办的《人工智能数学基础》微专业后的课程笔记总结。怀着对授课讲师Jason博士无限的敬佩与感激之情,我在完整听了两遍课程之后,对这门进行了笔记整理。Jason博士用深入浅出的方式把数学知识真的是讲透彻了,我的笔记显然无法完整传达Jason博士的精彩授课内容,在此非常推荐每一个打算进入或了解AI的同学去学习这门课程!

一:一般优化问题

1.1 无约束优化问题

自变量为矢量的函数f:RnRf: \mathbf{R}^n\rightarrow \mathbf{R}:
minf(x)xRn minf(\mathbf{x})\quad \mathbf{x} \in \mathbf{R}^n
求解方法有两种:(均求得局部最优解,不一定是全局最优解,因为不知道函数的形状)

  • 直接法求解。令f(x)=0\nabla f(\mathbf{x})=0,求得驻点,如果有必要,则再根据Hessian矩阵的正定性判断驻点的性质(局部极大、局部极小、鞍点)
  • 迭代法求解
    • 梯度下降法(dk=gk)d_k=-g_k),每次下降的方向为负梯度方向。
    • 牛顿法(dk=Hk1gkd_k=-H_k^{-1}g_k),考虑泰勒级数中的二阶项。
    • 拟牛顿法(避免求Hessian矩阵的逆,使用另一个矩阵SkS_k近似)
      • DFP
      • BFGS
      • 两者的区别在于SkS_k的不同。

1.2 有约束优化问题

  • 约束优化问题的一般形式:

minmizef0(x)subject to fi(x)0for i=1,2,...mhi(x)=0for i=1,2,...p minmize\quad f_0(\mathbf{x})\\ subject\ to\ f_i(\mathbf{x})\le0 \quad for\ i = 1,2,...m\\ \quad \quad \quad \quad h_i(\mathbf{x}) = 0\quad for\ i=1,2,...p

  • 可行域:满足f(x)f(\mathbf{x})定义域和约束条件的x\mathbf{x}的集合。

  • 举例:下图中虚线为等高线
    minimizef(x)=x12+x224x1+4=(x12)2+x22subject toc1(x)=x12x2+60c2(x)=x12+x210,c3(x)=x10,c4(x)=x20 \text{minimize} \quad f(\mathrm{x})=x_{1}^{2}+x_{2}^{2}-4 x_{1}+4=\left(x_{1}-2\right)^{2}+x_{2}^{2}\\ \text{subject to} \quad c_{1}(\mathrm{x})=x_{1}-2 x_{2}+6 \geq 0\\ \qquad \qquad \qquad c_{2}(\mathrm{x})=-x_{1}^{2}+x_{2}-1 \geq 0, \\\quad c_{3}(\mathrm{x})=x_{1} \geq 0, \\\quad c_{4}(\mathrm{x})=x_{2} \geq 0

数学基础(二):凸优化基础(仿射集,凸集,凸优化问题)

1.3 补充知识 Ax=b\mathbf{Ax=b}

矩阵乘法
[2111]AR2×2[xy]xR2=[15]bR2 \underbrace{\left[ \begin{array}{cc}{2} & {-1} \\ {1} & {1}\end{array}\right]}_{\mathbf{A} \in \mathbb{R}^{2 \times 2}} \underbrace{\left[ \begin{array}{l}{x} \\ {y}\end{array}\right]}_{\mathbf{x} \in \mathbb{R}^{2}}=\underbrace{\left[ \begin{array}{l}{1} \\ {5}\end{array}\right]}_{\mathbf{b} \in \mathbb{R}^{2}}

[211460272]AR3×3[uvw]xR3=[529]bR3 \underbrace{\left[ \begin{array}{ccc}{2} & {1} & {1} \\ {4} & {-6} & {0} \\ {-2} & {7} & {2}\end{array}\right]}_{\mathbf{A} \in \mathbb{R}^{3 \times 3}} \underbrace{\left[ \begin{array}{l}{u} \\ {v} \\ {w}\end{array}\right]}_{\mathbf{x} \in \mathbb{R}^{3}}=\underbrace{\left[ \begin{array}{c}{5} \\ {-2} \\ {9}\end{array}\right]}_{\mathbf{b} \in \mathbb{R}^{3}}

  • 行视图- 超平面
    2xy=1x+y=5 \begin{aligned} 2 x-y &=1 \\ x+y &=5 \end{aligned}
    数学基础(二):凸优化基础(仿射集,凸集,凸优化问题)

对于Ax=b\mathbf{Ax=b},从行视图的角度,可以理解为多个超平面的交集。所谓超平面,在二维空间中指直线,在三维空间中指平面。在更高维空间中,不可以可视化,但可以类比理解为y=wTx+by = \mathbf{w^Tx}+b的平面。

二:凸集和凸函数

2.1 凸集

2.1.1 凸集和仿射集

  • 仿射集:集合中任意两点间的直线也在集合中,那么该集合称为仿射集。例如x=θx1+(1θ)x2C,(CRn,θR)\mathbf{x}=\theta\mathbf{x_1}+(1-\theta)\mathbf{x_2}\in C,\quad (C\in \mathbf{R}^n,\theta \in R).

  • Ax=b\mathbf{Ax=b}的解的集合为仿射集。Ax=A(θx1+(1θ)x2)=θAx1+(1θ)Ax2=θb+(1θ)b=b\mathbf{Ax}=\mathbf{A}(\theta\mathbf{x_1}+(1-\theta)\mathbf{x_2})=\theta \mathbf{Ax_1}+(1-\theta) \mathbf{Ax_2}=\theta b+(1-\theta)b=b.

    如果x1\mathbf{x_1}x2\mathbf{x_2}都为方程组的解,那么x1\mathbf{x_1}x2\mathbf{x_2}连接组成的直线是的任意一点x\mathbf{x}也是方程组的解。所以解的集合就是x\mathbf{x},是一个仿射集。

数学基础(二):凸优化基础(仿射集,凸集,凸优化问题)

  • 凸集:集合中任意两点间的线段也在集合中,那么该集合称为凸集。例如:对于x1,x2C\mathbf{x_1,x_2}\in C,有x=θx1+(1θ)x2C,(CRn,θ[0,1])\mathbf{x}=\theta\mathbf{x_1}+(1-\theta)\mathbf{x_2}\in C,\quad (C\in \mathbf{R}^n,\theta \in [0,1]).

    数学基础(二):凸优化基础(仿射集,凸集,凸优化问题)

  • 一个集合是仿射集,但不一定是凸集;一个集合如果是凸集,那么一定是仿射集。

2.1.2 常见的凸集

part1

  • 所有的Rn\mathbf{R}^n,既是凸集又是仿射集。
  • 所有的R+n\mathbf{R}^n_+,只是凸集,因为是半空间。
  • 超平面:C={xaTx=b}C=\{\mathbf{x|a^Tx}=b\},既是仿射集又是凸集。
  • 半空间:C={xaTxb}C=\{\mathbf{x|a^Tx}\ge b\}或者C={xaTxb}C=\{\mathbf{x|a^Tx}\le b\}

part2

首先补充向量范数的知识:

  • 2-norm:
    x2=i=1nxi2=(xTx)1/2 \|\mathbf{x}\|_{2}=\sqrt{\sum_{i=1}^{n}\left|x_{i}\right|^{2}}=\left(\mathbf{x}^{T} \mathbf{x}\right)^{1 / 2}

  • 1-norm:(绝对值相加)
    x1=i=1nxi \|\mathbf{x}\|_{1}=\sum_{i=1}^{n}\left|x_{i}\right|

  • \infty-norm:(绝对值最大的那个数的值)
    x=maxi=1,,nxi \|\mathbf{x}\|_{\infty}=\max _{i=1, \ldots, n}\left|x_{i}\right|

  • p-norm(p1)p \ge1):
    xp=(i=1nxip)1p \|\mathbf{x}\|_{p}=\left(\sum_{i=1}^{n}\left|x_{i}\right|^{p}\right)^{\frac{1}{p}}

注意p一定要大于等于1

  • 范数球:例如x21||\mathbf{x}||_2 \le1.给定任意的x,yRn\mathbf{x,y}\in \mathbf{R}^n,且x21,y21||\mathbf{x}||_2 \le1,||\mathbf{y}||_2 \le1,则有θx+(1θ)y2θx2+(1θ)y21|||\theta\mathbf{x}+(1-\theta)\mathbf{y}||_2 \le \theta||\mathbf{x}||_2+(1-\theta)||\mathbf{y}||_2 \le1.所以二范数围成的集合是凸集。

  • 在二维情形下,

    • x11x+y1||\mathbf{x}||_1 \le1\rightarrow |x|+|y| \le 1;
    • x21x2+y21||\mathbf{x}||_2 \le1\rightarrow x^2+y^2 \le1;
    • x1x1 and y1||\mathbf{x}||_{\infty} \le1\rightarrow |x|\le1 \ and \ |y| \le 1

    数学基础(二):凸优化基础(仿射集,凸集,凸优化问题)

  • p1p \ge1时,范数球组成的集合是凸集。

part3

  • 凸集的性质:凸集的交集是凸集,例如:S={x21,x0}S=\{||\mathbf{x}||_2 \le1,x \ge 0\},x21||\mathbf{x}||_2 \le1是范数球,凸集;x0x \ge0是半空间,凸集;凸集的交集还是凸集。所以SS是凸集。

    证明:假定S1, ,SkS_{1}, \cdots, S_{k}是凸集,给定x,yi=1kSi\mathbf{x}, \mathbf{y} \in \bigcap_{i=1}^{k} S_{i}(即x和y都是交集中的点),则有:

    θx+(1θ)ySi,i=1, ,k\theta \mathrm{x}+(1-\theta) \mathrm{y} \in S_{i}, \quad i=1, \cdots, k,因为每一个集合都是凸集,所以连接任意两点的线段都在每一个集合内,因此也就在所有集合的交集内。即:θx+(1θ)yi=1kSi\theta \mathbf{x}+(1-\theta) \mathbf{y} \in \cap_{i=1}^{k} S_{i},因此凸集的交集还是凸集。

  • 凸集的并集不一定是凸集。

  • 多面体:有限个半空间和半平面的交集
    P={xAxb,Cx=d} \mathcal{P}=\{\mathrm{x} | \mathrm{Ax} \leq \mathrm{b}, \mathrm{Cx}=\mathrm{d}\}
    数学基础(二):凸优化基础(仿射集,凸集,凸优化问题)
    原因分析:对于Axb\mathrm{Ax} \leq \mathrm{b},每一行都是一个半空间(凸集),而Axb\mathrm{Ax} \leq \mathrm{b}为多个半空间的交集,也是凸集;对于Cx=d\mathrm{Cx}=\mathrm{d}每一行都是一个超平面(凸集),多个超平面的交集还是凸集。

2.2 凸函数

2.2.1 凸函数的定义

  • 一个函数f:RnRf:\mathbf{R}^n \rightarrow \mathbf{R}被称为凸函数,如果

    • 定义域dom(f)dom(f)为凸集

    • 对于任何x,ydom(f)\mathbf{x,y}\in dom(f)0θ10 \le \theta \le1,有
      f(θx+(1θ)y)θf(x)+(1θ)f(y) f(\theta\mathbf{x}+(1-\theta)\mathbf{y}) \le \theta f(\mathbf{x})+(1-\theta)f(\mathbf{y})
      数学基础(二):凸优化基础(仿射集,凸集,凸优化问题)

  • 凸函数的一阶二阶充要条件

    • 一阶充要条件(不好用):f(x1)f(x)+Tf(x)(x1x)f\left(\mathrm{x}_{1}\right) \geq f(\mathrm{x})+\nabla^{T} f(\mathrm{x})\left(\mathrm{x}_{1}-\mathrm{x}\right)对于所有的x1,x\mathbf{x_1,x}均成立。
    • 二阶充要条件:如果函数二阶可导,则凸函数的充要条件:H(x)\mathbf{H(x)}半正定。

2.2.2 常见的凸函数

  • 一元函数举例:
    • ax+bax+b 既凸且凹
    • x2x^2 凸函数(二阶导数大于0)
    • eαxe^{\alpha x} 凸函数(二阶导数:α2eαx\alpha^2 e^{\alpha x}
    • log x convex on x>0-log\ x \ convex \ on \ x>0,二阶导数1x2\frac{1}{x^2}
    • xlogx convex on x>0xlogx \ convex \ on \ x>0,二阶导数 1x\frac{1}{x}
  • 二元函数举例
    • f(x)=aTx+bf\mathbf{(x) = \mathbf{a^Tx+b}},既凸且凹。f(x)=a2f(x)=0\nabla f(\mathbf{x})=\mathbf{a},\nabla^2f(\mathbf{x}) = \mathbf{0}.
    • f(x)=xTPx+2qTx+rf\mathbf{(x) =\mathbf{x^TPx+} 2\mathbf{q^Tx+r}}, 是凸函数的条件:2f(x)=2P0\nabla^2f(\mathbf{x}) = 2\mathbf{P}\ge 0,即P\mathbf{P}为半正定矩阵。
      • f(x)=x22=xTxf\mathbf{(x)} =||\mathbf{x}||^2_2=\mathbf{x^Tx},是凸函数,因为P=I\mathbf{P=I}是单位阵。

数学基础(二):凸优化基础(仿射集,凸集,凸优化问题)

2.2.3 保凸运算

  • f(x)f(\mathbf{x})凸,则f(Ax+b)f(\mathbf{Ax+b})凸。

    • 解释:Ax+b\mathbf{Ax+b}为仿射变换,相当于对原始图像进行了‘线性变换+平移’。并不改变函数的凸性。可以参考《通俗理解仿射变换》。
    • 举例:f(x)=x2f(x)=x^2是凸函数,f(2x+1)=(2x+1)2f(2x+1)=(2x+1)^2也是凸函数。
    • 这个性质,就可以解释线性回归的损失函数yXw22||\mathbf{y-Xw}||_2^2是凸函数。
  • g凸,h凸,扩展的h非递减,则f(x)=h(g(x))f(\mathbf{x})=h(g(\mathbf{x}))凸。例如:f(x)=yAx22f(x)=\|y-A x\|_{2}^{2}凸,g(x)=yAx2g(\mathrm{x})=\|\mathrm{y}-\mathrm{Ax}\|_{2}h(x)=x2h(x)=x^{2}x0x \ge0部分非递减。

  • f1, ,fmf_{1}, \cdots, f_{m}凸,w1, ,wm0w_{1}, \cdots, w_{m} \geq 0,则i=1mwifi\sum_{i=1}^{m} w_{i} f_{i}凸,例如:f(x)=yAx22+γx22f(x)=\|y-A x\|_{2}^{2}+\gamma\|x\|_{2}^{2}凸,γ0\gamma \ge 0.简单来讲:就是凸函数的非负线性组合还是凸函数。

  • 逐点最大:f1, ,fmf_{1}, \cdots, f_{m}凸,则f(x)=max{f1(x), ,fm(x)}f(\mathrm{x})=\max \left\{f_{1}(\mathrm{x}), \cdots, f_{m}(\mathrm{x})\right\}凸。f(x,y)f(\mathrm{x}, \mathrm{y})对于每个yA\mathrm{y} \in \mathcal{A}凸,则supyAf(x,y)\sup _{\mathbf{y} \in \mathcal{A}} f(\mathbf{x}, \mathbf{y})凸。

    数学基础(二):凸优化基础(仿射集,凸集,凸优化问题)

2.2.4 α\alpha水平集

  • 一元函数ffα\alpha水平集为:
    Sα={xf(x)α} S_{\alpha}=\{x | f(x) \leq \alpha\}
    则有ff为凸函数 Sα\rightarrow S_\alpha对于每个α\alpha是凸集,反之则不成立。

数学基础(二):凸优化基础(仿射集,凸集,凸优化问题)

三:凸优化问题

3.1 凸优化问题说明

  • 凸优化问题
    minmizef0(x)subject to fi(x)0for i=1,2,...mhi(x)=0for i=1,2,...p minmize\quad f_0(\mathbf{x})\\ subject\ to\ f_i(\mathbf{x})\le0 \quad for\ i = 1,2,...m\\ \quad \quad \quad \quad h_i(\mathbf{x}) = 0\quad for\ i=1,2,...p

  • 目标函数是凸函数,可行域是凸集

    • 目标函数是凸函数。
    • 不等式约束函数必须是凸的。(则0水平集是凸集)
    • 等式约束函数必须是仿射的。(类似Ax=b\mathbf{Ax=b},解为凸集)
  • 凸优化问题的本质:在一个凸集上极小化一个凸函数

  • f0(x)=pf_{0}\left(\mathrm{x}^{*}\right)=p *

  • 凸优化问题的局部最优即为全局最优

3.2 典型的凸优化问题

  • 线性规划(Liner Programming;LP)
    minimizecTx+dsubject to Gxh Ax=b minimize \quad \mathbf{c}^{T} \mathbf{x}+d\\ subject\ to\ \mathrm{Gx} \leq \mathrm{h}\\ \qquad \qquad \ \mathrm{Ax}=\mathrm{b}

    • 说明:首先目标函数是仿射函数,既是凸函数也是凹函数(二阶导数为0)。Gxh\mathrm{Gx} \leq \mathrm{h}是一系列半空间的交集(凸集的交集还是凸集),是凸集;Ax=b\mathrm{Ax}=\mathrm{b}是一系列超平面的交集(凸集的交集还是凸集),凸集。所以可行域为凸集。符合在凸集上极小化一个凸函数
  • 二次规划(Quadratic Programming;QP)P\mathbf{P}半正定)
    minimize12xTPx+cTx+dsubject to Gxh Ax=b minimize \frac{1}{2} \mathbf{x}^{T} \mathbf{P} \mathbf{x}+\mathbf{c}^{T} \mathbf{x}+d\\ subject\ to\ \mathbf{Gx} \leq \mathbf{h}\\ \qquad \qquad \ \mathbf{Ax}=\mathbf{b}

    • 说明:目标函数求二阶导可知2f(x)=P0\nabla^2f(\mathbf{x})=\mathbf{P} \ge0,即半正定。所以目标函数是一个凸函数。又因为可行域是凸集,所以符合在凸集上极小化一个凸函数
  • QCQP(P\mathbf{P}Qi\mathbf{Q_i}均半正定):
    minimize12xTPx+cTx+dsubject to12xTQix+riTx+si0;i=1,2mAx=b minimize \quad \frac{1}{2} \mathbf{x}^{T} \mathbf{P} \mathbf{x}+\mathbf{c}^{T} \mathbf{x}+d\\ subject\ to\qquad \frac{1}{2} \mathbf{x}^{T} \mathbf{Q_i} \mathbf{x}+\mathbf{r_i}^{T} \mathbf{x}+s_i \le0;i=1,2 \cdots m\\ \mathrm{Ax}=\mathrm{b}

    • 说明:目标函数为凸函数;可行域中,12xTQix+riTx+si0;i=1,2m\frac{1}{2} \mathbf{x}^{T} \mathbf{Q_i} \mathbf{x}+\mathbf{r_i}^{T} \mathbf{x}+s_i \le0;i=1,2 \cdots m,可以理解为凸函数的0水平集,还是凸集。

四:普通问题转为凸优化问题(案例演示)

  • 给定下列问题:将其转为标准的凸优化问题
    minimize 12w22+Ci=1mξisubject toyi(wTxi+b)1ξi,i=1, ,mξi0 minimize \ \frac{1}{2}\|\mathbf{w}\|_{2}^{2}+C \sum_{i=1}^{m} \xi_{i}\\ subject \ to \qquad y_{i}\left(\mathbf{w}^{T} \mathbf{x}_{i}+b\right) \geq 1-\xi_{i}, i=1, \cdots, m\\\xi_{i} \geq 0
    其中wRn,ξ=[ξ1, ,ξm]TRm,bR\mathbf{w} \in \mathbb{R}^{n}, \boldsymbol{\xi}=\left[\xi_{1}, \cdots, \xi_{m}\right]^{T} \in \mathbb{R}^{m}, b \in \mathbb{R}.定义 k=m+n+1k=m+n+1(未知变量的个数)。

    说明:未知变量为w,b,ξw,b,\xiC,y,xC,y,x已知。

转换过程

  • 定义变量
    xRk=[wξb] \mathbf{x} \in \mathbf{R}^{k}=\left[ \begin{array}{l}{\mathbf{w}} \\ {\mathbf{\xi}} \\ {b}\end{array}\right]

    XRm×n=[x1TxmT],yRm=[y1ym] \mathbf{X} \in \mathbb{R}^{m \times n}=\left[ \begin{array}{c}{\mathbf{x}_{1}^{T}} \\ {\vdots} \\{\mathbf{x}_{m}^{T}}\end{array}\right], \mathbf{y} \in \mathbb{R}^{m}=\left[ \begin{array}{c}{y_{1}} \\ {\vdots} \\ {y_{m}}\end{array}\right]

  • 回归QP问题:
    minimize12xTPx+cTx+dsubject to Gxh Ax=b minimize \frac{1}{2} \mathbf{x}^{T} \mathbf{P} \mathbf{x}+\mathbf{c}^{T} \mathbf{x}+d\\ subject\ to\ \mathbf{Gx} \leq \mathbf{h}\\ \qquad \qquad \ \mathbf{Ax}=\mathbf{b}

  • 定义
    PRk×k=[I00000000],cRk=[0C1(vector)0] \mathbf{P} \in \mathbb{R}^{k \times k}=\left[ \begin{array}{lll}{\mathbf{I}} & {0} & {0} \\ {0} & {0} & {0} \\ {0} & {0} & {0}\end{array}\right], \mathbf{c} \in \mathbb{R}^{k}=\left[ \begin{array}{c}{0} \\ {C \cdot \mathbf{1(vector)}} \\ {0}\end{array}\right]

GR2m×k=[diag(y)XIy0I0],hR2m=[1vector0vector] \mathbf{G} \in \mathbb{R}^{2 m \times k}=\left[ \begin{array}{ccc}{-\operatorname{diag}(\mathbf{y}) \mathbf{X}} & {-\mathbf{I}} & {-\mathbf{y}} \\ {0} & {-\mathbf{I}} & {0}\end{array}\right], \mathbf{h} \in \mathbb{R}^{2 m}=\left[ \begin{array}{c}\mathbf{-1(vector)} \\ \mathbf{0(vector)}\end{array}\right]


12xTPx=12[wT,ξT,bT][I00000000][wξb]=12[wT,ξT,bT][w00]=12w22 \frac{1}{2} \mathbf{x}^{T} \mathbf{P} \mathbf{x}= \frac{1}{2} \left[\mathbf{w}^T,\mathbf{\xi}^T, {b}^T\right]\left[ \begin{array}{lll}{\mathbf{I}} & {0} & {0} \\ {0} & {0} & {0} \\ {0} & {0} & {0}\end{array}\right] \left[ \begin{array}{l}{\mathbf{w}} \\ {\mathbf{\xi}} \\ {b}\end{array}\right]=\frac{1}{2} \left[\mathbf{w}^T,\mathbf{\xi}^T, {b}^T\right]\left[ \begin{array}{l}{\mathbf{w}} \\ {0} \\ {0}\end{array}\right]=\frac{1}{2}\|\mathbf{w}\|_{2}^{2}

cTx=[0,C1T,0][wξb]=Ci=1mξi \mathbf{c}^{T} \mathbf{x}=\left[0,C\mathbf{1}^T, {0}\right]\left[ \begin{array}{l}{\mathbf{w}} \\ {\mathbf{\xi}} \\ {b}\end{array}\right]=C \sum_{i=1}^{m} \xi_{i}

Gx=[diag(y)XIy0I0][wξb]=[diag(y)Xwξbyξ][10][diag(y)Xw+by1ξξ0]yi(wTxi+b)1ξi,i=1, ,mξi0 \mathbf{Gx}=\left[ \begin{array}{ccc}{-\operatorname{diag}(\mathbf{y}) \mathbf{X}} & {-\mathbf{I}} & {-\mathbf{y}} \\ {0} & {-\mathbf{I}} & {0}\end{array}\right]\left[ \begin{array}{l}{\mathbf{w}} \\ {\mathbf{\xi}} \\ {b}\end{array}\right]=\left[ \begin{array}{ccc}{-\operatorname{diag}(\mathbf{y}) \mathbf{Xw}-\mathbf{\xi}-b\mathbf{y}} \\ {-\mathbf{\xi}} \end{array}\right] \\ \le\left[ \begin{array}{c}\mathbf{-1} \\ \mathbf{0}\end{array}\right]\rightarrow \left[ \begin{array}{ccc}{\operatorname{diag}(\mathbf{y}) \mathbf{Xw}+b\mathbf{y}}\ge \mathbf{1-\xi} \\ {\mathbf{\xi}}\ge0 \end{array}\right]\\ \rightarrow y_{i}\left(\mathbf{w}^{T} \mathbf{x}_{i}+b\right) \geq 1-\xi_{i}, i=1, \cdots, m\\\xi_{i} \geq 0

  • 经过上述推导,可以发现原问题转换为了一个QP问题,是一个凸优化问题。而对于凸优化问题,目前已经有非常成熟的解决办法了。因此,能够将一个问题转换为凸优化问题是最为重要的一步。

五:参考资料

  1. https://www.cnblogs.com/hgl0417/p/6670762.html
  2. https://www.matongxue.com/madocs/244.html

相关文章: