GAN和散度(divergence)的联系

根据之前的定义(可以参考之前的文章:GAN(对抗生成网络)的数学原理及基本算法),discriminator采用最大似然的方法评估生成和原样本的差异性的本质是衡量两者的JS散度:
V=2log2+2JSD(PdataPG)V = -2log2 + 2JSD(P_{data}||P_G)但是其实衡量两个分布之间的差异性不仅仅JS散度一种方式。那么有一个问题,即是否可以使用任意散度来作为衡量呢?JS是否是最好的呢?
解决这个问题之前,先定义一个关于散度的函数Df(PQ)D_f(P||Q)(不知道为什么这样定义的,他说的是定义……),其中PPQQ是两个分布,随机变量XX,那么P(x)P(x)Q(x)Q(x)是关于随机变量的两个分布上面的采样。Df(PQ)D_f(P||Q)定义如下:Df(PQ)=xq(x)f(p(x)q(x))dxD_f(P||Q) = \int\limits_x q(x)f(\frac{p(x)}{q(x)})dx其中ff函数是任意函数,且满足两个要求:

  • f(1)=0f(1)=0
  • ff是一个凸函数

从第一点来看,很显然,若对于所有xx都有p(x)=q(x)p(x)=q(x),说明两个分布无差异,那么散度为0。通过第二点,可知Df(PQ)0D_f(P||Q) \geqslant0。根据凸函数性质,有
Df(PQ)f(xq(x)p(x)q(x)dx)=f(1)=0D_f(P||Q) \geqslant f(\int\limits_x q(x)\frac{p(x)}{q(x)}dx) = f(1)=0所以可见,当两个分布重叠的时候,散度的函数为0,其余情况都大于0。具体来看,当f(x)=xlogxf(x) = xlogx,散度函数DfD_f为KL散度;当f(x)=logxf(x) = -logx,散度函数DfD_f为反KL散度(reverse KL divergence);当f(x)=(x1)2f(x) = (x-1)^2,散度函数DfD_f为Chi Square。
定义好散度函数之后,根据凸函数性质,每个凸函数都有一个共轭函数ff^*(conjugate function),其定义如下:
f(t)=maxxdomain(f){xtf(x)} f^*(t) = \max\limits_{x\in domain(f)} \{xt - f(x)\} 举例介绍共轭函数:
f(t1)=max{x1t1f(x1),x2t2f(x2)xntnf(xn)}f(t_1) = \max \{x_1t_1-f(x_1), x_2t_2-f(x_2) \dots x_nt_n-f(x_n)\}f(t1)f(t_1)是其中最大的一个,f(t)f^*(t)的图像可以从下图的红色线直观的看出:从散度(divergence)角度理解GAN
反过来,共轭性有:
f(x)=maxtdomain(f){xtf(t)}f(x) = \max\limits_{t\in domain(f^*)} \{xt - f^*(t)\}根据这个性质可以对DfD_f进行改写:Df(PQ)=xq(x)(maxtdomain(f){p(x)q(x)tf(t)})dx D_f(P||Q) = \int\limits_x q(x)(\max\limits_{t\in domain(f^*)} \{\frac{p(x)}{q(x)}t - f^*(t)\})dx 这里如果带入D(x)D(x),那么有:Df(PQ)xq(x)({p(x)q(x)D(x)f(D(x))})dx=xp(x)D(x)dxxq(x)f(D(x))dx=ExP[D(x)]ExQ[f(D(x))] \begin{aligned} D_f(P||Q) &\geqslant \int\limits_x q(x)( \{\frac{p(x)}{q(x)}D(x) - f^*(D(x))\})dx\\ &=\int\limits_x p(x)D(x)dx - \int\limits_xq(x)f^*(D(x))dx\\ &=E_{x\thicksim P}[D(x)] - E_{x\thicksim Q}[f^*(D(x))] \end{aligned} 根据上面的公式,可以将PP视作PdataP_{data}QQ视作PGP_G,那么上式就很好解释了。discriminator的任务就是将上式最大化——辨别数据集采样样本和生成样本,衡量的具体方式根据ff^*而定,用什么散度,ff^*就是对应共轭;generator的任务就是寻找分布PGP_G
之前最大似然对应的JS散度存在两个问题:mode collapse和mode dropping。Mode collapse即,实际数据分布较为分散,但是生成数据相对集中,这样的结果是同一张图片的近似将会反复出现:从散度(divergence)角度理解GAN
Mode dropping即实际数据分布分成多个簇,但生成只占据其中一个,这样的结果是生成,例如图像,将会缺少某一种特性,比如没有黑色头发之类的:
从散度(divergence)角度理解GAN
所以从这个角度,选择不同的散度,衡量标准不同,最终优化的结果不同——一定程度改善上述两个问题。解决的一个方法是ensemble。
参考资料:
李宏毅老师GAN讲解视频

相关文章:

  • 2022-02-25
  • 2022-12-23
  • 2021-06-06
  • 2021-10-02
  • 2022-12-23
  • 2021-08-28
  • 2022-12-23
  • 2022-12-23
猜你喜欢
  • 2021-12-11
  • 2021-12-03
  • 2021-11-14
  • 2022-01-20
  • 2021-12-03
  • 2021-05-26
相关资源
相似解决方案