1. 模型
文章考虑了一个数据驱动的风险规避随机优化(data-driven risk-averse stochastic optimization)问题:
(DD-SP)x∈XmincTx+P^∈DmaxEP^[Q(x,ξ)] 其中 x∈X是第一阶段的决策变量,第二阶段的问题为
Q(x,ξ)=y∈Ymin{d(ξ)Ty:A(ξ)x+By≥b(ξ)}, 假设A(ξ)和B(ξ)都关于ξ连续, 随机变量ξ属于某个概率空间。ξ 服从的分布P^是未知的,只知道它属于某个confidence set D={P^:dM(P0,P^)≤θ}.
特别地,文中考虑的是一组经验数据 ξ1,⋯,ξN给定的经验分布为中心的Wasserstein Ball。文章主要的贡献就是,给出了 P^∈DmaxEP^[Q(x,ξ)] 的 worst-case distribution,从而给出了 DD-SP 的reformulation。
2. 主要结果
假设1. DD-SP有相对完备的补偿( relatively complete recourse)并且是有界的,亦即对任意x∈X,都有ξ∈Ωsup∣Q(x,ξ)∣<∞.
命题1(原文Proposition 2). 假设 ξ1,⋯,ξN 是从真实分布 P 中独立同部分(i.i.d.)选择的一组样本数据,那么对任何固定的第一阶段决策变量x∈X,我们有
P^∈DmaxEP^[Q(x,ξ)]=β≥0min{θβ+N1i=1∑Nξ∈Ωmax{Q(x,ξ)−βρ(ξ,ξi)}} 这里 ρ就是用于定义Wasserstein时两个随机变量之间的距离。
定义:ρi(ξ)=ρ(ξ,ξi)
命题1(原文Proposition 4). 假设 Q(x,ξ) 关于ξ是凹的,ρi(ξ)是严格凸函数(比如L2-范数),β∗是命题1中的唯一解,那么存在P^∈DmaxEP^[Q(x,ξ)] 的一个 worst-case distribution,并且它可以表示为
P^∗=N1i=1∑Nδξ∗i,其中ξ∗i 是ξ∈Ωmax{Q(x,ξ)−β∗ρi(ξ)}的最优解。
Remark:这个证明值得好好念,用到Helly–Bray定理。
3. Helly–Bray定理
链接:概率收敛、均方收敛、分布收敛的关系

Helly–Bray定理是关于分布收敛的一个等价形式:假设 g 是一个有界且连续的函数,随机变量Xn收敛于X,则E[g(Xn)] 收敛于E[g(X)].
4. relatively complete recourse

fixed recourse:是指第二阶段的系数矩阵是确定的
5. 参考文献
Chaoyue Zhao, Yongpei Guan. Data-driven risk-averse stochastic optimization with Wasserstein
metric. Operations Research Letters