数据驱动下的机会约束优化
考虑下列形式的分布鲁棒优化问题:
x∈Xmins.t.cTxP[ξ~∈S(x)]≥1−ϵ,∀P∈F(θ)(1) 其中 X∈RL 是一个紧多面体,S(x)⊆RK 是一个决策相关安全集( decision-dependent safety set) ,F(θ) 是以 P^ 为中心、θ 为半径的 Wasserstein Ball。这里 P^ 是一组训练数据 {ξ^i}i∈[N] 的经验分布。
Wasserstein球的不确定度量化(Uncertainty Quantification)
假设 S⊆RK,记 Sˉ=RK∖S 为它的闭补集。考虑下面的不确定度量问题:
P∈F(θ)supP[ξ~∈/S]. 这里都假设 θ>0,ϵ∈(0,1)。
记号:
(1) 记 dist(ξ^i,Sˉ) 为 P^ 对应的第 i 个数据点和不安全集 Sˉ 之间的距离,这里的距离是基于某个范数 ∥⋅∥。我们对样本数据集进行排序,使其满足
dist(ξ^i,Sˉ)≤dist(ξ^j,Sˉ),∀1≤i≤j≤N (2) 假设 dist(ξ^i,Sˉ)=0 当且仅当 i∈[I], 这里 I 可以为0。
(3) 记 ξi∗∈Sˉ 为距离 ξ^i 最近的不安全点。
定理. (Blanchet and Murthy 2016, Gao and Kleywegt 2016)
令 j∗=max{j∈[N]∪{0}∣∣i=1∑jdist(ξ^i,Sˉ)≤θN}. 则上述不确定度量问题可以由下面给出的最差情形分布 P∗∈F(θ) 来求解:
(1) 如果 j∗=N,则 P∈F(θ)supP[ξ~∈/S]=P∗[ξ~∈/S]=1,其中
P∗=N1i=1∑Iδξ^i+N1i=I+1∑Nδξi∗
(2) 如果 j∗<N,则 P∈F(θ)supP[ξ~∈/S]=P∗[ξ~∈/S]=Nj∗+p∗,其中 P∗=N1i=1∑Iδξ^i+N1i=I+1∑j∗δξi∗+Np∗δξj+1∗++N1−p∗δξ^j+1+N1i=j∗+2∑Nδξi∗, 且 p∗=dist(ξ^j∗+1,Sˉ)θN−i=1∑j∗dist(ξ^i,Sˉ).

一般机会约束的Reformulation
对任何给定的决策变量 x∈X,存在[N]的一个置换π(x),使得
dist(ξ^π1(x),Sˉ(x))≤dist(ξ^π2(x),Sˉ(x))≤⋯dist(ξ^πN(x),Sˉ(x))
定理. 对任何给定的决策变量 x∈X,模糊机会约束问题 (1) 等价于下面的确定性不等式: N1i=1∑ϵNdist(ξ^πi(x),Sˉ(x))≥θ.
进一步,利用线性对偶,可以证明:
定理. 模糊机会约束问题 (1) 等价于:
s,t,xmins.t.cTxϵNt−eTs≥θNdist(ξ^i,Sˉ(x))≥t−si,∀i∈[N]s≥0,x∈X.