而分布式魯棒隨機優化中的核心就是模糊集的構造,當模糊集確定好之後就是如何利用現代魯棒優化技術使之變得可求解和應用。這是因為雖然分布式魯棒優化自1958年由Scarf's 關於報童問題而得到人們關註,但它是在現代魯棒優化技術的發展之下而得到了迅猛地成長。關於分布式魯棒優化中的隨機變量的實現大概可以分為兩種,離散和連續。在連續的情況下,熟知的模糊集有三種構造方式:①矩信息構造的模糊集:它包含滿足隨機變量的矩約束(各階矩)的所有分布;②基於度量的模糊集:利用概率距離函數(如Prohorov metric ,K-L divergence ,Wasserstein metric etc.)將模糊集定義為概率分布空間的球體,其中球體的中心是歷史數據的均勻分布(經驗分布),然後以 為模糊集半徑包含隨機變量的未知真實分布。這就出現了壹個問題,這個Wasserstein球體有多大的置信度能包含隨機變量的未知真實分布呢?如果置信度很低或是就不包含未知真實分布,那這個模糊集就真的是很模糊了。Fournier N. 和Guillin A. 在其On the rate of convergence in Wasserstein distance of the empirical measure中證明了在該模糊集下可以以 的置信度包含未知真實分布。此外Bertsimas E.證明了在1-型Wasserstein度量下,經驗分布是弱收斂於真實分布的。
? 現在基於度量的模糊集較為熱門。因為從它的構造上我們可以看到,真實分布大概就是經驗分布加上壹個擾動(此處我們稱之為模糊集半徑),所以我們可以通過控制這個模糊集的半徑來把握未知分布的保守度,顯然,如果 ,則模糊集就收縮為壹個只包含經驗分布的singleton ,這種情況下分布式魯棒優化問題就退化為壹個無模糊集的SAA隨機優化問題。第三種模糊集為擬合優度檢驗的置信域。