The Power of Optimization from Samples
-
Eric Balkanski, Aviad Rubinstein, Yaron Singer
-
NIPS 2016
概要
-
単調劣モジュラ関数を大量の標本データからその場で学習
-
curvature制限時に多項式個のサンプルで近似比保証できる
動機づけと貢献
-
関数・信託のどちらにもアクセスできない
-
学習した関数が劣モジュラでも、最適化結果はめちゃくちゃ駄目
-
各集合がサイズkの$$ \{ (S_i, f(S_i)) \}_{i \in [m]} $$がもらえる
-
被覆関数でも辛いよ!(limitation of optimization from samples)
-
$$ f(e \mid S) \geq (1-c)f(e) $$ならcurvature c
-
$$ (1-c)/(1+c-c^2) $$近似達成
アルゴリズム
-
基本方針: $$ E_R[f_R(e_i)] $$を推定したい
-
$$ \hat{v}_i = $$ avg($e_i$を含む集合のf) - avg($e_i$を含まない集合のf)
-
$$ \hat{v}_i $$の順にk要素$$S$$選び、curvatureで微妙に補正$$\hat{v}_S$$
-
ランダム集合の期待関数値 $$ \hat{v}_R \approx E_R[f(R)] $$を推定
-
$$ \hat{v}_S $$ or $$ \hat{v}_R $$の大きい方を返す
-
$$ f(S) \geq (1-c) \sum_{i \leq k} E_R[f_R(e^*_i)] $$が大事
その他
まとめ
-
設定・アルゴリズムが割と不思議でなんとも言えない…
NIPS OPS 劣モジュラ 影響最大化
2018/08/23
最終更新:2018年09月17日 23:27