More Effective Distributed ML via a Stale Synchronous Parallel Parameter Server
todo314 @ ウィキ内検索 / 「More Effective Distributed ML via a Stale Synchronous Parallel Parameter Server」で検索した結果
More Effective Distributed ML via a Stale Synchronous Parallel Parameter Server MoreEffectiveDistributedMLviaaStaleSynchronousParallelParameterServer 分散機械学習 理論と実用のトレードオフを実現したい 複数マシンでやる問題 ネットワークアクセスが重い マシン性能が固定でない 理論サイド アルゴリズムの正しさ・収束性 仮定が非現実的 実装サイド 動くけど正しいのか? 既存アプローチはあるけれど… 無駄な待ち時間 提案手法SSP イテレーション回数の差に上限sを設ける 基本非同期、だけど離れすぎることは無い 理論的保証があるのが良い NIPS 2014-01-24 14 18 48 (Fri)
論文一覧
...Computing More in Less Time CSoNet 2015 Influence Maximization in Near-Linear Time A Martingale Approach SIGMOD 2015 Cost-aware Targeted Viral Marketing in Billion-scale Networks INFOCOM 2016 Stop-and-Stare Optimal Sampling Algorithms for Viral Marketing in ... SIGMOD 2016 Revisiting the Stop-and-Stare Algorithms for Influence Maximization PVLDB 2017 Why approximate when y...