More Effective Distributed ML via a Stale Synchronous Parallel Parameter Server

todo314 @ ウィキ内検索 / 「More Effective Distributed ML via a Stale Synchronous Parallel Parameter Server」で検索した結果

検索 :
  • More Effective Distributed ML via a Stale Synchronous Parallel Parameter Server
    More Effective Distributed ML via a Stale Synchronous Parallel Parameter Server 分散機械学習 理論と実用のトレードオフを実現したい 複数マシンでやる問題 ネットワークアクセスが重い マシン性能が固定でない 理論サイド アルゴリズムの正しさ・収束性 仮定が非現実的 実装サイド 動くけど正しいのか? 既存アプローチはあるけれど… 無駄な待ち時間 提案手法SSP イテレーション回数の差に上限sを設ける 基本非同期、だけど離れすぎることは無い 理論的保証があるのが良い NIPS 2014-01-24 14 18 48 (Fri)
  • 論文一覧
    ...Computing More in Less Time CSoNet 2015 Influence Maximization in Near-Linear Time A Martingale Approach SIGMOD 2015 Cost-aware Targeted Viral Marketing in Billion-scale Networks INFOCOM 2016 Stop-and-Stare Optimal Sampling Algorithms for Viral Marketing in ... SIGMOD 2016 Revisiting the Stop-and-Stare Algorithms for Influence Maximization PVLDB 2017 Why approximate when y...
  • @wiki全体から「More Effective Distributed ML via a Stale Synchronous Parallel Parameter Server」で調べる

更新順にページ一覧表示 | 作成順にページ一覧表示 | ページ名順にページ一覧表示 | wiki内検索