prml_note @ ウィキ
第三章
最終更新:
prml_note
-
view
第三章 線形モデルによる回帰問題
- 教師あり学習による回帰分析の目的は、
次元入力ベクトル
の値から連続な目標変数
を予測すること。
- 非線形な基底関数(basis function)の線形結合を用いることも可。
3.1節 線形基底関数モデル
- 線形回帰
これは
ここで
- 第一章で考察した曲線近似の問題は、多項式基底関数の一例
。このモデルの欠点は、基底関数がが
のすべての領域にわたって定義されているため、入力空間の一部における変更がすべての領域に対して影響を与えてしまうこと。この点を改善したものがスプライン関数(spline function)。
- 基底関数が正規分布の例
- 基底関数がシグモイド関数の例
あるいは双曲正接関数(tanh)。ほかにフーリエ基底関数も利用され、その周期は個別で範囲は無限定。
- ウェーブレット(wavelets)関数は、周期も範囲も個別化され、それぞれが互いに直交するように定義される。これは時系列における連続時点や画像のピクセルのように、入力値が規則的格子に沿っている場合に最も有効とされる。
- 最大尤度と最小二乗法
目標変数
が以下の式で決定されるものとする。
ここで
は平均0の正規分布に従う確率変数であり、その精度(分散の逆数)は
。よって
と書ける。平方損失関数を最小化することによって得られる新たな
に対する最適な予測は、
ノイズが単純な正規分布に従うと仮定すると、上の条件付確立も単峰的であることになるがこれは多くの場合不適切。
ここで
と書ける。平方損失関数を最小化することによって得られる新たな
ノイズが単純な正規分布に従うと仮定すると、上の条件付確立も単峰的であることになるがこれは多くの場合不適切。
- データセット
に対応する目標変数によって構成される列ベクトルを
とすると、尤度関数は
教師付き学習の回帰ないし判別問題では、入力変数の分布をモデル化することが目的ではないため、
この尤度関数からまず
これを
が得られる。ここで
は
- バイアスパラメータ
は学習データの目標変数の平均値と重み付けされた基底関数の値の平均との間の差を補うものと見ることができる。
- 次に
について同じ尤度関数を最大化することによって、
を得る。
- 最小二乗解とは、基底関数に対応するベクトル集合によって張られる線形部分空間上への
の直交射影と解釈できる。
が特異に近い場合には正規方程式を直接求めることは計算上困難だが、これは特異値分解(singular value decomposition,SVD)によって解決できる。正規化項を追加することで常に行列が非特異になるようにすることが可能。
- データ集合が巨大な場合は逐次学習(sequential learning)またはオンライン学習(on-line learning)が適切。逐次学習のアルゴリズムは確率的勾配降下法(stochastic gradient descent)を適用することによって得られる。
これは最小平均二乗アルゴリズム(least-mean-square(LMS) algorithm)として知られている。
- 正則化された最小二乗
曲線近似のオーバーフィッティング対策として利用された正則化項をこの場合も適用できる。
二乗和誤差関数に重みベクトルの二乗和を加えるシンプルなケースでは、誤差関数全体は次のようになる(リッジ回帰)。
機械学習の文脈においてはこのような正則化項の選択は重みベクトルの値を0に向かって減衰させるため、重み減衰(weight decay)という。統計学においてはこれはパラメータ縮小法の一例。この手法の利点は、誤差関数を
の二次式に保つことができるためその最小化解が容易に求められる点にある。上の式の
についての導関数を0と等値して
について解くと、
と簡単になる。
二乗和誤差関数に重みベクトルの二乗和を加えるシンプルなケースでは、誤差関数全体は次のようになる(リッジ回帰)。
機械学習の文脈においてはこのような正則化項の選択は重みベクトルの値を0に向かって減衰させるため、重み減衰(weight decay)という。統計学においてはこれはパラメータ縮小法の一例。この手法の利点は、誤差関数を
と簡単になる。
- より一般的な正則化項を用いた誤差関数は次のようになる。
ここで
3.2節 バイアス・バリアンス分解
- 期待二乗損失
第二項は
と書き直し、その平均を取ると、
第一項がバイアスの二乗ですべてのデータセットについての予測の平均が理想の回帰関数とどれだけ食い違っているかを表し、第二項は分散、すなわち個々のデータセットに対する解がそれらの平均からどれだけ乖離しているか、つまり
期待損失 =
バイアスと分散との間にはトレードオフの関係があり、非常に柔軟なモデルは低いバイアスと高い分散を伴い、比較的硬直したモデルは高いバイアスと低い分散を伴う。ただし実際には限られたデータセットを複数のセットに分割することは無駄なのでこれらの洞察は実用性には繋がりにくい。
3.3節 ベイズ線形回帰
- 線形回帰モデルのパラメータを決定する最尤法においては、基底関数の個数によって支配される最適なモデル複雑性はデータセットの個数に左右されることを見た。むろん対数尤度関数に正則化項を加えることによって、モデル複雑性は正則化係数によっても制御されうることになるものの、その場合にも依然として基底関数の個数と形式を選択することはモデル全体の振る舞いを決定するのに重要。ある問題に最適なモデルを決定することは尤度関数を最大化することによっては達成できない。なぜならそれは常に過剰に複雑なモデルを選択することすなわち過学習につながるから。既述のように、モデル複雑性を決定するのに別個のデータを使用することも出来るがそれは計算量の増加を招き、またデータの無駄でもある。
- 線形回帰問題に対するベイジアン的手法には、このような尤度関数による過学習を避け、学習パターンのみによってモデル複雑性を決定できるという利点がある。
パラメータ確率分布
- ベイズ線形回帰は、モデルパラメータ
についての事前確率分布を導入することから始まる。精度パラメータ
はここでは既知の定数とする。尤度関数
は
これから事後分布(ベイズの定理により事前分布と尤度の積に比例する)を平方完成により求めると以下の正規分布となる。
これは
- いま単純化するために平均が0の等方的な正規分布
を考えると、事後分布の対数は対数尤度と事前分布の対数との和で与えられ、以下の
これを
予測分布
- パラメータ
自体よりも新たな入力
に対する予測
を知りたいということが実際には多いため、予測分布(predictive distribution)
(
となり、分散
- データが観測される毎に予測分散が小さくなり(
)、
のとき第二項は限りなく0に近付き、予測分散は
のみによって支配されるようになる。正規分布のような基底関数を使用する場合、基底関数の中心から離れれば離れるほど予測分散の第二項の影響が小さくなり、
のみによって支配されるようになるため、基底関数が占める領域外の外挿を行った場合の方が信頼性が高くなるという望ましくない結果となる。この点を改善するのがガウス過程(Gaussian process)。
および
の両方が未知とした場合には共役事前分布はガウス-ガンマ分布で与えられ、予測分布はt分布となる。
等価カーネル
- (3.53)の平均0等方正規分布の事後分布平均を使うと、予測分布の平均は
と書くことができる。ここで
というカーネル表現となり、点
- 等価カーネルは学習データに含まれる入力値
に依存する。ある
における予測分布の平均は、各学習データ点に対してその距離に応じて
に近いほど大きく重み付けが施された目標値の線形結合によって得られる。すなわち、近くのエビデンスを遠くのエビデンスよりも大きく重み付けする。このような局所性は、局所化された正規基底関数に限定される特性ではなく、局所化されない多項式あるいはシグモイド基底関数の場合にも観察できる。
- また、
と
の共分散は等価カーネルの定数倍となるため、互いに近接した点における予測平均同士には高い相関があり、逆に離れた点同士の場合には低い相関しかない。
- 等価カーネルを明示的に定義する基底関数の集合を導入する代わりに、局所化されたカーネルを直接定義して予測を行うことが考えられる。第六章のガウス過程を参照。
- 等価カーネルは学習データ目標値に対して与えられる重みを定義するものなので
を満たす。もし基底関数が線形独立で(すなわち基底関数よりもデータ点のほうが数が多い)基底関数の一つが定数関数である(これはバイアスパラメータに相当する)ならば、学習データに完全に一致して予測平均は1となり、上と同じ結果になる。ただし重みの和が1であっても個々のカーネル関数は負であることもありうるので、必ずしもその結合は凸結合となるとは限らない。
- 等価カーネルは当然のことながら、以下のカーネル関数の一般的要件を満たす。
3.4節 ベイズモデル比較
- 最尤法における過学習の問題は、ベイズ的手法においてはモデルのパラメータの値を点推定する代わりにそれらを周辺化することによって回避することが出来る。この場合、評価のためのデータは不要なため利用可能なデータの全てを学習のために利用することができる。また、複数の複雑性パラメータを学習過程において同時に決定することができる。例えば第七章の関連ベクトルマシンは、各学習データごとに一つの複雑性パラメータを持つベイズモデル。
- ベイズ的手法によるモデル選択においては、確率についての和および積の法則の一貫した適用によってモデル選択についての不確かさを確率によって表現する。例えば
個のモデル
を比較したい場合には、あるモデルによって生成されたデータ
を観測した場合のモデル選択に関する事後確率分布は
で表される。ここで事前分布
- 事後分布が分かれば、予測分布は
となる。これはモデル毎予測分布のそれぞれの事後確率による重み付け和と見ることができ、混合分布(mixture distribution)の一例。例えば、同様に確からしい2つのモデルがあり、その一つは
- モデル平均化のための単純な近似法の一つとして、予測を行うのに最も確からしい単一のモデルのみを使用する方法があり、これをモデル選択(model selection)という。例えばパラメータ
に依存するモデルの場合、モデルエビデンスは尤度関数を
について積分したものすなわち
サンプリングの観点からこれを見ると、周辺尤度はそのパラメータが事前か分布からランダムにサンプリングされたモデルがデータ集合
(つまり、上の式はベイズの定理
の両辺にエビデンス(右辺の分母)を掛け、両辺を
- 想定しているモデル集合の中に真のモデルが含まれているとの前提の下では、平均的にはモデルエビデンスを最大化することで最適なモデル選択が可能。
- ベイズ的アプローチは他の多くのパターン認識の手法同様、モデルの形状についての仮定に大きく左右される。特に事前分布が変則である場合にはエビデンスによる最適化は困難になる。したがって実際上は評価用データを別途用意したほうが無難。
3.5節 エビデンス近似
- ベイズ的線形基底関数モデルにおいては、ハイパーパラメータの事前分布を導入し、
についてと同様にそれらについての周辺化によって予測を行う。しかし、個々のパラメータについてはともかく、これら全てのパラメータについて積分を行うことは解析的に不可能。そこでパラメータ
について積分することによって得られる周辺尤度関数(marginal likelihood function)を最大化することによってハイパーパラメータの値を決定する近似法を考える。この手法は統計学においては経験ベイズ(empirical Bayes)などと呼ばれ、機械学習の分野においてはエビデンス近似(evidence approximation)と呼ばれる。
(
事後分布
ベイズの定理により
だから、もし事前分布が比較的平らならば、事後分布
- 対数エビデンスを最大化する方法としては、エビデンス関数を微分して0と等置することで得られる
および
についての方程式を解く方法と、期待最大化(expectation maximization(EM))と呼ばれる手法を用いる方法とがあり、両方とも同じ解に収束する。
エビデンス関数の評価
- 周辺尤度関数
は
についての積分
によって得られるところ、その対数は
となる(計算略)。対数エビデンスはデータに対する当てはまりの良さを反映しかつ単純なモデルを指向する性質を持つ。
エビデンス関数の最大化
- (3.86)を最大化する
を求める。
だから固有ベクトル方程式
従って
- 再度強調すると、この方法では
を決定するのに学習データしか必要ではなく、最尤法の場合のようにモデル複雑性を決定するために別途評価用のデータを用意する必要がない。
についても上と同様に対数周辺尤度関数(3.86)を最大化することによって(
の場合同様、反復的手法が必要)これを定めることができ、
となる。
有効パラメータ数
は正定値行列でその固有値
は正だから、
。
な場合には
は1に近く対応する
はML解の成分に近い。このような場合、そのパラメータはデータによって有効に決定される(well determined)という。逆にそうでない場合、尤度関数は当該パラメータの値の変化に対してあまり反応しないので、その事前分布における初期値は小さく設定される。従って
はデータによって有効に決定されるパラメータの個数を表していることになる。
- 最尤推定による正規分布の分散は
であるのに対し、ベイズ推定による場合は
となり、後者は不偏である点が前者と異なっていた。同様のことが線形回帰モデルの場合にも言える。最尤推定による場合の
3.6節 固定基底関数の限界
非線形基底関数の線形結合から成るモデルは、最小二乗問題についての閉形式解の存在やベイズ的扱いの容易さなどの利点があるものの重大な限界を有している。問題はデータが観測される以前に基底関数が固定されてしまっていることにあり、その結果として入力空間の次元に対してしばしば指数オーダで基底関数の必要数が増加してしまう(次元の呪い)。
しかしながら二つの点が救いとなる。一つは、データベクトルは入力変数間の強い相関によってそれ自身の次元は入力空間のそれよりも小さい非線形多様体の近くに存在することが多い。もう一つは、目標変数はデータ多様体の可能な方向のうちの少しにしか強い依存をしていないこと。ニューラルネットワークは基底関数が反応する入力空間内の方向を選択することでこの性質を利用することができる。
しかしながら二つの点が救いとなる。一つは、データベクトルは入力変数間の強い相関によってそれ自身の次元は入力空間のそれよりも小さい非線形多様体の近くに存在することが多い。もう一つは、目標変数はデータ多様体の可能な方向のうちの少しにしか強い依存をしていないこと。ニューラルネットワークは基底関数が反応する入力空間内の方向を選択することでこの性質を利用することができる。