プロトタイプ法とマハラノビス距離

「プロトタイプ法とマハラノビス距離」の編集履歴(バックアップ)一覧に戻る

プロトタイプ法とマハラノビス距離 - (2012/11/07 (水) 01:27:59) のソース

**プロトタイプ法とは?
[[パターン認識>>http://www58.atwiki.jp/dooooornob/pages/37.html]]の項でやった手順のうち(3)に当たるものですね。
#image(http://www58.atwiki.jp/dooooornob?cmd=upload&act=open&pageid=38&file=bunrui.png)

例えばアルファベットの大文字Aか小文字aかどちらかに識別するような場合を考えてみましょう。
これらを特徴づける量として、例えば「角ばり具合(angular)」と「大きさ(big)」の軸で特徴空間を作ってみますと上みたいな図になります。

ここで、統計量の項でやった「中心」を表す量の「平均」「中央値」といった値を&bold(){プロトタイプ}としてそのクラスの代表値(図ではダイヤマーク)とし、新しく来た画像がどのプロトタイプに最も近い画像化によってクラスの判定を行うのがこのプロトタイプ法です。

**最も"近い"とは?
実際の自然界において「近い」とは何か見たいな哲学的な問いを投げかけるつもりはありません。
ただ特徴として「近い」というのはどう評価したらいいのでしょうか?

一番素朴なのはやっぱり素朴な意味での距離、つまり&bold(){ユークリッド距離}でしょう。

**ユークリッド距離
新しい画像の特徴ベクトルが$$\vec{x}=[x_1, x_2,\cdots, x_n]^T$$だったとしましょう。
この特徴ベクトルが$$k$$番目のクラスのプロトタイプ$$\vec{M_k}=[M_{k1},M_{k2},\cdots, M_{kn}]$$からどれくらい離れているかは
$$ d(k,\vec{x})=(x_1-M_{k1})^2+(x_2-M_{k2})^2+\cdots +(x_n-M_{kn})^2 $$
というような二乗和で表せます。さて、この式、次のようにも表せるのは分かるでしょうか。
$$ d(k,\vec{x})=(\vec{x}-\vec{M_k})^T (\vec{x}-\vec{M_k}) \cdots (1)$$
この式はベクトルとベクトルの掛け算ですが、縦ベクトルと横ベクトルの演算なので行列規則による積であることに注意してください。

**マハラノビス距離
天下り的ですが、式(1)をこんな風に弄ってみます。
$$ d(k,\vec{x})=(\vec{x}-\vec{M_k})^T S_k^{-1} (\vec{x}-\vec{M_k}) \cdots (2)$$
$$ S_k $$は$$k$$番目のクラスに属する特徴ベクトルたちの種々成分(つまり特徴量)同士の分散共分散行列で$$ij$$成分は
$$ E[(X_i-\mu_i)(X_j-\mu_j)] $$
であります。丁度ユークリッド距離の(1)式に分散共分散行列をサンドイッチさせたこの距離を&bold(){マハラノビス距離}と言います。

さあ、式(2)には統計量が入ってきましたがこれはどのような働きをしているのでしょう。
#image(http://www58.atwiki.jp/dooooornob?cmd=upload&act=open&pageid=38&file=kakuritu.png)
上の画像のような感じでそれぞれのクラスの特徴量が分布しているとします。

ここで「↓」のところの特徴量をもつ画像はどちらのクラスに分類されるべきでしょうか。
ユークリッド距離で言えば青色のプロトタイプの方が多少赤色のプロトタイプより近いです。
したがってユークリッド距離で言えば青が分類されるべきクラスになりますが・・・?

実際、青の分布は分散が小さいので「↓」のところの特徴量を持つようなサンプル画像はあまり存在していません。
対して赤色の分布は裾野が広いので、多少遠い「↓」の位置も完全に守備範囲に捉えています。
このように分類の上では、「それぞれのクラスの統計量」を考慮するとよりよい分類が出来ることがあり、その方法の一例がこのマハラノビス距離だということです。
ツールボックス

下から選んでください:

新しいページを作成する
ヘルプ / FAQ もご覧ください。