統計学

確率

P(\{ \omega | X(\omega )\le x , Y(\omega )\le y \} )

公理

0\le P(A)\le 1
P(\Omega)=1
P(\phi)=0
P(A^c)=1-P(A)
A\subset BならばP(A)\le P(B)
P(A\cup B)=P(A)+P(B)-P(A\cap B)

A_i\cap A_j=\phiなら(互いに排反なら)
P\left( \bigcup_{k=1}^\infty A_k \right) =\sum_{k=1}^\infty P(A_k)

確率の検算

確率であるためには、
p(k)\ge 0
\sum_{k=0}^n p(k)=1

条件付き確率

P(B|A)=\frac{P(A\cap B)}{P(A)}
A\perp Bのとき、P(A\cap B)=P(A)P(B)より、
P(B|A)=P(B)=P(B|A^c)
また、一般的に独立の条件は
P\left( \bigcap_{k=1}^n A_{ik} \right)=\prod_{k=1}^n P(A_{ik})

ベイズの公式

P(A|B)=\frac{P(B|A)P(A)}{P(B|A)P(A)+P(B|A^c)P(A^c)}

関数

分布関数(CDF)

F(x)=P(X\le x)

確率母関数(PGF)

G(z)=\sum_{i=0}^\infty p_iz^i

確率密度関数(PDF)

f(x)=F'(x)

同時分布関数

F_{X,Y}(x,y)=P(X\le x,Y\le y)

たたみこみ

P(X+Y=x)=\sum_{s} P(X=s)P(Y=x-s)
f_{X+Y}(x)=\int_{-\infty}^{\infty} f_X(s)f_Y(x-s)ds

平均(期待値)・分散


離散型

P(X=x_i)=p(x_i) と書く。

\mu =E(x)=\sum_i x_i p(x_i)
\sigma ^2=V(x)=\sum_i (x_i -\mu)^2 p(x_i) = \sum_i {x_i}^2 p(x_i)-{\mu}^2
\mu=G'(1),\sigma^2=G''(1)+G'(1)-\{G'(1)\}^2

連続型

\mu =E(x)=\int_{-\infty}^\infty xf(x)dx
\sigma^2=V(x)=\int_{-\infty}^\infty (x-\mu)^2 f(x)dx

共通事項

確率変数X,Yと定数\alpha,\betaについて
E(\alpha X+\beta )=\alpha E(X)+\beta
V(\alpha X+\beta )=\alpha^2 V(X)
E(\alpha X +\beta Y+\gamma)=\alpha E(X)+\beta E(Y)+\gamma

独立確率変数

X_kを独立確率変数として、
E\left( \prod_{k=1}^n X_k \right) =\prod_{k=1}^n E(X_k)
V \left( \sum_{k=1}^n X_k \right)=\sum_{k=1}^n V(X_k)

共分散

Cov (X,Y) = E( (X-E(X)) (Y-E(Y)) )=E(XY)-E(X)E(Y)
確率変数X,Yが独立の時、Cov (X,Y)=E(X)E(Y)-E(X)E(Y)=0となるが、
仮に、Cov(X,Y)=0であっても、
P(X\le x,Y\le y)=P(X\le x)P(Y\le y)は必ずしも成り立たず、独立であるとは言えない。

離散分布

二項分布(B(n,p))

X a b total
P p 1-p 1
が成り立つとき、

確率変数Xは二項分布に従う
X\sim B(n,p)

P(X=k)=\left( \begin{array}{c} n\\k \end{array}\right) p^k(1-p)^{n-k}(0\le k\le n)

平均:np
分散:np(1-p)

ポアソン分布(Po(λ))

X\sim B(n,p)
のときで、k<<n のとき、
nP(X=k)=\lambda であれば、

確率変数Xはポアソン分布に従う
X\sim P_o(\lambda)

P(X=k)=\frac{n!}{(n-k)!k!} p^k(1-p)^{n-k} \simeq e^{-\lambda}\frac{\lambda^k}{k!}

平均:\lambda
分散:\lambda

連続分布

正規分布(N(μ,σ^2))


確率変数Xは正規分布に従う
X\sim N(\mu,\sigma^2)

\mu\in R,\sigma>0 であり、理論的に
f(x)=\frac{1}{\sqrt{2\pi}\sigma}exp\left( -\frac{(x-\mu)^2}{2\sigma^2} \right)

相似性

X\sim N(\mu,\sigma^2)のとき、
Y=\alpha X+\beta \sim N(\alpha\mu +\beta,\alpha^2 \sigma^2)

標準化

X\sim N(\mu,\sigma^2)のとき、
Z=\frac{X-\mu}{\sigma} \sim N(0,1)

再生性

X\sim N(\mu_1,{\sigma_1}^2),Y\sim(\mu_2,{\sigma_2}^2)のとき、
X+Y\sim N(\mu_1+\mu_2, {\sigma_1}^2+{\sigma_2}^2)

指数分布(Ex(λ))


確率変数Xは指数分布に従う
X\sim Ex(\lambda)

 f(x)=\left\{ \begin{array}{c} 0 (x<0) \\ \lambda e^{-\lambda x} (x\ge 0) \end{array}

その他

ベータ関数

\Beta (x,y)=\int_0^1 t^{x-1}(1-t)^{y-1}dt

ガンマ関数

\Gamma (x)=\int_0^\infty t^{x-1}e^{-t}dt

カイ二乗分布

X_i \sim N(\mu,{\sigma_i}^2)
のとき、
\sum_{k=1}^n\left( \frac{X_i-\mu_i}{\sigma_i} \right)^2 \sim \chi_{n-1}
が成り立つ。

相関係数(ρ(X,Y))

\rho (X,Y)=\frac{Cov(X,Y)}{\sqrt{V(X)} \sqrt{V(Y)}}

極限定理

nが大きい時、
\mu\simeq \frac{1}{n}\sum_{k=1}^n X_k
となる。これは次の式によって示される。
\lim_{n \rightarrow \infty} P\left( \left| \frac{1}{n}\sum_{k=1}^n X_k -\mu \right| > \epsilon \right) = 0
ただし、 0 < \epsilon << 1
これはチェビシェフの定理から示される。
P(|X-\mu| >c) \le \frac{\sigma^2}{c^2}

タグ:

+ タグ編集
  • タグ:
最終更新:2014年02月16日 18:38
ツールボックス

下から選んでください:

新しいページを作成する
ヘルプ / FAQ もご覧ください。