ベータ分布の積率母関数を求めてみた。

f:id:ty070809390:20200422001051p:plain

 下の本の演習問題でベータ分布のモーメントを求めるときに、ふとモーメント母関数について気になったが、調べても出てこなかったので、導出してみた。

 

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 

 結論から言うと

上の画像のとおりこうなります。

Mx(t) = 1+ \sum^\infty_{k=1}\frac{t^k}{k!}\prod^{k-1}_{l=0}\frac{\alpha+l}{\alpha+\beta+l}

計算していく

Mx(t) = E[e^{tX}] = \int^1_0 \frac{e^{tx}}{Beta(\alpha,\beta)}x^{\alpha-1}(1-x)^{\beta-1}dx

このまま積分するのは正直しんどい。また、ネイピア数テイラー展開を考えると、

 e^{xt} = \sum^\infty_{k=0} \frac{(tx)^k}{k!}
となり  x^k があるのがわかる。

これは、ベータ分布と相性がよさそう。

Mx(t) = E[e^{tX}]=\int^1_0 \frac{1}{Beta(\alpha,\beta)}\sum^\infty_{k=0} \frac{(tx)^k}{k!}x^{\alpha-1}(1-x)^{\beta-1}dx
= \int^1_0 \frac{1}{Beta(\alpha,\beta)}\sum^\infty_{k=0} \frac{t^k}{k!}x^{\alpha+k-1}(1-x)^{\beta-1}dx \\= \sum^\infty_{k=0} \frac{t^k}{k!}\int^1_0 \frac{1}{Beta(\alpha,\beta)}x^{\alpha+k-1}(1-x)^{\beta-1}dx
ある k(\ne1) について考えると、

\frac{t^k}{k!}\frac{Beta(\alpha+k,\beta)}{Beta(\alpha,\beta)} = \frac{t^k}{k!}\left.\frac{\Gamma(\alpha+k)\Gamma(\beta)}{\Gamma(\alpha+\beta+k)} \middle / \frac{\Gamma(\alpha)\Gamma(\beta)}{\Gamma(\alpha+\beta)} \right. \\= \frac{t^k}{k!}\frac{(\alpha+k-1)(\alpha+k-2)\cdots\alpha}{(\alpha+\beta+k-1)(\alpha+\beta+k-2)\cdots(\alpha+\beta)} = \frac{t^k}{k!}\prod^{k-1}_{l=0}\frac{\alpha+l}{\alpha+\beta+l}

k=1の時、1になる。

Mx(t) = 1+ \sum^\infty_{k=1}\frac{t^k}{k!}\prod^{k-1}_{l=0}\frac{\alpha+l}{\alpha+\beta+l}

感想

思ったより大変ではなくただの計算であった。

数理統計学 (著 稲垣宣生) 演習問題1 解答

 この本の解答

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 ほかの演習問題の解答はこちら

yosuke-programing.hatenadiary.com

 

 1.1

うまいやり方は思いつかなかったが、(P3)を用いることを考えるとひたすら互いに素な集合に分解する。

f:id:ty070809390:20200417133241p:plain



ちゃんと書くと大変なので、互いに素な集合の名前をこうする。(もとのAと紛らわしいので、図のAはA'にする。)

例)  BC = {x | (B\cap C)\backslash A}

そうすると、

 d(A, B) +d(B,C)= P\left((A'\cup AC) \cup (B'\cup BC)\right) + P\left((C'\cup AC) \cup (B'\cup AB)\right) \\=  \underline{P(A')} +P(AC) + P(B')+\underline{P(BC)} + \underline{P\(C')}+P(AC) +P(B')+\underline{P(AB)}

アンダーラインに注目して、

 =d(A, C) +P(AC) + P(B') + +P(AC) +P(B') \geq d(A, C)

 

1.2

 P(B|A)P(A) = P(B) = 1 - P(B^c)

 \therefore P(B|A) = 1 / P(A)  - P(B^c) / P(A) \geq 1 -  P(B^c) / P(A) \\ (\because 1 \geq P(A)>0 )

 

1.3

描き方は変だが下図を見るとイメージがわく。(誤解招くかも)

f:id:ty070809390:20200417135250p:plain

(1)は、 P(A|B) + P(A^c|B^c) = \frac{P(A\cap B)}{P(B)} + \frac{P(A^c\cap B^c)}{P(B^c)}\\ = \frac{P(A\cap B)}{P(B)} + \frac{1 - P(A\cup B)}{1- P(B)} \\ = 1

計算してきれいにすると

 P(A\cap B) = P(A)P(B)

よって独立が条件。

 

(2) P(A|B) - P(A|B^c) = \frac{P(A\cap B)}{P(B)} - \frac{P(A\cap B^c)}{P(B^c)} = 0\\ \therefore P(A\cap B)(1 - P(B) )- P(B)\left(P(A) - P(A\cap B)\right) = 0\\ \therefore P(A\cap B) = P(A)P(B)

 

1.4

独立の証明なので

 P(A^c \cap B^c) = P(A^c) P(B^c)

を示す。

 P(A^c \cap B^c) = 1 - P(A \cup B) = 1 - P(A) - P(B) + P(A\cap B) \\ = 1 - P(A) - P(B) + P(A)P(B) (\because 互いに独立なので) \\=\left(1 - P(A) \right)\left(1 - P(B)\right)  = P(A^c)P(B^c)

よって示された。

1.5

スペードとハートから一枚ずつと、その他から二枚の組なので、

 \frac{{ }_1 C_{13}\times {}_1 C_{13}\times {}_{2}C_{26}}{ _{52}C_{4}} = \frac{13^2}{17 * 49}

 

1.6

ベイズを意識した条件付き確率なのかな?

A :  U_1で黒

B :  U_2で黒

 

 P(A | B) = \frac{P(A\cap B)}{P(B)}

 P(A\cap B) = \frac{2}{10}\times\frac{6}{11}

 P(B) = \frac{8}{10}\times\frac{5}{11} + \frac{2}{10}\times\frac{6}{11}

 P(A | B) = \frac{12}{52} =\frac{3}{13}

 

1.7 

 

方法が思いつかいときは、とにかくやってみる。

1回目

  P(W) = \frac{w}{w+b}

2回目

  P(W) = \frac{b}{w+b}\times\frac{w}{w+b+d} + \frac{w}{w+b}\times\frac{w+d}{w+b+d} = \frac{w}{w+b}

・・・おなじになる?

 

こんな時は帰納法あるn-1で成り立つとする。cはこれまでに増えた白の数

1)n回目に手に入れたwから選ぶ場合

 P_{\alpha} = P_{n-1}\times\frac{d}{w+b+(n-1)d}

2)n回目に手に入れてないものから選ぶ場合(n回目にどっちを選んでもいい条件)

 P_{\beta} = \frac{w+b}{w+b+(n-1)d}\times P_{n-1}

f:id:ty070809390:20200417154207p:plain

 \alpha は、① \betaは、②③④

計算すると

1)2)より P_{n} = P_{\alpha} + P_{\beta} = P_{n-1}

 よって、 P_{n} = P_{n-1} = \cdots = P_1 = \frac{w}{w+b}

思いついたみたいにわざとらしく書きましたが、全然わからなかったので、しらべました。この問題の難しいところは、

f:id:ty070809390:20200417154207p:plain

この表の普通漸化式の立て方として、①②と③④で分けるところを、①と②③④

で建てるところ。

ただ、この問題を感覚的に解くならば、(答え見てからなのに恥ずかしいが)増えていく期待値は初めの個数の割合から変わってないことからわかる。そう考えると、上の分け方も納得いくのではないでしょうか。

 

1.8

(1)

P(R=0) = P(R=0|S=1) + P(R=0|S=0) = ( 1 -  \varepsilon)\times p \varepsilon \times (1- p)  =  p+\varepsilon - 2\varepsilon p

上と同じやり方でもよいが、余事象なので、

 P(R=1) = 1 - P(R=0) = 1 - p - \varepsilon + 2\varepsilon p

(2)

 P(S=1|R=1)P(R=1) = P(R=1|S=1)P(S=1)

 \therefore P(S=1|R=1) = P(R=1|S=1)\frac{P(S=1)}{P(R=1) } = \frac{(1-\varepsilon)(1-p) }{1 - p - \varepsilon + 2\varepsilon p}

 

(3)

計算すると。。

P(R=0) = 0.41, P(R=1)=0.59, P(S=1|R=1) = 0.966

すごい上がるとわかる!

参考

www.mathlion.jp

 

 

 

 

 

 

 



 

 

 

確率測度に関する基本的性質(数理統計学 稲垣宣生)

一章の確率測度に関する基本的性質のところが、証明書いていなかったので、かいてみた。

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 

数学科ではないので厳密ではないと思います。ご指摘お願いいたします。

また、この本がないとわかりにくくなっています。 

 

 

 証明する基本的性質

 (1) P\left(A^c\right)  = 1 - P(A)\\(2)A\subset B \Rightarrow P(A)\leq P(B)\\(3) P\left(A\cup B\right) = P(A) + P(B) - P(A\cap B)\\(4)A_n \in \mathscr{A}(n = 1,2,3,\cdots),A_1\supset A_2\cdots (単調減少)であるとき、

 A = \cap^\infty_{n=1}A_nとすれば、

P(A) = lim_{n\rightarrow\infty}P(A_n)

 (5)A_n \in \mathscr{A}(n = 1,2,3,\cdots),A_1\subset A_2\cdots(単調増大)であるとき、

 A = \cup^\infty_{n=1}A_nとすれば、

P(A) = lim_{n\rightarrow\infty}P(A_n)

この五つ!!した二つは厳密にやると大変そうだなあ。

(1)

 (1) P\left(A^c\right)  = 1 - P(A)

 A^cとAは互いに素であるので、(P3)より、

 P(A^c \cup A) = P(A) + P(A^c) = 1

  \therefore P(A^c) = 1 - P(A)   

 当たり前といえば当たり前

(2)

できるだけ互いに素な集合に分けて考える。(P3)を使う意識

(2)A\subset B \Rightarrow P(A)\leq P(B)

 これも基本的に(P3)を用いる。

 P\left(A\cup (A^c \cap B)\right) = P(A) + P(A^c \cap B) = P(B)

 \therefore P(A)\leq P(B) (\because P(A^c \cap B) \geq 0)

(3)

これもほとんど(2)と同様できるだけ互いに素な集合に分けて考える。

 (3) P\left(A\cup B\right) = P(A) + P(B) - P(A\cap B)

この本だと、差集合はA-Bとなっているが、普通?なのか慣れているのは、A\Bなのでそう書く

 P(A\cup B) = P\left( (A\B) \cup (B\A) \cup (A\cap B)  \right)  = P(A\B) + P(B\A) + P(A\cap B) = P(A) + P(B) - P(A\cap B) (\because P(A\B) = P(A)  - P(A\cap B))

(4)(5)

 

(4)A_n \in \mathscr{A}(n = 1,2,3,\cdots),A_1\supset A_2\cdots (単調減少)であるとき、]

 A = \cap^\infty_{n=1}A_nとすれば、

P(A) = lim_{n\rightarrow\infty}P(A_n)

 (5)A_n \in \mathscr{A}(n = 1,2,3,\cdots),A_1\subset A_2\cdots(単調増大)であるとき、

 A = \cup^\infty_{n=1}A_nとすれば、

P(A) = lim_{n\rightarrow\infty}P(A_n)

 

感覚的には、正しいのはわかると思う。数式で証明しようとなると少し大変。

ただ、考え方は、同じで、互いに素を探す。(この互いに素も、互いに排反の方が聞きなれている気がする。)

 

f:id:ty070809390:20200417125304p:plain

この画像をみると互いに素になる場所がわかりやすい。

 A_{i+1} - A_i (i = 1...n) とA_iは互いに素であるので、

 B_i = A_{i+1} - A_i (B_0 = A_1)とすると、

 \cup_i B_i  = \cup_i A_i であるので、

 P(\cup^\infty_1 A_i) =P(\cup^\infty_{i = 0} B_i) = \sum_{i=1}^\infty P(B_i) \\= lim_{n\rightarrow\infty} \sum_{i=1}^n P(B_i) = lim_{n\rightarrow\infty}  P(\cup_{i=1}^n B_i) = lim_{n\rightarrow\infty}  P(\cup_{i=1}^n A_i) = lim_{n\rightarrow\infty}  P(A_n)

 単調増大の(5)のみを示した。(4)も同じ感じ。皮を集合とみていく。

個人的な感想として、高校の数学では集合と確率が”当たり前”のように簡単に行き来していた。ただ、当たり前ではなく証明すべき事項だなあと思った問題。

 

 

 

 

 

 

 

数理統計学(著 稲垣宣生)の解答解説を作成!!(随時更新)

この本、Amazonでも高評価の本の解答が略解しかないので、作成したいと思う!! 

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 

1.確率変数と確率分布

 §1 事象と確率 演習問題1

yosuke-programing.hatenadiary.com

    ベータ分布の積率母関数

yosuke-programing.hatenadiary.com

 
 §2 確率変数と確率分布 演習問題2


yosuke-programing.hatenadiary.com

 §3 確率分布の代表的モデル 演習問題3

yosuke-programing.hatenadiary.com

 

等比級数の応用

yosuke-programing.hatenadiary.com

 



 §4 2次元確率ベクトルの分布 演習問題4



 §5 多変量確率ベクトルの分布 演習問題5



 §6 標本分布 演習問題6



2.統計的推測



 §7 統計学における情報量 演習問題7



 §8 統計的推測決定 演習問題8



 §9 統計的推定 演習問題9



 §10 統計的仮説検定 演習問題10 



3.統計解析



 §11 直線回帰分析 演習問題11



 §12 多重線形回帰分析 演習問題12



 §13 分散分析 演習問題13



 §14 尤度解析法 演習問題14

 

標準化したZが E[ z ]= 0, E[ z^2 ]= 1となることの証明 中心極限定理の準備

こんにちは、
統計学はたくさんの数学の知識が必要で大変。
それゆえに脱線出来て楽しくて進まない割に楽しんでます。
今回は、統計学の中でも有名な定理のひとつ中心極限定理に関連するお話。
中心極限定理を証明する時に、変数変換を初めにする。

z = \frac{ X - \mu }{ \sigma }\

 E \left[  Z \right ] = \mu =  0

 E \left[ Z ^2\right]
 = \sigma^ 2 = 1

良く使う変換であり、正規分布に関する証明を簡潔にするイメージであった。しかし、中心極限定理は一般的な確率分布について述べているので、した二つの式、平均と分散について一般的に正しいか書かれていなかった。感覚的には、当たり前な気がするが証明してみた。

目次


証明の方針

確率分布の証明系はなんとなく、特性関数とか積率母関数を使うイメージだったので、今回は積率母関数で証明。 結構計算するだけ。

証明

1. 平均


Z = \frac{ X - \mu }{ \sigma }

M_Z(t) = E\left[e^ {tZ}\right] = E\left[e^ {tZ}\right] = E\left[e^ { t \frac{ X - \mu }{ \sigma }}\right] = e^ {-t  \frac{ \mu }{ \sigma }}E\left[e^ {t\frac{ X }{ \sigma }}\right]

= e^ { -t \frac{ \mu }{ \sigma }  } \int^ \infty _ { -\infty } e^ { t\frac{ X }{ \sigma } } f(x) dx

\frac{ d M_Z(t) }{ d t } = -\frac{\mu }{ \sigma } e^ { -t \frac{ \mu }{ \sigma } }\int^\infty _ { -\infty } e^ {t\frac{ X }{ \sigma }}f(x) dx +  e^ { -t\frac{\mu }{ \sigma } }\int^\infty _ { -\infty }\frac{ X }{ \sigma } e^ { t\frac{ X }{ \sigma } } f(x) dx

\left. \frac{ d M_Z(t) }{ d t } \right|_{ t = 0 } =  -\frac{\mu }{ \sigma }\int^\infty _ { -\infty } f(x) dx +  \int^\infty _ { -\infty } \frac{ X }{ \sigma }f(x) dx

f(x) は確率密度関数なので、

\left. \frac{ d M_Z(t) }{ d t } \right| _ { t = 0} = {-\frac{\mu }{ \sigma }}+  \frac{ \mu }{ \sigma } = 0

2. 分散


\frac{ d^ 2 M_Z(t) }{ d t^ 2 } = \frac{ d }{ dt } \left[ -\frac{ \mu }{ \sigma }  \left\{ e^ { -t\frac{\mu }{ \sigma }}\int^\infty _ { -\infty } e^ { t\frac{ X }{ \sigma } } f(x) dx \right\}   +  e^ { -t\frac{\mu }{ \sigma } }\int^ \infty _ { -\infty }\frac{ X }{ \sigma } e^ { t\frac{ X }{ \sigma } } f(x) dx \right]
第一項に関してには、元の積率母関数と等しいため微分して、tを代入すると0になる。なので、第2項のみを考える。g(x)を第二項とすると、

\frac{ d g(t) }{ dt } = -\frac{\mu }{ \sigma } e^ { -t\frac{\mu }{ \sigma } }\int^ \infty _ { -\infty }\frac{ X }{ \sigma } e^ {t\frac{ X }{ \sigma } }f(x) dx +  e^ { -t\frac{\mu }{ \sigma } }\int^ \infty _ { -\infty } \frac{ X^ 2 }{ \sigma^ 2 } e^ { t\frac{ X }{ \sigma } }f(x) dx

\left. \frac{ d^ 2 M_Z(t) }{ d t^ 2 } \right|_{ t = 0 }  = \frac{ d g( 0 ) }{ dt } = -\frac{ \mu^ 2 }{ \sigma^ 2 } +  \int^ \infty _ { -\infty }\frac{ X^ 2 }{ \sigma^ 2 } e^ {t\frac{ X }{ \sigma }}f(x) dx
この第二項に関して、

 E\left[ ( X - \mu )^ 2 \right] = \sigma^ 2 = E\left[ X^ 2 \right ] - E\left[X\right]^ 2 = \int^ \infty _ { -\infty } X^ 2  e^ { t\frac{ X }{ \sigma } }f(x) dx - \mu^ 2
より、


\int^ \infty _ { -\infty } X^ 2  e^ {t\frac{ X }{ \sigma }}f(x) dx =  \mu^ 2 + \sigma^ 2

\left . \frac{ d^ 2 M_Z(t) }{ d t^ 2 } \right| _ { t = 0 } = -\frac{\mu^ 2 }{ \sigma^ 2 } + \frac{ 1 }{ \sigma^ 2 } \int^ \infty _ { -\infty }X^ 2  e^ {t\frac{ X }{ \sigma }}f(x) dx

=-\frac{\mu^ 2 }{ \sigma^ 2 } + \frac{ 1 }{ \sigma^ 2 } ( \mu^ 2 + \sigma^ 2)  = 1

互いに独立な標準正規分布に従う確率変数の2乗和がカイ二乗分布に従う証明

題名長い! 久しぶりの統計再開。
今回は、検定の基礎の一つであるカイ二乗分布について証明しようと思う。 復習をかねていろいろ書いてしまった。

有名なこの本で勉強中まとめ

現代数理統計学の基礎 (共立講座 数学の魅力)

現代数理統計学の基礎 (共立講座 数学の魅力)

証明の概略

Zが標準正規分布に従うときにその二乗和カイ二乗分布に従うことを二つの段階で証明する。

1. 標準正規分布の二乗が自由度1のカイ二乗分布に従うことを証明する。

計算して確率密度関数が等しいことを示す。

2. 二つのカイ二乗分布の和の分布もまたカイ二乗分布に従うことを持ちいて証明する。

特性関数を用いてやる

標準正規分布の二乗が自由度1のカイ二乗分布に従う

ここでは、二つの分布は、計算可能であり見通しが立つため、それぞれの分布を直接だし、
比較することで証明にしたいと思う。カイ二乗分布については、そのままガウス分布から計算することで出る。
一方、標準正規分布の二乗した時の分布については、変数変換をもちいた分布にしなければならない。

カイ二乗分布について

自由度kのカイ二乗分布は、ガンマ分布の特殊な場合として定義されている。


\chi^2 \sim Ga( k / 2,  2 )

ガンマ分布

ガンマ分布

 Ga( \alpha , \beta)

に従う確率変数Xの確率密度関数fについて

 
f_X(x) = \frac{1}{\Gamma(\alpha)}\frac{1}{\beta}\frac{x}{\beta}^{\alpha - 1}exp(-x/\beta)

カイ二乗分布

自由度kのカイ二乗分布の場合、先述したが、 
Ga(k/2, 2)
であるので

 
f_X(x) = \frac{1}{\Gamma( k /2 )}\frac{1}{2}\frac{x}{2}^{k/2 - 1}exp(-x/2)

自由度1のカイ二乗分布

 k \rightarrow 1 で、

 
f_X(x) = \frac{1}{\Gamma( 1 /2 )}\frac{ 1 }{ 2 }\frac{ x }{ 2 }^{ - \frac{1 }{ 2 } }exp(-x/2)

である。

また、ガンマ関数は 
\Gamma(\alpha) = f(x | \alpha) = \int_0^\infty x^{\alpha - 1}exp( - x) dx\
であるので、


\Gamma(\alpha) = f( x | \alpha ) = \int_0^\infty x^{\alpha - 1}exp( - x) dx\\


\Gamma(\frac{1}{2}) = f( x | 1/2 ) = \int_0^\infty x^{ - 1 / 2}exp( - x) dx\\
y^2 = x\\
2ydy = dx\\
\therefore \Gamma(\frac{1}{2}) = f( y | 1/2 ) = \frac{1}{2}\int_0^\infty exp( - y^2 ) dx\\
\therefore \Gamma(\frac{1}{2})  = \sqrt{\pi}

最後はガウス積分。 よって

 
f_X(x) = \frac{1}{\sqrt{\pi}}\frac{ 1 }{ 2 }\left(\frac{ x }{ 2 }\right)^{ - \frac{1 }{ 2 } }exp(-x/2)
= \frac{1}{\sqrt{2\pi}} x ^{ - \frac{1 }{ 2 } }exp(-x/2)\cdots (\ast)

なんとなく標準正規分布に近く

 x^2 \rightarrow y

を入れれば等しくなる気がする

標準正規分布の二乗の分布について

まず、標準正規分は、


f_Z(z) = \frac{ 1 }{ \sqrt{2\pi} } exp( -z^2 / 2 )

これを

 y = z^2

と変数変換する。


f_Y(y)=\frac{d}{dz}P(Z\leqq z)=\frac{d}{dz}\frac{1}{ \sqrt{2\pi} }\int^{\sqrt{y}}_{-\sqrt{y}}exp(-z^2/2)dz\\


=\frac{d}{dz}\left\{ F(\sqrt{y})-F(-\sqrt{y})\right\}


= \frac{dy}{dz}\frac{d}{dy}F(\sqrt{y}) - \frac{dy}{dz}\frac{d}{dy}F(-\sqrt{y})\\
= ( f(\sqrt{y}) + f(-\sqrt{y}))\frac{1}{2\sqrt{y}}\\


\because \frac{dy}{dz} = \frac{1}{2\sqrt{y}}\\

 
\therefore f_Y(y) = \frac{1}{\sqrt{y}} \frac{ 1 }{ \sqrt{2\pi} } exp( -y / 2 )\\

よって、上の(※)の式と比較して等しいことがわかる。 おおかなり長くなってしまった。後半の証明は軽め。

標準正規分布の二乗が自由度1のカイ二乗分布に従う

計算では求めにくいとき特性関数がいいかな。

ガンマ関数の特性関数

少し特殊なやりかた。そもそものガンマ関数と特性関数の似ている指数関数の部分をうまく使ってやる。

 \varphi_X = E[ e^{itX}] = \int^\infty_0 \frac{1}{\Gamma(\alpha)}\frac{1}{\beta}\left(\frac{x}{\beta}\right)^{(\alpha - 1)}exp(-x/\beta)exp(itx)dx

= \int^\infty_0 \frac{1}{\Gamma(\alpha)}\frac{1}{\beta}\left(\frac{x}{\beta}\right)^{(\alpha - 1)}exp\left\{-x(1/\beta - it)\right\}

= \frac{1}{\Gamma(\alpha)}\frac{1}{(1 - i\beta t)^{\alpha}}\int^\infty_0 (1/\beta - it)\left\{(1/\beta - it)x\right\}^{\alpha-1}exp\left\{-x(1/\beta - it)\right\}

 
\left\{(1/\beta - it)x\right\} \rightarrow z\\
dx\left\{(1/\beta - it)\right\} = dz


 \frac{1}{\Gamma(\alpha)}\frac{1}{(1 - i\beta t)^{\alpha}}\int^\infty_0z^{\alpha - 1}exp\left\{-z\right\}dz\\
=\frac{1}{\Gamma(\alpha)}\frac{1}{(1 - i\beta t)^{\alpha}}\Gamma({\alpha})
=\frac{1}{(1 - i\beta t)^{\alpha}}

ガンマ関数の特性関数が求められた。

自由度カイ二乗分布の特性分布

 \alpha \rightarrow k/2, \beta \rightarrow 2
 \varphi_{ \chi^ 2 } = \frac{ 1 }{ ( 1 - 2i t )^ { k / 2 } }

足した場合を考える

特性関数の形を見ると、同じ形の式をかけても同じ形になることがわかることから、

 x_1 \sim \chi^ 2_m , x_2 \sim \chi^ 2_n

 z = x_1 + x_2

 E\left[e^ {itZ}\right] = E[e^ {it(X_1 + X_2)} ]

 =E[ e^ { it( X_1 ) } ] E[e^ { it( X_2) } ]

 =\frac{1}{(1 - i2 t)^ {n/2}}\frac{1}{(1 - i2 t)^{m/2}} = \frac{1}{(1 - i2 t)^ { (n+m)/2}}
これは、自由度n+mのカイ二乗分布の特性関数であるので、
 \chi^ 2_n +  \chi^ 2_m \sim  \chi^ 2_{ n+ m }
であるというのがわかる。
特性関数と分布関数が一対一対応することから示される。
また、これは逆フーリエ変換の式を使うと示される。

以下二つのことを考えると、
1. 標準正規分布の二乗が自由度1のカイ二乗分布に従うことを証明する。
2. 二つのカイ二乗分布の和の分布もまたカイ二乗分布に従うことを持ちいて証明する。

標準正規分布の二乗ならばカイ二乗分布に従い、そのカイ二乗分布同士の和もまたカイ二乗に従うことから、
少し帰納法っぽく示された。
帰納法なのかな?
k + 1と考えれるからそうかな。

tapply apply by の使い方

tapply ・apply ・by が毎回混同するのでまとめた。

 

apply・・行列のデータの行か列かを指定して、関数を適用する。

apply( 行列, 行( 1 )か列 ( 2 ), 関数, 関数の引数 )

 

tapply・・カテゴリデータを使うときに役立つ。カテゴリごとにデータを出す。

tapply( データ,  カテゴリのベクトル,  関数 )

 

by ・・ほとんどbyと同じ