等比数列の応用 \sum ra^r \sum r^2 a^r の導出

 この本の解答と解説を書いています。厳密さを追求しきれてはいないです。

 

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 ほかの演習問題の解答・解説はこちら。

yosuke-programing.hatenadiary.com

 

無限級数の和について

今回は、上の本の解答を作成している際によく出てきて、自分でもパットでなかったので導出してみた。
S(\theta) = \sum_{x = 1}^\infty x\theta^{x} \\T(\theta) = \sum_{x = 1}^\infty x^2\theta^{x}

 

 

この二つについて、求めたいと思う。

普通の解法

1乗の無限和

\begin{array}{rr} S(\theta) =\theta + 2\theta^2 + 3\theta^3 \cdots \\ \\-) \theta S(\theta) =\theta^2 + 2\theta^3 + 3\theta^4 \cdots \\ \hline S(\theta)(1-\theta) = \theta + \theta^2 + \theta^3 \cdots\\\end{array}

よって、
S(\theta) =\frac{1}{1-\theta}\sum^\infty_{x=1}\theta^x = \frac{\theta}{(1-\theta)^2}

2乗の無限和

\begin{array}{rr}T(\theta) =\theta + 2^2\theta^2 + 3^2\theta^3 \cdots \\-) \theta T(\theta) =\theta^2 + 2^2\theta^3 + 3^2\theta^4 \cdots \\\hline\end{array}
T(\theta)(1-\theta) = \theta + (2-1)(2+1)\theta^2 + (3-2)(3+2)\theta^3 \cdots\\

T(\theta)(1-\theta) = \theta + 3\theta^2 + 5\theta^3 \cdots
よって、

T(\theta) = \frac{1}{(1-\theta)}\sum^\infty_{k=1}(2k-1)\theta^k\\

=\frac{1}{(1-\theta)}\left(2\sum^\infty_{k=1} k\theta^k -\sum^\infty_{k=1}\theta^k\right) 

=\frac{1}{(1-\theta)}\left(2 S(\theta) - \frac{\theta}{1-\theta} \right)\\

=\frac{1}{(1-\theta)}\left(2 \frac{\theta}{(1-\theta)^2} - \frac{\theta}{1-\theta}\right)=\frac{\theta+\theta^2}{(1-\theta)^3}

 


微分を用いた解法

1乗の無限和

S(\theta) = \sum_{x = 1}^{\infty}x\theta^x=\theta\sum_{x = 1}^{\infty}x\theta^{(x-1)}=\theta(\sum_{x = 1}^{\infty}\frac{d \theta^{x}}{d\theta})

\\= \theta\left(d\sum_{x = 1}^{\infty}\theta^{x}\right) / \left(d \theta\right) = \theta \frac{d (\theta / 1-\theta)}{d\theta} = \frac{\theta}{(1-\theta)^2}

2乗の無限和

T(\theta) = \sum_{x = 1}^{\infty}x^2\theta^{x} \\= \sum_{x = 1}^{\infty}x(x-1)\theta^{x}+\sum_{x = 1}^{\infty}x\theta^{x}\\=\theta^2\sum_{x = 1}^{\infty}x(x-1)\theta^{x-2}+S(\theta)\\=\theta^2\sum_{x = 1}^{\infty}\frac{d^2\theta^{x}}{d\theta^2}+S(\theta)\\=\theta^2\frac{d}{d\theta}\frac{1}{\theta}\left(\theta\frac{d}{d\theta}\sum_{x =1}^{\infty}\theta^{x}\right)+S(\theta)\\=\theta^2\frac{dS(\theta)/\theta}{d\theta}+S(\theta)\\=\frac{2\theta^2}{(1-\theta)^3} + \frac{\theta}{(1-\theta)^2}\\=\frac{\theta+\theta^2}{(1-\theta)^3}

 

 ほかの演習問題の解答・解説はこちら。

 

yosuke-programing.hatenadiary.com

 

数理統計学 (著 稲垣宣生) 演習問題2 解答

 この本の演習問題の解答を作成。

 

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 ほかの演習問題の解答はこちら

 

yosuke-programing.hatenadiary.com

 

全体的なコメント

2.14(2)ができなかった、、できた人教えてください。

他は、できたけど厳密さはわかりません。あと最後の方の解答が雑な気がします。ただ、答えはあっていたので、大丈夫かなと思います。

2.1

問題の気持ち

この問題はひたすら計算するだけ、ただ、(1)のような問題は、ベータ分布なので、このような有名なものは、分布と期待値、分散を覚えていてもいいんじゃないかと思う。

また、(1)(2)の期待値分散は二つの方法で計算した。

cについては、確率密度関数なので、
\int f(x) = 1

となるようにcを求める。


(1)

これは、ベータ分布なので、
c = 1 / Beta(5, 4)
とわかる。
有名なのでこれは、これで終わり。

E[X]=\int^1_0 \frac{x}{Beta(\alpha,\beta)}x^{\alpha-1}(1-x)^{\beta-1} \\= \frac{1}{Beta(\alpha,\beta)}\int^1_0 x^{\alpha}(1-x)^{\beta-1} = \frac{Beta(\alpha+1,\beta)}{Beta(\alpha,\beta)} \\=\left.\frac{\Gamma({\alpha+1})\Gamma({\beta})}{\Gamma({\alpha+\beta+1})} \middle / \frac{\Gamma({\alpha})\Gamma({\beta})}{\Gamma({\alpha+\beta})}\right.\\=\frac{\alpha}{\alpha+\beta}


\Gamma({\alpha}) = (\alpha - 1)\Gamma(\alpha-1)
を用いた。

Var(X) = E[X^2] - E[X]^2
をもちいる。
E[X^2]=\int^1_0\frac{x^2}{Beta(\alpha,\beta)}x^{\alpha-1}(1-x)^{\beta-1} \\= \frac{1}{Beta(\alpha,\beta)}\int^1_0 x^{\alpha+1}(1-x)^{\beta-1}= \frac{Beta(\alpha+1,\beta)}{Beta(\alpha,\beta)} \\=\left.\frac{\Gamma({\alpha+2})\Gamma({\beta})}{\Gamma({\alpha+\beta+2})} \middle / \frac{\Gamma({\alpha})\Gamma({\beta})}{\Gamma({\alpha+\beta})}\right.\\=\frac{(\alpha+1)\alpha}{(\alpha+\beta+1)(\alpha+\beta)}
Var(X) = \frac{(\alpha+1)\alpha}{(\alpha+\beta+1)(\alpha+\beta)} - \left(\frac{\alpha}{\alpha+\beta}\right)^2 = \frac{\alpha\beta}{(\alpha+\beta+1)(\alpha+\beta)^2}

ちなみに、積立母関数は、すこし複雑なので、そこから求めない。
積率母関数の求め方は以下を見てください

 

 

yosuke-programing.hatenadiary.com

 

(2)

\int^\infty_{-\infty} ce^{-2|x-3|}dx = \int^\infty_{-\infty} ce^{-2|x|}dx\\= 2\int^\infty_{0} ce^{-2x}dx \\= 2[-1/2ce^{-2x}]^{\infty}_{0}=c=1
\therefore c = 1

1. そのまま求める方法

E[X] = \int^\infty_{-\infty} xe^{-2|x-3|}dx \\= \int^\infty_{-\infty} (x+3)e^{-2|x|}dx\\= \int^\infty_{0} (x+3)e^{-2x}dx+\int^0_{-\infty} (x+3)e^{2x}dx \\= \int^\infty_{0} (x+3)e^{-2x}dx+\int^\infty_{0} (-x+3)e^{-2x}dx \\=\int^\infty_{0} 6e^{-2x}dx=6[-1/2e^{-2x}]^\infty_0 = 3

Var(X)=E[(X-3)^2] = \int^\infty_{-\infty} (x-3)^2e^{-2|x-3|}dx = \int^\infty_{-\infty} x^2e^{-2|x|}dx\\= 2\int^\infty_{0} x^2e^{-2x}dx\\= 2\left[[-1/2x^2e^{-2x}]+1/2\int2xe^{-2x}\right]= \int2xe^{-2x}dx \\= 2\left[[-1/2xe^{-2x}]+1/2\int^\infty_0e^{-2x}dx\right]\\=\int^\infty_0e^{-2x}dx=[-1/2e^{-2x}]^\infty_0 = 1/2


2. 積率母関数を用いる方法

Mx(t) = E[e^{tX}] = \int^\infty_{-\infty} e^{tx-2|x-3|}dx =\\=\int^\infty_{3}e^{(t-2)x+6}dx+\int^3_{-\infty} e^{(t+2)x-6}dx

ここから

\\=\left[\frac{1}{t-2}e^{(t-2)x+6}\right]^\infty_3+\left[\frac{1}{t+2}e^{(t+2)x-6}\right]^3_{-\infty}(|t|\leq2) 

\\=\frac{-4}{t^2-4}e^{3t}
途中のtの範囲は、積率母関数が存在するための範囲

E[X]=\frac{d Mx(t)}{dt}|_{t=0} = -4\left(\frac{-2t}{(t^2-4)^2}e^{3t}+\frac{3}{t^2-4}e^{3t}\right) =\left.-4\frac{3t^2-2t-12}{(t^2-4)^2}e^{3t} \middle |_{t=0} \right. = 3

E[X^2]=\frac{d^2 Mx(t)}{dt^2}|_{t=0} = -4\left(\frac{(6t-2)(t^2-4)^2-4t(t^2-4)(3t^2-2t-12) }{(t^2-4)^4}e^{3t}+3\frac{3t^2-2t-12}{(t^2-4)^2}e^{3t}\right)|_{t=0}\\= -4\left(\frac{(6t-2)(t^2-4)-4t(3t^2-2t-12) }{(t^2-4)^3}e^{3t}+\frac{9t^2-6t-36}{(t^2-4)^2}e^{3t}\right)|_{t=0}=-4\frac{f(t)+8+144}{(t^2-4)^3} = -4\frac{f(t)+152}{(t^2-4)^3}|_{t=0} = \frac{38}{4}

最後のところは、t=0を入れるので、tが含まれる項は計算する必要がないので、分子のtがかかっていない項のみを計算した。

Var(X) = E[X^2]-(E[X])^2 = \frac{38}{4}-9 = 1/2

2.2

問題の気持ち

なんだかよくわからない問題
基本的に
\sigma^2 = E[X^2]-(E[X])^2\\E[X^2] = \sigma^2+\mu^2
を使う。

したの方を後の問題で少し使う。

(1)

E[X(X-1)] = \sigma^2+\mu^2-\mu

(2)

E[X(X+5)]=\sigma^2+\mu^2+5\mu

2.3

問題の気持ち

大学受験のによくある問題
最小値をもとめる。

解答

\frac{dM_1(a)}{da} = \frac{dE[|x-a|]}{da}=\left.d\left (\int^\infty_a(x-a)f(x)dx+\int^a_{-\infty}(a-x)f(x)dx\right)\middle/da\right.\\=\left. d\left([G(x)-aF(x)]^\infty_a+[aF(x)-G(x)]_{-\infty}^a\right)\middle / da\right.\\=\left. \left( (G(\infty)-aF(\infty)-(G(a)-aF(a))+aF(a)-G(a)-(aF(-\infty)-G(-\infty))\right)\middle / da\right. \\=-F(\infty)-af(a)+F(a)+af(a)+af(a)+F(a)-af(a)-F(-\infty)=-1+2F(a)

期待値が存在することより
G(x)=\int xf(x)dx\\F(x)=\int f(x)dx\\F(\infty)=1\\F(-\infty) = 0
をもちいた。
よって極値は、

\frac{dM_1(a)}{da} = 0
なので、
F(a)=1/2\\ \therefore a = m

になる。
また、F(x)が単調増加なので、
\frac{dM_1(a)}{da}=-1+2F(a)
の時、a=mを超えると、正になることがわかる。よって、最小値になることがわかる。

 

2.4

問題の気持ち

最小値を求める問題

2.3に似てるけどこっちの方がやりやすい。

解答

\frac{dM_2(a)}{da} = \frac{dE[(x-a)^2]}{da}=\frac{d(E[X^2]-2aE[X]+E[a]^2)}{da}\\=\frac{d(E[X^2]-2aE[X]+a^2)}{da}\\=-2E[X]+2a
よって、\frac{dM_2(a)}{da}は、E[X]=a極値をとる。
aを大きくしていくと制になることから、

E[X]=a
で最小値をとることがわかる。

2.5

問題の気持ち

まず、密度関数とは、

\int^\infty_{-\infty} f(x)dx=1

となればよい。この確認のような問題。

解答

\int^\infty_{-\infty} f(x)dx=\int^\infty_{-\infty}1/n\sum_{i=0}^n f_i(x)dx=1/n\sum_{i=0}^n\int^\infty_{-\infty} f_i(x)dx=1/n\sum_{i=0}^n 1=1
よって、しめされた。

 

期待値

\mu=E[X]=\int^\infty_{-\infty} xf(x)dx\\=\int^\infty_{-\infty}x/n\sum_{i=0}^n f_i(x)dx=1/n\sum_{i=0}^n\int^\infty_{-\infty}x f_i(x)dx=1/n\sum_{i=0}^n \mu_i

分散

E[(X-\mu_i)^2] = E[X^2]-(E[X])^2 = \frac{1}{n}\int^\infty_{-\infty}x^2\sum^n_{i=1}f_i(x) - \mu^2 \\=\frac{1}{n} \sum^n_{i=1}\int^\infty_{-\infty}x^2f_i(x) - \mu^2 = \frac{1}{n}\sum^n_{i=1}E_{f_i}[X^2] - \mu^2\\=\frac{1}{n}(\sum^n_{i=1}\sigma^2_i+\mu^2_i) - \mu^2

これで終わりでいいが、巻末の答えに合わせに行く。

\frac{1}{n}(\sum^n_{i=1}\sigma^2_i+\mu^2_i) - \mu^2 = \frac{1}{n}\sum^n_{i=1}\sigma^2_i+\frac{1}{n}\sum^n_{i=1}\mu^2_i -2\mu^2 + \mu^2 \\= \frac{1}{n}\sum^n_{i=1}\sigma^2_i+\frac{1}{n}\sum^n_{i=1}\mu^2_i -2\mu\frac{1}{n}\sum^n_{i=1}\mu_i + \mu^2\\=\frac{1}{n}\sum^n_{i=1}\sigma^2_i+\frac{1}{n}(\sum^n_{i=1}\mu^2_i -2\mu\sum^n_{i=1}\mu_i + n\mu^2)\\=\frac{1}{n}\sum^n_{i=1}\sigma^2_i+\frac{1}{n}\sum^n_{i=1}(\mu^2_i -2\mu\mu_i + \mu^2)\\=\frac{1}{n}\sum^n_{i=1}\sigma^2_i+\frac{1}{n}\sum^n_{i=1}(\mu_i -\mu)^2

2.6

問題の気持ち

f(x) = \frac{d F(x)}{d x}
を用いる。

シンプルな微分方程式

\frac{d F(x)}{d x} = \lambda F(x)(1-F(x))\\ \frac{1}{F(x)(1-F(x))}d F(x) = \lambda dx\\ \int\frac{1}{F(x)(1-F(x))}d F(x) = \int\lambda dx\\ \int\frac{1}{F(x)}+\frac{1}{(1-F(x))} dF(x) = \int\lambda dx\\log(F(x))-log(1-F(x)) = \lambda x +C \ (C:積分定数)\\F(x) / 1 - F(x)= \lambda x + C\\F(x) = \frac{e^{\lambda x + C}}{1+e^{\lambda x + C}}\\ \therefore f(x)= \frac{d F(x)}{d x} = \frac{\lambda e^{\lambda x + C}}{(1+e^{\lambda x + C})^2}

途中の積分で、 int~dF(x)となってるのがなれないが、y = F(x)と考えると自然。

2.7

問題の気持ち

y軸対象とは、
f(x) = f(-x)

これがわかると計算するだけ。

(1)

y軸対象とは、
f(x) = f(-x)
よって、
f(x) : \frac{\lambda e^{\lambda x + C}}{(1+e^{\lambda x + C})^2}= \frac{\lambda e^{-\lambda x + C}}{(1+e^{-\lambda x + C})^2}\\
分子母にe^{2(\lambda x+C)}をかけると
f(x) : \frac{\lambda e^{\lambda x + C}}{(1+e^{\lambda x + C})^2}= \frac{\lambda e^{\lambda x + 3C}}{(1+e^{\lambda x + C})^2}\\
よって、分子のCを比較すると、
C = 0ということがわかる。

よって、このとき
F(x) = \frac{e^{\lambda x }}{1+e^{\lambda x }}

(2)

この中で、 \geq \leqにイコール入ってるけど、実際は入っていません。

はてなブログで><をこの記法で、書けませんでした。

G(x)=\frac{P( (X\geq -x)\cap(X\leq x))}{P(X\leq x) } = \frac{F(x) - F(-x)}{F(x)}=\frac{e^{\lambda x }+e^{-\lambda x }}{1+e^{\lambda x}}= 1 - e^{-\lambda x}

(3)

今回も二つの方法で求める。
ちなみにこの分布は指数分布
まずは、密度関数を求める。
g(x) = \frac{d G(x)}{dx} = -\lambda e^{-\lambda x }

普通に求める

E[X] = -\lambda\int^\infty_0 xe^{-\lambda x}dx =-\lambda \left[[-\frac{1}{\lambda} xe^{-\lambda x}]^\infty_0 +\frac{1}{\lambda} \int e^{-\lambda x}dx \right]\\=- \left[\int e^{-\lambda x}dx \right]\\=-\frac{1}{\lambda} [e^{-\lambda x}]^\infty_0 = \frac{1}{\lambda}

Var(X) = E[X^2] - E[X]^2 \\E[X^2] = -\lambda\int^\infty_0 x^2e^{-\lambda x}dx =-\lambda \left[[-\frac{1}{\lambda} x^2e^{-\lambda x}]^\infty_0 +\frac{2}{\lambda} \int xe^{-\lambda x}dx \right]\\=-2\int xe^{-\lambda x}dx = -2(-E[X] / \lambda)= \frac{2}{\lambda^2}

Var(X) = \frac{2}{\lambda^2} -\frac{1}{\lambda^2} = \frac{1}{\lambda^2}

積率母関数を用いる

Mx(t) =E[e^{tX}] = -\lambda\int^\infty_0 e^{(t-\lambda) x}dx =[\frac{1}{(t-\lambda)}e^{(t-\lambda)x}]^\infty_0 (t \leq \lambda) = -\frac{\lambda}{(t-\lambda)}
\frac{dMx(t)}{dt} = \lambda(\frac{1}{t-\lambda})^2\\E[X] = \frac{dMx(0)}{dt} = \frac{1}{\lambda})\\ \frac{d^2Mx(t)}{dt^2} = -2\lambda(\frac{1}{t-\lambda})^3\\E[X^2] = \frac{d^2Mx(0)}{dt^2} = \frac{2}{\lambda^2}

あとは同じ

2.8

問題の気持ち

確率母関数のはなし。

ただ、P(t)のような関数を設定する理由がわからなかった。

(1)(2)は、A'A''の形に合わせに行くことを意識する。
今回の問題はただの計算。 

(1)

P(t) = E[t^y]=\sum^\infty_{x = 0}\frac{t^y\theta^yf(y)}{A(\theta)}=\frac{\sum^\infty_{x = 0}(t\theta)^yf(y)}{A(\theta)}= \frac{A(t\theta)}{A(\theta)}

(2)

形を合わせに行く感じ

A(\theta) = \sum_{i=0}^\infty\theta^xf(x)\\ \frac{dA}{d\theta}=\sum_{i=0}^\infty x\theta^{x-1}f(x)\\ \frac{d^2A}{d\theta^2}=\sum_{i=0}^\infty x(x-1)\theta^{x-2}f(x)
E[Y] = \sum_{i=0}^\infty y\frac{\theta^yf(y)}{A(\theta)}=\theta\frac{A'(\theta)}{A(\theta)}

E[Y^2] = \sum_{i=0}^\infty y^2\frac{\theta^yf(y)}{A(\theta)}=\sum_{i=0}^\infty y(y-1)\frac{\theta^yf(y)}{A(\theta)}+\sum_{i=0}^\infty y\frac{\theta^yf(y)}{A(\theta)}=\theta^2\frac{A''(\theta)}{A(\theta)}+\theta\frac{A'(\theta)}{A(\theta)}
Var(Y)=E[Y^2]-E[Y]^2=\theta^2\frac{A''(\theta)}{A(\theta)}+\theta\frac{A'(\theta)}{A(\theta)}-\left(\theta\frac{A'(\theta)}{A(\theta)}\right)^2

(3)

微分するだけするだけなので省略。

 

2.9

問題の気持ち

2.8と大体同じ

(1)

M(t)=\int_{-\infty}^{\infty}\frac{e^{ty}e^{\theta y}f(y)}{A(\theta)}dy=\frac{\int_{-\infty}^{\infty}e^{(t+\theta )y}f(y)dy}{A(\theta)}=\frac{A(t\theta)}{A(\theta)}
A(\theta) = \int_{-\infty}^{\infty}e^{\theta x}f(x)dx\\ \frac{dA(\theta)}{d\theta} = \int_{-\infty}^{\infty}x e^{\theta x}f(x)dx\\ \frac{d^2A(\theta)}{d\theta^2} = \int_{-\infty}^{\infty}x^2 e^{\theta x}f(x)dx

(2)

E[Y] = \int_{-\infty}^{\infty} y\frac{e^{\theta y}f(y)}{A(\theta)}dy = \frac{A'(\theta)}{A(\theta)}\\E[Y^2] = \int_{-\infty}^{\infty} y^2\frac{e^{\theta y}f(y)}{A(\theta)}dy = \frac{A''(\theta)}{A(\theta)}\\Var(y) = \frac{A''(\theta)}{A(\theta)} - \left(\frac{A'(\theta)}{A(\theta)} \right)^2

(3)

計算するだけ。

2.10

問題の気持ち

 少し難しい問題。次の問題もほとんど同じ感じの問題。

①の変換が難所な気がする。②はわかりにくいが画像を見るとわかりやすい。

①の変換は、 P(X\geq x) = 1 - P(X\leq x) を考えて、下の右の画像をイメージして変換していく。逆算のイメージ

 

E[X] =\sum^\infty_{x=1}xf(x)=\sum^\infty_{x=1}\sum^x_{y=1}f(x)\cdots ①

E[X] =\sum^\infty_{x=1}\sum^x_{y=1}f(x)=\sum^\infty_{y=1}\sum^\infty_{x=y}f(x) \cdots ②

\\E[X] =\sum^\infty_{y=1}1- F(y)=\sum^\infty_{y=1}P(Y \geq y)=\sum^\infty_{x=1}P(X \geq x)

よって示された。

 



最後のところの、yからxへの変換は、計算の結果ナノでできる。

2.11

問題の気持ち


ほとんど、2.11と同じ。
E[X] = \int^\infty_{x}xf(x)dx=\int^\infty_{0}\int^x_{0}f(x)dydx\\

E[X] = \int^\infty_{0}xf(x)dx= \int^\infty_{0}\int^x_{0}f(x)dydx\\=\int^\infty_{0}\int^\infty_{y}f(x)dxdy =\int^\infty_{0}1- F(y)dy\\=\int^\infty_{y=0}P(Y \geq y)dy =\int^\infty_{x=0}P(X \geq x)dx

2.12

問題の気持ち

上の2問を考えつつ合わせていく感じ。ただ、積分範囲の交換のところは、上の問題ことなって、正と負を分けて考えないといけない。

 

E[X^2] = \int^\infty_{-\infty}x^2f(x)dx\\=\int^\infty_{0}\int^{x}_{0}2yf(x)dydx+\int^0_{-\infty}\int^{0}_{x}2yf(x)dydx\\= \int^\infty_{0}\int^{\infty}_{y}2yf(x)dxdy+\int^0_{-\infty}\int^{y}_{-\infty}2yf(x)dxdy\\=\int^\infty_{0}2y(1-F(y))dy+\int^0_{-\infty}2yF(y)dy\\(y\rightarrow -z)\\=\int^\infty_{0}2y(1-F(y))dy+\int^0_{\infty}2(-z)F(-z)(-dz)\\=\int^\infty_{0}2y(1-F(y))dy+\int^{\infty}_{0}2zF(-z)dz \\= \int^\infty_{0}2y\left(1-F(y)+F(-y)\right)dy
よって示された。

2.13

問題の気持ち

上の問題が意識できれば簡単。

 

2.12を用いる。
条件より、
E[X] = E[Y] = \mu

V(X) = E[X^2] - \mu^2\\V(Y) = E[Y^2] - \mu^2
よって、E[X^2]とE[Y^2]の比較だけで、分散の大小が決まる。
また、2.12の変換により、示された。

2.14

問題の気持ち

(2)に府が落ちないし、わからない。


(1)

n回目に偶数の場合($a_n$)n+1回目に偶数になるためには、裏になる必要があるので、1-p
n回目に奇数の場合($1-a_n$)n+1回目に偶数になるためには、表になる必要があるので、p
よって、
[tex:a_{n+1} = a_n(1-p) + (1-a_n)p = a_n(1-2p)+p:

(2)

わからなかった、、わかる人教えてください。\\
ただ、a_nの一般項はもっと普通の方法で出る(3)。
Q(t) = \sum^{\infty}_{n=1}a_nt^n \\= \sum^{\infty}_{n=1}( a_{n-1}(1-2p)+p)t^n\\= (1-2p)\sum^{\infty}_{n=1}a_{n-1}t^n+\sum^{\infty}_{n=1}pt^n\\= (1-2p)t\sum^{\infty}_{n=1}a_{n-1}t^{n-1}+\sum^{\infty}_{n=1}pt^n\\
0が偶数なので
a_0 = 1
Q(t)= (1-2p)t\sum^{\infty}_{n=1}a_{n-1}t^{n-1}+\sum^{\infty}_{n=1}pt^n\\=(1-2p)t\left(Q(t)+1\right) +\sum^{\infty}_{n=1}pt^n
(1- (1-2p)t) Q(t) = (1-2p)t +\sum^{\infty}_{n=1}pt^n\\Q(t) = \frac{(1-2p)t +\sum^{\infty}_{n=1}pt^n}{(1- (1-2p)t) }

とわなるのかな。。

 

(3)

a_{n+1} = a_n(1-2p)+p

特性方程式を解いて、

\\a_{n+1}-1/2 = (1-2p)(a_n-1/2)\\ \therefore a_n = \frac{1}{2}((1-2p)^n+1)

 

 

 

 ほかの演習問題の解答はこちら 

yosuke-programing.hatenadiary.com

ベータ分布の積率母関数を求めてみた。

f:id:ty070809390:20200422001051p:plain

 下の本の演習問題でベータ分布のモーメントを求めるときに、ふとモーメント母関数について気になったが、調べても出てこなかったので、導出してみた。

 

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 

 結論から言うと

上の画像のとおりこうなります。

Mx(t) = 1+ \sum^\infty_{k=1}\frac{t^k}{k!}\prod^{k-1}_{l=0}\frac{\alpha+l}{\alpha+\beta+l}

計算していく

Mx(t) = E[e^{tX}] = \int^1_0 \frac{e^{tx}}{Beta(\alpha,\beta)}x^{\alpha-1}(1-x)^{\beta-1}dx

このまま積分するのは正直しんどい。また、ネイピア数テイラー展開を考えると、

 e^{xt} = \sum^\infty_{k=0} \frac{(tx)^k}{k!}
となり  x^k があるのがわかる。

これは、ベータ分布と相性がよさそう。

Mx(t) = E[e^{tX}]=\int^1_0 \frac{1}{Beta(\alpha,\beta)}\sum^\infty_{k=0} \frac{(tx)^k}{k!}x^{\alpha-1}(1-x)^{\beta-1}dx
= \int^1_0 \frac{1}{Beta(\alpha,\beta)}\sum^\infty_{k=0} \frac{t^k}{k!}x^{\alpha+k-1}(1-x)^{\beta-1}dx \\= \sum^\infty_{k=0} \frac{t^k}{k!}\int^1_0 \frac{1}{Beta(\alpha,\beta)}x^{\alpha+k-1}(1-x)^{\beta-1}dx
ある k(\ne1) について考えると、

\frac{t^k}{k!}\frac{Beta(\alpha+k,\beta)}{Beta(\alpha,\beta)} = \frac{t^k}{k!}\left.\frac{\Gamma(\alpha+k)\Gamma(\beta)}{\Gamma(\alpha+\beta+k)} \middle / \frac{\Gamma(\alpha)\Gamma(\beta)}{\Gamma(\alpha+\beta)} \right. \\= \frac{t^k}{k!}\frac{(\alpha+k-1)(\alpha+k-2)\cdots\alpha}{(\alpha+\beta+k-1)(\alpha+\beta+k-2)\cdots(\alpha+\beta)} = \frac{t^k}{k!}\prod^{k-1}_{l=0}\frac{\alpha+l}{\alpha+\beta+l}

k=1の時、1になる。

Mx(t) = 1+ \sum^\infty_{k=1}\frac{t^k}{k!}\prod^{k-1}_{l=0}\frac{\alpha+l}{\alpha+\beta+l}

感想

思ったより大変ではなくただの計算であった。

数理統計学 (著 稲垣宣生) 演習問題1 解答

 この本の解答

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 ほかの演習問題の解答はこちら

yosuke-programing.hatenadiary.com

 

 1.1

うまいやり方は思いつかなかったが、(P3)を用いることを考えるとひたすら互いに素な集合に分解する。

f:id:ty070809390:20200417133241p:plain



ちゃんと書くと大変なので、互いに素な集合の名前をこうする。(もとのAと紛らわしいので、図のAはA'にする。)

例)  BC = {x | (B\cap C)\backslash A}

そうすると、

 d(A, B) +d(B,C)= P\left((A'\cup AC) \cup (B'\cup BC)\right) + P\left((C'\cup AC) \cup (B'\cup AB)\right) \\=  \underline{P(A')} +P(AC) + P(B')+\underline{P(BC)} + \underline{P\(C')}+P(AC) +P(B')+\underline{P(AB)}

アンダーラインに注目して、

 =d(A, C) +P(AC) + P(B') + +P(AC) +P(B') \geq d(A, C)

 

1.2

 P(B|A)P(A) = P(B) = 1 - P(B^c)

 \therefore P(B|A) = 1 / P(A)  - P(B^c) / P(A) \geq 1 -  P(B^c) / P(A) \\ (\because 1 \geq P(A)>0 )

 

1.3

描き方は変だが下図を見るとイメージがわく。(誤解招くかも)

f:id:ty070809390:20200417135250p:plain

(1)は、 P(A|B) + P(A^c|B^c) = \frac{P(A\cap B)}{P(B)} + \frac{P(A^c\cap B^c)}{P(B^c)}\\ = \frac{P(A\cap B)}{P(B)} + \frac{1 - P(A\cup B)}{1- P(B)} \\ = 1

計算してきれいにすると

 P(A\cap B) = P(A)P(B)

よって独立が条件。

 

(2) P(A|B) - P(A|B^c) = \frac{P(A\cap B)}{P(B)} - \frac{P(A\cap B^c)}{P(B^c)} = 0\\ \therefore P(A\cap B)(1 - P(B) )- P(B)\left(P(A) - P(A\cap B)\right) = 0\\ \therefore P(A\cap B) = P(A)P(B)

 

1.4

独立の証明なので

 P(A^c \cap B^c) = P(A^c) P(B^c)

を示す。

 P(A^c \cap B^c) = 1 - P(A \cup B) = 1 - P(A) - P(B) + P(A\cap B) \\ = 1 - P(A) - P(B) + P(A)P(B) (\because 互いに独立なので) \\=\left(1 - P(A) \right)\left(1 - P(B)\right)  = P(A^c)P(B^c)

よって示された。

1.5

スペードとハートから一枚ずつと、その他から二枚の組なので、

 \frac{{ }_1 C_{13}\times {}_1 C_{13}\times {}_{2}C_{26}}{ _{52}C_{4}} = \frac{13^2}{17 * 49}

 

1.6

ベイズを意識した条件付き確率なのかな?

A :  U_1で黒

B :  U_2で黒

 

 P(A | B) = \frac{P(A\cap B)}{P(B)}

 P(A\cap B) = \frac{2}{10}\times\frac{6}{11}

 P(B) = \frac{8}{10}\times\frac{5}{11} + \frac{2}{10}\times\frac{6}{11}

 P(A | B) = \frac{12}{52} =\frac{3}{13}

 

1.7 

 

方法が思いつかいときは、とにかくやってみる。

1回目

  P(W) = \frac{w}{w+b}

2回目

  P(W) = \frac{b}{w+b}\times\frac{w}{w+b+d} + \frac{w}{w+b}\times\frac{w+d}{w+b+d} = \frac{w}{w+b}

・・・おなじになる?

 

こんな時は帰納法あるn-1で成り立つとする。cはこれまでに増えた白の数

1)n回目に手に入れたwから選ぶ場合

 P_{\alpha} = P_{n-1}\times\frac{d}{w+b+(n-1)d}

2)n回目に手に入れてないものから選ぶ場合(n回目にどっちを選んでもいい条件)

 P_{\beta} = \frac{w+b}{w+b+(n-1)d}\times P_{n-1}

f:id:ty070809390:20200417154207p:plain

 \alpha は、① \betaは、②③④

計算すると

1)2)より P_{n} = P_{\alpha} + P_{\beta} = P_{n-1}

 よって、 P_{n} = P_{n-1} = \cdots = P_1 = \frac{w}{w+b}

思いついたみたいにわざとらしく書きましたが、全然わからなかったので、しらべました。この問題の難しいところは、

f:id:ty070809390:20200417154207p:plain

この表の普通漸化式の立て方として、①②と③④で分けるところを、①と②③④

で建てるところ。

ただ、この問題を感覚的に解くならば、(答え見てからなのに恥ずかしいが)増えていく期待値は初めの個数の割合から変わってないことからわかる。そう考えると、上の分け方も納得いくのではないでしょうか。

 

1.8

(1)

P(R=0) = P(R=0|S=1) + P(R=0|S=0) = ( 1 -  \varepsilon)\times p \varepsilon \times (1- p)  =  p+\varepsilon - 2\varepsilon p

上と同じやり方でもよいが、余事象なので、

 P(R=1) = 1 - P(R=0) = 1 - p - \varepsilon + 2\varepsilon p

(2)

 P(S=1|R=1)P(R=1) = P(R=1|S=1)P(S=1)

 \therefore P(S=1|R=1) = P(R=1|S=1)\frac{P(S=1)}{P(R=1) } = \frac{(1-\varepsilon)(1-p) }{1 - p - \varepsilon + 2\varepsilon p}

 

(3)

計算すると。。

P(R=0) = 0.41, P(R=1)=0.59, P(S=1|R=1) = 0.966

すごい上がるとわかる!

参考

www.mathlion.jp

 

 

 

 

 

 

 



 

 

 

確率測度に関する基本的性質(数理統計学 稲垣宣生)

一章の確率測度に関する基本的性質のところが、証明書いていなかったので、かいてみた。

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 

数学科ではないので厳密ではないと思います。ご指摘お願いいたします。

また、この本がないとわかりにくくなっています。 

 

 

 証明する基本的性質

 (1) P\left(A^c\right)  = 1 - P(A)\\(2)A\subset B \Rightarrow P(A)\leq P(B)\\(3) P\left(A\cup B\right) = P(A) + P(B) - P(A\cap B)\\(4)A_n \in \mathscr{A}(n = 1,2,3,\cdots),A_1\supset A_2\cdots (単調減少)であるとき、

 A = \cap^\infty_{n=1}A_nとすれば、

P(A) = lim_{n\rightarrow\infty}P(A_n)

 (5)A_n \in \mathscr{A}(n = 1,2,3,\cdots),A_1\subset A_2\cdots(単調増大)であるとき、

 A = \cup^\infty_{n=1}A_nとすれば、

P(A) = lim_{n\rightarrow\infty}P(A_n)

この五つ!!した二つは厳密にやると大変そうだなあ。

(1)

 (1) P\left(A^c\right)  = 1 - P(A)

 A^cとAは互いに素であるので、(P3)より、

 P(A^c \cup A) = P(A) + P(A^c) = 1

  \therefore P(A^c) = 1 - P(A)   

 当たり前といえば当たり前

(2)

できるだけ互いに素な集合に分けて考える。(P3)を使う意識

(2)A\subset B \Rightarrow P(A)\leq P(B)

 これも基本的に(P3)を用いる。

 P\left(A\cup (A^c \cap B)\right) = P(A) + P(A^c \cap B) = P(B)

 \therefore P(A)\leq P(B) (\because P(A^c \cap B) \geq 0)

(3)

これもほとんど(2)と同様できるだけ互いに素な集合に分けて考える。

 (3) P\left(A\cup B\right) = P(A) + P(B) - P(A\cap B)

この本だと、差集合はA-Bとなっているが、普通?なのか慣れているのは、A\Bなのでそう書く

 P(A\cup B) = P\left( (A\B) \cup (B\A) \cup (A\cap B)  \right)  = P(A\B) + P(B\A) + P(A\cap B) = P(A) + P(B) - P(A\cap B) (\because P(A\B) = P(A)  - P(A\cap B))

(4)(5)

 

(4)A_n \in \mathscr{A}(n = 1,2,3,\cdots),A_1\supset A_2\cdots (単調減少)であるとき、]

 A = \cap^\infty_{n=1}A_nとすれば、

P(A) = lim_{n\rightarrow\infty}P(A_n)

 (5)A_n \in \mathscr{A}(n = 1,2,3,\cdots),A_1\subset A_2\cdots(単調増大)であるとき、

 A = \cup^\infty_{n=1}A_nとすれば、

P(A) = lim_{n\rightarrow\infty}P(A_n)

 

感覚的には、正しいのはわかると思う。数式で証明しようとなると少し大変。

ただ、考え方は、同じで、互いに素を探す。(この互いに素も、互いに排反の方が聞きなれている気がする。)

 

f:id:ty070809390:20200417125304p:plain

この画像をみると互いに素になる場所がわかりやすい。

 A_{i+1} - A_i (i = 1...n) とA_iは互いに素であるので、

 B_i = A_{i+1} - A_i (B_0 = A_1)とすると、

 \cup_i B_i  = \cup_i A_i であるので、

 P(\cup^\infty_1 A_i) =P(\cup^\infty_{i = 0} B_i) = \sum_{i=1}^\infty P(B_i) \\= lim_{n\rightarrow\infty} \sum_{i=1}^n P(B_i) = lim_{n\rightarrow\infty}  P(\cup_{i=1}^n B_i) = lim_{n\rightarrow\infty}  P(\cup_{i=1}^n A_i) = lim_{n\rightarrow\infty}  P(A_n)

 単調増大の(5)のみを示した。(4)も同じ感じ。皮を集合とみていく。

個人的な感想として、高校の数学では集合と確率が”当たり前”のように簡単に行き来していた。ただ、当たり前ではなく証明すべき事項だなあと思った問題。

 

 

 

 

 

 

 

数理統計学(著 稲垣宣生)の解答解説を作成!!(随時更新)

この本、Amazonでも高評価の本の解答が略解しかないので、作成したいと思う!! 

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 

1.確率変数と確率分布

 §1 事象と確率 演習問題1

yosuke-programing.hatenadiary.com

    ベータ分布の積率母関数

yosuke-programing.hatenadiary.com

 
 §2 確率変数と確率分布 演習問題2


yosuke-programing.hatenadiary.com

 §3 確率分布の代表的モデル 演習問題3

yosuke-programing.hatenadiary.com

 

等比級数の応用

yosuke-programing.hatenadiary.com

 



 §4 2次元確率ベクトルの分布 演習問題4



 §5 多変量確率ベクトルの分布 演習問題5



 §6 標本分布 演習問題6



2.統計的推測



 §7 統計学における情報量 演習問題7



 §8 統計的推測決定 演習問題8



 §9 統計的推定 演習問題9



 §10 統計的仮説検定 演習問題10 



3.統計解析



 §11 直線回帰分析 演習問題11



 §12 多重線形回帰分析 演習問題12



 §13 分散分析 演習問題13



 §14 尤度解析法 演習問題14

 

標準化したZが E[ z ]= 0, E[ z^2 ]= 1となることの証明 中心極限定理の準備

こんにちは、
統計学はたくさんの数学の知識が必要で大変。
それゆえに脱線出来て楽しくて進まない割に楽しんでます。
今回は、統計学の中でも有名な定理のひとつ中心極限定理に関連するお話。
中心極限定理を証明する時に、変数変換を初めにする。

z = \frac{ X - \mu }{ \sigma }\

 E \left[  Z \right ] = \mu =  0

 E \left[ Z ^2\right]
 = \sigma^ 2 = 1

良く使う変換であり、正規分布に関する証明を簡潔にするイメージであった。しかし、中心極限定理は一般的な確率分布について述べているので、した二つの式、平均と分散について一般的に正しいか書かれていなかった。感覚的には、当たり前な気がするが証明してみた。

目次


証明の方針

確率分布の証明系はなんとなく、特性関数とか積率母関数を使うイメージだったので、今回は積率母関数で証明。 結構計算するだけ。

証明

1. 平均


Z = \frac{ X - \mu }{ \sigma }

M_Z(t) = E\left[e^ {tZ}\right] = E\left[e^ {tZ}\right] = E\left[e^ { t \frac{ X - \mu }{ \sigma }}\right] = e^ {-t  \frac{ \mu }{ \sigma }}E\left[e^ {t\frac{ X }{ \sigma }}\right]

= e^ { -t \frac{ \mu }{ \sigma }  } \int^ \infty _ { -\infty } e^ { t\frac{ X }{ \sigma } } f(x) dx

\frac{ d M_Z(t) }{ d t } = -\frac{\mu }{ \sigma } e^ { -t \frac{ \mu }{ \sigma } }\int^\infty _ { -\infty } e^ {t\frac{ X }{ \sigma }}f(x) dx +  e^ { -t\frac{\mu }{ \sigma } }\int^\infty _ { -\infty }\frac{ X }{ \sigma } e^ { t\frac{ X }{ \sigma } } f(x) dx

\left. \frac{ d M_Z(t) }{ d t } \right|_{ t = 0 } =  -\frac{\mu }{ \sigma }\int^\infty _ { -\infty } f(x) dx +  \int^\infty _ { -\infty } \frac{ X }{ \sigma }f(x) dx

f(x) は確率密度関数なので、

\left. \frac{ d M_Z(t) }{ d t } \right| _ { t = 0} = {-\frac{\mu }{ \sigma }}+  \frac{ \mu }{ \sigma } = 0

2. 分散


\frac{ d^ 2 M_Z(t) }{ d t^ 2 } = \frac{ d }{ dt } \left[ -\frac{ \mu }{ \sigma }  \left\{ e^ { -t\frac{\mu }{ \sigma }}\int^\infty _ { -\infty } e^ { t\frac{ X }{ \sigma } } f(x) dx \right\}   +  e^ { -t\frac{\mu }{ \sigma } }\int^ \infty _ { -\infty }\frac{ X }{ \sigma } e^ { t\frac{ X }{ \sigma } } f(x) dx \right]
第一項に関してには、元の積率母関数と等しいため微分して、tを代入すると0になる。なので、第2項のみを考える。g(x)を第二項とすると、

\frac{ d g(t) }{ dt } = -\frac{\mu }{ \sigma } e^ { -t\frac{\mu }{ \sigma } }\int^ \infty _ { -\infty }\frac{ X }{ \sigma } e^ {t\frac{ X }{ \sigma } }f(x) dx +  e^ { -t\frac{\mu }{ \sigma } }\int^ \infty _ { -\infty } \frac{ X^ 2 }{ \sigma^ 2 } e^ { t\frac{ X }{ \sigma } }f(x) dx

\left. \frac{ d^ 2 M_Z(t) }{ d t^ 2 } \right|_{ t = 0 }  = \frac{ d g( 0 ) }{ dt } = -\frac{ \mu^ 2 }{ \sigma^ 2 } +  \int^ \infty _ { -\infty }\frac{ X^ 2 }{ \sigma^ 2 } e^ {t\frac{ X }{ \sigma }}f(x) dx
この第二項に関して、

 E\left[ ( X - \mu )^ 2 \right] = \sigma^ 2 = E\left[ X^ 2 \right ] - E\left[X\right]^ 2 = \int^ \infty _ { -\infty } X^ 2  e^ { t\frac{ X }{ \sigma } }f(x) dx - \mu^ 2
より、


\int^ \infty _ { -\infty } X^ 2  e^ {t\frac{ X }{ \sigma }}f(x) dx =  \mu^ 2 + \sigma^ 2

\left . \frac{ d^ 2 M_Z(t) }{ d t^ 2 } \right| _ { t = 0 } = -\frac{\mu^ 2 }{ \sigma^ 2 } + \frac{ 1 }{ \sigma^ 2 } \int^ \infty _ { -\infty }X^ 2  e^ {t\frac{ X }{ \sigma }}f(x) dx

=-\frac{\mu^ 2 }{ \sigma^ 2 } + \frac{ 1 }{ \sigma^ 2 } ( \mu^ 2 + \sigma^ 2)  = 1