数理統計学 統計的推論の基礎 (黒木学) 第二章 解答してみた

第二章の問題はほとんど集合の問題みたい。

以下解答なく独学のため、間違いがあれば訂正してほしい気持ちで解答書いてみた

まず、見たときの解く方針の気持ちを書いて回答を書くスタイルでやる。

 

問2.1

この問題の気持ち

(1)は、式2.15がn=2の時と分かれば、難しくない。逆に、こういう問題の時は、小さいnを考える。あと、自明そうなとき(今回の場合図を描くとわかる)は、背理法帰納法を使うとときやすい。

(2)は、右辺のシグマの部分を考えると、(1)に近いことが分かる。また、式2.15とn=2の時近いことを考えながらとく。

(1)解答

n=2の時、式(2.15)

あるnの時成立するとする。

pr(\cup_i^{n+1} A_i)=pr(\cup_i^(n) A_i \cup A_{n+1})

=pr(\cup_i^n A_i)+pr(A_{n+1})-pr(\cup_i^n A_i \cap A_{n+1} )

\leq \sum^n_{i=1}pr(A_i)+pr(A_{n+1})=\sum^{n+1}_{i=1}pr(A_i)

(2)解答

n=2のとき

式(2.15)から

pr(A_1\cap A_2)=pr(A_1)+pr(A_2)-pr(A_1\cup A_2)

pr(A_1\cap A_2)=pr(\Omega \backslash A_1^c)+pr(\Omega\backslash A_2^c)-pr(A_1\cup A_2)

=1-pr(A_1^c)-pr(A_2^c)+1-pr(A_1\cup A_2)\geq 1-pr(A_1^c)-pr(A_2^c)

あるnの時、成立する

pr(\cap_i^{n+1} A_i)=pr(\cap_i^(n) A_i \cap A_{n+1})

=pr(\cap_i^n A_i)+pr(A_{n+1})-pr(\cap_i^n A_i \cup A_{n+1} )

\geq 1-\sum^n_{i=1}pr(A_i^c)+1-pr(A_{n+1}^c)\geq 1-\sum^{n+1}_{i=1}pr(A_i^c)

問1.2

この問題の気持ち

これは、条件付確率のけいさん

解答

どちらか片方の子供が男の確率をpr(A)

もう一方の子供が男の確率をpr(B)

pr(B=男|A=男)=\frac{pr(A\cap B)}{pr(A)}=\frac{1/4}{3/4}=\frac{1}{3}

 

問2.3

この問題の気持ち

なんだか複雑そうだけど、説明読んでいけば溶けは思想。

(1)解答

(<=)

AとBが独立のとき、

pr(A\cap B|\Omega) = pr(A|\Omega)pr(B|\Omega)

この時、

 pr(A^c\cap B^c|\Omega) = 1-pr(A\cup B|\Omega)=1-pr(A|\Omega)-pr(B|\Omega)+pr(A\cap B|\Omega)

 =1-pr(A|\Omega)-pr(B|\Omega)+pr(A|\Omega)p(B|\Omega)

 pr(A^c \cap B|\Omega) =  pr(B|\Omega) - pr(A \cap B|\Omega) =  pr(B|\Omega) - pr(A|\Omega) pr(B|\Omega)

 pr(A \cap B^c|\Omega) =  pr(A|\Omega) - pr(A|\Omega) pr(B|\Omega) 

よってこれらを考えると、

OD(A,B|\Omega)=1

となる

(=>)

条件のとこ省略!

OD(A,B|\Omega)=1の時、

分母=

pr(A\cap B)(1-p(A\cup B))=pr(A\cap B)(1-p(A)-p(B)-p(A\cap B))

分子=

(pr(A)-pr(A\cap B))(pr(B)-pr(A\cap B))=pr(A)pr(B)-pr(A)pr(A\cap B)-pr(B)pr(A\cap B)+pr(A\cap B)^2

よって、

0=pr(A\cap B)-pr(A\cap B)p(A)-pr(A\cap B)p(B)-p(A\cap B)^2 -pr(A)pr(B)-pr(A)pr(A\cap B)-pr(B)pr(A\cap B)+pr(A\cap B)^2

pr(A\cap B)-pr(A)pr(B)=0

より成立。

(2)解答

わからなかったーー!

 A,B \in \Omega

だとすると、

Pr(A\cap B)=Pr(A,B|C)Pr(C)

ってなって、ODの分母分子にそれぞれ、Pr(C)かければ、常に、

OD(A,B|\Omega)=OD(A,B|C)=OD(A,B|C^c)

が成り立つ気がする。。

わかんないな。

 

第2章にしてわからない問題が出てしまった。。

数理統計学 統計的推論の基礎 (著 黒木学) 解答してみた 第1章

久しぶりに数理統計学やってみた

久しぶりにやるときは新しいの買ってしまう、、

以下解答なく独学のため、間違いがあれば訂正してほしい気持ちで解答書いてみた

まず、見たときの解く方針の気持ちを書いて回答を書くスタイルでやる。

 

問1.1

この問題の気持ち

(1)は、単にやるしかない気がする。n=3の時は、最小と最大がそれぞれ第1,3標本四分位数になるから、感覚的にわかる、4も同様。5の時から微妙になる。

(2)は、5以下の場合、第1,3標本四分位数に必ず最大最小が入る。しかし、それ以上であると、入らなくなるため、第1標本四分位数より小さい、もしくは、第3標本四分位数より大きい値が非常に離れると、標本平均を引っ張るようになる。

(1)解答

標本平均をμとすると、x_i, 1\le i\le nで、小さい順に並べたとする。

n=3の時、第1,3標本四分位数は、それぞれ、i=1,3

\mu=\frac{x_{1}+x_{2}+x_{3}}{3}

であるので、

\muーx_{1}=\frac{(x_{2}-x{1})+(x_{3}-x{1})}{3}\geq 0

\muーx_{3}=\frac{(x_{1}-x{3})+(x_{2}-x{3})}{3}\leq 0

となるため、成立。

n=4の時、第1,3標本四分位数は、それぞれ、i=1,2の間i=3,4の間となる

\mu=\frac{x_{1}+x_{2}+x_{3}+x_{4}}{4}

であるので、

\muー\frac{x_{1}+x_{2}}{2}=\frac{x_{3}+x_{4}-x{1}-x{2}}{4}\geq 0

\muー\frac{x_{3}+x_{4}}{2}=\frac{(x_{1}-x{3})+(x_{2}-x{4})}{4}\leq 0

となるため、成立。

n=5の時、第1,3標本四分位数は、それぞれ、i=1,2の間i=3,4の間となる

\mu=\frac{x_{1}+x_{2}+x_{3}+x_{4}+x_{4}}{5}

であるので、

\muー\frac{x_{1}+x_{2}}{2}=\frac{2x_{3}+2x_{4}+2x_{5}-3x_{1}-3x_{2}}{5}\geq 0

\muー\frac{x_{4}+x_{5}}{2}=\frac{2x_{1}+2x_{2}+2x_{3}-3x_{4}-3x_{4}}{5}\leq 0

プラスの項と、マイナスの項の係数の数が等しいのでそれぞれに割り振ると、

成立することが分かる。

(2)解答

nと第1,3標本四分位数の関係は、

n=4k     

第1標本四分位数  \frac{x_{k}+x_{k+1}}{2} 

第3標本四分位数  \frac{x_{3k}+x_{3k+1}}{2}

n=4k+1

第1標本四分位数  \frac{x_{k}+x_{k+1}}{2}

第1標本四分位数  \frac{x_{3k+1}+x_{3k+1}}{2} 

n=4k+2

第1標本四分位数  x_{k+1} 

第3標本四分位数  x_{3k+2} 

n=4k+3

第1標本四分位数  x_{k+1} 

第3標本四分位数  x_{3k+3}

 

\mu=\frac{\sum_i x_i }{n}

\muー x_{k+1}=\frac{(x_{1}-x_{k+1})+\cdots +(x_{k+1}-x_{k+1})+\cdots +(x_{k+1}-x_{k+1})}{n}

となるが、i=k+1前後で和を分けたとき、前後の和の大小関係が分からないため、成立しない。そのほかの場合、また、右の不等式も同様。

解答は、例なので、

-9990,0,1,2,3,4

この時、

第1標本四分位数:0 

第3標本四分位数:3

標本平均     : -10000/6

と明らかに小さい。

問1.2

この問題の気持ち

これは、けいさん

解答
上と同様のxの取り方をすると、左辺両辺とも聖なため、

[tex: s^2 -(x_n-x_1)^2=\frac{1}{n}\sum_i *1]

よって、

x_i-x_n \cap x_1-\bar{x}

より、常に0以下であるため、照明終了

問1.3

この問題の気持ち

計算。(1)を使いまくる。

(2)では、(1)で切片が消えることが分かれば簡単。

(1)解答

標本平均は、足し算なのでくくれるため、

\mu_z=a \mu_x+b

標本分散は、

 s_z =\frac{1}{n}\sum_i (z_i-\bar{z})^2 = \frac{a^2}{n}\sum_i (x_i-\bar{x})^2=a^2 s_x

(2)解答

s_{zw}=\frac{1}{n}\sum_i a\alpha (x_i-\bar{x})(y_i-\bar{y})=abs_{xy}

(3)解答

r_{zw}=\frac{s_{zw}}{s_{zz}s_{ww}}=\frac{s_{xy}}{\sqrt{s_{xx}{s_{yy}}}=r_{xy}

 

久しぶりのブログ更新。

標本平均をμとしたけど、やめたほうがいかったな。

*1:x_i-\bar{x})^2-(x_n-x_1)^2)]

[tex:\frac{1}{n}\sum_i ((x_i-\bar{x}+x_n-x_1)(x_i-\bar{x}-x_n+x_1

数理統計学 (著 稲垣宣生) 演習問題6 解答

 この本の解答

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 ほかの演習問題の解答はこちら。

 

yosuke-programing.hatenadiary.com

 

 

6.1

この問題の気持ち

変数変換

(1)

F_x(X) = \int_{\in D_x}f_X(x)dx = \int_{\in D_y}f_X(e(-1/2y))\frac{dx}{dy}dy\= \int_{\in D_y}f_Y(y)dy
f_y(Y) = f_X(e(-1/2y))\frac{dx}{dy} = \frac{de(-1/2y)}{dy} = -\frac{1}{2}e(-1/2y)
よって示された。


6.2

この問題の気持ち

変数変換

密度関数

上と同様に、

f_y(Y) = f_X(Y^2)\frac{dx}{dy} = \frac{1}{\Gamma(n/2)2^{n/2}}y^{n-2}exp(-y^2/2)*2y\= \frac{1}{\Gamma(n/2)2^{n/2-1}}y^{n-1}exp(-y^2/2)

平均

E[Y] = \int^\infty_{-\infty}y\frac{1}{\Gamma(n/2)2^{n/2-1}}y^{n-1}exp(-y^2/2)dy
=\frac{1}{\Gamma(n/2)2^{n/2-1}}\int^\infty_{-\infty}y^{n}exp(-y^2/2)dy
=\frac{1}{\Gamma(n/2)2^{n/2-1}}\int^\infty_{-\infty}(2x)^{n/2}exp(-x)dy
=\frac{\Gamma(\frac{n+1}{2})}{\Gamma(n/2)}\sqrt{2}

分散

E[Y^2] = \int^\infty_{-\infty}y^2\frac{1}{\Gamma(n/2)2^{n/2-1}}y^{n-1}exp(-y^2/2)dy
=\frac{1}{\Gamma(n/2)2^{n/2-1}}\int^\infty_{-\infty}y^{n+1}exp(-y^2/2)dy
=\frac{1}{\Gamma(n/2)2^{n/2-1}}\int^\infty_{-\infty}(2x)^{(n+1)/2}exp(-x)dy
=2\frac{\Gamma(n/2+1)}{\Gamma(n/2)}
=n
V(Y) = n - 2\left(\frac{\Gamma(\frac{n+1}{2})}{\Gamma(n/2)}\right)^2

6.3

この問題の気持ち

変数変換

変数変換

F_{XY}(X,Y) = \int_{\in D_{XY}} f_{XY}(X, Y)dxdy
やこびあんを変な風に書いた。
= \int_{ \in D_{R\theta}} f_{XY}(Rcos\theta,Rsin\theta)\left|\frac{\partial[X, Y]}{\partial \boldsymbol{[R,\theta]}}\right|dRd\theta
= \int_{ \in D_{R\theta}} f_{R\theta}(R, \theta)dRd\theta
\frac{\partial X}{\partial R} = cos\theta
\frac{\partial Y}{\partial R} = sin\theta
\frac{\partial X}{\partial \theta} = -Rsin\theta
\frac{\partial Y}{\partial \theta} = Rcos\theta
\left|\frac{\partial[X, Y]}{\partial \boldsymbol{[R,\theta]}}\right| = R
上の6.2結果を用いて、レイリー分布はn=2より
f_{XY}(X, Y) = f_{R\theta}(R,\theta)\left|\frac{\partial \boldsymbol{[R,\theta]}}{\partial[X, Y]}\right|
= \frac{1}{2\pi}\frac{1}{\Gamma(n/2)2^{n/2-1}}R^{n-1}exp(-R^2/2)\frac{1}{R}
= \frac{1}{2\pi}exp(-R^2/2)= \frac{1}{2\pi}exp(-(X^2+Y^2)/2)
= \frac{1}{\sqrt{2\pi}}exp(-(X^2)/2)\frac{1}{\sqrt{2\pi}}exp(-(Y^2)/2)
独立でそれぞれ標準正規分布に従う。

6.4

この問題の気持ち

計算しよう

密度関数になるか

\frac{1}{\pi\sigma}\int \frac{1}{1+\left(\frac{x-\mu}{\sigma}\right)^2} dx=\frac{1}{\pi}\int^{\pi/2}_{-\pi/2}d\theta = 1
x=\sigma tan\theta + \mu
期待値の存在
E[X] = \frac{1}{\pi\sigma}\int \frac{x}{1+\left(\frac{x-\mu}{\sigma}\right)^2} dx=\frac{1}{\pi}\int^{\pi/2}_{-\pi/2}tan\theta d\theta
発散するので、存在しない

6.5

この問題の気持ち

変数変換

(1)

F_{ZY}(Z,Y) = \int f_{ZY}(z,y)dzdy = \int f_{ZY}(x/y,y)\frac{dz}{dx}dxdy
f_{ZY}(x/y,y) = f_{XY}(X,Y) \frac{dx}{dz} = \frac{1}{2\pi}exp\left(-\frac{x^2+y^2}{2}\right)y
f_z(z) = \int^\infty_{-\infty} \frac{1}{2\pi}exp\left(-\frac{(z^2+1)y^2}{2}\right)|y|dy
= \frac{1}{\pi(z^2+1)} \int ^\infty_0exp(-t)dt= \frac{1}{\pi(z^2+1)}


6.6

この問題の気持ち

なんか同じ問題続いている。考えなくても溶けそう。

(1)

6.4と同様の変換よりなることがわかる。

(\mu = 0, \sigma =1)

6.7

この問題の気持ち

同じことを繰り返す。\
最後の三角関数の変換が面戸い

(1)コーシィ分布

6.5を考えると、

f_{ZY}(x/y,y) = f_{XY}(X,Y) \frac{dx}{dz} = f_{XY}(X,Y)y
f_Z(Z)= \int_{-\infty}^{\infty} f_{XY}(zy,y)ydy
= \frac{1}{2\pi\sigma_1\sigma_2\sqrt{1-\rho^2}}\int_{-\infty}^{\infty} |y|exp\left[-\frac{y^2}{(1-\rho^2)}\left\{ \frac{z^2}{\sigma_1^2}-2\rho\frac{z}{\sigma_1\sigma_2}+\frac{1}{\sigma_2^2}\right\}\right]dy
= \frac{1}{\pi\sigma_1\sigma_2\sqrt{1-\rho^2}}\int_{0}^{\infty} yexp\left[-\frac{y^2}{(1-\rho^2)}\left\{ \frac{z^2}{\sigma_1^2}-2\rho\frac{z}{\sigma_1\sigma_2}+\frac{1}{\sigma_2^2}\right\}\right]dy
= \frac{1}{\pi\sigma_1\sigma_2\sqrt{1-\rho^2}}\int_{0}^{\infty} \frac{1}{2}\frac{(1-\rho^2)}{\left\{ \frac{z^2}{\sigma_1^2}-2\rho\frac{z}{\sigma_1\sigma_2}+\frac{1}{\sigma_2^2}\right\}}exp(-t)dy
= \frac{1}{\pi\sigma_1\sigma_2}\frac{1}{\frac{1}{\sqrt{1-\rho^2}}\frac{\sigma_2^2}{\sigma_1^2}\left\{ (z-\rho\frac{\sigma_1}{\sigma_2})^2+\frac{\sigma_1^2}{\sigma_2^2}(1-\rho^2)\right\}}
= \frac{1}{\pi\frac{\sigma_1\sqrt{1-\rho^2}}{\sigma_1}}\frac{1}{\left\{ \left(\frac{z-\rho\frac{\sigma_1}{\sigma_2}}{\frac{\sigma_1}{\sigma_2}(\sqrt{1-\rho^2})}\right)^2+1\right\}}
よって示された。


(2)

Z=\frac{X}{Y}Z=XYじゃないと思うが、
XY<0というのは、符号が異なりどちらもゼロでないということなので、Z<0と変わらない。
よって、
P(XY<0) = \frac{1}{\pi\frac{\sigma_1\sqrt{1-\rho^2}}{\sigma_1}}\int^0_{-\infty} \frac{1}{\left\{ \left(\frac{z-\rho\frac{\sigma_1}{\sigma_2}}{\frac{\sigma_1}{\sigma_2}(\sqrt{1-\rho^2})}\right)^2+1\right\}}dz
ここで、
\frac{z-\rho\frac{\sigma_1}{\sigma_2}}{\frac{\sigma_1}{\sigma_2}(\sqrt{1-\rho^2})} = tan\theta
dz= \frac{1}{cos^2\theta}\frac{\sigma_1}{\sigma_2}(\sqrt{1-\rho^2})d\theta
P(XY<0) = \frac{1}{\pi}\int^{arctan\frac{-\rho}{\sqrt{1-\rho^2}}}_{-\frac{\pi}{2}} d\theta = \frac{1}{\pi}\left(arctan\frac{-\rho}{\sqrt{1-\rho^2}}-\frac{\pi}{2}\right) = \frac{1}{\pi}arccot\frac{-\rho}{\sqrt{1-\rho^2}}
= \frac{1}{\pi}arccos\rho

ja.wikipedia.org

ここらへんが参考


6.8

この問題の気持ち

ひたすら変数変換。
ただ、ガンマ分布が重なってるのでベータ分布かなくらいのモチベーションがないと考えるのは大変かもしれない。

(1)変数変換

f_{ZX}(z,x) = f_{XY}(x,x(1-z)/z) \frac{dy}{dz} = f_{XY}(x,x(1-z)/z) \frac{-x}{z^2}
=\frac{1}{\Gamma(\alpha)\sigma^\alpha}x^{\alpha-1}exp(-x/\sigma)\frac{1}{\Gamma(\beta)\sigma^\beta}\left(\frac{x(1-z)}{z}\right)^{\beta-1}exp\left(-\frac{x(1-z)}{z\sigma}\right)\left(\frac{-x}{z^2}\right)
f_z(z) = -\frac{1}{\Gamma(\alpha)\sigma^\alpha}\frac{1}{\Gamma(\beta)\sigma^\beta}\left(\frac{1-z}{z}\right)^{\beta-1}\frac{1}{z^2}\int^\infty_{0}x^{\alpha+\beta-1}exp\left(-\frac{x}{z\sigma}\right)dx
= -\frac{1}{\Gamma(\alpha)\sigma^\alpha}\frac{1}{\Gamma(\beta)\sigma^\beta}\left(\frac{1-z}{z}\right)^{\beta-1}\left(\frac{1}{z^2}+1\right)(z\sigma)^{\alpha+\beta}\int^\infty_{0}t^{\alpha+\beta-1}exp(-t)dt
= \frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha)\Gamma(\beta)}z^{\alpha-1}\left(1-z\right)^{\beta-1} = \frac{1}{Beta(\alpha, \beta)}z^{\alpha-1}\left(1-z\right)^{\beta-1}

(2)

X = \frac{U}{1+T}, Y = \frac{UT}{1+T}
はじめに、ヤコビアンを求めると、
\frac{\partial X}{\partial T} =-\frac{U}{(1+T)^2}
\frac{\partial X}{\partial U} = \frac{1}{1+T}
\frac{\partial Y}{\partial T} = \frac{U}{(1+T)^2}
\frac{\partial Y}{\partial U} = \frac{T}{1+T}
J = \left|\frac{1}{X} + \frac{1}{X^2}\right| = \frac{1}{X} + \frac{1}{X^2}
最後の等号は、ガンマ分布の定義域より。
f_{UT}(u,t) = f_{XY}\left(\frac{u}{t+1},\frac{ut}{1+t}\right) J
=\frac{1}{\Gamma(\alpha)\sigma^\alpha}\left(\frac{u}{t+1}\right)^{\alpha-1}exp(-\frac{u}{t+1}/\sigma)\frac{1}{\Gamma(\beta)\sigma^\beta}\left(\frac{ut}{1+t}\right)^{\beta-1}exp\left(-\frac{ut}{1+t}/\sigma\right)\frac{U}{(1+T)^2}
今回分布をちゃんと求める必要がないので、以下を考える。
\left(\frac{u}{t+1}\right)^{\alpha-1}exp(-\frac{u}{t+1}/\sigma)\left(\frac{ut}{1+t}\right)^{\beta-1}exp\left(-\frac{ut}{1+t}/\sigma\right)\frac{U}{(1+T)^2}
=u^{\alpha + \beta-1}exp(-u/\sigma)\left(\frac{t}{1+t}\right)^{\beta-1}\left(\frac{1}{t+1}\right)^{\alpha+1}
=u^{\alpha + \beta-1}exp(-u/\sigma)\left(1-\frac{1}{1+t}\right)^{\beta-1}\left(\frac{1}{t+1}\right)^{\alpha+1}
これより、独立
U\sim Ga(\alpha+\beta, \sigma)
S = \frac{1}{1+t}
としたとき、
S\sim Be(\alpha, \beta)

 

6.9

この問題の気持ち

再生性を使おう!!

(1)

X,Yがカイ二乗分布に従うので、分布の再生性より、
X+Y\sim \chi^2_{n+m}
また、カイ二乗分布同士の商なので、
\frac{n+m}{m}Z\sim F^{m}_{n+m}
ということがわかる。
よって、
f\left(\frac{n+m}{m}z\right) = \frac{1}{Beta(\frac{n+m}{2},\frac{m}{2})}\left(\frac{m}{m+n}\right)^{\frac{m}{2}}\left(1+z\right)^{-\frac{m+n+m}{2}}\left(\frac{n+m}{m}Z\right)^{\frac{m}{2}-1}
=\frac{1}{B(\frac{n+m}{2},\frac{m}{2})}\left(1+z\right)^{-\frac{m+n+m}{2}}\left(z\right)^{\frac{m}{2}-1}\sim B\left(\frac{n+m}{2},\frac{m}{2}\right)

6.10

この問題の気持ち

再生性を使おう!!\
モチベーションとしては、指数分布はガンマ分布の特殊な形なので、ガンマ分布になるだろうなという気持ち。結果ならなかった。

(1)

X,Yが指数分布に従うので、分布の再生性より、
X+Y\sim Ex(2\lambda)
また、カイ二乗分布同士の商なので、
W = X+Y \sim Ex(2\lambda)
とすると、
f_{ZX}(z,x) = f_{XW}(x,w) \frac{dw}{dz} = -\frac{x}{z^2}f_{XW}(X,W)
f_{Z}(z) = \int^\infty_{0} -\frac{x}{z^2}f_{XW}(x,x/z) dx
= \int^\infty_{0} -\frac{x}{z^2}\lambda exp(-\lambda x)2\lambda exp(-2\lambda x/z) dx
= -\frac{2\lambda^2 }{z^2}\int^\infty_{0} xexp\left(-\lambda\left(1+\frac{2}{z}\right) x\right) dx
= -\frac{2}{\left(z+4\right)^2}\int^\infty_{0} texp\left(-t\right) dt
= -\frac{2}{\left(z+4\right)^2}\Gamma(2) = -\frac{4}{\left(z+4\right)^2}

6.11

この問題の気持ち

6.9の逆。

6.12

この問題の気持ち

6.11 より示された。

6.13

この問題の気持ち

よくあるやつナノで覚えていた方がいいもの。

標本平均 平均

E[\bar{X}] = E\left[\frac{1}{n}\sum_{i=1}^{n} X_i\right] =\frac{1}{n}\sum_{i=1}^{n}E\left[ X_i\right] = \mu

標本平均 分散

V(\bar{X}) = E\left[(\bar{X}-\mu)^2\right] = \frac{1}{n^2} = \frac{1}{n^2}\sum E\left[(X_i-\mu)^2\right] = \frac{\sigma^2}{n}

標本分散 平均

n\frac{S^2}{\sigma^2}\sim \chi^2_{n-1}
よって、
E[S^2] = \frac{n-1}{n}\sigma^2

標本分散 分散

V(S^2) = E[(S^2)^2] - (E[S^2])^2
E\left[\left(n\frac{S^2}{\sigma^2}\right)^2\right] = 2(n-1)^2+(n-1)^2 = 3(n-1)^2
E\left[(S^2)^2\right] = \frac{3(n-1)^2}{n^2}\sigma^4
V(S^2) =\frac{2(n-1)^2}{n^2}\sigma^4


標本分散 共分散

これについては大変なので、
定理6より独立なので、
Cov = 0


6.14

この問題の気持ち

わからなかったのと変数変換につかれたのでやめる。\
わかる人教えてください
わかる人教えてください。

  

 ほかの演習問題の解答はこちら。

 

yosuke-programing.hatenadiary.com

 

数理統計学 (著 稲垣宣生) 演習問題5 解答

 この本の解答

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 ほかの演習問題の解答はこちら。

 

yosuke-programing.hatenadiary.com

 

  

5.1

この問題の気持ち

計算しよう!

(1)

\int_{-\infty}^\infty F(x)dx = \int_{-\infty}^\infty \sum_{i=0}c_iF_i(x)dx \\=\sum_{i=0}c_i\int_{-\infty}^\infty F_i(x)dx\\=\sum_{i=0}c_i = 1
よって、分布関数
E[X]=\int_{-\infty}^\infty xF(x)dx = \int_{-\infty}^\infty x\sum_{i=0}c_iF_i(x)dx \\=\sum_{i=0}c_i\int_{-\infty}^\infty xF_i(x)dx\\=\sum_{i=0}c_i\mu_i


V(X)=\int_{-\infty}^\infty (x-\mu)^2F(x)dx = \int_{-\infty}^\infty (x-\mu)^2\sum_{i=0}c_iF_i(x)dx \\=\sum_{i=1}^nc_i\int_{-\infty}^\infty (x-\mu_i+\mu_i-\mu)^2F_i(x)dx\\=\sum_{i=1}^nc_i\int_{-\infty}^\infty \left\{(x-\mu_i)^2-2(\mu_i-x)(\mu_i-\mu)+(\mu_i-\mu)^2\right\}F_i(x)dx\\=\sum_{i=1}^nc_i\left(\sigma^2-2(\mu_i-\mu)^2+(\mu_i-\mu)^2\right)\\=\sum_{i=1}^nc_i\sigma^2+\sum_{i=1}^nc_i(\mu_i-\mu)^2

5.2

この問題の気持ち

順序分布は少し考えるの好きじゃないけど、極値統計とかはやってみたい。\
厳密ではないが、密度分布の求め方を三項から求めるのが個人的にわかりにくかったので、わかりやすく書いてみた。

 

yosuke-programing.hatenadiary.com

 

(1)

この本で、あるkの分布密度分布を考えるときに、ある値と、それ以下とそれ以上の3項分布を考えた。また、2つの統計量の同時分布を考えるときは5項分布に従うことを考えた。今回は以下のようになる。
| 事象 |\{X_1 = x\} | \{x\leq X_1 \leq y \} | \{X_n = y\} |
| ------------------------------------------------------------------------
| 確率 | f(x)           | F(y)-F(x)                    | f(y)             |
今回の選び方は、橋二つの選び方が{}_nC_2であり、真ん中の値がどういう値の順でもいいのので、三項定理的に書くと、
f(x,y) = \frac{n!}{1!(n-2)!1!}f(x)(F(y)-F(x))^{n-2}f(y)=n(n-1)(y-x)^{n-2}

(2)

平均

E[X_{n:1}] = \int_0^1xf_1(x)dx = \int_0^1n{}_{n-1}C_{1-1}xF(x)^{1-1}\left(1-F(x)\right)^{n-1}f(x)dx\\=\int_0^1nx\left(1-x\right)^{n-1}dx\\=n\left\{\int_0^1\left(1-x\right)^{n-1}dx-\int_0^1\left(1-x\right)^{n}dx\right\}\\=n\left\{\frac{1}{n}[(1-x)^n]^1_0 - \frac{1}{n+1}[(1-x)^{n+1}]^1_0\right\} = \frac{1}{n+1}
E[X_{n:1}^2] = \int_0^1x^2f_1(x)dx \\=\int_0^1nx^2\left(1-x\right)^{n-1}dx\\=n\left\{\int_0^1\left(1-x\right)^2\left(1-x\right)^{n-1}dx+2\int_0^1x\left(1-x\right)^{n-1}dx-\int_0^1\left(1-x\right)^{n-1}dx\right\}\\=n\left\{\frac{1}{n+2}[(1-x)^{n+2}]^1_0 +2\frac{1}{n(n+1)} - \frac{1}{n}[(1-x)^{n}]^1_0\right\}\\=\frac{2}{(n+1)(n+2)}
Var(X_{n:1})=E[X^2] -E[X]^2 = \frac{n}{(n+1)^2(n+2)}
E[X_{n:n}] = \int_0^1yf_1(y)dy = \int_0^1n{}_{n-1}C_{n-1}yF(y)^{n-1}\left(1-F(y)\right)^{n-n}f(y)dy\\=\int_0^1ny^{n}dy\\=n\frac{1}{n+1}[y^{n+1}]^1_0 = \frac{n}{n+1}
E[X_{n:n}^2] = \int_0^1y^2f_1(y)dy \\=\int_0^1ny^{n+1}dy\\=n\frac{1}{n+2}[y^{n+2}]^1_0 \\= \frac{n}{n+2}
V(X_{n:n})= \frac{n}{n+2} - (\frac{n}{n+1})^2 = \frac{n}{(n+1)^2(n+2)}
E[XY] = n(n-1)\int\int(y-x)^{n-2}dydx \\= n\int(1-x)^{n-1} - (-x)^{n-1}dx\\= \left( (1-x)^{n-1} - (-x)^{n-1}dx\right) = \frac{1}{n+2}
Corr(X,Y) = \left(\frac{1}{n+2} - \frac{n}{n+1}\frac{1}{n+1}\right) / \frac{n}{(n+1)^2(n+2)} = \frac{1}{n}

5.3

この問題の気持ち

なんだかややこしいことが書かれているが、YがNで条件付いていることがわかれば難しくはない。\
ポアソン分布、指数分布の性質は既知のものとします。この本の後ろの付録をみると載ってます。

積立母関数

M(t) = E^{N}[E^{Y|N}[e^{tY}]] = \sum_{n}\int_Y e^{tY}f(y,N) \ dy \\= \sum^N_{n = 0}\left(\prod\int_X e^{tX_i}f(X_i)dy\right)f_N(n) = \sum^N_{n = 0}\left(\prod\int_X e^{tX_i}f(X_i)dy\right)f_N(n)
ここで、
X\sim Ex(\mu), \ N\sim Po(\lambda)
より
M(t) = \sum^N_{n = 0}\frac{1}{(1-t/\mu)^n}f_N(n)\\=exp(-\lambda)\sum^N_{n = 0}\frac{1}{(1-t/\mu)^n}\frac{\lambda^n}{n!}\\=exp(-\lambda)\sum^N_{n=0}\frac{(\lambda / (1-t/ \mu))^n}{n!} \\= exp\left(\lambda (\frac{1}{(1-t/ \mu)} -1)\right)\\=exp\left(\frac{\lambda t}{\mu-t }\right)

期待値と分散

積立母関数から求める流れだが普通に求めた方が楽。
E^{N}[E^{Y|N}[Y]] = \sum_{n}\int_Y yf(y|N) \ dyf(N) \\= 1/\mu \sum^N_{n = 0}nf_N(n) \\=\frac{\lambda}{\mu}
二つ目=は分布の再生性より、X一つの平均のn倍になる。
E^{N}[E^{Y|N}[Y^2]] = \sum_{n}\int_Y y^2f(y|N) \ dyf(N) \\= 2/\mu^2 \sum^N_{n = 0}n^2f_N(n) \\=\frac{2\lambda(\lambda+1)}{\mu^2}
Var(Y) = \frac{2\lambda(\lambda+1)}{\mu^2} - \left(\frac{\lambda}{\mu}\right)^2\\=\frac{\lambda^2 + \lambda}{\mu^2}

5.4

この問題の気持ち
情報を分布に落とし込む問題\
二項分布

(1)

Aを支持する人をXとすると、
真の分布は、
X\sim B_N(100, 0.55)
となる。
P(X>50) = 1- F(50)\\= 1 - \sum_{i}^{50} {}_{100}C_i(0.55)^i(0.45)^{(100-i)}\\=0.865423786811947
計算機で計算しました。

(2)

X\sim B_N(100, 0.55)
となる。
P(X>n/2) = 1- F(n/2) \\= 1 - \sum_{i}^{50} {}_{n}C_i(0.55)^i(0.45)^{(n-i)}
計算機で計算しました。
|248                              |  249                            |250                              |
|:----:                            |:----:                             |:----:                            |
|0.9498998482587498 | 0.9433496707528424 | 0.9505260452283145 |
解答には、248と書いてあったのは、四捨五入しているからだと思います。

5.5

この問題の気持ち
確率過程。\
いつかちゃんと勉強したいな。\
今回は単純な問題。
平均置換数
E[B(t)] = E[W(t)-tW(1)] = 0
分散関数
V(B(t)) = E[(W(t)-tW(1))^2] = E[W(t)^2] - 2tE[W(t)]E[W(1)]+t^2E[W(1)^2]\\=t(1-t)
平均ゼロナノでV(W(t)) = E[W(t)^2]
共分散関数
Cov(B(t), B(s)) = E[(W(t)-tW(1))(W(s)-sW(1))] \\= E[W(t)]E[W(s)] - E[W(1)](tE[W(s)]+sE[W(t)])+tsE[W(1)^2] \\= min(s,t)+st

5.6

この問題の気持ち

計算問題

(1)

E[(Z_1cost\lambda + Z_2sint\lambda)(Z_1cos(t+s)\lambda + Z_2sin(t+s)\lambda)] \\= E[Z_1^2]cost\lambda cos(t+s)\lambda + E[Z_1]E[Z_2] (cost\lambda sin(t+s)\lambda +sint\lambda cos(t+s)\lambda ) + E[Z_2^2]cos(t+s)\lambda cost\lambda\\=\sigma^2(cost\lambda cos(t+s)\lambda + cos(t+s)\lambda cost\lambda) = \sigma^2 cos(t - (t+s)) = \sigma^2cos(s)

5.7

この問題の気持ち

指数分布とカイ二乗分布はガンマ分布の特殊な形と覚えておくと便利

(1)

P(\sum^{n-1}_{i=0}T_i < t)
を考えると、ガンマ分布の再生性より、
\sum^{n-1}_{i=0}T_i \sim G_A(n, \lambda/2)

5.8

この問題の気持ち

冷静に考えれば、ねずみこうのように指数関数で増えるのがわかる。こういう分かりに杭問題は、図でも書くとイメージはつきやすい。

(1)

E[Y_n] = E[XY_{n-1}] = \sum_{i=0}^\infty XY_{n-1}f(X) = \mu Y_{n-1}
よって、
E[Y_n] = \mu^N
E[Y_n^2] = E[X^2]E[Y_{n-1}^2] =(\sigma^2 + \mu^2)E[Y_{n-1}^2] =(\sigma^2 + \mu^2)^n
V(Y_n) = (\sigma^2 + \mu^2)^n - \mu^n

5.9

この問題の気持ち

こういう問題はすごく苦手。答えもないし、合ってるかもわからないから一応書くだけ。

(1)

limP(|X_n-a|>\delta) = lim(1 - (F(\delta+a) - F(\delta-a) )) \\=lim(1 - (G(\delta+a) - G(\delta-a) ))lim\\=P(|f(X_n)-f(a)|>\varepsilon)

5.10

この問題の気持ち

カイ二乗は、ノンパラメトリック手法などで出るので期待値は覚えとくといい感じ。
(1)
この場合自由度k-1カイ二乗分布にしたがうので、
E[\mathscr{X}^2] = k-1
V(\mathscr{X}^2) =2(k-1)

5.11

この問題の気持ち

順序統計量のような問題は、条件を見て考えよう。
(1)と(2)が逆な気がする。

(1)平均

はじめに
\ \{n<x\}
ならば、\
nことってきたときに、それが、あるx以下である確率に従うので、つまり
\ \{n<x\}\sim Bin(n, F(x))
ということがわかる。つまり
nF_n(x)\sim Bin(n, F(x))\cdots(2)の答え
この時に二項分布Bin(n, p)の時、
E[X] = np\\V(X) = np(1-p)
より、
E_{F_n}[x] = F(x)\\V(X) = F(x)(1-F(x))/n

5.12

この問題の気持ち

以下を参考にして

 

yosuke-programing.hatenadiary.com

(1)

f_i(x) = P(X_i = x)\ = f(x)\left(n{}_{n-1}C_{i-1}F(x)^{i-1}\{1-F(x)\}^{(n-1)-(i-1)}\right)\\= n{}_{n-1}C_{i-1}x^{i-1}\{1-x\}^{(n-1)-(i-1)}\ \propto x^{i-1}\{1-x\}^{(n-1)-(i-1)} \sim Beta(i, n-i-1)

5.12

この問題の気持ち

なんだか極限が出ると嫌な気持ちだが、最大値とあるので、順序統計量だということがわかる。極値統計学

(1)

以下を参考にして、

 

yosuke-programing.hatenadiary.com

 

P(X_i \leq x) = \sum_{r = i}^{n} {}_nC_rF(x)^r\{1-F( x)\}^{n-r}
最大値なので、i=nとして、
P(X_i \leq x) = F(x)^n
よって、
Y_n \sim F(x)^n
また、
Y_n/n \sim G(x)
G(x) = F(nx)^n
ここで対数をとると。
logG(x) = nlog(1-(1-F(nx) ) )\rightarrow -x^{-a}
ここの矢印のつながりが後ろの回答ではこうなっているが何でなるのかわからない。誤植かな。
G(x) = exp(-x^{-a})

 

 ほかの演習問題の解答はこちら。

 

yosuke-programing.hatenadiary.com

 

順序統計量について

順序統計量について

順序統計量数式だけだとわかりにくかったのと連続の分布から求めるより離散の分布の密度関数から求めた方が理解しやすかったので、画像付きで解説してみた。

 

密度関数


今回は具体例として、以下の分布をを考える。

f:id:ty070809390:20200525102258p:plain

distribution

たとえば、5回抽出するときの状況を考える。\
すると、
X_1,X_2\cdots X_5はその大きい順に決定されていく。
その時のそれぞれの確率
P(X_i = x)
を考える。

 

f:id:ty070809390:20200525102305p:plain


ここでは具体的にx = 7, i=3の場合について、つまり、抽出した中で3番に小さい値X_3が7以下になる確率を求める。
たとえば、以下の場合である

f:id:ty070809390:20200525102255p:plain


このことから、7以下に2つ7以上に3つあればいいことがわかる。この確率は、7以上が出る確率、7以上が出でない確率の二項分布になることがわかる。

P(X_3 = 7) = f(x = 7)(5{}_4C_2F(7)^2\{1-F(7)\}^{4-2})

先頭の5は、求めたい場所を移動させたときの個数。そのあとで、4つの場所を考えている。
これからを考えると

X_iの分布f_i(x)
f_i(x) = P(X_i = x) = f(x)\left(n{}_{n-1}C_{i-1}F(x)^{i-1}\{1-F(x)\}^{(n-1)-(i-1)}\right)\\=f(x)\left(i{}_{n}C_{i}F(x)^{i-1}\{1-F(x)\}^{(n-1)-(i-1)}\right)
連続の場合は、同じ形をとるが、分布関数の微分より求める。\

分布関数

P(X_3 < 7)
に関しては、シンプルに二項分布になり、7以下に抽出された点が2個以上になる確率となり、
P(X_3 \leq 7) = \sum_{r = 3}^{5} {}_5C_rF(7)^r\{1-F(7)\}^{5-r}


これからを考えると、
P(X_i \leq x) = \sum_{r = i}^{n} {}_nC_rF(x)^r\{1-F( x)\}^{n-r}

数理統計学 (著 稲垣宣生) 演習問題4 解答

 この本の解答

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 ほかの演習問題の解答はこちら。

 

yosuke-programing.hatenadiary.com

 

 

4.1

この問題の気持ち

順々に考えていかないと難しくなってしまう。わからないときは、累積分布を確率の基礎に立ち返って考えていくことが大切。

今回の問題は、\varepsilon, X, Y, Z
と複数の変数が出ているのでわかりにくいが、

コインと二つの袋(赤玉がそれぞれの確率で入っている)があり、
Zを赤玉が出る確率変数。X, Yがそれぞれの赤だまが出るものと考えると。
コインで表が出たらXの方の袋、裏ならばYの方の袋から抽出すると考えるとわかりやすい。

(1)


\varepsilon \sim Ber(p)
より、
\varepsilon \in (0,1)
コインを投げた後に、そのコインのでかたによって、
Zの確率変数は\varepsilonによって条件づけられているので、
P(Z<z) = P(\varepsilon X+(1-\varepsilon)Y<z|\varepsilon=1)P(\varepsilon=1)+P(\varepsilon X+(1-\varepsilon)Y<z|\varepsilon=0)P(\varepsilon=0)\\=P(X<z|\varepsilon=1)p+P(Y<z|\varepsilon=0)(1-p)

\\=P(X<z)p+P(Y<z)(1-p)

(\because (Y,\varepsilon),(X,\varepsilon) がそれぞれ独立 )

=F_X(z)p+F_{Y}(z)(1-p)

となる。

 

4.2

この問題の気持ち

ポアソン分布は、本に書いてある通り、再生性を持つので、ポアソン分布になることがわかる。こんな時は、積率母関数を使う

(1)

X\sim Po(\lambda)

\\E[e^{tX}]=e^{-\lambda}\sum^\infty_{x=0}e^{tx}\frac{\lambda^x}{x!}

\\=e^{-\lambda}\sum^\infty_{x=0}\frac{(e^t\lambda )^x}{x!}

\\=e^{e^t\lambda - \lambda} = e^{\lambda(e^t-1) }
今回の場合X,Y独立なので、

E[e^{t(X+Y)}]=E[e^{tX}]E[e^{tY}]=e^{\lambda_1(e^t-1) }e^{\lambda_2(e^t-1) }=e^{(\lambda_1+\lambda_2)(e^t-1) }

積率母関数と、分布の一対一対応より、
X+Y\sim Po( (\lambda+\mu ) )

(2)


P(X=r|X+Y = n) = \frac{P(X=r\cap X+Y=n)}{P(X+Y = n)}\\=\frac{e^{-\lambda}\frac{\lambda ^r}{r!}e^{-\mu}\frac{\mu ^{n-r}}{(n-r)!}}{e^{-(\lambda+\mu)}\frac{(\lambda+\mu )^n}{n!}}\\=\frac{n!}{r!(n-r)!}\frac{\lambda^r}{(\lambda+\mu)^{r}}\frac{\mu^{n-r}}{(\lambda+\mu)^{n-r}}

p = \frac{\lambda}{(\lambda+\mu)}
とすると、
P(X=r|X+Y = n)={}_nC_rp^r(1-p)^{n-r}

(3)

上の形を見ると、二項分布だということがわかる。二項分布の平均と分散より、
E^{X|X+Y =n}[X] = np
E^{X|X+Y =n}[X] = np(1-p)

 

4.3

この問題の気持ち

めんどくさい。うまい方法はあるかもしれない。。。が知識で押す。。\
計算で求められる方法教えてください。

(1)


はじめに
\mathscr{X}=\frac{(X-np)^2}{np}+\frac{(Y-nq)^2}{nq}+\frac{(Z-nr)^2}{nr}\\=\frac{X^2}{np}+\frac{Y^2}{nq}+\frac{Z^2}{nr}-n\\=\frac{X^2}{np}+\frac{Y^2}{nq}+\frac{Z^2}{nr}-n\\=X^2(\frac{1}{np}+\frac{1}{nr})+Y^2(\frac{1}{nq}+\frac{1}{nr})+2\frac{XY-nX+nY}{nr}+\frac{n}{r}-n
E[\mathscr{X}]=\sum_{x=0}^n\sum_{y=0}^{n-x}xy\mathscr{X}\\

となるここで、
\sum_{x=0}^n\sum_{y=0}^{n-x}x^3y=\sum_{x=0}^nx^3\frac{(n-x)(n-x+1)}{2}=\\ \cdots
という感じでゴリゴリ進めることもできるのかなぁ。
これは結構しんどいとおもう。5乗の和も計算しなければならない。。

なので知識で押す。(この問題にもそのページ数が書かれているので、悪くないかもしれない)
この統計量は、自由度n-1の\chi^2分布に従うことが知られている。なのでそれに従う。よって、
E[X] = 3-1 = 2\\V(X) = 2(3-1)=4

4.4

この問題の気持ち

計算しても図を考えても一様分布なので簡単。図のみを乗せとく

(1)(2)(3)

f:id:ty070809390:20200518094355p:plainf:id:ty070809390:20200518094358p:plainf:id:ty070809390:20200518094352p:plain

(1)白領域3/4

(2)緑領域

(3)オレンジ+緑中の緑領域 

4.5

この問題の気持ち

計算だけど、よく知られている分布を想像しつつ。
(1)なんかわガンマ分布だと気づけば計算しなくても簡単。

(1)

\int_{0}^\infty\int_{0}^\infty cx^3exp(-x(1+y))dxdy
ガンマ分布に近いことを考えると(一回積分して、$x^2$になることを考えると)
c = \frac{1}{\Gamma(3)} = \frac{1}{2}

(2)

xに関しては、すぐにガンマ分布であることがわかる。

f_1(x) = \frac{1}{2}x^2exp(-x)

yは計算すると

f_2(y) = \frac{1}{2}\int^{-\infty}_{0}cx^3exp(-x(1+y))dx
x(1+y)\rightarrow z\\
f_2(y) = \frac{1}{2}\frac{1}{(1+y)^4}\int^{\infty}_{0}z^3exp(-z)dz\\=f_2(y) = \frac{1}{2}\frac{1}{(1+y)^4}\Gamma(4) \\=\frac{1}{2}\frac{3!}{(1+y)^4}=\frac{3}{(1+y)^4}

(3)

E[X]=\frac{1}{2}\int^\infty_0 x^3 exp(-x)dx = \frac{1}{2}\Gamma(4)=3\\E[X^2]=\frac{1}{2}\Gamma(5) = 12\\Var(X) = 12 - 3^2 = 3

E[Y]=\int^\infty_0 \frac{3y}{(1+y)^4}dy \\= 3\left(\int^\infty_0 \frac{1+y}{(1+y)^4}dy - \int^\infty_0 \frac{1}{(1+y)^4}dy\right)\\=3(\frac{1}{2}-\frac{1}{3})=\frac{1}{2}
右の項は上の密度関数と近いことから、すぐにわかる。その流れで左もわかる
\int \frac{1}{(1+y)^n}dy = \frac{1}{n-1}

 

E[Y^2]= \int^\infty_0 \frac{3y^2}{(1+y)^4}dy \\= 3\left(\int^\infty_0 \frac{(1+y)^2}{(1+y)^4}dy - 2\int^\infty_0 \frac{y}{(1+y)^4}dy-\int^\infty_0 \frac{1}{(1+y)^4}dy\right)\\=3(1-\frac{1}{3}-\frac{1}{3})=1\\Var(Y)=\frac{3}{4}

E[XY] =\int\int xyf(x,y)dydx\\=\int\int yf(y|x)dy \ xf(x)dx\\=\int_{0}^\infty\int_{0}^\infty xyexp(-xy) \ dy\ \frac{1}{2}x^3exp(-x)dx\\=\int_{0}^\infty \frac{1}{2}x^2exp(-x)dx=1

よって、
Corr(X,Y) = \frac{Cov(X,Y)}{\sqrt{V(X)V(Y)}}\\=\frac{E[XY]-E[X]E[Y]}{\sqrt{V(X)V(Y)}}\\=\frac{1-3/2}{\sqrt{9/4}}=-\frac{1}{3}

 

4.6

この問題の気持ち

前問と同じ、ただの計算。\
形が似ているときは、その分布を意識して計算する。

(1)

f_x(x) = \frac{1}{\alpha\beta}exp\left(-x\left(\frac{1}{\alpha}-\frac{1}{\beta}\right)\right)\int^\infty_x exp\left(-\frac{y}{\beta}\right)dy\\ = \frac{1}{\alpha}exp\left(-\frac{x}{\alpha}\right)

f_y(y)=\frac{1}{\alpha\beta}exp\left(-\frac{y}{\beta}\right)\int^y_0 exp\left(-x\left(\frac{1}{\alpha}-\frac{1}{\beta}\right)\right)dy\\=\frac{1}{\beta-\alpha}\left\{exp\left(-\frac{y}{\beta}\right)-exp\left(-\frac{y}{\alpha}\right)\right\}

 

(2)

f(x,y)=f(y|x)f_x(x)
より、
f(x,y) = \frac{1}{\alpha}exp\left(-\frac{x}{\alpha}\right)* \frac{1}{\beta}exp\left(-\frac{y-x}{\beta}\right)
f(y|x)=\frac{1}{\beta}exp\left(-\frac{y-x}{\beta}\right)

(3)

f_xは指数分布なので、
E_X[X]=\alpha \\V_X(x)=\alpha^2

次に、f_yにかんして、計算する。\
指数分布を意識して、
たとえば、
g(x) = exp\left(-\frac{y}{\beta}\right)
の期待値(密度関数出ないので言いにくい)は、$\beta g(x)\frac{1}{\beta}$を考えると、\beta^2となることがわかる。
よって、
E_Y[Y]=\frac{\alpha^2+\beta^2}{\beta-\alpha}=\alpha+\beta
E_Y[Y^2]=\frac{2(\beta^3-\alpha^3)}{\beta-\alpha}=2(\beta^2+\alpha\beta+\alpha^2)\\Var(Y^2) = \beta^2+\alpha^2

E[XY] = \int_0^\infty\int_x^\infty yf(y|x) \ dy \ xf(x) \ dx\\=\int^\infty_0 (x+\beta)x\frac{1}{\alpha}exp\left(-\frac{x}{\alpha}\right)dx\\=\frac{1}{\alpha}\left(\int^\infty_0 x^2exp\left(-\frac{x}{\alpha}\right)+\beta x exp\left(-\frac{x}{\alpha}\right)dx\right)=2\alpha^2+\beta\alpha

Corr(X,Y)=\frac{E[XY]-E[X]E[Y]}{\sqrt{V(X)V(Y)}}=\frac{\alpha}{\sqrt{\alpha^2+\beta^2}}

.7

この問題の気持ち

確率分布をゆっくり考えよう。
よくわからない分布があるときは、原点にもどって、順をおってかんがえる。

(1)

何か知らのX,Yの発生確率により、p_x, p_yとなる。
P(Z<z)=p_xP(Z<z|Z=X, X<Y)+p_yP(Z<z|Z=Y, Y<X)
よって、
P(Z>z|Z=X, X<Y)= P(X<z, X<Y)\\= F_{XY}(X>z,X<Y)\\=\sum^\infty_{x=z}\sum^\infty_{y=x}p(1-p)^{x}q(1-q)^y\\=\sum^\infty_{x=z}p(1-p)^{x}q\left(\sum^\infty_{y=0}(1-q)^y - \sum^x_{y=0}(1-q)^y\right) \\=\sum^\infty_{x=z}p\left( (1-p)(1-q)\right)^x\\=\left( (1-p)(1-q)\right)^z
同様に、

P(Z>z|Z=Y, Y < X)=\left( (1-p)(1-q)\right)^z
等しいので、

P(Z>z)=\left( (1-p)(1-q)\right)^z

ここで、途中のqの合計の計算を考えると、幾何分の累積分布であることがわかる。よって、
f_z=Geo(1-\left( (1-p)(1-q)\right))
E[Z]=\frac{\left( (1-p)(1-q)\right)}{1-\left( (1-p)(1-q)\right)} \\V(Z)=\frac{\left( (1-p)(1-q)\right)}{(1-\left( (1-p)(1-q)\right))^2}

.8

この問題の気持ち

同時確率分布から、条件付き確率(YはXに条件づいてる)を思いつければ、できる。
ただ、ランダムにと書いてあるが、一様分布を仮定するのだろうが、そのランダムの在り方を分布と呼ぶ気がするので、なんだかきもちわるい。

(1)

f(x,y) = f(y|x)g(x) = \frac{1}{1-x}\frac{1}{1-0}=\frac{1}{1-x}

E[X] = \int^1_0\int^1_x xf(x,y)dxdy=1/2 \\E[X^2]= \int^1_0\int^1_x x^2f(x,y)dxdy=1/3\\Var(X) = 1/12

E[Y]= \int^1_0\int^1_x yf(x,y)dydx\\ =\int^1_0\frac{1}{1-x}\frac{1}{2}\left(1-x^2\right)dx\\=\frac{3}{4}\\E[Y^2]=\int^1_0\frac{1}{1-x}\frac{1}{3}\left(1-x^3\right)dx \\=\frac{1}{3}(1+1/2+1/3) =\frac{11}{18}\\Var(Y)=\frac{7}{144}

E[XY] = \int^1_0x\int^1_x yf(x,y)dydx=\frac{5}{12}

Corr(X,Y)=\frac{5/12 - 3/8}{\sqrt{1/12・76/144}}=\sqrt{\frac{3}{7}}

4.9

この問題の気持ち

前問と同様。

(1)

E[(Z-Y)] =\int^1_0 \int^x_0\int^1_x(z-y)f(y|x)f(z|x)f(x)dzdydx=\int^1_0\int^x_0\int^1_x(z-y)dzdy\frac{1}{1-x}\frac{1}{x}dx=\frac{1}{2}\\E[(Z-Y)^2]= \int^1_0 \int^x_0\int^1_x(z-y)^2dzdy\frac{1}{1-x}\frac{1}{x}dx=\frac{11}{36}\\V[(Z-Y)^2]=\frac{1}{18}

4.10

この問題の気持ち

(1)

X,Y\sim Geo(p)

P(Y>X)=\sum^\infty_{y=0}p^2(1-p)^{y}\sum^y_{x=0}(1-p)^{x}\\=p\sum^\infty_{y=0}(1-p)^{y}(1-(1-p)^y) = \frac{1-p}{2-p}

(2)

X,Y\sim Ex(\lambda)\\P(Y>X)=\lambda^2\int^\infty_{0}e^{-\lambda y}\int^y_{0}e^{-\lambda x}dxdy=\frac{1}{2}

4.11

この問題の気持ち

分散の線形性(?)をつかう。復習のため少し丁寧にやる。

(1)

V(Z) = V(wX+(1-w)Y)=E[(wX+(1-w)Y)^2] -E[(wX+(1-w)Y)]^2 \\=E[(wX)^2]-E[wX]^2 + E[(wY)^2]-E[wY]^2 +2w(1-w)(E[XY]-E[X]E[Y])\\=w^2\sigma_1^2+2w(1-w)\sigma_1\sigma_2\rho+(1-w)^2\sigma_2^2\\=(\sigma_1^2-2\sigma_1\sigma_2\rho+\sigma_2^2)w^2+2w(\sigma_1\sigma_2\rho-\sigma_2^2)+\sigma_2^2\\=(\sigma_1^2-2\sigma_1\sigma_2\rho+\sigma_2^2)\left(w+\frac{(\sigma_1\sigma_2\rho-\sigma_2^2)}{(\sigma_1^2-2\sigma_1\sigma_2\rho+\sigma_2^2)}\right)^2+\sigma_2^2 \frac{(\sigma_1\sigma_2\rho-\sigma_2^2)^2}{(\sigma_1^2-2\sigma_1\sigma_2\rho+\sigma_2^2)}
よって、
最小にするwは、
w = \frac{\sigma_2^2-\sigma_1\sigma_2\rho}{(\sigma_1^2-2\sigma_1\sigma_2\rho+\sigma_2^2)}

 

4.12

この問題の気持ち

Hello

(1)

E[T]=aE[X]+bE[Z]=0\\E[U]=cE[Y]+dE[Z]=0\\V(T)=a^2V(X)+b^2V(Z)=(a^2+b^2)\sigma^2\\V(U)=c^2V(Y)+d^2V(Z)=(c^2+d^2)\sigma^2\\Cov(T,U)=E[UT]=acE[XY]+bcE[YZ]+adE[XZ]+bdE[Z^2]\\=cdV(Z)=bd\sigma^2

(2)

P58を参考に上の結果を代入していく。

4.13 

この問題の気持ち

畳み込みの練習(ちょっとずるした。)

(1)

この本の書き方とは少し異なるが、こっちの方がわかりやすいので変数変換として考えるやり方としてやる。
Z = X+Y\\U = Y

J( (z,u)\rightarrow(x,y))=1

f(z, u) = f_{xy}(x,y)=f_x(z-u)f_y(u)\\=\frac{1}{\sqrt{2\pi}\sigma_y}exp\left(-\frac{(u-\mu_y)^2}{2\sigma_y^2}\right)\frac{1}{\sqrt{2\pi}\sigma_x}exp\left(-\frac{(z-u-\mu_x)^2}{2\sigma_x^2}\right)
よって

f_z(z)=\frac{1}{\sqrt{2\pi}\sigma_y}\frac{1}{\sqrt{2\pi}\sigma_x}I_u
畳み込み積分
I_u = \int^\infty_{-\infty} exp\left(-\frac{(u-\mu_y)^2}{2\sigma_y^2}\right)exp\left(-\frac{(z-u-\mu_x)^2}{2\sigma_x^2}\right)du\cdots

これを計算していく。大変なのでスキップ。 \
積率母関数でやると畳み込みの証明はもっと楽。
Mx(t) = E[e^{tX}] =\frac{1}{\sqrt{2\pi}\sigma_x}exp(t^2\sigma_x^2/2+\mu_xt)\int^\infty_{-\infty}exp\left(-\frac{(x^2-(\mu_x+t\sigma_x^2))^2}{2\sigma_x^2}\right)dx\\=exp(t^2\sigma_x^2/2+\mu_xt)
最後の積分は、ガウス分布を考えると計算しなくてもわかる。\
X,Y\sim\mathscr{N}(0,1)\\Z=X+Y\\M_z(t)=E[e^{tZ}]=E[e^{t(X+Y)}]=E[e^{tX}]E[e^{tY}]=exp(t^2\sigma_x^2/2+\mu_xt)exp(t^2\sigma_x^2/2+\mu_xt)\\=exp(t^2(\sigma_x^2+\sigma_y^2)/2+(\mu_x+\mu_y)t)\\ \mu_z = \mu_x+\mu_y\\ \sigma_z^2=\sigma_x^2+\sigma_y^2

よって、積率母関数と分布の一対一性より、示された。

4.14

この問題の気持ち

分布の再生性を用いる

(1)

E[X]=0.5*2+0.3*3=1.9\\V(X)=0.05^2*2+0.04^2*3=0.0098

4.15

この問題の気持ち

分布の再生性といっていいのかな、定数の掛け算の解き、上の積率母関数に影響しないことはわかるのでそのままできる。

(1)

T\sim\mathscr{N}(\mu,\sigma^2/2)\\U\sim\mathscr{N}(0,\sigma^2/2)
Cov(U,T)=E[UT]-E[U]E[T]=E[UT]
E[UT] = E[(X^2-Y^2)]/4=(E[X^2]-E[Y^2])/4=0
XとYは同じ分布なのでよって独立。

 

4.16

この問題の気持ち

とうとう最後になった。\ベータ分布とかガンマ分布はそれぞれ、ベータ関数・ガンマ関数に寄せていく。

(1)

f_1(x)=\frac{{}_nC_x}{B(\alpha,\beta)}\int_0^1\theta^{x+\alpha-1}(1-\theta)^{n-x+\beta-1} d\theta=\frac{{}_nC_xB(x+\alpha,n-x+\beta-1)}{B(\alpha,\beta)}

(2)

上のをつかって、ベイズの定理より、
\pi(\theta|x)=\frac{f(x|\theta)\pi({\theta})}{f(x)}

 

 

 

 ほかの演習問題の解答はこちら。

 

yosuke-programing.hatenadiary.com

 

数理統計学 (著 稲垣宣生) 演習問題3 解答

 この本の解答

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 ほかの演習問題の解答・解説はこちら。

 

yosuke-programing.hatenadiary.com

 

 

演習問題3

今回の章では、分布の紹介だったので、分布の特徴をとらえた問題分布を覚えていればできるかな。
個人的に検定を受けるつもりなので、有名な分布の期待値と分散くらいは覚えておきたい。

 

3.1

この問題の気持ち

特にない。超幾何分布。確率の問題っぽく条件求めているが、今回の場合見たらすぐわかる。その時になんでxが一個になるようにしたのだろう。

(1)


以下のような図になるので、超幾何分布ということがわかる。

X\sim HG(N;n,p)

f:id:ty070809390:20200426215830p:plain

また、Bが逆転勝利する条件は、

a - x < b - (n -x)
となることであるであるので、その確率。
また、xの取りうる値の最大はnなので、
\therefore n \geq x > \frac{a-b+n}{2}

P(x > \frac{a-b+n}{2} ) = \sum^{n}_{\frac{a-b+n}{2}+1}\frac{_xC_a *_{n-x}C_b }{_NC_n}

今回の場合は、かなり簡単になり、
P(x > \frac{a-b+n}{2} = 3 ) = \sum^{4}_{4}\frac{_xC_a *_{n-x}C_b }{_NC_n} = \frac{_{14}C_{4}}{_{30}C_{4}} = \frac{4*13}{29*27} \\= 0.06641123882503193

3.2

この問題の気持ち

結構シンプルな問題。分布の確認が多い。

(1)

少なくともなので、余事象をとって、1回以下しか打たないのを考える。(1)だけをかんがるなら、どっちでもあまり変わらないが、(2)を考えると、こっちの方が楽。
打つ回数をx, 確率をpとすると
x = 0\\P(X=0)=(1-p)^5\cdots (2)の答え\\x = 1\\P(X=1)={}_nC_1p(1-p)^{n-1}

よって、
P(x<2) = 1 - ((1-p)^n + np(1-p)^{n-1})
今回の場合
p=0.3\\n=5
より、
P(X<2)=0.4717800000000001

(2)

上に代入して、
P(X=0) = 0.16806999999999994

3.3

この問題の気持ち

今回も余事象を考える。

(1)

P(X>x) = 1 - P(X\leq x)
また、pが小さいことから、ポアソン分布を用いると、
P(X>x) = 1 - \sum^{x}_{k=0}\lambda^k\frac{e^{-\lambda}}{k!}

今回
p = 0.02\\ \lambda = np = 2

\therefore P(X>x) = 1 - \sum^{2}_{k=0}2^k\frac{e^{-2}}{k!} \\= 1-e^{-2}(1+2+2) \\= 0.3233235838169365

二項分布で求めた時とどのくらいの差があるのだろうか。

\therefore P(X>x) = 1 - \sum^{2}_{k=0} {}_{100}C_kp^k(1-p)^{(100-k)} \\=0.32331437764822224

まあまあ一緒。

3.4

この問題の気持ち

幾何分布

(1)

P(X=n) = p(1-p)^{(n-1)}

よって、

P(X=6) = 1/6(1-1/6)^{(6-1)} = 0.06697959533607684

(2)

P(X=n) = 1/6\sum^{n}_{i=1}(1-1/6)^{(i-1)} \geq \frac{1}{2}

となるnを求める。
\sum^{n}_{i=1}\left(\frac{5}{6}\right)^{(i-1)} \geq 3\\\frac{1-\left(\frac{5}{6}\right)^{n}}{1-\frac{5}{6}}\geq 3\\1-\left(\frac{5}{6}\right)^{n}\geq 1/2\\1/2\geq \left(\frac{5}{6}\right)^{n} \\\frac{log(1/2)}{log(5/6)}\leq n\\

(log(5/6)\leq 0なので不等号がひっくり返る)
\frac{log(1/2)}{log(5/6)} = 3.8017840169239308

よって、
3.8017840169239308 < 4 \leq n

3.5

平均

E[X] = \sum_{x = 1}^{\infty}x\frac{\theta^x}{A(\theta)x} \\=\frac{1}{A(\theta)}\sum_{x = 1}^{\infty}\theta^x\\=\frac{1}{A(\theta)}\frac{\theta}{1-\theta} (無限級数)

分散

E[X^2] = \sum_{x = 1}^{\infty}x^2\frac{\theta^x}{A(\theta)x} \\=\frac{1}{A(\theta)}\sum_{x = 1}^{\infty}x\theta^x\\

最後の級数

S(\theta) = \sum_{x = 1}^{\infty}x\theta^x
とおくと

[tex: S(\theta) \frac{\theta}{(1-\theta)^2}

 

証明は以下を参照してください。

 

yosuke-programing.hatenadiary.com

 

よって、
E[X^2]= \sum_{x = 1}^{\infty}x^2\frac{\theta^x}{A(\theta)x} \\=\frac{1}{A(\theta)}\sum_{x = 1}^{\infty}x\theta^x\\=\frac{1}{A(\theta)}\frac{\theta}{(1-\theta)^2}

Var(X) = \frac{1}{A(\theta)}\frac{\theta}{(1-\theta)^2} - \left(\frac{1}{A(\theta)}\frac{\theta}{1-\theta}\right)^2\\=\frac{A(\theta)\theta - \theta^2}{A(\theta)^2(1-\theta)^2}

確率母関数

P(t) =E[t^X] =\frac{A(t\theta)}{A(\theta)} \sum_{x=1}^{\infty}\frac{t^x\theta^x}{A(t\theta)}\\=\frac{A(t\theta)}{A(\theta)} \sum_{x=1}^{\infty}f(x|t\theta) = \frac{A(t\theta)}{A(\theta)}

3.6

この問題の気持ち
計算しなくてもわかる。ただ、わかりやすく画像を乗せとく。

(1)

0.75

f:id:ty070809390:20200426221530p:plain

(2)

0.6

f:id:ty070809390:20200426221533p:plain
(3)
1/3

f:id:ty070809390:20200426221527p:plain

3.7

この問題の気持ち

表を見る練習問題
基本的に、z変換してから後ろの票をみる。
もしくは、計算機に計算させる。今だとこっちの方が有効

(1)

P(X\leq 7 ) = P(Z\leq (7-5)/2 ) \\= P(0\leq Z\leq (7-5)/2 )+P(-\infty\leq Z\leq 0 )\\= 0.3413+0.5=0.8413
標準正規分布は左右対称なので、0以下はない。
0までの合計は、左右対称なので0.5。
ちなみにpythonでやると、
0.8413447460685429\
大体あっている。

(2)

これも後ろの票に近いものを探す。
今回は0.5を超えているので、引くと

6の時\\0.4773\\4の時\\0.3413

探すと、

\frac{6-\mu}{\sigma} = 2\\ \frac{4-\mu}{\sigma} = 1\\
ということがわかリこれを解くと、
\mu = \sigma = 2

 

3.8

この問題の気持ち

連続から離散と考えられなくもないとすると、
性質が似ている無記憶性がある、幾何分布になるのではないかと想像がつく。
のでその方針で行く。ガウス記号に慣れていないと大変かもしれない。

(1)

Y = [X]
とすると
P(Y=n) =f([X] = n)=f( [X] = n)=f( X-1\leq n< X)

\\=f( n\leq X < n+1) =\int^{n+1}_n f(X)dx

\\= [-e^{-\lambda x}]^{n+1}_n=e^{-\lambda n}(1-e^{-\lambda })

上述のとおり幾何分布ではないかということを意識すると、
e^{-\lambda} = (1-p)
とすると。
P(Y=n) =p(1-p)^n
Ge(e^{-\lambda})
となり、幾何分布である。

(2)期待値と分散

本に導出が全部乗っているので
E[X] = \frac{1-p}{p}\\Var(X) = \frac{1-p}{p^2}
となる。

3.9

この問題の気持ち

上とほとんどおなじ。ただ今回ロピタルの定理を用いて極限を求めているので、知らないと大変かもしれない。

(1)

\left[\frac{X}{d}\right] = k
とする。
P(Y=dk) =f(d\left[\frac{X}{d}\right] = dk)

=f( d\left[\frac{X}{d}\right] = dk)\\

=f( k\leq \frac{X}{d}< k+1)

=\int^{d(k+1)}_{dk} f(X)dx \\= [-e^{-\lambda x}]^{d(k+1)}_{dk}=e^{-\lambda dk}(1-e^{-\lambda d })

(2)期待値

E[dk] = d\sum^{\infty}_0 ke^{-\lambda dk}(1-e^{-\lambda d })\\=d(1-e^{-\lambda d })\sum^{\infty}_0e^{-\lambda d k}
上の問題3.5のS(\theta)\theta\rightarrow e^{-\lambda d }とすると、ロピタルの定理を用いて、
E[Y] =\frac{d}{(e^{\lambda d}-1)}\xrightarrow{d\rightarrow0}\frac{1}{\lambda}

(2)分散

E[Y^2]=E[(dk)^2] =d^2\sum^{\infty}_0 k^2e^{-\lambda dk}(1-e^{-\lambda d })\\=d^2(1-e^{-\lambda d })\sum^{\infty}_0 k^2e^{-\lambda dk}

ここで、
T(\theta) = \sum^\infty_{x=0}x^2\theta^x=\frac{\theta+\theta^2}{(1-\theta)^2}
をもちいる。

証明については以下

 

yosuke-programing.hatenadiary.com


\theta \rightarrow e^{-\lambda d}
とする。

E[Y^2]=d^2(1-e^{-\lambda d })\frac{e^{-\lambda d}(1+e^{-\lambda d})}{(1-e^{-\lambda d})^2}\\=d^2\frac{e^{-\lambda d}(1+e^{-\lambda d})}{(1-e^{-\lambda d})}=d^2\frac{(e^{\lambda d}+1)}{(e^{\lambda d}-1)}\\

Var(Y) =E[Y^2]-(E[Y])^2=d^2\frac{(e^{\lambda d}+1)}{(e^{\lambda d}-1)}-\left(\frac{d}{(e^{\lambda d}-1)}\right)^2\\=\frac{d^2 e^{\lambda d}}{e^{\lambda d} -1}

うえと 同様にロピタルの定理より
Var(Y)\xrightarrow{d\rightarrow 0}\frac{1}{\lambda^2}

 

 3.10

 この問題の気持ち

コンビネーションとベータ関数は密接につながっている。

また、そのことと、なんだか自明そうなものは、背理法もしくは帰納法でいけることが多い。
帰納法でやるときは、最終形態とnを使うことを意識する。
今回の最終形態はこれ
\frac{n!}{k!(n-(k-1) )!}\int^p_{0}x^{k-1}(1-x)^{n-(k-1)}dx
今回の場合帰納法で、積分帰納法が出てきたときは、部分積分をつかうことがおおい。今回の場合も同様。


 (1)

帰納法で示す。
k=1のとき
右辺は、
\sum^{n}_{r = 1}{}_nC_rp^r(1-p)^{n-r}\\=\sum^{n}_{r = 0}{}_nC_rp^r(1-p)^{n-r}-_nC_0p^0(1-p)^{n-0}\\=\sum^{n}_{r = 0}{}_nC_rp^r(1-p)^{n-r}-(1-p)^n=1-(1-p)^n\\
最後の変換は二項係数
左辺は、

\frac{1}{B(1,n)}\int^p_0(1-x)^{n-1}dx = \frac{\Gamma(n+1)}{\Gamma(n)\Gamma(1)}\int^p_0(1-x)^{n-1}dx

=n\left[-\frac{1}{n}(1-x)^n\right]^p_{0}=1-(1-p)^n

よって示された。

次にあるkの時に、成立するとする。

\sum^n_{k+1}{}_nC_rp^r(1-p)^{n-r}\\=\sum^n_{r=k}{}_nC_rp^r(1-p)^{n-r}-{}_nC_kp^k(1-p)^{n-k}


=\frac{1}{Beta(k,n-k+1)}\int^p_{0}x^{k-1}(1-x)^{n-k}dx-{}_nC_kp^k(1-p)^{n-k}

=\frac{\Gamma(n+1)}{\Gamma(k)\Gamma(n-k+1)}\left(\left[\frac{1}{k}x^k(1-x)^{n-k}\right]^{p}_{0}-\frac{n-k}{k}\int^p_{0}x^{k-1}(1-x)^{n-(k-1)}dx\right)-{}_nC_kp^k(1-p)^{n-k}

=\frac{n!}{(k-1)!(n-k)!k}p^k(1-p)^{n-k}-\frac{n!(n-k)}{(k-1)!(n-k)!k}\int^p_{0}x^{k-1}(1-x)^{n-(k-1)}dx-{}_nC_kp^k(1-p)^{n-k}

=\frac{n!}{k!(n-(k-1) )!}\int^p_{0}x^{k-1}(1-x)^{n-(k-1)}dx
=\frac{1}{Beta(k+1, n-k)}\int^p_{0}x^{k-1}(1-x)^{n-(k-1)}dx

よって示された。

 


3.11

この問題の気持ち

上の問題と同じ感じ。
帰納法で示す。
n+1を考えるときに、nの時のことと、n+1での最終的な形を意識して解いていく。
e^{-\lambda}\sum^\infty_{r=k+1}\frac{\lambda^r}{r!} =\frac{1}{\Gamma(k+1)}\int^\lambda_0x^{k}e^{-x}dx

(1)

k = 1の時、

e^{-\lambda}\sum^\infty_{r=1}\frac{\lambda^r}{r!} =\frac{1}{\Gamma(1)}\int^\lambda_0e^{-x}dx
e^{-\lambda}\left(\sum^\infty_{k=0}\frac{\lambda^r}{r!}-1\right) =\int^\lambda_0e^{-x}dx\\e^{-\lambda}\left(e^{\lambda}-1\right) =\int^\lambda_0e^{-x}dx

よって成立。\\

あるkの時、成立するとする。


e^{-\lambda}\sum^\infty_{r=k+1}\frac{\lambda^r}{r!} =e^{-\lambda}\left(\sum^\infty_{r=k}\frac{\lambda^r}{r!} -\frac{\lambda^k}{k!}\right)\\=\frac{1}{\Gamma(k)}\int^\lambda_0x^{k-1}e^{-x}dx-e^{-\lambda}\frac{\lambda^k}{k!}

=\frac{1}{\Gamma(k)}\left(\frac{1}{k}[x^ke^{-x}]^{\lambda}_{0}+\frac{1}{k}\int^\lambda_0x^{k}e^{-x}dx\right)-e^{-\lambda}\frac{\lambda^k}{k!}
=\frac{1}{\Gamma(k+1)}\left([x^ke^{-x}]^{\lambda}_{0}+\int^\lambda_0x^{k}e^{-x}dx\right)-e^{-\lambda}\frac{\lambda^k}{k!}
\Gamma(k+1)=k!
より、
e^{-\lambda}\sum^\infty_{r=k+1}\frac{\lambda^r}{r!}=\frac{1}{\Gamma(k+1)}\int^\lambda_0x^{k}e^{-x}dx
よってk+1でも成り立つことから示された。

3.12

 この問題の気持ち

変数変換の練習問題

(1)

積分布を大文字にすると

G(y) = P(Y\leq\alpha)=P(X\leq\log(\alpha) )\\=P(X\leq\alpha)=\int^\alpha_{0}f(x)dx\\=\int^{\infty}_0 f(e^y)\frac{dx}{dy}dy
\therefore g(y) = f(e^y)\frac{dx}{dy}

\frac{dx}{dy} = \frac{de^y}{dy}=e^y

\therefore g(y) = e^y\frac{1}{\sqrt{2\pi}\sigma}\frac{1}{e^y}exp(-\frac{(y-\mu^2)}{2\sigma^2})\\=\frac{1}{\sqrt{2\pi}\sigma}exp(-\frac{(y-\mu^2)}{2\sigma^2})
よって示された。

(2)

E[X] = \int^\infty_{0} xf(x)dx = \int^\infty_{0}\frac{1}{\sqrt{2\pi}\sigma}exp\left(-\frac{(log(x)-\mu)^2}{2\sigma^2}\right) dx \\=\frac{1}{\sqrt{2\pi}\sigma}\int^\infty_{-\infty} e^{y}exp\left(-\frac{(y-\mu)^2}{2\sigma^2}\right)dy

=\frac{1}{\sqrt{2\pi}\sigma}\int^\infty_{-\infty} exp\left(-\frac{y^2-2(\mu+\sigma^2)+\mu^2}{2\sigma^2}\right)dy
=\frac{1}{\sqrt{2\pi}\sigma}\int^\infty_{-\infty} exp\left(-\frac{(y-(\mu+\sigma^2) )^2-2\mu\sigma^2-\sigma^4}{2\sigma^2}\right)dy

=\frac{1}{\sqrt{2\pi}\sigma}exp(\mu+\sigma^2/2) )\int^\infty_{-\infty} exp\left(-\frac{(y-(\mu+2\sigma^2) )^2}{2\sigma^2}\right)dy

ガウス積分をつかって
=\frac{1}{\sqrt{2\pi}\sigma}exp(\mu+\sigma^2/2)\int^\infty_{-\infty} exp\left(-\frac{(y-(\mu+2\sigma^2) )^2}{2\sigma^2}\right)dy

=\frac{1}{\sqrt{2\pi}\sigma}exp(\mu+\sigma^2/2)\sqrt{2}\sigma\int^\infty_{-\infty} exp(-t^2)dy\\=\frac{1}{\sqrt{\pi}}exp(\mu+\sigma^2/2)\sqrt{\pi}\\=exp(\mu+\sigma^2/2)

(3)

E[X^2] = \int^\infty_{0} x^2f(x)dx = \int^\infty_{0}\frac{x}{\sqrt{2\pi}\sigma}exp\left(-\frac{(log(x)-\mu)^2}{2\sigma^2}\right) dx \\=\frac{1}{\sqrt{2\pi}\sigma}\int^\infty_{-\infty} e^{2y}exp\left(-\frac{(y-\mu)^2}{2\sigma^2}\right)dy

=\frac{1}{\sqrt{2\pi}\sigma}\int^\infty_{-\infty} exp\left(-\frac{y^2-2(\mu+2\sigma^2)+\mu^2}{2\sigma^2}\right)dy
=\frac{1}{\sqrt{2\pi}\sigma}\int^\infty_{-\infty} exp\left(-\frac{(y-(\mu+2\sigma^2) )^2-4\mu\sigma^2-4\sigma^4}{2\sigma^2}\right)dy

=\frac{1}{\sqrt{2\pi}\sigma}exp(2\mu+2\sigma^2) )\int^\infty_{-\infty} exp\left(-\frac{(y-(\mu+2\sigma^2) )^2}{2\sigma^2}\right)dy

あとは(1)と同様に、
E[X^2]=exp(2\mu+2\sigma^2)


よって、
Var(X) = exp(2\mu+2\sigma^2)-(exp(\mu+\sigma^2/2) )^2\\=exp(2\mu+2\sigma^2)-exp(2\mu+\sigma^2)=exp(2\mu+\sigma^2)(exp(\sigma^2)-1)

3.13

この問題の気持ち

故障率関数の練習問題

(1)

P(T>t+s|T>s)=\frac{\int^{\infty}_{s+t}f(t)dt}{\int^{\infty}_{s}f(t)dt} = \frac{1-F(s+t)}{1-F(s)}

[tex:h(u)=\frac{f(u)}{S(u)}=\frac{f(u)}{1-F(u)}=-\frac{d}{du}log(1-F(u) )\\
\therefore 1-F(u) = exp\left(\int^u_{0} -h(u)du\right)]

よって、
P(T>]t+s|T>s)= \frac{1-F(s+t)}{1-F(s)}=\frac{exp\left(-\int^{s+t}_{0} h(u)du\right)}{exp\left (-\int^{t}_{0} h(u)du\right)} \\=exp\left(-\int^{s+t}_{0} h(u)du+\int^{t}_{0} h(u)du\right)\\=exp\left(-\int^{s+t}_{t} h(u)du\right)

(2)

P(T>t)
は、

S\rightarrow0
とした時なので、
P(T>t)=exp\left\{\int^t_{0}h(u)du\right\}

今回、
h(t)
は常に正の傾き、もつので、すべてのtで
h(s+t)<h(t)
となり、
h(0)=0
より、常に正である。また、e^{-ax}は単調減少なのでしめされた。


3.14

この問題の気持ち

有名なワイブル分布上の問題を使った問題。

(1)

上の関係を用いて、
P(T>t)=1-F(t)=exp\left\{ -\int^{t}_{0}h(u)du\right\}
より、
exp\left\{ -\int^{t}_{0}h(u)du\right\} = exp\left\{- \left[ \left(\frac{u}{\beta}\right)^{\alpha}\right]^t_0\right\}\\=exp\left\{ -\left(\frac{t}{\beta}\right)^{\alpha}\right\}

F(t) = 1-exp\left\{ -\left(\frac{t}{\beta}\right)^{\alpha}\right\}

f(t) = \frac{dF(t)}{dt} = -\frac{d}{dt}\left(exp\left\{ -\left(\frac{t}{\beta}\right)^\alpha\right\}\right)\\

=\frac{\alpha}{\beta}\left(\frac{t}{\beta}\right)^{\alpha-1} exp\left\{ -\left(\frac{t}{\beta}\right)^\alpha\right\}

よって示された。

 

 ほかの演習問題の解答・解説はこちら。

 

yosuke-programing.hatenadiary.com