数理統計学 (著 稲垣宣生) 演習問題 解答

 この本の解答

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 ほかの演習問題の解答はこちら。

 

yosuke-programing.hatenadiary.com

 

 

6.1

この問題の気持ち

変数変換

(1)

F_x(X) = \int_{\in D_x}f_X(x)dx = \int_{\in D_y}f_X(e(-1/2y))\frac{dx}{dy}dy\= \int_{\in D_y}f_Y(y)dy
f_y(Y) = f_X(e(-1/2y))\frac{dx}{dy} = \frac{de(-1/2y)}{dy} = -\frac{1}{2}e(-1/2y)
よって示された。


6.2

この問題の気持ち

変数変換

密度関数

上と同様に、

f_y(Y) = f_X(Y^2)\frac{dx}{dy} = \frac{1}{\Gamma(n/2)2^{n/2}}y^{n-2}exp(-y^2/2)*2y\= \frac{1}{\Gamma(n/2)2^{n/2-1}}y^{n-1}exp(-y^2/2)

平均

E[Y] = \int^\infty_{-\infty}y\frac{1}{\Gamma(n/2)2^{n/2-1}}y^{n-1}exp(-y^2/2)dy
=\frac{1}{\Gamma(n/2)2^{n/2-1}}\int^\infty_{-\infty}y^{n}exp(-y^2/2)dy
=\frac{1}{\Gamma(n/2)2^{n/2-1}}\int^\infty_{-\infty}(2x)^{n/2}exp(-x)dy
=\frac{\Gamma(\frac{n+1}{2})}{\Gamma(n/2)}\sqrt{2}

分散

E[Y^2] = \int^\infty_{-\infty}y^2\frac{1}{\Gamma(n/2)2^{n/2-1}}y^{n-1}exp(-y^2/2)dy
=\frac{1}{\Gamma(n/2)2^{n/2-1}}\int^\infty_{-\infty}y^{n+1}exp(-y^2/2)dy
=\frac{1}{\Gamma(n/2)2^{n/2-1}}\int^\infty_{-\infty}(2x)^{(n+1)/2}exp(-x)dy
=2\frac{\Gamma(n/2+1)}{\Gamma(n/2)}
=n
V(Y) = n - 2\left(\frac{\Gamma(\frac{n+1}{2})}{\Gamma(n/2)}\right)^2

6.3

この問題の気持ち

変数変換

変数変換

F_{XY}(X,Y) = \int_{\in D_{XY}} f_{XY}(X, Y)dxdy
やこびあんを変な風に書いた。
= \int_{ \in D_{R\theta}} f_{XY}(Rcos\theta,Rsin\theta)\left|\frac{\partial[X, Y]}{\partial \boldsymbol{[R,\theta]}}\right|dRd\theta
= \int_{ \in D_{R\theta}} f_{R\theta}(R, \theta)dRd\theta
\frac{\partial X}{\partial R} = cos\theta
\frac{\partial Y}{\partial R} = sin\theta
\frac{\partial X}{\partial \theta} = -Rsin\theta
\frac{\partial Y}{\partial \theta} = Rcos\theta
\left|\frac{\partial[X, Y]}{\partial \boldsymbol{[R,\theta]}}\right| = R
上の6.2結果を用いて、レイリー分布はn=2より
f_{XY}(X, Y) = f_{R\theta}(R,\theta)\left|\frac{\partial \boldsymbol{[R,\theta]}}{\partial[X, Y]}\right|
= \frac{1}{2\pi}\frac{1}{\Gamma(n/2)2^{n/2-1}}R^{n-1}exp(-R^2/2)\frac{1}{R}
= \frac{1}{2\pi}exp(-R^2/2)= \frac{1}{2\pi}exp(-(X^2+Y^2)/2)
= \frac{1}{\sqrt{2\pi}}exp(-(X^2)/2)\frac{1}{\sqrt{2\pi}}exp(-(Y^2)/2)
独立でそれぞれ標準正規分布に従う。

6.4

この問題の気持ち

計算しよう

密度関数になるか

\frac{1}{\pi\sigma}\int \frac{1}{1+\left(\frac{x-\mu}{\sigma}\right)^2} dx=\frac{1}{\pi}\int^{\pi/2}_{-\pi/2}d\theta = 1
x=\sigma tan\theta + \mu
期待値の存在
E[X] = \frac{1}{\pi\sigma}\int \frac{x}{1+\left(\frac{x-\mu}{\sigma}\right)^2} dx=\frac{1}{\pi}\int^{\pi/2}_{-\pi/2}tan\theta d\theta
発散するので、存在しない

6.5

この問題の気持ち

変数変換

(1)

F_{ZY}(Z,Y) = \int f_{ZY}(z,y)dzdy = \int f_{ZY}(x/y,y)\frac{dz}{dx}dxdy
f_{ZY}(x/y,y) = f_{XY}(X,Y) \frac{dx}{dz} = \frac{1}{2\pi}exp\left(-\frac{x^2+y^2}{2}\right)y
f_z(z) = \int^\infty_{-\infty} \frac{1}{2\pi}exp\left(-\frac{(z^2+1)y^2}{2}\right)|y|dy
= \frac{1}{\pi(z^2+1)} \int ^\infty_0exp(-t)dt= \frac{1}{\pi(z^2+1)}


6.6

この問題の気持ち

なんか同じ問題続いている。考えなくても溶けそう。

(1)

6.4と同様の変換よりなることがわかる。

(\mu = 0, \sigma =1)

6.7

この問題の気持ち

同じことを繰り返す。\
最後の三角関数の変換が面戸い

(1)コーシィ分布

6.5を考えると、

f_{ZY}(x/y,y) = f_{XY}(X,Y) \frac{dx}{dz} = f_{XY}(X,Y)y
f_Z(Z)= \int_{-\infty}^{\infty} f_{XY}(zy,y)ydy
= \frac{1}{2\pi\sigma_1\sigma_2\sqrt{1-\rho^2}}\int_{-\infty}^{\infty} |y|exp\left[-\frac{y^2}{(1-\rho^2)}\left\{ \frac{z^2}{\sigma_1^2}-2\rho\frac{z}{\sigma_1\sigma_2}+\frac{1}{\sigma_2^2}\right\}\right]dy
= \frac{1}{\pi\sigma_1\sigma_2\sqrt{1-\rho^2}}\int_{0}^{\infty} yexp\left[-\frac{y^2}{(1-\rho^2)}\left\{ \frac{z^2}{\sigma_1^2}-2\rho\frac{z}{\sigma_1\sigma_2}+\frac{1}{\sigma_2^2}\right\}\right]dy
= \frac{1}{\pi\sigma_1\sigma_2\sqrt{1-\rho^2}}\int_{0}^{\infty} \frac{1}{2}\frac{(1-\rho^2)}{\left\{ \frac{z^2}{\sigma_1^2}-2\rho\frac{z}{\sigma_1\sigma_2}+\frac{1}{\sigma_2^2}\right\}}exp(-t)dy
= \frac{1}{\pi\sigma_1\sigma_2}\frac{1}{\frac{1}{\sqrt{1-\rho^2}}\frac{\sigma_2^2}{\sigma_1^2}\left\{ (z-\rho\frac{\sigma_1}{\sigma_2})^2+\frac{\sigma_1^2}{\sigma_2^2}(1-\rho^2)\right\}}
= \frac{1}{\pi\frac{\sigma_1\sqrt{1-\rho^2}}{\sigma_1}}\frac{1}{\left\{ \left(\frac{z-\rho\frac{\sigma_1}{\sigma_2}}{\frac{\sigma_1}{\sigma_2}(\sqrt{1-\rho^2})}\right)^2+1\right\}}
よって示された。


(2)

Z=\frac{X}{Y}Z=XYじゃないと思うが、
XY<0というのは、符号が異なりどちらもゼロでないということなので、Z<0と変わらない。
よって、
P(XY<0) = \frac{1}{\pi\frac{\sigma_1\sqrt{1-\rho^2}}{\sigma_1}}\int^0_{-\infty} \frac{1}{\left\{ \left(\frac{z-\rho\frac{\sigma_1}{\sigma_2}}{\frac{\sigma_1}{\sigma_2}(\sqrt{1-\rho^2})}\right)^2+1\right\}}dz
ここで、
\frac{z-\rho\frac{\sigma_1}{\sigma_2}}{\frac{\sigma_1}{\sigma_2}(\sqrt{1-\rho^2})} = tan\theta
dz= \frac{1}{cos^2\theta}\frac{\sigma_1}{\sigma_2}(\sqrt{1-\rho^2})d\theta
P(XY<0) = \frac{1}{\pi}\int^{arctan\frac{-\rho}{\sqrt{1-\rho^2}}}_{-\frac{\pi}{2}} d\theta = \frac{1}{\pi}\left(arctan\frac{-\rho}{\sqrt{1-\rho^2}}-\frac{\pi}{2}\right) = \frac{1}{\pi}arccot\frac{-\rho}{\sqrt{1-\rho^2}}
= \frac{1}{\pi}arccos\rho

ja.wikipedia.org

ここらへんが参考


6.8

この問題の気持ち

ひたすら変数変換。
ただ、ガンマ分布が重なってるのでベータ分布かなくらいのモチベーションがないと考えるのは大変かもしれない。

(1)変数変換

f_{ZX}(z,x) = f_{XY}(x,x(1-z)/z) \frac{dy}{dz} = f_{XY}(x,x(1-z)/z) \frac{-x}{z^2}
=\frac{1}{\Gamma(\alpha)\sigma^\alpha}x^{\alpha-1}exp(-x/\sigma)\frac{1}{\Gamma(\beta)\sigma^\beta}\left(\frac{x(1-z)}{z}\right)^{\beta-1}exp\left(-\frac{x(1-z)}{z\sigma}\right)\left(\frac{-x}{z^2}\right)
f_z(z) = -\frac{1}{\Gamma(\alpha)\sigma^\alpha}\frac{1}{\Gamma(\beta)\sigma^\beta}\left(\frac{1-z}{z}\right)^{\beta-1}\frac{1}{z^2}\int^\infty_{0}x^{\alpha+\beta-1}exp\left(-\frac{x}{z\sigma}\right)dx
= -\frac{1}{\Gamma(\alpha)\sigma^\alpha}\frac{1}{\Gamma(\beta)\sigma^\beta}\left(\frac{1-z}{z}\right)^{\beta-1}\left(\frac{1}{z^2}+1\right)(z\sigma)^{\alpha+\beta}\int^\infty_{0}t^{\alpha+\beta-1}exp(-t)dt
= \frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha)\Gamma(\beta)}z^{\alpha-1}\left(1-z\right)^{\beta-1} = \frac{1}{Beta(\alpha, \beta)}z^{\alpha-1}\left(1-z\right)^{\beta-1}

(2)

X = \frac{U}{1+T}, Y = \frac{UT}{1+T}
はじめに、ヤコビアンを求めると、
\frac{\partial X}{\partial T} =-\frac{U}{(1+T)^2}
\frac{\partial X}{\partial U} = \frac{1}{1+T}
\frac{\partial Y}{\partial T} = \frac{U}{(1+T)^2}
\frac{\partial Y}{\partial U} = \frac{T}{1+T}
J = \left|\frac{1}{X} + \frac{1}{X^2}\right| = \frac{1}{X} + \frac{1}{X^2}
最後の等号は、ガンマ分布の定義域より。
f_{UT}(u,t) = f_{XY}\left(\frac{u}{t+1},\frac{ut}{1+t}\right) J
=\frac{1}{\Gamma(\alpha)\sigma^\alpha}\left(\frac{u}{t+1}\right)^{\alpha-1}exp(-\frac{u}{t+1}/\sigma)\frac{1}{\Gamma(\beta)\sigma^\beta}\left(\frac{ut}{1+t}\right)^{\beta-1}exp\left(-\frac{ut}{1+t}/\sigma\right)\frac{U}{(1+T)^2}
今回分布をちゃんと求める必要がないので、以下を考える。
\left(\frac{u}{t+1}\right)^{\alpha-1}exp(-\frac{u}{t+1}/\sigma)\left(\frac{ut}{1+t}\right)^{\beta-1}exp\left(-\frac{ut}{1+t}/\sigma\right)\frac{U}{(1+T)^2}
=u^{\alpha + \beta-1}exp(-u/\sigma)\left(\frac{t}{1+t}\right)^{\beta-1}\left(\frac{1}{t+1}\right)^{\alpha+1}
=u^{\alpha + \beta-1}exp(-u/\sigma)\left(1-\frac{1}{1+t}\right)^{\beta-1}\left(\frac{1}{t+1}\right)^{\alpha+1}
これより、独立
U\sim Ga(\alpha+\beta, \sigma)
S = \frac{1}{1+t}
としたとき、
S\sim Be(\alpha, \beta)

 

6.9

この問題の気持ち

再生性を使おう!!

(1)

X,Yがカイ二乗分布に従うので、分布の再生性より、
X+Y\sim \chi^2_{n+m}
また、カイ二乗分布同士の商なので、
\frac{n+m}{m}Z\sim F^{m}_{n+m}
ということがわかる。
よって、
f\left(\frac{n+m}{m}z\right) = \frac{1}{Beta(\frac{n+m}{2},\frac{m}{2})}\left(\frac{m}{m+n}\right)^{\frac{m}{2}}\left(1+z\right)^{-\frac{m+n+m}{2}}\left(\frac{n+m}{m}Z\right)^{\frac{m}{2}-1}
=\frac{1}{B(\frac{n+m}{2},\frac{m}{2})}\left(1+z\right)^{-\frac{m+n+m}{2}}\left(z\right)^{\frac{m}{2}-1}\sim B\left(\frac{n+m}{2},\frac{m}{2}\right)

6.10

この問題の気持ち

再生性を使おう!!\
モチベーションとしては、指数分布はガンマ分布の特殊な形なので、ガンマ分布になるだろうなという気持ち。結果ならなかった。

(1)

X,Yが指数分布に従うので、分布の再生性より、
X+Y\sim Ex(2\lambda)
また、カイ二乗分布同士の商なので、
W = X+Y \sim Ex(2\lambda)
とすると、
f_{ZX}(z,x) = f_{XW}(x,w) \frac{dw}{dz} = -\frac{x}{z^2}f_{XW}(X,W)
f_{Z}(z) = \int^\infty_{0} -\frac{x}{z^2}f_{XW}(x,x/z) dx
= \int^\infty_{0} -\frac{x}{z^2}\lambda exp(-\lambda x)2\lambda exp(-2\lambda x/z) dx
= -\frac{2\lambda^2 }{z^2}\int^\infty_{0} xexp\left(-\lambda\left(1+\frac{2}{z}\right) x\right) dx
= -\frac{2}{\left(z+4\right)^2}\int^\infty_{0} texp\left(-t\right) dt
= -\frac{2}{\left(z+4\right)^2}\Gamma(2) = -\frac{4}{\left(z+4\right)^2}

6.11

この問題の気持ち

6.9の逆。

6.12

この問題の気持ち

6.11 より示された。

6.13

この問題の気持ち

よくあるやつナノで覚えていた方がいいもの。

標本平均 平均

E[\bar{X}] = E\left[\frac{1}{n}\sum_{i=1}^{n} X_i\right] =\frac{1}{n}\sum_{i=1}^{n}E\left[ X_i\right] = \mu

標本平均 分散

V(\bar{X}) = E\left[(\bar{X}-\mu)^2\right] = \frac{1}{n^2} = \frac{1}{n^2}\sum E\left[(X_i-\mu)^2\right] = \frac{\sigma^2}{n}

標本分散 平均

n\frac{S^2}{\sigma^2}\sim \chi^2_{n-1}
よって、
E[S^2] = \frac{n-1}{n}\sigma^2

標本分散 分散

V(S^2) = E[(S^2)^2] - (E[S^2])^2
E\left[\left(n\frac{S^2}{\sigma^2}\right)^2\right] = 2(n-1)^2+(n-1)^2 = 3(n-1)^2
E\left[(S^2)^2\right] = \frac{3(n-1)^2}{n^2}\sigma^4
V(S^2) =\frac{2(n-1)^2}{n^2}\sigma^4


標本分散 共分散

これについては大変なので、
定理6より独立なので、
Cov = 0


6.14

この問題の気持ち

わからなかったのと変数変換につかれたのでやめる。\
わかる人教えてください
わかる人教えてください。

  

 ほかの演習問題の解答はこちら。

 

yosuke-programing.hatenadiary.com

 

数理統計学 (著 稲垣宣生) 演習問題5 解答

 この本の解答

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 ほかの演習問題の解答はこちら。

 

yosuke-programing.hatenadiary.com

 

  

5.1

この問題の気持ち

計算しよう!

(1)

\int_{-\infty}^\infty F(x)dx = \int_{-\infty}^\infty \sum_{i=0}c_iF_i(x)dx \\=\sum_{i=0}c_i\int_{-\infty}^\infty F_i(x)dx\\=\sum_{i=0}c_i = 1
よって、分布関数
E[X]=\int_{-\infty}^\infty xF(x)dx = \int_{-\infty}^\infty x\sum_{i=0}c_iF_i(x)dx \\=\sum_{i=0}c_i\int_{-\infty}^\infty xF_i(x)dx\\=\sum_{i=0}c_i\mu_i


V(X)=\int_{-\infty}^\infty (x-\mu)^2F(x)dx = \int_{-\infty}^\infty (x-\mu)^2\sum_{i=0}c_iF_i(x)dx \\=\sum_{i=1}^nc_i\int_{-\infty}^\infty (x-\mu_i+\mu_i-\mu)^2F_i(x)dx\\=\sum_{i=1}^nc_i\int_{-\infty}^\infty \left\{(x-\mu_i)^2-2(\mu_i-x)(\mu_i-\mu)+(\mu_i-\mu)^2\right\}F_i(x)dx\\=\sum_{i=1}^nc_i\left(\sigma^2-2(\mu_i-\mu)^2+(\mu_i-\mu)^2\right)\\=\sum_{i=1}^nc_i\sigma^2+\sum_{i=1}^nc_i(\mu_i-\mu)^2

5.2

この問題の気持ち

順序分布は少し考えるの好きじゃないけど、極値統計とかはやってみたい。\
厳密ではないが、密度分布の求め方を三項から求めるのが個人的にわかりにくかったので、わかりやすく書いてみた。

 

yosuke-programing.hatenadiary.com

 

(1)

この本で、あるkの分布密度分布を考えるときに、ある値と、それ以下とそれ以上の3項分布を考えた。また、2つの統計量の同時分布を考えるときは5項分布に従うことを考えた。今回は以下のようになる。
| 事象 |\{X_1 = x\} | \{x\leq X_1 \leq y \} | \{X_n = y\} |
| ------------------------------------------------------------------------
| 確率 | f(x)           | F(y)-F(x)                    | f(y)             |
今回の選び方は、橋二つの選び方が{}_nC_2であり、真ん中の値がどういう値の順でもいいのので、三項定理的に書くと、
f(x,y) = \frac{n!}{1!(n-2)!1!}f(x)(F(y)-F(x))^{n-2}f(y)=n(n-1)(y-x)^{n-2}

(2)

平均

E[X_{n:1}] = \int_0^1xf_1(x)dx = \int_0^1n{}_{n-1}C_{1-1}xF(x)^{1-1}\left(1-F(x)\right)^{n-1}f(x)dx\\=\int_0^1nx\left(1-x\right)^{n-1}dx\\=n\left\{\int_0^1\left(1-x\right)^{n-1}dx-\int_0^1\left(1-x\right)^{n}dx\right\}\\=n\left\{\frac{1}{n}[(1-x)^n]^1_0 - \frac{1}{n+1}[(1-x)^{n+1}]^1_0\right\} = \frac{1}{n+1}
E[X_{n:1}^2] = \int_0^1x^2f_1(x)dx \\=\int_0^1nx^2\left(1-x\right)^{n-1}dx\\=n\left\{\int_0^1\left(1-x\right)^2\left(1-x\right)^{n-1}dx+2\int_0^1x\left(1-x\right)^{n-1}dx-\int_0^1\left(1-x\right)^{n-1}dx\right\}\\=n\left\{\frac{1}{n+2}[(1-x)^{n+2}]^1_0 +2\frac{1}{n(n+1)} - \frac{1}{n}[(1-x)^{n}]^1_0\right\}\\=\frac{2}{(n+1)(n+2)}
Var(X_{n:1})=E[X^2] -E[X]^2 = \frac{n}{(n+1)^2(n+2)}
E[X_{n:n}] = \int_0^1yf_1(y)dy = \int_0^1n{}_{n-1}C_{n-1}yF(y)^{n-1}\left(1-F(y)\right)^{n-n}f(y)dy\\=\int_0^1ny^{n}dy\\=n\frac{1}{n+1}[y^{n+1}]^1_0 = \frac{n}{n+1}
E[X_{n:n}^2] = \int_0^1y^2f_1(y)dy \\=\int_0^1ny^{n+1}dy\\=n\frac{1}{n+2}[y^{n+2}]^1_0 \\= \frac{n}{n+2}
V(X_{n:n})= \frac{n}{n+2} - (\frac{n}{n+1})^2 = \frac{n}{(n+1)^2(n+2)}
E[XY] = n(n-1)\int\int(y-x)^{n-2}dydx \\= n\int(1-x)^{n-1} - (-x)^{n-1}dx\\= \left( (1-x)^{n-1} - (-x)^{n-1}dx\right) = \frac{1}{n+2}
Corr(X,Y) = \left(\frac{1}{n+2} - \frac{n}{n+1}\frac{1}{n+1}\right) / \frac{n}{(n+1)^2(n+2)} = \frac{1}{n}

5.3

この問題の気持ち

なんだかややこしいことが書かれているが、YがNで条件付いていることがわかれば難しくはない。\
ポアソン分布、指数分布の性質は既知のものとします。この本の後ろの付録をみると載ってます。

積立母関数

M(t) = E^{N}[E^{Y|N}[e^{tY}]] = \sum_{n}\int_Y e^{tY}f(y,N) \ dy \\= \sum^N_{n = 0}\left(\prod\int_X e^{tX_i}f(X_i)dy\right)f_N(n) = \sum^N_{n = 0}\left(\prod\int_X e^{tX_i}f(X_i)dy\right)f_N(n)
ここで、
X\sim Ex(\mu), \ N\sim Po(\lambda)
より
M(t) = \sum^N_{n = 0}\frac{1}{(1-t/\mu)^n}f_N(n)\\=exp(-\lambda)\sum^N_{n = 0}\frac{1}{(1-t/\mu)^n}\frac{\lambda^n}{n!}\\=exp(-\lambda)\sum^N_{n=0}\frac{(\lambda / (1-t/ \mu))^n}{n!} \\= exp\left(\lambda (\frac{1}{(1-t/ \mu)} -1)\right)\\=exp\left(\frac{\lambda t}{\mu-t }\right)

期待値と分散

積立母関数から求める流れだが普通に求めた方が楽。
E^{N}[E^{Y|N}[Y]] = \sum_{n}\int_Y yf(y|N) \ dyf(N) \\= 1/\mu \sum^N_{n = 0}nf_N(n) \\=\frac{\lambda}{\mu}
二つ目=は分布の再生性より、X一つの平均のn倍になる。
E^{N}[E^{Y|N}[Y^2]] = \sum_{n}\int_Y y^2f(y|N) \ dyf(N) \\= 2/\mu^2 \sum^N_{n = 0}n^2f_N(n) \\=\frac{2\lambda(\lambda+1)}{\mu^2}
Var(Y) = \frac{2\lambda(\lambda+1)}{\mu^2} - \left(\frac{\lambda}{\mu}\right)^2\\=\frac{\lambda^2 + \lambda}{\mu^2}

5.4

この問題の気持ち
情報を分布に落とし込む問題\
二項分布

(1)

Aを支持する人をXとすると、
真の分布は、
X\sim B_N(100, 0.55)
となる。
P(X>50) = 1- F(50)\\= 1 - \sum_{i}^{50} {}_{100}C_i(0.55)^i(0.45)^{(100-i)}\\=0.865423786811947
計算機で計算しました。

(2)

X\sim B_N(100, 0.55)
となる。
P(X>n/2) = 1- F(n/2) \\= 1 - \sum_{i}^{50} {}_{n}C_i(0.55)^i(0.45)^{(n-i)}
計算機で計算しました。
|248                              |  249                            |250                              |
|:----:                            |:----:                             |:----:                            |
|0.9498998482587498 | 0.9433496707528424 | 0.9505260452283145 |
解答には、248と書いてあったのは、四捨五入しているからだと思います。

5.5

この問題の気持ち
確率過程。\
いつかちゃんと勉強したいな。\
今回は単純な問題。
平均置換数
E[B(t)] = E[W(t)-tW(1)] = 0
分散関数
V(B(t)) = E[(W(t)-tW(1))^2] = E[W(t)^2] - 2tE[W(t)]E[W(1)]+t^2E[W(1)^2]\\=t(1-t)
平均ゼロナノでV(W(t)) = E[W(t)^2]
共分散関数
Cov(B(t), B(s)) = E[(W(t)-tW(1))(W(s)-sW(1))] \\= E[W(t)]E[W(s)] - E[W(1)](tE[W(s)]+sE[W(t)])+tsE[W(1)^2] \\= min(s,t)+st

5.6

この問題の気持ち

計算問題

(1)

E[(Z_1cost\lambda + Z_2sint\lambda)(Z_1cos(t+s)\lambda + Z_2sin(t+s)\lambda)] \\= E[Z_1^2]cost\lambda cos(t+s)\lambda + E[Z_1]E[Z_2] (cost\lambda sin(t+s)\lambda +sint\lambda cos(t+s)\lambda ) + E[Z_2^2]cos(t+s)\lambda cost\lambda\\=\sigma^2(cost\lambda cos(t+s)\lambda + cos(t+s)\lambda cost\lambda) = \sigma^2 cos(t - (t+s)) = \sigma^2cos(s)

5.7

この問題の気持ち

指数分布とカイ二乗分布はガンマ分布の特殊な形と覚えておくと便利

(1)

P(\sum^{n-1}_{i=0}T_i < t)
を考えると、ガンマ分布の再生性より、
\sum^{n-1}_{i=0}T_i \sim G_A(n, \lambda/2)

5.8

この問題の気持ち

冷静に考えれば、ねずみこうのように指数関数で増えるのがわかる。こういう分かりに杭問題は、図でも書くとイメージはつきやすい。

(1)

E[Y_n] = E[XY_{n-1}] = \sum_{i=0}^\infty XY_{n-1}f(X) = \mu Y_{n-1}
よって、
E[Y_n] = \mu^N
E[Y_n^2] = E[X^2]E[Y_{n-1}^2] =(\sigma^2 + \mu^2)E[Y_{n-1}^2] =(\sigma^2 + \mu^2)^n
V(Y_n) = (\sigma^2 + \mu^2)^n - \mu^n

5.9

この問題の気持ち

こういう問題はすごく苦手。答えもないし、合ってるかもわからないから一応書くだけ。

(1)

limP(|X_n-a|>\delta) = lim(1 - (F(\delta+a) - F(\delta-a) )) \\=lim(1 - (G(\delta+a) - G(\delta-a) ))lim\\=P(|f(X_n)-f(a)|>\varepsilon)

5.10

この問題の気持ち

カイ二乗は、ノンパラメトリック手法などで出るので期待値は覚えとくといい感じ。
(1)
この場合自由度k-1カイ二乗分布にしたがうので、
E[\mathscr{X}^2] = k-1
V(\mathscr{X}^2) =2(k-1)

5.11

この問題の気持ち

順序統計量のような問題は、条件を見て考えよう。
(1)と(2)が逆な気がする。

(1)平均

はじめに
\ \{n<x\}
ならば、\
nことってきたときに、それが、あるx以下である確率に従うので、つまり
\ \{n<x\}\sim Bin(n, F(x))
ということがわかる。つまり
nF_n(x)\sim Bin(n, F(x))\cdots(2)の答え
この時に二項分布Bin(n, p)の時、
E[X] = np\\V(X) = np(1-p)
より、
E_{F_n}[x] = F(x)\\V(X) = F(x)(1-F(x))/n

5.12

この問題の気持ち

以下を参考にして

 

yosuke-programing.hatenadiary.com

(1)

f_i(x) = P(X_i = x)\ = f(x)\left(n{}_{n-1}C_{i-1}F(x)^{i-1}\{1-F(x)\}^{(n-1)-(i-1)}\right)\\= n{}_{n-1}C_{i-1}x^{i-1}\{1-x\}^{(n-1)-(i-1)}\ \propto x^{i-1}\{1-x\}^{(n-1)-(i-1)} \sim Beta(i, n-i-1)

5.12

この問題の気持ち

なんだか極限が出ると嫌な気持ちだが、最大値とあるので、順序統計量だということがわかる。極値統計学

(1)

以下を参考にして、

 

yosuke-programing.hatenadiary.com

 

P(X_i \leq x) = \sum_{r = i}^{n} {}_nC_rF(x)^r\{1-F( x)\}^{n-r}
最大値なので、i=nとして、
P(X_i \leq x) = F(x)^n
よって、
Y_n \sim F(x)^n
また、
Y_n/n \sim G(x)
G(x) = F(nx)^n
ここで対数をとると。
logG(x) = nlog(1-(1-F(nx) ) )\rightarrow -x^{-a}
ここの矢印のつながりが後ろの回答ではこうなっているが何でなるのかわからない。誤植かな。
G(x) = exp(-x^{-a})

 

 ほかの演習問題の解答はこちら。

 

yosuke-programing.hatenadiary.com

 

順序統計量について

順序統計量について

順序統計量数式だけだとわかりにくかったのと連続の分布から求めるより離散の分布の密度関数から求めた方が理解しやすかったので、画像付きで解説してみた。

 

密度関数


今回は具体例として、以下の分布をを考える。

f:id:ty070809390:20200525102258p:plain

distribution

たとえば、5回抽出するときの状況を考える。\
すると、
X_1,X_2\cdots X_5はその大きい順に決定されていく。
その時のそれぞれの確率
P(X_i = x)
を考える。

 

f:id:ty070809390:20200525102305p:plain


ここでは具体的にx = 7, i=3の場合について、つまり、抽出した中で3番に小さい値X_3が7以下になる確率を求める。
たとえば、以下の場合である

f:id:ty070809390:20200525102255p:plain


このことから、7以下に2つ7以上に3つあればいいことがわかる。この確率は、7以上が出る確率、7以上が出でない確率の二項分布になることがわかる。

P(X_3 = 7) = f(x = 7)(5{}_4C_2F(7)^2\{1-F(7)\}^{4-2})

先頭の5は、求めたい場所を移動させたときの個数。そのあとで、4つの場所を考えている。
これからを考えると

X_iの分布f_i(x)
f_i(x) = P(X_i = x) = f(x)\left(n{}_{n-1}C_{i-1}F(x)^{i-1}\{1-F(x)\}^{(n-1)-(i-1)}\right)\\=f(x)\left(i{}_{n}C_{i}F(x)^{i-1}\{1-F(x)\}^{(n-1)-(i-1)}\right)
連続の場合は、同じ形をとるが、分布関数の微分より求める。\

分布関数

P(X_3 < 7)
に関しては、シンプルに二項分布になり、7以下に抽出された点が2個以上になる確率となり、
P(X_3 \leq 7) = \sum_{r = 3}^{5} {}_5C_rF(7)^r\{1-F(7)\}^{5-r}


これからを考えると、
P(X_i \leq x) = \sum_{r = i}^{n} {}_nC_rF(x)^r\{1-F( x)\}^{n-r}

数理統計学 (著 稲垣宣生) 演習問題4 解答

 この本の解答

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 ほかの演習問題の解答はこちら。

 

yosuke-programing.hatenadiary.com

 

 

4.1

この問題の気持ち

順々に考えていかないと難しくなってしまう。わからないときは、累積分布を確率の基礎に立ち返って考えていくことが大切。

今回の問題は、\varepsilon, X, Y, Z
と複数の変数が出ているのでわかりにくいが、

コインと二つの袋(赤玉がそれぞれの確率で入っている)があり、
Zを赤玉が出る確率変数。X, Yがそれぞれの赤だまが出るものと考えると。
コインで表が出たらXの方の袋、裏ならばYの方の袋から抽出すると考えるとわかりやすい。

(1)


\varepsilon \sim Ber(p)
より、
\varepsilon \in (0,1)
コインを投げた後に、そのコインのでかたによって、
Zの確率変数は\varepsilonによって条件づけられているので、
P(Z<z) = P(\varepsilon X+(1-\varepsilon)Y<z|\varepsilon=1)P(\varepsilon=1)+P(\varepsilon X+(1-\varepsilon)Y<z|\varepsilon=0)P(\varepsilon=0)\\=P(X<z|\varepsilon=1)p+P(Y<z|\varepsilon=0)(1-p)

\\=P(X<z)p+P(Y<z)(1-p)

(\because (Y,\varepsilon),(X,\varepsilon) がそれぞれ独立 )

=F_X(z)p+F_{Y}(z)(1-p)

となる。

 

4.2

この問題の気持ち

ポアソン分布は、本に書いてある通り、再生性を持つので、ポアソン分布になることがわかる。こんな時は、積率母関数を使う

(1)

X\sim Po(\lambda)

\\E[e^{tX}]=e^{-\lambda}\sum^\infty_{x=0}e^{tx}\frac{\lambda^x}{x!}

\\=e^{-\lambda}\sum^\infty_{x=0}\frac{(e^t\lambda )^x}{x!}

\\=e^{e^t\lambda - \lambda} = e^{\lambda(e^t-1) }
今回の場合X,Y独立なので、

E[e^{t(X+Y)}]=E[e^{tX}]E[e^{tY}]=e^{\lambda_1(e^t-1) }e^{\lambda_2(e^t-1) }=e^{(\lambda_1+\lambda_2)(e^t-1) }

積率母関数と、分布の一対一対応より、
X+Y\sim Po( (\lambda+\mu ) )

(2)


P(X=r|X+Y = n) = \frac{P(X=r\cap X+Y=n)}{P(X+Y = n)}\\=\frac{e^{-\lambda}\frac{\lambda ^r}{r!}e^{-\mu}\frac{\mu ^{n-r}}{(n-r)!}}{e^{-(\lambda+\mu)}\frac{(\lambda+\mu )^n}{n!}}\\=\frac{n!}{r!(n-r)!}\frac{\lambda^r}{(\lambda+\mu)^{r}}\frac{\mu^{n-r}}{(\lambda+\mu)^{n-r}}

p = \frac{\lambda}{(\lambda+\mu)}
とすると、
P(X=r|X+Y = n)={}_nC_rp^r(1-p)^{n-r}

(3)

上の形を見ると、二項分布だということがわかる。二項分布の平均と分散より、
E^{X|X+Y =n}[X] = np
E^{X|X+Y =n}[X] = np(1-p)

 

4.3

この問題の気持ち

めんどくさい。うまい方法はあるかもしれない。。。が知識で押す。。\
計算で求められる方法教えてください。

(1)


はじめに
\mathscr{X}=\frac{(X-np)^2}{np}+\frac{(Y-nq)^2}{nq}+\frac{(Z-nr)^2}{nr}\\=\frac{X^2}{np}+\frac{Y^2}{nq}+\frac{Z^2}{nr}-n\\=\frac{X^2}{np}+\frac{Y^2}{nq}+\frac{Z^2}{nr}-n\\=X^2(\frac{1}{np}+\frac{1}{nr})+Y^2(\frac{1}{nq}+\frac{1}{nr})+2\frac{XY-nX+nY}{nr}+\frac{n}{r}-n
E[\mathscr{X}]=\sum_{x=0}^n\sum_{y=0}^{n-x}xy\mathscr{X}\\

となるここで、
\sum_{x=0}^n\sum_{y=0}^{n-x}x^3y=\sum_{x=0}^nx^3\frac{(n-x)(n-x+1)}{2}=\\ \cdots
という感じでゴリゴリ進めることもできるのかなぁ。
これは結構しんどいとおもう。5乗の和も計算しなければならない。。

なので知識で押す。(この問題にもそのページ数が書かれているので、悪くないかもしれない)
この統計量は、自由度n-1の\chi^2分布に従うことが知られている。なのでそれに従う。よって、
E[X] = 3-1 = 2\\V(X) = 2(3-1)=4

4.4

この問題の気持ち

計算しても図を考えても一様分布なので簡単。図のみを乗せとく

(1)(2)(3)

f:id:ty070809390:20200518094355p:plainf:id:ty070809390:20200518094358p:plainf:id:ty070809390:20200518094352p:plain

(1)白領域3/4

(2)緑領域

(3)オレンジ+緑中の緑領域 

4.5

この問題の気持ち

計算だけど、よく知られている分布を想像しつつ。
(1)なんかわガンマ分布だと気づけば計算しなくても簡単。

(1)

\int_{0}^\infty\int_{0}^\infty cx^3exp(-x(1+y))dxdy
ガンマ分布に近いことを考えると(一回積分して、$x^2$になることを考えると)
c = \frac{1}{\Gamma(3)} = \frac{1}{2}

(2)

xに関しては、すぐにガンマ分布であることがわかる。

f_1(x) = \frac{1}{2}x^2exp(-x)

yは計算すると

f_2(y) = \frac{1}{2}\int^{-\infty}_{0}cx^3exp(-x(1+y))dx
x(1+y)\rightarrow z\\
f_2(y) = \frac{1}{2}\frac{1}{(1+y)^4}\int^{\infty}_{0}z^3exp(-z)dz\\=f_2(y) = \frac{1}{2}\frac{1}{(1+y)^4}\Gamma(4) \\=\frac{1}{2}\frac{3!}{(1+y)^4}=\frac{3}{(1+y)^4}

(3)

E[X]=\frac{1}{2}\int^\infty_0 x^3 exp(-x)dx = \frac{1}{2}\Gamma(4)=3\\E[X^2]=\frac{1}{2}\Gamma(5) = 12\\Var(X) = 12 - 3^2 = 3

E[Y]=\int^\infty_0 \frac{3y}{(1+y)^4}dy \\= 3\left(\int^\infty_0 \frac{1+y}{(1+y)^4}dy - \int^\infty_0 \frac{1}{(1+y)^4}dy\right)\\=3(\frac{1}{2}-\frac{1}{3})=\frac{1}{2}
右の項は上の密度関数と近いことから、すぐにわかる。その流れで左もわかる
\int \frac{1}{(1+y)^n}dy = \frac{1}{n-1}

 

E[Y^2]= \int^\infty_0 \frac{3y^2}{(1+y)^4}dy \\= 3\left(\int^\infty_0 \frac{(1+y)^2}{(1+y)^4}dy - 2\int^\infty_0 \frac{y}{(1+y)^4}dy-\int^\infty_0 \frac{1}{(1+y)^4}dy\right)\\=3(1-\frac{1}{3}-\frac{1}{3})=1\\Var(Y)=\frac{3}{4}

E[XY] =\int\int xyf(x,y)dydx\\=\int\int yf(y|x)dy \ xf(x)dx\\=\int_{0}^\infty\int_{0}^\infty xyexp(-xy) \ dy\ \frac{1}{2}x^3exp(-x)dx\\=\int_{0}^\infty \frac{1}{2}x^2exp(-x)dx=1

よって、
Corr(X,Y) = \frac{Cov(X,Y)}{\sqrt{V(X)V(Y)}}\\=\frac{E[XY]-E[X]E[Y]}{\sqrt{V(X)V(Y)}}\\=\frac{1-3/2}{\sqrt{9/4}}=-\frac{1}{3}

 

4.6

この問題の気持ち

前問と同じ、ただの計算。\
形が似ているときは、その分布を意識して計算する。

(1)

f_x(x) = \frac{1}{\alpha\beta}exp\left(-x\left(\frac{1}{\alpha}-\frac{1}{\beta}\right)\right)\int^\infty_x exp\left(-\frac{y}{\beta}\right)dy\\ = \frac{1}{\alpha}exp\left(-\frac{x}{\alpha}\right)

f_y(y)=\frac{1}{\alpha\beta}exp\left(-\frac{y}{\beta}\right)\int^y_0 exp\left(-x\left(\frac{1}{\alpha}-\frac{1}{\beta}\right)\right)dy\\=\frac{1}{\beta-\alpha}\left\{exp\left(-\frac{y}{\beta}\right)-exp\left(-\frac{y}{\alpha}\right)\right\}

 

(2)

f(x,y)=f(y|x)f_x(x)
より、
f(x,y) = \frac{1}{\alpha}exp\left(-\frac{x}{\alpha}\right)* \frac{1}{\beta}exp\left(-\frac{y-x}{\beta}\right)
f(y|x)=\frac{1}{\beta}exp\left(-\frac{y-x}{\beta}\right)

(3)

f_xは指数分布なので、
E_X[X]=\alpha \\V_X(x)=\alpha^2

次に、f_yにかんして、計算する。\
指数分布を意識して、
たとえば、
g(x) = exp\left(-\frac{y}{\beta}\right)
の期待値(密度関数出ないので言いにくい)は、$\beta g(x)\frac{1}{\beta}$を考えると、\beta^2となることがわかる。
よって、
E_Y[Y]=\frac{\alpha^2+\beta^2}{\beta-\alpha}=\alpha+\beta
E_Y[Y^2]=\frac{2(\beta^3-\alpha^3)}{\beta-\alpha}=2(\beta^2+\alpha\beta+\alpha^2)\\Var(Y^2) = \beta^2+\alpha^2

E[XY] = \int_0^\infty\int_x^\infty yf(y|x) \ dy \ xf(x) \ dx\\=\int^\infty_0 (x+\beta)x\frac{1}{\alpha}exp\left(-\frac{x}{\alpha}\right)dx\\=\frac{1}{\alpha}\left(\int^\infty_0 x^2exp\left(-\frac{x}{\alpha}\right)+\beta x exp\left(-\frac{x}{\alpha}\right)dx\right)=2\alpha^2+\beta\alpha

Corr(X,Y)=\frac{E[XY]-E[X]E[Y]}{\sqrt{V(X)V(Y)}}=\frac{\alpha}{\sqrt{\alpha^2+\beta^2}}

.7

この問題の気持ち

確率分布をゆっくり考えよう。
よくわからない分布があるときは、原点にもどって、順をおってかんがえる。

(1)

何か知らのX,Yの発生確率により、p_x, p_yとなる。
P(Z<z)=p_xP(Z<z|Z=X, X<Y)+p_yP(Z<z|Z=Y, Y<X)
よって、
P(Z>z|Z=X, X<Y)= P(X<z, X<Y)\\= F_{XY}(X>z,X<Y)\\=\sum^\infty_{x=z}\sum^\infty_{y=x}p(1-p)^{x}q(1-q)^y\\=\sum^\infty_{x=z}p(1-p)^{x}q\left(\sum^\infty_{y=0}(1-q)^y - \sum^x_{y=0}(1-q)^y\right) \\=\sum^\infty_{x=z}p\left( (1-p)(1-q)\right)^x\\=\left( (1-p)(1-q)\right)^z
同様に、

P(Z>z|Z=Y, Y < X)=\left( (1-p)(1-q)\right)^z
等しいので、

P(Z>z)=\left( (1-p)(1-q)\right)^z

ここで、途中のqの合計の計算を考えると、幾何分の累積分布であることがわかる。よって、
f_z=Geo(1-\left( (1-p)(1-q)\right))
E[Z]=\frac{\left( (1-p)(1-q)\right)}{1-\left( (1-p)(1-q)\right)} \\V(Z)=\frac{\left( (1-p)(1-q)\right)}{(1-\left( (1-p)(1-q)\right))^2}

.8

この問題の気持ち

同時確率分布から、条件付き確率(YはXに条件づいてる)を思いつければ、できる。
ただ、ランダムにと書いてあるが、一様分布を仮定するのだろうが、そのランダムの在り方を分布と呼ぶ気がするので、なんだかきもちわるい。

(1)

f(x,y) = f(y|x)g(x) = \frac{1}{1-x}\frac{1}{1-0}=\frac{1}{1-x}

E[X] = \int^1_0\int^1_x xf(x,y)dxdy=1/2 \\E[X^2]= \int^1_0\int^1_x x^2f(x,y)dxdy=1/3\\Var(X) = 1/12

E[Y]= \int^1_0\int^1_x yf(x,y)dydx\\ =\int^1_0\frac{1}{1-x}\frac{1}{2}\left(1-x^2\right)dx\\=\frac{3}{4}\\E[Y^2]=\int^1_0\frac{1}{1-x}\frac{1}{3}\left(1-x^3\right)dx \\=\frac{1}{3}(1+1/2+1/3) =\frac{11}{18}\\Var(Y)=\frac{7}{144}

E[XY] = \int^1_0x\int^1_x yf(x,y)dydx=\frac{5}{12}

Corr(X,Y)=\frac{5/12 - 3/8}{\sqrt{1/12・76/144}}=\sqrt{\frac{3}{7}}

4.9

この問題の気持ち

前問と同様。

(1)

E[(Z-Y)] =\int^1_0 \int^x_0\int^1_x(z-y)f(y|x)f(z|x)f(x)dzdydx=\int^1_0\int^x_0\int^1_x(z-y)dzdy\frac{1}{1-x}\frac{1}{x}dx=\frac{1}{2}\\E[(Z-Y)^2]= \int^1_0 \int^x_0\int^1_x(z-y)^2dzdy\frac{1}{1-x}\frac{1}{x}dx=\frac{11}{36}\\V[(Z-Y)^2]=\frac{1}{18}

4.10

この問題の気持ち

(1)

X,Y\sim Geo(p)

P(Y>X)=\sum^\infty_{y=0}p^2(1-p)^{y}\sum^y_{x=0}(1-p)^{x}\\=p\sum^\infty_{y=0}(1-p)^{y}(1-(1-p)^y) = \frac{1-p}{2-p}

(2)

X,Y\sim Ex(\lambda)\\P(Y>X)=\lambda^2\int^\infty_{0}e^{-\lambda y}\int^y_{0}e^{-\lambda x}dxdy=\frac{1}{2}

4.11

この問題の気持ち

分散の線形性(?)をつかう。復習のため少し丁寧にやる。

(1)

V(Z) = V(wX+(1-w)Y)=E[(wX+(1-w)Y)^2] -E[(wX+(1-w)Y)]^2 \\=E[(wX)^2]-E[wX]^2 + E[(wY)^2]-E[wY]^2 +2w(1-w)(E[XY]-E[X]E[Y])\\=w^2\sigma_1^2+2w(1-w)\sigma_1\sigma_2\rho+(1-w)^2\sigma_2^2\\=(\sigma_1^2-2\sigma_1\sigma_2\rho+\sigma_2^2)w^2+2w(\sigma_1\sigma_2\rho-\sigma_2^2)+\sigma_2^2\\=(\sigma_1^2-2\sigma_1\sigma_2\rho+\sigma_2^2)\left(w+\frac{(\sigma_1\sigma_2\rho-\sigma_2^2)}{(\sigma_1^2-2\sigma_1\sigma_2\rho+\sigma_2^2)}\right)^2+\sigma_2^2 \frac{(\sigma_1\sigma_2\rho-\sigma_2^2)^2}{(\sigma_1^2-2\sigma_1\sigma_2\rho+\sigma_2^2)}
よって、
最小にするwは、
w = \frac{\sigma_2^2-\sigma_1\sigma_2\rho}{(\sigma_1^2-2\sigma_1\sigma_2\rho+\sigma_2^2)}

 

4.12

この問題の気持ち

Hello

(1)

E[T]=aE[X]+bE[Z]=0\\E[U]=cE[Y]+dE[Z]=0\\V(T)=a^2V(X)+b^2V(Z)=(a^2+b^2)\sigma^2\\V(U)=c^2V(Y)+d^2V(Z)=(c^2+d^2)\sigma^2\\Cov(T,U)=E[UT]=acE[XY]+bcE[YZ]+adE[XZ]+bdE[Z^2]\\=cdV(Z)=bd\sigma^2

(2)

P58を参考に上の結果を代入していく。

4.13 

この問題の気持ち

畳み込みの練習(ちょっとずるした。)

(1)

この本の書き方とは少し異なるが、こっちの方がわかりやすいので変数変換として考えるやり方としてやる。
Z = X+Y\\U = Y

J( (z,u)\rightarrow(x,y))=1

f(z, u) = f_{xy}(x,y)=f_x(z-u)f_y(u)\\=\frac{1}{\sqrt{2\pi}\sigma_y}exp\left(-\frac{(u-\mu_y)^2}{2\sigma_y^2}\right)\frac{1}{\sqrt{2\pi}\sigma_x}exp\left(-\frac{(z-u-\mu_x)^2}{2\sigma_x^2}\right)
よって

f_z(z)=\frac{1}{\sqrt{2\pi}\sigma_y}\frac{1}{\sqrt{2\pi}\sigma_x}I_u
畳み込み積分
I_u = \int^\infty_{-\infty} exp\left(-\frac{(u-\mu_y)^2}{2\sigma_y^2}\right)exp\left(-\frac{(z-u-\mu_x)^2}{2\sigma_x^2}\right)du\cdots

これを計算していく。大変なのでスキップ。 \
積率母関数でやると畳み込みの証明はもっと楽。
Mx(t) = E[e^{tX}] =\frac{1}{\sqrt{2\pi}\sigma_x}exp(t^2\sigma_x^2/2+\mu_xt)\int^\infty_{-\infty}exp\left(-\frac{(x^2-(\mu_x+t\sigma_x^2))^2}{2\sigma_x^2}\right)dx\\=exp(t^2\sigma_x^2/2+\mu_xt)
最後の積分は、ガウス分布を考えると計算しなくてもわかる。\
X,Y\sim\mathscr{N}(0,1)\\Z=X+Y\\M_z(t)=E[e^{tZ}]=E[e^{t(X+Y)}]=E[e^{tX}]E[e^{tY}]=exp(t^2\sigma_x^2/2+\mu_xt)exp(t^2\sigma_x^2/2+\mu_xt)\\=exp(t^2(\sigma_x^2+\sigma_y^2)/2+(\mu_x+\mu_y)t)\\ \mu_z = \mu_x+\mu_y\\ \sigma_z^2=\sigma_x^2+\sigma_y^2

よって、積率母関数と分布の一対一性より、示された。

4.14

この問題の気持ち

分布の再生性を用いる

(1)

E[X]=0.5*2+0.3*3=1.9\\V(X)=0.05^2*2+0.04^2*3=0.0098

4.15

この問題の気持ち

分布の再生性といっていいのかな、定数の掛け算の解き、上の積率母関数に影響しないことはわかるのでそのままできる。

(1)

T\sim\mathscr{N}(\mu,\sigma^2/2)\\U\sim\mathscr{N}(0,\sigma^2/2)
Cov(U,T)=E[UT]-E[U]E[T]=E[UT]
E[UT] = E[(X^2-Y^2)]/4=(E[X^2]-E[Y^2])/4=0
XとYは同じ分布なのでよって独立。

 

4.16

この問題の気持ち

とうとう最後になった。\ベータ分布とかガンマ分布はそれぞれ、ベータ関数・ガンマ関数に寄せていく。

(1)

f_1(x)=\frac{{}_nC_x}{B(\alpha,\beta)}\int_0^1\theta^{x+\alpha-1}(1-\theta)^{n-x+\beta-1} d\theta=\frac{{}_nC_xB(x+\alpha,n-x+\beta-1)}{B(\alpha,\beta)}

(2)

上のをつかって、ベイズの定理より、
\pi(\theta|x)=\frac{f(x|\theta)\pi({\theta})}{f(x)}

 

 

 

 ほかの演習問題の解答はこちら。

 

yosuke-programing.hatenadiary.com

 

数理統計学 (著 稲垣宣生) 演習問題3 解答

 この本の解答

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 ほかの演習問題の解答・解説はこちら。

 

yosuke-programing.hatenadiary.com

 

 

演習問題3

今回の章では、分布の紹介だったので、分布の特徴をとらえた問題分布を覚えていればできるかな。
個人的に検定を受けるつもりなので、有名な分布の期待値と分散くらいは覚えておきたい。

 

3.1

この問題の気持ち

特にない。超幾何分布。確率の問題っぽく条件求めているが、今回の場合見たらすぐわかる。その時になんでxが一個になるようにしたのだろう。

(1)


以下のような図になるので、超幾何分布ということがわかる。

X\sim HG(N;n,p)

f:id:ty070809390:20200426215830p:plain

また、Bが逆転勝利する条件は、

a - x < b - (n -x)
となることであるであるので、その確率。
また、xの取りうる値の最大はnなので、
\therefore n \geq x > \frac{a-b+n}{2}

P(x > \frac{a-b+n}{2} ) = \sum^{n}_{\frac{a-b+n}{2}+1}\frac{_xC_a *_{n-x}C_b }{_NC_n}

今回の場合は、かなり簡単になり、
P(x > \frac{a-b+n}{2} = 3 ) = \sum^{4}_{4}\frac{_xC_a *_{n-x}C_b }{_NC_n} = \frac{_{14}C_{4}}{_{30}C_{4}} = \frac{4*13}{29*27} \\= 0.06641123882503193

3.2

この問題の気持ち

結構シンプルな問題。分布の確認が多い。

(1)

少なくともなので、余事象をとって、1回以下しか打たないのを考える。(1)だけをかんがるなら、どっちでもあまり変わらないが、(2)を考えると、こっちの方が楽。
打つ回数をx, 確率をpとすると
x = 0\\P(X=0)=(1-p)^5\cdots (2)の答え\\x = 1\\P(X=1)={}_nC_1p(1-p)^{n-1}

よって、
P(x<2) = 1 - ((1-p)^n + np(1-p)^{n-1})
今回の場合
p=0.3\\n=5
より、
P(X<2)=0.4717800000000001

(2)

上に代入して、
P(X=0) = 0.16806999999999994

3.3

この問題の気持ち

今回も余事象を考える。

(1)

P(X>x) = 1 - P(X\leq x)
また、pが小さいことから、ポアソン分布を用いると、
P(X>x) = 1 - \sum^{x}_{k=0}\lambda^k\frac{e^{-\lambda}}{k!}

今回
p = 0.02\\ \lambda = np = 2

\therefore P(X>x) = 1 - \sum^{2}_{k=0}2^k\frac{e^{-2}}{k!} \\= 1-e^{-2}(1+2+2) \\= 0.3233235838169365

二項分布で求めた時とどのくらいの差があるのだろうか。

\therefore P(X>x) = 1 - \sum^{2}_{k=0} {}_{100}C_kp^k(1-p)^{(100-k)} \\=0.32331437764822224

まあまあ一緒。

3.4

この問題の気持ち

幾何分布

(1)

P(X=n) = p(1-p)^{(n-1)}

よって、

P(X=6) = 1/6(1-1/6)^{(6-1)} = 0.06697959533607684

(2)

P(X=n) = 1/6\sum^{n}_{i=1}(1-1/6)^{(i-1)} \geq \frac{1}{2}

となるnを求める。
\sum^{n}_{i=1}\left(\frac{5}{6}\right)^{(i-1)} \geq 3\\\frac{1-\left(\frac{5}{6}\right)^{n}}{1-\frac{5}{6}}\geq 3\\1-\left(\frac{5}{6}\right)^{n}\geq 1/2\\1/2\geq \left(\frac{5}{6}\right)^{n} \\\frac{log(1/2)}{log(5/6)}\leq n\\

(log(5/6)\leq 0なので不等号がひっくり返る)
\frac{log(1/2)}{log(5/6)} = 3.8017840169239308

よって、
3.8017840169239308 < 4 \leq n

3.5

平均

E[X] = \sum_{x = 1}^{\infty}x\frac{\theta^x}{A(\theta)x} \\=\frac{1}{A(\theta)}\sum_{x = 1}^{\infty}\theta^x\\=\frac{1}{A(\theta)}\frac{\theta}{1-\theta} (無限級数)

分散

E[X^2] = \sum_{x = 1}^{\infty}x^2\frac{\theta^x}{A(\theta)x} \\=\frac{1}{A(\theta)}\sum_{x = 1}^{\infty}x\theta^x\\

最後の級数

S(\theta) = \sum_{x = 1}^{\infty}x\theta^x
とおくと

[tex: S(\theta) \frac{\theta}{(1-\theta)^2}

 

証明は以下を参照してください。

 

yosuke-programing.hatenadiary.com

 

よって、
E[X^2]= \sum_{x = 1}^{\infty}x^2\frac{\theta^x}{A(\theta)x} \\=\frac{1}{A(\theta)}\sum_{x = 1}^{\infty}x\theta^x\\=\frac{1}{A(\theta)}\frac{\theta}{(1-\theta)^2}

Var(X) = \frac{1}{A(\theta)}\frac{\theta}{(1-\theta)^2} - \left(\frac{1}{A(\theta)}\frac{\theta}{1-\theta}\right)^2\\=\frac{A(\theta)\theta - \theta^2}{A(\theta)^2(1-\theta)^2}

確率母関数

P(t) =E[t^X] =\frac{A(t\theta)}{A(\theta)} \sum_{x=1}^{\infty}\frac{t^x\theta^x}{A(t\theta)}\\=\frac{A(t\theta)}{A(\theta)} \sum_{x=1}^{\infty}f(x|t\theta) = \frac{A(t\theta)}{A(\theta)}

3.6

この問題の気持ち
計算しなくてもわかる。ただ、わかりやすく画像を乗せとく。

(1)

0.75

f:id:ty070809390:20200426221530p:plain

(2)

0.6

f:id:ty070809390:20200426221533p:plain
(3)
1/3

f:id:ty070809390:20200426221527p:plain

3.7

この問題の気持ち

表を見る練習問題
基本的に、z変換してから後ろの票をみる。
もしくは、計算機に計算させる。今だとこっちの方が有効

(1)

P(X\leq 7 ) = P(Z\leq (7-5)/2 ) \\= P(0\leq Z\leq (7-5)/2 )+P(-\infty\leq Z\leq 0 )\\= 0.3413+0.5=0.8413
標準正規分布は左右対称なので、0以下はない。
0までの合計は、左右対称なので0.5。
ちなみにpythonでやると、
0.8413447460685429\
大体あっている。

(2)

これも後ろの票に近いものを探す。
今回は0.5を超えているので、引くと

6の時\\0.4773\\4の時\\0.3413

探すと、

\frac{6-\mu}{\sigma} = 2\\ \frac{4-\mu}{\sigma} = 1\\
ということがわかリこれを解くと、
\mu = \sigma = 2

 

3.8

この問題の気持ち

連続から離散と考えられなくもないとすると、
性質が似ている無記憶性がある、幾何分布になるのではないかと想像がつく。
のでその方針で行く。ガウス記号に慣れていないと大変かもしれない。

(1)

Y = [X]
とすると
P(Y=n) =f([X] = n)=f( [X] = n)=f( X-1\leq n< X)

\\=f( n\leq X < n+1) =\int^{n+1}_n f(X)dx

\\= [-e^{-\lambda x}]^{n+1}_n=e^{-\lambda n}(1-e^{-\lambda })

上述のとおり幾何分布ではないかということを意識すると、
e^{-\lambda} = (1-p)
とすると。
P(Y=n) =p(1-p)^n
Ge(e^{-\lambda})
となり、幾何分布である。

(2)期待値と分散

本に導出が全部乗っているので
E[X] = \frac{1-p}{p}\\Var(X) = \frac{1-p}{p^2}
となる。

3.9

この問題の気持ち

上とほとんどおなじ。ただ今回ロピタルの定理を用いて極限を求めているので、知らないと大変かもしれない。

(1)

\left[\frac{X}{d}\right] = k
とする。
P(Y=dk) =f(d\left[\frac{X}{d}\right] = dk)

=f( d\left[\frac{X}{d}\right] = dk)\\

=f( k\leq \frac{X}{d}< k+1)

=\int^{d(k+1)}_{dk} f(X)dx \\= [-e^{-\lambda x}]^{d(k+1)}_{dk}=e^{-\lambda dk}(1-e^{-\lambda d })

(2)期待値

E[dk] = d\sum^{\infty}_0 ke^{-\lambda dk}(1-e^{-\lambda d })\\=d(1-e^{-\lambda d })\sum^{\infty}_0e^{-\lambda d k}
上の問題3.5のS(\theta)\theta\rightarrow e^{-\lambda d }とすると、ロピタルの定理を用いて、
E[Y] =\frac{d}{(e^{\lambda d}-1)}\xrightarrow{d\rightarrow0}\frac{1}{\lambda}

(2)分散

E[Y^2]=E[(dk)^2] =d^2\sum^{\infty}_0 k^2e^{-\lambda dk}(1-e^{-\lambda d })\\=d^2(1-e^{-\lambda d })\sum^{\infty}_0 k^2e^{-\lambda dk}

ここで、
T(\theta) = \sum^\infty_{x=0}x^2\theta^x=\frac{\theta+\theta^2}{(1-\theta)^2}
をもちいる。

証明については以下

 

yosuke-programing.hatenadiary.com


\theta \rightarrow e^{-\lambda d}
とする。

E[Y^2]=d^2(1-e^{-\lambda d })\frac{e^{-\lambda d}(1+e^{-\lambda d})}{(1-e^{-\lambda d})^2}\\=d^2\frac{e^{-\lambda d}(1+e^{-\lambda d})}{(1-e^{-\lambda d})}=d^2\frac{(e^{\lambda d}+1)}{(e^{\lambda d}-1)}\\

Var(Y) =E[Y^2]-(E[Y])^2=d^2\frac{(e^{\lambda d}+1)}{(e^{\lambda d}-1)}-\left(\frac{d}{(e^{\lambda d}-1)}\right)^2\\=\frac{d^2 e^{\lambda d}}{e^{\lambda d} -1}

うえと 同様にロピタルの定理より
Var(Y)\xrightarrow{d\rightarrow 0}\frac{1}{\lambda^2}

 

 3.10

 この問題の気持ち

コンビネーションとベータ関数は密接につながっている。

また、そのことと、なんだか自明そうなものは、背理法もしくは帰納法でいけることが多い。
帰納法でやるときは、最終形態とnを使うことを意識する。
今回の最終形態はこれ
\frac{n!}{k!(n-(k-1) )!}\int^p_{0}x^{k-1}(1-x)^{n-(k-1)}dx
今回の場合帰納法で、積分帰納法が出てきたときは、部分積分をつかうことがおおい。今回の場合も同様。


 (1)

帰納法で示す。
k=1のとき
右辺は、
\sum^{n}_{r = 1}{}_nC_rp^r(1-p)^{n-r}\\=\sum^{n}_{r = 0}{}_nC_rp^r(1-p)^{n-r}-_nC_0p^0(1-p)^{n-0}\\=\sum^{n}_{r = 0}{}_nC_rp^r(1-p)^{n-r}-(1-p)^n=1-(1-p)^n\\
最後の変換は二項係数
左辺は、

\frac{1}{B(1,n)}\int^p_0(1-x)^{n-1}dx = \frac{\Gamma(n+1)}{\Gamma(n)\Gamma(1)}\int^p_0(1-x)^{n-1}dx

=n\left[-\frac{1}{n}(1-x)^n\right]^p_{0}=1-(1-p)^n

よって示された。

次にあるkの時に、成立するとする。

\sum^n_{k+1}{}_nC_rp^r(1-p)^{n-r}\\=\sum^n_{r=k}{}_nC_rp^r(1-p)^{n-r}-{}_nC_kp^k(1-p)^{n-k}


=\frac{1}{Beta(k,n-k+1)}\int^p_{0}x^{k-1}(1-x)^{n-k}dx-{}_nC_kp^k(1-p)^{n-k}

=\frac{\Gamma(n+1)}{\Gamma(k)\Gamma(n-k+1)}\left(\left[\frac{1}{k}x^k(1-x)^{n-k}\right]^{p}_{0}-\frac{n-k}{k}\int^p_{0}x^{k-1}(1-x)^{n-(k-1)}dx\right)-{}_nC_kp^k(1-p)^{n-k}

=\frac{n!}{(k-1)!(n-k)!k}p^k(1-p)^{n-k}-\frac{n!(n-k)}{(k-1)!(n-k)!k}\int^p_{0}x^{k-1}(1-x)^{n-(k-1)}dx-{}_nC_kp^k(1-p)^{n-k}

=\frac{n!}{k!(n-(k-1) )!}\int^p_{0}x^{k-1}(1-x)^{n-(k-1)}dx
=\frac{1}{Beta(k+1, n-k)}\int^p_{0}x^{k-1}(1-x)^{n-(k-1)}dx

よって示された。

 


3.11

この問題の気持ち

上の問題と同じ感じ。
帰納法で示す。
n+1を考えるときに、nの時のことと、n+1での最終的な形を意識して解いていく。
e^{-\lambda}\sum^\infty_{r=k+1}\frac{\lambda^r}{r!} =\frac{1}{\Gamma(k+1)}\int^\lambda_0x^{k}e^{-x}dx

(1)

k = 1の時、

e^{-\lambda}\sum^\infty_{r=1}\frac{\lambda^r}{r!} =\frac{1}{\Gamma(1)}\int^\lambda_0e^{-x}dx
e^{-\lambda}\left(\sum^\infty_{k=0}\frac{\lambda^r}{r!}-1\right) =\int^\lambda_0e^{-x}dx\\e^{-\lambda}\left(e^{\lambda}-1\right) =\int^\lambda_0e^{-x}dx

よって成立。\\

あるkの時、成立するとする。


e^{-\lambda}\sum^\infty_{r=k+1}\frac{\lambda^r}{r!} =e^{-\lambda}\left(\sum^\infty_{r=k}\frac{\lambda^r}{r!} -\frac{\lambda^k}{k!}\right)\\=\frac{1}{\Gamma(k)}\int^\lambda_0x^{k-1}e^{-x}dx-e^{-\lambda}\frac{\lambda^k}{k!}

=\frac{1}{\Gamma(k)}\left(\frac{1}{k}[x^ke^{-x}]^{\lambda}_{0}+\frac{1}{k}\int^\lambda_0x^{k}e^{-x}dx\right)-e^{-\lambda}\frac{\lambda^k}{k!}
=\frac{1}{\Gamma(k+1)}\left([x^ke^{-x}]^{\lambda}_{0}+\int^\lambda_0x^{k}e^{-x}dx\right)-e^{-\lambda}\frac{\lambda^k}{k!}
\Gamma(k+1)=k!
より、
e^{-\lambda}\sum^\infty_{r=k+1}\frac{\lambda^r}{r!}=\frac{1}{\Gamma(k+1)}\int^\lambda_0x^{k}e^{-x}dx
よってk+1でも成り立つことから示された。

3.12

 この問題の気持ち

変数変換の練習問題

(1)

積分布を大文字にすると

G(y) = P(Y\leq\alpha)=P(X\leq\log(\alpha) )\\=P(X\leq\alpha)=\int^\alpha_{0}f(x)dx\\=\int^{\infty}_0 f(e^y)\frac{dx}{dy}dy
\therefore g(y) = f(e^y)\frac{dx}{dy}

\frac{dx}{dy} = \frac{de^y}{dy}=e^y

\therefore g(y) = e^y\frac{1}{\sqrt{2\pi}\sigma}\frac{1}{e^y}exp(-\frac{(y-\mu^2)}{2\sigma^2})\\=\frac{1}{\sqrt{2\pi}\sigma}exp(-\frac{(y-\mu^2)}{2\sigma^2})
よって示された。

(2)

E[X] = \int^\infty_{0} xf(x)dx = \int^\infty_{0}\frac{1}{\sqrt{2\pi}\sigma}exp\left(-\frac{(log(x)-\mu)^2}{2\sigma^2}\right) dx \\=\frac{1}{\sqrt{2\pi}\sigma}\int^\infty_{-\infty} e^{y}exp\left(-\frac{(y-\mu)^2}{2\sigma^2}\right)dy

=\frac{1}{\sqrt{2\pi}\sigma}\int^\infty_{-\infty} exp\left(-\frac{y^2-2(\mu+\sigma^2)+\mu^2}{2\sigma^2}\right)dy
=\frac{1}{\sqrt{2\pi}\sigma}\int^\infty_{-\infty} exp\left(-\frac{(y-(\mu+\sigma^2) )^2-2\mu\sigma^2-\sigma^4}{2\sigma^2}\right)dy

=\frac{1}{\sqrt{2\pi}\sigma}exp(\mu+\sigma^2/2) )\int^\infty_{-\infty} exp\left(-\frac{(y-(\mu+2\sigma^2) )^2}{2\sigma^2}\right)dy

ガウス積分をつかって
=\frac{1}{\sqrt{2\pi}\sigma}exp(\mu+\sigma^2/2)\int^\infty_{-\infty} exp\left(-\frac{(y-(\mu+2\sigma^2) )^2}{2\sigma^2}\right)dy

=\frac{1}{\sqrt{2\pi}\sigma}exp(\mu+\sigma^2/2)\sqrt{2}\sigma\int^\infty_{-\infty} exp(-t^2)dy\\=\frac{1}{\sqrt{\pi}}exp(\mu+\sigma^2/2)\sqrt{\pi}\\=exp(\mu+\sigma^2/2)

(3)

E[X^2] = \int^\infty_{0} x^2f(x)dx = \int^\infty_{0}\frac{x}{\sqrt{2\pi}\sigma}exp\left(-\frac{(log(x)-\mu)^2}{2\sigma^2}\right) dx \\=\frac{1}{\sqrt{2\pi}\sigma}\int^\infty_{-\infty} e^{2y}exp\left(-\frac{(y-\mu)^2}{2\sigma^2}\right)dy

=\frac{1}{\sqrt{2\pi}\sigma}\int^\infty_{-\infty} exp\left(-\frac{y^2-2(\mu+2\sigma^2)+\mu^2}{2\sigma^2}\right)dy
=\frac{1}{\sqrt{2\pi}\sigma}\int^\infty_{-\infty} exp\left(-\frac{(y-(\mu+2\sigma^2) )^2-4\mu\sigma^2-4\sigma^4}{2\sigma^2}\right)dy

=\frac{1}{\sqrt{2\pi}\sigma}exp(2\mu+2\sigma^2) )\int^\infty_{-\infty} exp\left(-\frac{(y-(\mu+2\sigma^2) )^2}{2\sigma^2}\right)dy

あとは(1)と同様に、
E[X^2]=exp(2\mu+2\sigma^2)


よって、
Var(X) = exp(2\mu+2\sigma^2)-(exp(\mu+\sigma^2/2) )^2\\=exp(2\mu+2\sigma^2)-exp(2\mu+\sigma^2)=exp(2\mu+\sigma^2)(exp(\sigma^2)-1)

3.13

この問題の気持ち

故障率関数の練習問題

(1)

P(T>t+s|T>s)=\frac{\int^{\infty}_{s+t}f(t)dt}{\int^{\infty}_{s}f(t)dt} = \frac{1-F(s+t)}{1-F(s)}

[tex:h(u)=\frac{f(u)}{S(u)}=\frac{f(u)}{1-F(u)}=-\frac{d}{du}log(1-F(u) )\\
\therefore 1-F(u) = exp\left(\int^u_{0} -h(u)du\right)]

よって、
P(T>]t+s|T>s)= \frac{1-F(s+t)}{1-F(s)}=\frac{exp\left(-\int^{s+t}_{0} h(u)du\right)}{exp\left (-\int^{t}_{0} h(u)du\right)} \\=exp\left(-\int^{s+t}_{0} h(u)du+\int^{t}_{0} h(u)du\right)\\=exp\left(-\int^{s+t}_{t} h(u)du\right)

(2)

P(T>t)
は、

S\rightarrow0
とした時なので、
P(T>t)=exp\left\{\int^t_{0}h(u)du\right\}

今回、
h(t)
は常に正の傾き、もつので、すべてのtで
h(s+t)<h(t)
となり、
h(0)=0
より、常に正である。また、e^{-ax}は単調減少なのでしめされた。


3.14

この問題の気持ち

有名なワイブル分布上の問題を使った問題。

(1)

上の関係を用いて、
P(T>t)=1-F(t)=exp\left\{ -\int^{t}_{0}h(u)du\right\}
より、
exp\left\{ -\int^{t}_{0}h(u)du\right\} = exp\left\{- \left[ \left(\frac{u}{\beta}\right)^{\alpha}\right]^t_0\right\}\\=exp\left\{ -\left(\frac{t}{\beta}\right)^{\alpha}\right\}

F(t) = 1-exp\left\{ -\left(\frac{t}{\beta}\right)^{\alpha}\right\}

f(t) = \frac{dF(t)}{dt} = -\frac{d}{dt}\left(exp\left\{ -\left(\frac{t}{\beta}\right)^\alpha\right\}\right)\\

=\frac{\alpha}{\beta}\left(\frac{t}{\beta}\right)^{\alpha-1} exp\left\{ -\left(\frac{t}{\beta}\right)^\alpha\right\}

よって示された。

 

 ほかの演習問題の解答・解説はこちら。

 

yosuke-programing.hatenadiary.com

 

等比数列の応用 \sum ra^r \sum r^2 a^r の導出

 この本の解答と解説を書いています。厳密さを追求しきれてはいないです。

 

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 ほかの演習問題の解答・解説はこちら。

yosuke-programing.hatenadiary.com

 

無限級数の和について

今回は、上の本の解答を作成している際によく出てきて、自分でもパットでなかったので導出してみた。
S(\theta) = \sum_{x = 1}^\infty x\theta^{x} \\T(\theta) = \sum_{x = 1}^\infty x^2\theta^{x}

 

 

この二つについて、求めたいと思う。

普通の解法

1乗の無限和

\begin{array}{rr} S(\theta) =\theta + 2\theta^2 + 3\theta^3 \cdots \\ \\-) \theta S(\theta) =\theta^2 + 2\theta^3 + 3\theta^4 \cdots \\ \hline S(\theta)(1-\theta) = \theta + \theta^2 + \theta^3 \cdots\\\end{array}

よって、
S(\theta) =\frac{1}{1-\theta}\sum^\infty_{x=1}\theta^x = \frac{\theta}{(1-\theta)^2}

2乗の無限和

\begin{array}{rr}T(\theta) =\theta + 2^2\theta^2 + 3^2\theta^3 \cdots \\-) \theta T(\theta) =\theta^2 + 2^2\theta^3 + 3^2\theta^4 \cdots \\\hline\end{array}
T(\theta)(1-\theta) = \theta + (2-1)(2+1)\theta^2 + (3-2)(3+2)\theta^3 \cdots\\

T(\theta)(1-\theta) = \theta + 3\theta^2 + 5\theta^3 \cdots
よって、

T(\theta) = \frac{1}{(1-\theta)}\sum^\infty_{k=1}(2k-1)\theta^k\\

=\frac{1}{(1-\theta)}\left(2\sum^\infty_{k=1} k\theta^k -\sum^\infty_{k=1}\theta^k\right) 

=\frac{1}{(1-\theta)}\left(2 S(\theta) - \frac{\theta}{1-\theta} \right)\\

=\frac{1}{(1-\theta)}\left(2 \frac{\theta}{(1-\theta)^2} - \frac{\theta}{1-\theta}\right)=\frac{\theta+\theta^2}{(1-\theta)^3}

 


微分を用いた解法

1乗の無限和

S(\theta) = \sum_{x = 1}^{\infty}x\theta^x=\theta\sum_{x = 1}^{\infty}x\theta^{(x-1)}=\theta(\sum_{x = 1}^{\infty}\frac{d \theta^{x}}{d\theta})

\\= \theta\left(d\sum_{x = 1}^{\infty}\theta^{x}\right) / \left(d \theta\right) = \theta \frac{d (\theta / 1-\theta)}{d\theta} = \frac{\theta}{(1-\theta)^2}

2乗の無限和

T(\theta) = \sum_{x = 1}^{\infty}x^2\theta^{x} \\= \sum_{x = 1}^{\infty}x(x-1)\theta^{x}+\sum_{x = 1}^{\infty}x\theta^{x}\\=\theta^2\sum_{x = 1}^{\infty}x(x-1)\theta^{x-2}+S(\theta)\\=\theta^2\sum_{x = 1}^{\infty}\frac{d^2\theta^{x}}{d\theta^2}+S(\theta)\\=\theta^2\frac{d}{d\theta}\frac{1}{\theta}\left(\theta\frac{d}{d\theta}\sum_{x =1}^{\infty}\theta^{x}\right)+S(\theta)\\=\theta^2\frac{dS(\theta)/\theta}{d\theta}+S(\theta)\\=\frac{2\theta^2}{(1-\theta)^3} + \frac{\theta}{(1-\theta)^2}\\=\frac{\theta+\theta^2}{(1-\theta)^3}

 

 ほかの演習問題の解答・解説はこちら。

 

yosuke-programing.hatenadiary.com

 

数理統計学 (著 稲垣宣生) 演習問題2 解答

 この本の演習問題の解答を作成。

 

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 ほかの演習問題の解答はこちら

 

yosuke-programing.hatenadiary.com

 

全体的なコメント

2.14(2)ができなかった、、できた人教えてください。

他は、できたけど厳密さはわかりません。あと最後の方の解答が雑な気がします。ただ、答えはあっていたので、大丈夫かなと思います。

2.1

問題の気持ち

この問題はひたすら計算するだけ、ただ、(1)のような問題は、ベータ分布なので、このような有名なものは、分布と期待値、分散を覚えていてもいいんじゃないかと思う。

また、(1)(2)の期待値分散は二つの方法で計算した。

cについては、確率密度関数なので、
\int f(x) = 1

となるようにcを求める。


(1)

これは、ベータ分布なので、
c = 1 / Beta(5, 4)
とわかる。
有名なのでこれは、これで終わり。

E[X]=\int^1_0 \frac{x}{Beta(\alpha,\beta)}x^{\alpha-1}(1-x)^{\beta-1} \\= \frac{1}{Beta(\alpha,\beta)}\int^1_0 x^{\alpha}(1-x)^{\beta-1} = \frac{Beta(\alpha+1,\beta)}{Beta(\alpha,\beta)} \\=\left.\frac{\Gamma({\alpha+1})\Gamma({\beta})}{\Gamma({\alpha+\beta+1})} \middle / \frac{\Gamma({\alpha})\Gamma({\beta})}{\Gamma({\alpha+\beta})}\right.\\=\frac{\alpha}{\alpha+\beta}


\Gamma({\alpha}) = (\alpha - 1)\Gamma(\alpha-1)
を用いた。

Var(X) = E[X^2] - E[X]^2
をもちいる。
E[X^2]=\int^1_0\frac{x^2}{Beta(\alpha,\beta)}x^{\alpha-1}(1-x)^{\beta-1} \\= \frac{1}{Beta(\alpha,\beta)}\int^1_0 x^{\alpha+1}(1-x)^{\beta-1}= \frac{Beta(\alpha+1,\beta)}{Beta(\alpha,\beta)} \\=\left.\frac{\Gamma({\alpha+2})\Gamma({\beta})}{\Gamma({\alpha+\beta+2})} \middle / \frac{\Gamma({\alpha})\Gamma({\beta})}{\Gamma({\alpha+\beta})}\right.\\=\frac{(\alpha+1)\alpha}{(\alpha+\beta+1)(\alpha+\beta)}
Var(X) = \frac{(\alpha+1)\alpha}{(\alpha+\beta+1)(\alpha+\beta)} - \left(\frac{\alpha}{\alpha+\beta}\right)^2 = \frac{\alpha\beta}{(\alpha+\beta+1)(\alpha+\beta)^2}

ちなみに、積立母関数は、すこし複雑なので、そこから求めない。
積率母関数の求め方は以下を見てください

 

 

yosuke-programing.hatenadiary.com

 

(2)

\int^\infty_{-\infty} ce^{-2|x-3|}dx = \int^\infty_{-\infty} ce^{-2|x|}dx\\= 2\int^\infty_{0} ce^{-2x}dx \\= 2[-1/2ce^{-2x}]^{\infty}_{0}=c=1
\therefore c = 1

1. そのまま求める方法

E[X] = \int^\infty_{-\infty} xe^{-2|x-3|}dx \\= \int^\infty_{-\infty} (x+3)e^{-2|x|}dx\\= \int^\infty_{0} (x+3)e^{-2x}dx+\int^0_{-\infty} (x+3)e^{2x}dx \\= \int^\infty_{0} (x+3)e^{-2x}dx+\int^\infty_{0} (-x+3)e^{-2x}dx \\=\int^\infty_{0} 6e^{-2x}dx=6[-1/2e^{-2x}]^\infty_0 = 3

Var(X)=E[(X-3)^2] = \int^\infty_{-\infty} (x-3)^2e^{-2|x-3|}dx = \int^\infty_{-\infty} x^2e^{-2|x|}dx\\= 2\int^\infty_{0} x^2e^{-2x}dx\\= 2\left[[-1/2x^2e^{-2x}]+1/2\int2xe^{-2x}\right]= \int2xe^{-2x}dx \\= 2\left[[-1/2xe^{-2x}]+1/2\int^\infty_0e^{-2x}dx\right]\\=\int^\infty_0e^{-2x}dx=[-1/2e^{-2x}]^\infty_0 = 1/2


2. 積率母関数を用いる方法

Mx(t) = E[e^{tX}] = \int^\infty_{-\infty} e^{tx-2|x-3|}dx =\\=\int^\infty_{3}e^{(t-2)x+6}dx+\int^3_{-\infty} e^{(t+2)x-6}dx

ここから

\\=\left[\frac{1}{t-2}e^{(t-2)x+6}\right]^\infty_3+\left[\frac{1}{t+2}e^{(t+2)x-6}\right]^3_{-\infty}(|t|\leq2) 

\\=\frac{-4}{t^2-4}e^{3t}
途中のtの範囲は、積率母関数が存在するための範囲

E[X]=\frac{d Mx(t)}{dt}|_{t=0} = -4\left(\frac{-2t}{(t^2-4)^2}e^{3t}+\frac{3}{t^2-4}e^{3t}\right) =\left.-4\frac{3t^2-2t-12}{(t^2-4)^2}e^{3t} \middle |_{t=0} \right. = 3

E[X^2]=\frac{d^2 Mx(t)}{dt^2}|_{t=0} = -4\left(\frac{(6t-2)(t^2-4)^2-4t(t^2-4)(3t^2-2t-12) }{(t^2-4)^4}e^{3t}+3\frac{3t^2-2t-12}{(t^2-4)^2}e^{3t}\right)|_{t=0}\\= -4\left(\frac{(6t-2)(t^2-4)-4t(3t^2-2t-12) }{(t^2-4)^3}e^{3t}+\frac{9t^2-6t-36}{(t^2-4)^2}e^{3t}\right)|_{t=0}=-4\frac{f(t)+8+144}{(t^2-4)^3} = -4\frac{f(t)+152}{(t^2-4)^3}|_{t=0} = \frac{38}{4}

最後のところは、t=0を入れるので、tが含まれる項は計算する必要がないので、分子のtがかかっていない項のみを計算した。

Var(X) = E[X^2]-(E[X])^2 = \frac{38}{4}-9 = 1/2

2.2

問題の気持ち

なんだかよくわからない問題
基本的に
\sigma^2 = E[X^2]-(E[X])^2\\E[X^2] = \sigma^2+\mu^2
を使う。

したの方を後の問題で少し使う。

(1)

E[X(X-1)] = \sigma^2+\mu^2-\mu

(2)

E[X(X+5)]=\sigma^2+\mu^2+5\mu

2.3

問題の気持ち

大学受験のによくある問題
最小値をもとめる。

解答

\frac{dM_1(a)}{da} = \frac{dE[|x-a|]}{da}=\left.d\left (\int^\infty_a(x-a)f(x)dx+\int^a_{-\infty}(a-x)f(x)dx\right)\middle/da\right.\\=\left. d\left([G(x)-aF(x)]^\infty_a+[aF(x)-G(x)]_{-\infty}^a\right)\middle / da\right.\\=\left. \left( (G(\infty)-aF(\infty)-(G(a)-aF(a))+aF(a)-G(a)-(aF(-\infty)-G(-\infty))\right)\middle / da\right. \\=-F(\infty)-af(a)+F(a)+af(a)+af(a)+F(a)-af(a)-F(-\infty)=-1+2F(a)

期待値が存在することより
G(x)=\int xf(x)dx\\F(x)=\int f(x)dx\\F(\infty)=1\\F(-\infty) = 0
をもちいた。
よって極値は、

\frac{dM_1(a)}{da} = 0
なので、
F(a)=1/2\\ \therefore a = m

になる。
また、F(x)が単調増加なので、
\frac{dM_1(a)}{da}=-1+2F(a)
の時、a=mを超えると、正になることがわかる。よって、最小値になることがわかる。

 

2.4

問題の気持ち

最小値を求める問題

2.3に似てるけどこっちの方がやりやすい。

解答

\frac{dM_2(a)}{da} = \frac{dE[(x-a)^2]}{da}=\frac{d(E[X^2]-2aE[X]+E[a]^2)}{da}\\=\frac{d(E[X^2]-2aE[X]+a^2)}{da}\\=-2E[X]+2a
よって、\frac{dM_2(a)}{da}は、E[X]=a極値をとる。
aを大きくしていくと制になることから、

E[X]=a
で最小値をとることがわかる。

2.5

問題の気持ち

まず、密度関数とは、

\int^\infty_{-\infty} f(x)dx=1

となればよい。この確認のような問題。

解答

\int^\infty_{-\infty} f(x)dx=\int^\infty_{-\infty}1/n\sum_{i=0}^n f_i(x)dx=1/n\sum_{i=0}^n\int^\infty_{-\infty} f_i(x)dx=1/n\sum_{i=0}^n 1=1
よって、しめされた。

 

期待値

\mu=E[X]=\int^\infty_{-\infty} xf(x)dx\\=\int^\infty_{-\infty}x/n\sum_{i=0}^n f_i(x)dx=1/n\sum_{i=0}^n\int^\infty_{-\infty}x f_i(x)dx=1/n\sum_{i=0}^n \mu_i

分散

E[(X-\mu_i)^2] = E[X^2]-(E[X])^2 = \frac{1}{n}\int^\infty_{-\infty}x^2\sum^n_{i=1}f_i(x) - \mu^2 \\=\frac{1}{n} \sum^n_{i=1}\int^\infty_{-\infty}x^2f_i(x) - \mu^2 = \frac{1}{n}\sum^n_{i=1}E_{f_i}[X^2] - \mu^2\\=\frac{1}{n}(\sum^n_{i=1}\sigma^2_i+\mu^2_i) - \mu^2

これで終わりでいいが、巻末の答えに合わせに行く。

\frac{1}{n}(\sum^n_{i=1}\sigma^2_i+\mu^2_i) - \mu^2 = \frac{1}{n}\sum^n_{i=1}\sigma^2_i+\frac{1}{n}\sum^n_{i=1}\mu^2_i -2\mu^2 + \mu^2 \\= \frac{1}{n}\sum^n_{i=1}\sigma^2_i+\frac{1}{n}\sum^n_{i=1}\mu^2_i -2\mu\frac{1}{n}\sum^n_{i=1}\mu_i + \mu^2\\=\frac{1}{n}\sum^n_{i=1}\sigma^2_i+\frac{1}{n}(\sum^n_{i=1}\mu^2_i -2\mu\sum^n_{i=1}\mu_i + n\mu^2)\\=\frac{1}{n}\sum^n_{i=1}\sigma^2_i+\frac{1}{n}\sum^n_{i=1}(\mu^2_i -2\mu\mu_i + \mu^2)\\=\frac{1}{n}\sum^n_{i=1}\sigma^2_i+\frac{1}{n}\sum^n_{i=1}(\mu_i -\mu)^2

2.6

問題の気持ち

f(x) = \frac{d F(x)}{d x}
を用いる。

シンプルな微分方程式

\frac{d F(x)}{d x} = \lambda F(x)(1-F(x))\\ \frac{1}{F(x)(1-F(x))}d F(x) = \lambda dx\\ \int\frac{1}{F(x)(1-F(x))}d F(x) = \int\lambda dx\\ \int\frac{1}{F(x)}+\frac{1}{(1-F(x))} dF(x) = \int\lambda dx\\log(F(x))-log(1-F(x)) = \lambda x +C \ (C:積分定数)\\F(x) / 1 - F(x)= \lambda x + C\\F(x) = \frac{e^{\lambda x + C}}{1+e^{\lambda x + C}}\\ \therefore f(x)= \frac{d F(x)}{d x} = \frac{\lambda e^{\lambda x + C}}{(1+e^{\lambda x + C})^2}

途中の積分で、 int~dF(x)となってるのがなれないが、y = F(x)と考えると自然。

2.7

問題の気持ち

y軸対象とは、
f(x) = f(-x)

これがわかると計算するだけ。

(1)

y軸対象とは、
f(x) = f(-x)
よって、
f(x) : \frac{\lambda e^{\lambda x + C}}{(1+e^{\lambda x + C})^2}= \frac{\lambda e^{-\lambda x + C}}{(1+e^{-\lambda x + C})^2}\\
分子母にe^{2(\lambda x+C)}をかけると
f(x) : \frac{\lambda e^{\lambda x + C}}{(1+e^{\lambda x + C})^2}= \frac{\lambda e^{\lambda x + 3C}}{(1+e^{\lambda x + C})^2}\\
よって、分子のCを比較すると、
C = 0ということがわかる。

よって、このとき
F(x) = \frac{e^{\lambda x }}{1+e^{\lambda x }}

(2)

この中で、 \geq \leqにイコール入ってるけど、実際は入っていません。

はてなブログで><をこの記法で、書けませんでした。

G(x)=\frac{P( (X\geq -x)\cap(X\leq x))}{P(X\leq x) } = \frac{F(x) - F(-x)}{F(x)}=\frac{e^{\lambda x }+e^{-\lambda x }}{1+e^{\lambda x}}= 1 - e^{-\lambda x}

(3)

今回も二つの方法で求める。
ちなみにこの分布は指数分布
まずは、密度関数を求める。
g(x) = \frac{d G(x)}{dx} = -\lambda e^{-\lambda x }

普通に求める

E[X] = -\lambda\int^\infty_0 xe^{-\lambda x}dx =-\lambda \left[[-\frac{1}{\lambda} xe^{-\lambda x}]^\infty_0 +\frac{1}{\lambda} \int e^{-\lambda x}dx \right]\\=- \left[\int e^{-\lambda x}dx \right]\\=-\frac{1}{\lambda} [e^{-\lambda x}]^\infty_0 = \frac{1}{\lambda}

Var(X) = E[X^2] - E[X]^2 \\E[X^2] = -\lambda\int^\infty_0 x^2e^{-\lambda x}dx =-\lambda \left[[-\frac{1}{\lambda} x^2e^{-\lambda x}]^\infty_0 +\frac{2}{\lambda} \int xe^{-\lambda x}dx \right]\\=-2\int xe^{-\lambda x}dx = -2(-E[X] / \lambda)= \frac{2}{\lambda^2}

Var(X) = \frac{2}{\lambda^2} -\frac{1}{\lambda^2} = \frac{1}{\lambda^2}

積率母関数を用いる

Mx(t) =E[e^{tX}] = -\lambda\int^\infty_0 e^{(t-\lambda) x}dx =[\frac{1}{(t-\lambda)}e^{(t-\lambda)x}]^\infty_0 (t \leq \lambda) = -\frac{\lambda}{(t-\lambda)}
\frac{dMx(t)}{dt} = \lambda(\frac{1}{t-\lambda})^2\\E[X] = \frac{dMx(0)}{dt} = \frac{1}{\lambda})\\ \frac{d^2Mx(t)}{dt^2} = -2\lambda(\frac{1}{t-\lambda})^3\\E[X^2] = \frac{d^2Mx(0)}{dt^2} = \frac{2}{\lambda^2}

あとは同じ

2.8

問題の気持ち

確率母関数のはなし。

ただ、P(t)のような関数を設定する理由がわからなかった。

(1)(2)は、A'A''の形に合わせに行くことを意識する。
今回の問題はただの計算。 

(1)

P(t) = E[t^y]=\sum^\infty_{x = 0}\frac{t^y\theta^yf(y)}{A(\theta)}=\frac{\sum^\infty_{x = 0}(t\theta)^yf(y)}{A(\theta)}= \frac{A(t\theta)}{A(\theta)}

(2)

形を合わせに行く感じ

A(\theta) = \sum_{i=0}^\infty\theta^xf(x)\\ \frac{dA}{d\theta}=\sum_{i=0}^\infty x\theta^{x-1}f(x)\\ \frac{d^2A}{d\theta^2}=\sum_{i=0}^\infty x(x-1)\theta^{x-2}f(x)
E[Y] = \sum_{i=0}^\infty y\frac{\theta^yf(y)}{A(\theta)}=\theta\frac{A'(\theta)}{A(\theta)}

E[Y^2] = \sum_{i=0}^\infty y^2\frac{\theta^yf(y)}{A(\theta)}=\sum_{i=0}^\infty y(y-1)\frac{\theta^yf(y)}{A(\theta)}+\sum_{i=0}^\infty y\frac{\theta^yf(y)}{A(\theta)}=\theta^2\frac{A''(\theta)}{A(\theta)}+\theta\frac{A'(\theta)}{A(\theta)}
Var(Y)=E[Y^2]-E[Y]^2=\theta^2\frac{A''(\theta)}{A(\theta)}+\theta\frac{A'(\theta)}{A(\theta)}-\left(\theta\frac{A'(\theta)}{A(\theta)}\right)^2

(3)

微分するだけするだけなので省略。

 

2.9

問題の気持ち

2.8と大体同じ

(1)

M(t)=\int_{-\infty}^{\infty}\frac{e^{ty}e^{\theta y}f(y)}{A(\theta)}dy=\frac{\int_{-\infty}^{\infty}e^{(t+\theta )y}f(y)dy}{A(\theta)}=\frac{A(t\theta)}{A(\theta)}
A(\theta) = \int_{-\infty}^{\infty}e^{\theta x}f(x)dx\\ \frac{dA(\theta)}{d\theta} = \int_{-\infty}^{\infty}x e^{\theta x}f(x)dx\\ \frac{d^2A(\theta)}{d\theta^2} = \int_{-\infty}^{\infty}x^2 e^{\theta x}f(x)dx

(2)

E[Y] = \int_{-\infty}^{\infty} y\frac{e^{\theta y}f(y)}{A(\theta)}dy = \frac{A'(\theta)}{A(\theta)}\\E[Y^2] = \int_{-\infty}^{\infty} y^2\frac{e^{\theta y}f(y)}{A(\theta)}dy = \frac{A''(\theta)}{A(\theta)}\\Var(y) = \frac{A''(\theta)}{A(\theta)} - \left(\frac{A'(\theta)}{A(\theta)} \right)^2

(3)

計算するだけ。

2.10

問題の気持ち

 少し難しい問題。次の問題もほとんど同じ感じの問題。

①の変換が難所な気がする。②はわかりにくいが画像を見るとわかりやすい。

①の変換は、 P(X\geq x) = 1 - P(X\leq x) を考えて、下の右の画像をイメージして変換していく。逆算のイメージ

 

E[X] =\sum^\infty_{x=1}xf(x)=\sum^\infty_{x=1}\sum^x_{y=1}f(x)\cdots ①

E[X] =\sum^\infty_{x=1}\sum^x_{y=1}f(x)=\sum^\infty_{y=1}\sum^\infty_{x=y}f(x) \cdots ②

\\E[X] =\sum^\infty_{y=1}1- F(y)=\sum^\infty_{y=1}P(Y \geq y)=\sum^\infty_{x=1}P(X \geq x)

よって示された。

 



最後のところの、yからxへの変換は、計算の結果ナノでできる。

2.11

問題の気持ち


ほとんど、2.11と同じ。
E[X] = \int^\infty_{x}xf(x)dx=\int^\infty_{0}\int^x_{0}f(x)dydx\\

E[X] = \int^\infty_{0}xf(x)dx= \int^\infty_{0}\int^x_{0}f(x)dydx\\=\int^\infty_{0}\int^\infty_{y}f(x)dxdy =\int^\infty_{0}1- F(y)dy\\=\int^\infty_{y=0}P(Y \geq y)dy =\int^\infty_{x=0}P(X \geq x)dx

2.12

問題の気持ち

上の2問を考えつつ合わせていく感じ。ただ、積分範囲の交換のところは、上の問題ことなって、正と負を分けて考えないといけない。

 

E[X^2] = \int^\infty_{-\infty}x^2f(x)dx\\=\int^\infty_{0}\int^{x}_{0}2yf(x)dydx+\int^0_{-\infty}\int^{0}_{x}2yf(x)dydx\\= \int^\infty_{0}\int^{\infty}_{y}2yf(x)dxdy+\int^0_{-\infty}\int^{y}_{-\infty}2yf(x)dxdy\\=\int^\infty_{0}2y(1-F(y))dy+\int^0_{-\infty}2yF(y)dy\\(y\rightarrow -z)\\=\int^\infty_{0}2y(1-F(y))dy+\int^0_{\infty}2(-z)F(-z)(-dz)\\=\int^\infty_{0}2y(1-F(y))dy+\int^{\infty}_{0}2zF(-z)dz \\= \int^\infty_{0}2y\left(1-F(y)+F(-y)\right)dy
よって示された。

2.13

問題の気持ち

上の問題が意識できれば簡単。

 

2.12を用いる。
条件より、
E[X] = E[Y] = \mu

V(X) = E[X^2] - \mu^2\\V(Y) = E[Y^2] - \mu^2
よって、E[X^2]とE[Y^2]の比較だけで、分散の大小が決まる。
また、2.12の変換により、示された。

2.14

問題の気持ち

(2)に府が落ちないし、わからない。


(1)

n回目に偶数の場合($a_n$)n+1回目に偶数になるためには、裏になる必要があるので、1-p
n回目に奇数の場合($1-a_n$)n+1回目に偶数になるためには、表になる必要があるので、p
よって、
[tex:a_{n+1} = a_n(1-p) + (1-a_n)p = a_n(1-2p)+p:

(2)

わからなかった、、わかる人教えてください。\\
ただ、a_nの一般項はもっと普通の方法で出る(3)。
Q(t) = \sum^{\infty}_{n=1}a_nt^n \\= \sum^{\infty}_{n=1}( a_{n-1}(1-2p)+p)t^n\\= (1-2p)\sum^{\infty}_{n=1}a_{n-1}t^n+\sum^{\infty}_{n=1}pt^n\\= (1-2p)t\sum^{\infty}_{n=1}a_{n-1}t^{n-1}+\sum^{\infty}_{n=1}pt^n\\
0が偶数なので
a_0 = 1
Q(t)= (1-2p)t\sum^{\infty}_{n=1}a_{n-1}t^{n-1}+\sum^{\infty}_{n=1}pt^n\\=(1-2p)t\left(Q(t)+1\right) +\sum^{\infty}_{n=1}pt^n
(1- (1-2p)t) Q(t) = (1-2p)t +\sum^{\infty}_{n=1}pt^n\\Q(t) = \frac{(1-2p)t +\sum^{\infty}_{n=1}pt^n}{(1- (1-2p)t) }

とわなるのかな。。

 

(3)

a_{n+1} = a_n(1-2p)+p

特性方程式を解いて、

\\a_{n+1}-1/2 = (1-2p)(a_n-1/2)\\ \therefore a_n = \frac{1}{2}((1-2p)^n+1)

 

 

 

 ほかの演習問題の解答はこちら 

yosuke-programing.hatenadiary.com