数理統計学 (著 稲垣宣生) 演習問題3 解答

 この本の解答

数理統計学 (数学シリーズ)

数理統計学 (数学シリーズ)

 

 ほかの演習問題の解答・解説はこちら。

 

yosuke-programing.hatenadiary.com

 

 

演習問題3

今回の章では、分布の紹介だったので、分布の特徴をとらえた問題分布を覚えていればできるかな。
個人的に検定を受けるつもりなので、有名な分布の期待値と分散くらいは覚えておきたい。

 

3.1

この問題の気持ち

特にない。超幾何分布。確率の問題っぽく条件求めているが、今回の場合見たらすぐわかる。その時になんでxが一個になるようにしたのだろう。

(1)


以下のような図になるので、超幾何分布ということがわかる。

X\sim HG(N;n,p)

f:id:ty070809390:20200426215830p:plain

また、Bが逆転勝利する条件は、

a - x < b - (n -x)
となることであるであるので、その確率。
また、xの取りうる値の最大はnなので、
\therefore n \geq x > \frac{a-b+n}{2}

P(x > \frac{a-b+n}{2} ) = \sum^{n}_{\frac{a-b+n}{2}+1}\frac{_xC_a *_{n-x}C_b }{_NC_n}

今回の場合は、かなり簡単になり、
P(x > \frac{a-b+n}{2} = 3 ) = \sum^{4}_{4}\frac{_xC_a *_{n-x}C_b }{_NC_n} = \frac{_{14}C_{4}}{_{30}C_{4}} = \frac{4*13}{29*27} \\= 0.06641123882503193

3.2

この問題の気持ち

結構シンプルな問題。分布の確認が多い。

(1)

少なくともなので、余事象をとって、1回以下しか打たないのを考える。(1)だけをかんがるなら、どっちでもあまり変わらないが、(2)を考えると、こっちの方が楽。
打つ回数をx, 確率をpとすると
x = 0\\P(X=0)=(1-p)^5\cdots (2)の答え\\x = 1\\P(X=1)={}_nC_1p(1-p)^{n-1}

よって、
P(x<2) = 1 - ((1-p)^n + np(1-p)^{n-1})
今回の場合
p=0.3\\n=5
より、
P(X<2)=0.4717800000000001

(2)

上に代入して、
P(X=0) = 0.16806999999999994

3.3

この問題の気持ち

今回も余事象を考える。

(1)

P(X>x) = 1 - P(X\leq x)
また、pが小さいことから、ポアソン分布を用いると、
P(X>x) = 1 - \sum^{x}_{k=0}\lambda^k\frac{e^{-\lambda}}{k!}

今回
p = 0.02\\ \lambda = np = 2

\therefore P(X>x) = 1 - \sum^{2}_{k=0}2^k\frac{e^{-2}}{k!} \\= 1-e^{-2}(1+2+2) \\= 0.3233235838169365

二項分布で求めた時とどのくらいの差があるのだろうか。

\therefore P(X>x) = 1 - \sum^{2}_{k=0} {}_{100}C_kp^k(1-p)^{(100-k)} \\=0.32331437764822224

まあまあ一緒。

3.4

この問題の気持ち

幾何分布

(1)

P(X=n) = p(1-p)^{(n-1)}

よって、

P(X=6) = 1/6(1-1/6)^{(6-1)} = 0.06697959533607684

(2)

P(X=n) = 1/6\sum^{n}_{i=1}(1-1/6)^{(i-1)} \geq \frac{1}{2}

となるnを求める。
\sum^{n}_{i=1}\left(\frac{5}{6}\right)^{(i-1)} \geq 3\\\frac{1-\left(\frac{5}{6}\right)^{n}}{1-\frac{5}{6}}\geq 3\\1-\left(\frac{5}{6}\right)^{n}\geq 1/2\\1/2\geq \left(\frac{5}{6}\right)^{n} \\\frac{log(1/2)}{log(5/6)}\leq n\\

(log(5/6)\leq 0なので不等号がひっくり返る)
\frac{log(1/2)}{log(5/6)} = 3.8017840169239308

よって、
3.8017840169239308 < 4 \leq n

3.5

平均

E[X] = \sum_{x = 1}^{\infty}x\frac{\theta^x}{A(\theta)x} \\=\frac{1}{A(\theta)}\sum_{x = 1}^{\infty}\theta^x\\=\frac{1}{A(\theta)}\frac{\theta}{1-\theta} (無限級数)

分散

E[X^2] = \sum_{x = 1}^{\infty}x^2\frac{\theta^x}{A(\theta)x} \\=\frac{1}{A(\theta)}\sum_{x = 1}^{\infty}x\theta^x\\

最後の級数

S(\theta) = \sum_{x = 1}^{\infty}x\theta^x
とおくと

[tex: S(\theta) \frac{\theta}{(1-\theta)^2}

 

証明は以下を参照してください。

 

yosuke-programing.hatenadiary.com

 

よって、
E[X^2]= \sum_{x = 1}^{\infty}x^2\frac{\theta^x}{A(\theta)x} \\=\frac{1}{A(\theta)}\sum_{x = 1}^{\infty}x\theta^x\\=\frac{1}{A(\theta)}\frac{\theta}{(1-\theta)^2}

Var(X) = \frac{1}{A(\theta)}\frac{\theta}{(1-\theta)^2} - \left(\frac{1}{A(\theta)}\frac{\theta}{1-\theta}\right)^2\\=\frac{A(\theta)\theta - \theta^2}{A(\theta)^2(1-\theta)^2}

確率母関数

P(t) =E[t^X] =\frac{A(t\theta)}{A(\theta)} \sum_{x=1}^{\infty}\frac{t^x\theta^x}{A(t\theta)}\\=\frac{A(t\theta)}{A(\theta)} \sum_{x=1}^{\infty}f(x|t\theta) = \frac{A(t\theta)}{A(\theta)}

3.6

この問題の気持ち
計算しなくてもわかる。ただ、わかりやすく画像を乗せとく。

(1)

0.75

f:id:ty070809390:20200426221530p:plain

(2)

0.6

f:id:ty070809390:20200426221533p:plain
(3)
1/3

f:id:ty070809390:20200426221527p:plain

3.7

この問題の気持ち

表を見る練習問題
基本的に、z変換してから後ろの票をみる。
もしくは、計算機に計算させる。今だとこっちの方が有効

(1)

P(X\leq 7 ) = P(Z\leq (7-5)/2 ) \\= P(0\leq Z\leq (7-5)/2 )+P(-\infty\leq Z\leq 0 )\\= 0.3413+0.5=0.8413
標準正規分布は左右対称なので、0以下はない。
0までの合計は、左右対称なので0.5。
ちなみにpythonでやると、
0.8413447460685429\
大体あっている。

(2)

これも後ろの票に近いものを探す。
今回は0.5を超えているので、引くと

6の時\\0.4773\\4の時\\0.3413

探すと、

\frac{6-\mu}{\sigma} = 2\\ \frac{4-\mu}{\sigma} = 1\\
ということがわかリこれを解くと、
\mu = \sigma = 2

 

3.8

この問題の気持ち

連続から離散と考えられなくもないとすると、
性質が似ている無記憶性がある、幾何分布になるのではないかと想像がつく。
のでその方針で行く。ガウス記号に慣れていないと大変かもしれない。

(1)

Y = [X]
とすると
P(Y=n) =f([X] = n)=f( [X] = n)=f( X-1\leq n< X)

\\=f( n\leq X < n+1) =\int^{n+1}_n f(X)dx

\\= [-e^{-\lambda x}]^{n+1}_n=e^{-\lambda n}(1-e^{-\lambda })

上述のとおり幾何分布ではないかということを意識すると、
e^{-\lambda} = (1-p)
とすると。
P(Y=n) =p(1-p)^n
Ge(e^{-\lambda})
となり、幾何分布である。

(2)期待値と分散

本に導出が全部乗っているので
E[X] = \frac{1-p}{p}\\Var(X) = \frac{1-p}{p^2}
となる。

3.9

この問題の気持ち

上とほとんどおなじ。ただ今回ロピタルの定理を用いて極限を求めているので、知らないと大変かもしれない。

(1)

\left[\frac{X}{d}\right] = k
とする。
P(Y=dk) =f(d\left[\frac{X}{d}\right] = dk)

=f( d\left[\frac{X}{d}\right] = dk)\\

=f( k\leq \frac{X}{d}< k+1)

=\int^{d(k+1)}_{dk} f(X)dx \\= [-e^{-\lambda x}]^{d(k+1)}_{dk}=e^{-\lambda dk}(1-e^{-\lambda d })

(2)期待値

E[dk] = d\sum^{\infty}_0 ke^{-\lambda dk}(1-e^{-\lambda d })\\=d(1-e^{-\lambda d })\sum^{\infty}_0e^{-\lambda d k}
上の問題3.5のS(\theta)\theta\rightarrow e^{-\lambda d }とすると、ロピタルの定理を用いて、
E[Y] =\frac{d}{(e^{\lambda d}-1)}\xrightarrow{d\rightarrow0}\frac{1}{\lambda}

(2)分散

E[Y^2]=E[(dk)^2] =d^2\sum^{\infty}_0 k^2e^{-\lambda dk}(1-e^{-\lambda d })\\=d^2(1-e^{-\lambda d })\sum^{\infty}_0 k^2e^{-\lambda dk}

ここで、
T(\theta) = \sum^\infty_{x=0}x^2\theta^x=\frac{\theta+\theta^2}{(1-\theta)^2}
をもちいる。

証明については以下

 

yosuke-programing.hatenadiary.com


\theta \rightarrow e^{-\lambda d}
とする。

E[Y^2]=d^2(1-e^{-\lambda d })\frac{e^{-\lambda d}(1+e^{-\lambda d})}{(1-e^{-\lambda d})^2}\\=d^2\frac{e^{-\lambda d}(1+e^{-\lambda d})}{(1-e^{-\lambda d})}=d^2\frac{(e^{\lambda d}+1)}{(e^{\lambda d}-1)}\\

Var(Y) =E[Y^2]-(E[Y])^2=d^2\frac{(e^{\lambda d}+1)}{(e^{\lambda d}-1)}-\left(\frac{d}{(e^{\lambda d}-1)}\right)^2\\=\frac{d^2 e^{\lambda d}}{e^{\lambda d} -1}

うえと 同様にロピタルの定理より
Var(Y)\xrightarrow{d\rightarrow 0}\frac{1}{\lambda^2}

 

 3.10

 この問題の気持ち

コンビネーションとベータ関数は密接につながっている。

また、そのことと、なんだか自明そうなものは、背理法もしくは帰納法でいけることが多い。
帰納法でやるときは、最終形態とnを使うことを意識する。
今回の最終形態はこれ
\frac{n!}{k!(n-(k-1) )!}\int^p_{0}x^{k-1}(1-x)^{n-(k-1)}dx
今回の場合帰納法で、積分帰納法が出てきたときは、部分積分をつかうことがおおい。今回の場合も同様。


 (1)

帰納法で示す。
k=1のとき
右辺は、
\sum^{n}_{r = 1}{}_nC_rp^r(1-p)^{n-r}\\=\sum^{n}_{r = 0}{}_nC_rp^r(1-p)^{n-r}-_nC_0p^0(1-p)^{n-0}\\=\sum^{n}_{r = 0}{}_nC_rp^r(1-p)^{n-r}-(1-p)^n=1-(1-p)^n\\
最後の変換は二項係数
左辺は、

\frac{1}{B(1,n)}\int^p_0(1-x)^{n-1}dx = \frac{\Gamma(n+1)}{\Gamma(n)\Gamma(1)}\int^p_0(1-x)^{n-1}dx

=n\left[-\frac{1}{n}(1-x)^n\right]^p_{0}=1-(1-p)^n

よって示された。

次にあるkの時に、成立するとする。

\sum^n_{k+1}{}_nC_rp^r(1-p)^{n-r}\\=\sum^n_{r=k}{}_nC_rp^r(1-p)^{n-r}-{}_nC_kp^k(1-p)^{n-k}


=\frac{1}{Beta(k,n-k+1)}\int^p_{0}x^{k-1}(1-x)^{n-k}dx-{}_nC_kp^k(1-p)^{n-k}

=\frac{\Gamma(n+1)}{\Gamma(k)\Gamma(n-k+1)}\left(\left[\frac{1}{k}x^k(1-x)^{n-k}\right]^{p}_{0}-\frac{n-k}{k}\int^p_{0}x^{k-1}(1-x)^{n-(k-1)}dx\right)-{}_nC_kp^k(1-p)^{n-k}

=\frac{n!}{(k-1)!(n-k)!k}p^k(1-p)^{n-k}-\frac{n!(n-k)}{(k-1)!(n-k)!k}\int^p_{0}x^{k-1}(1-x)^{n-(k-1)}dx-{}_nC_kp^k(1-p)^{n-k}

=\frac{n!}{k!(n-(k-1) )!}\int^p_{0}x^{k-1}(1-x)^{n-(k-1)}dx
=\frac{1}{Beta(k+1, n-k)}\int^p_{0}x^{k-1}(1-x)^{n-(k-1)}dx

よって示された。

 


3.11

この問題の気持ち

上の問題と同じ感じ。
帰納法で示す。
n+1を考えるときに、nの時のことと、n+1での最終的な形を意識して解いていく。
e^{-\lambda}\sum^\infty_{r=k+1}\frac{\lambda^r}{r!} =\frac{1}{\Gamma(k+1)}\int^\lambda_0x^{k}e^{-x}dx

(1)

k = 1の時、

e^{-\lambda}\sum^\infty_{r=1}\frac{\lambda^r}{r!} =\frac{1}{\Gamma(1)}\int^\lambda_0e^{-x}dx
e^{-\lambda}\left(\sum^\infty_{k=0}\frac{\lambda^r}{r!}-1\right) =\int^\lambda_0e^{-x}dx\\e^{-\lambda}\left(e^{\lambda}-1\right) =\int^\lambda_0e^{-x}dx

よって成立。\\

あるkの時、成立するとする。


e^{-\lambda}\sum^\infty_{r=k+1}\frac{\lambda^r}{r!} =e^{-\lambda}\left(\sum^\infty_{r=k}\frac{\lambda^r}{r!} -\frac{\lambda^k}{k!}\right)\\=\frac{1}{\Gamma(k)}\int^\lambda_0x^{k-1}e^{-x}dx-e^{-\lambda}\frac{\lambda^k}{k!}

=\frac{1}{\Gamma(k)}\left(\frac{1}{k}[x^ke^{-x}]^{\lambda}_{0}+\frac{1}{k}\int^\lambda_0x^{k}e^{-x}dx\right)-e^{-\lambda}\frac{\lambda^k}{k!}
=\frac{1}{\Gamma(k+1)}\left([x^ke^{-x}]^{\lambda}_{0}+\int^\lambda_0x^{k}e^{-x}dx\right)-e^{-\lambda}\frac{\lambda^k}{k!}
\Gamma(k+1)=k!
より、
e^{-\lambda}\sum^\infty_{r=k+1}\frac{\lambda^r}{r!}=\frac{1}{\Gamma(k+1)}\int^\lambda_0x^{k}e^{-x}dx
よってk+1でも成り立つことから示された。

3.12

 この問題の気持ち

変数変換の練習問題

(1)

積分布を大文字にすると

G(y) = P(Y\leq\alpha)=P(X\leq\log(\alpha) )\\=P(X\leq\alpha)=\int^\alpha_{0}f(x)dx\\=\int^{\infty}_0 f(e^y)\frac{dx}{dy}dy
\therefore g(y) = f(e^y)\frac{dx}{dy}

\frac{dx}{dy} = \frac{de^y}{dy}=e^y

\therefore g(y) = e^y\frac{1}{\sqrt{2\pi}\sigma}\frac{1}{e^y}exp(-\frac{(y-\mu^2)}{2\sigma^2})\\=\frac{1}{\sqrt{2\pi}\sigma}exp(-\frac{(y-\mu^2)}{2\sigma^2})
よって示された。

(2)

E[X] = \int^\infty_{0} xf(x)dx = \int^\infty_{0}\frac{1}{\sqrt{2\pi}\sigma}exp\left(-\frac{(log(x)-\mu)^2}{2\sigma^2}\right) dx \\=\frac{1}{\sqrt{2\pi}\sigma}\int^\infty_{-\infty} e^{y}exp\left(-\frac{(y-\mu)^2}{2\sigma^2}\right)dy

=\frac{1}{\sqrt{2\pi}\sigma}\int^\infty_{-\infty} exp\left(-\frac{y^2-2(\mu+\sigma^2)+\mu^2}{2\sigma^2}\right)dy
=\frac{1}{\sqrt{2\pi}\sigma}\int^\infty_{-\infty} exp\left(-\frac{(y-(\mu+\sigma^2) )^2-2\mu\sigma^2-\sigma^4}{2\sigma^2}\right)dy

=\frac{1}{\sqrt{2\pi}\sigma}exp(\mu+\sigma^2/2) )\int^\infty_{-\infty} exp\left(-\frac{(y-(\mu+2\sigma^2) )^2}{2\sigma^2}\right)dy

ガウス積分をつかって
=\frac{1}{\sqrt{2\pi}\sigma}exp(\mu+\sigma^2/2)\int^\infty_{-\infty} exp\left(-\frac{(y-(\mu+2\sigma^2) )^2}{2\sigma^2}\right)dy

=\frac{1}{\sqrt{2\pi}\sigma}exp(\mu+\sigma^2/2)\sqrt{2}\sigma\int^\infty_{-\infty} exp(-t^2)dy\\=\frac{1}{\sqrt{\pi}}exp(\mu+\sigma^2/2)\sqrt{\pi}\\=exp(\mu+\sigma^2/2)

(3)

E[X^2] = \int^\infty_{0} x^2f(x)dx = \int^\infty_{0}\frac{x}{\sqrt{2\pi}\sigma}exp\left(-\frac{(log(x)-\mu)^2}{2\sigma^2}\right) dx \\=\frac{1}{\sqrt{2\pi}\sigma}\int^\infty_{-\infty} e^{2y}exp\left(-\frac{(y-\mu)^2}{2\sigma^2}\right)dy

=\frac{1}{\sqrt{2\pi}\sigma}\int^\infty_{-\infty} exp\left(-\frac{y^2-2(\mu+2\sigma^2)+\mu^2}{2\sigma^2}\right)dy
=\frac{1}{\sqrt{2\pi}\sigma}\int^\infty_{-\infty} exp\left(-\frac{(y-(\mu+2\sigma^2) )^2-4\mu\sigma^2-4\sigma^4}{2\sigma^2}\right)dy

=\frac{1}{\sqrt{2\pi}\sigma}exp(2\mu+2\sigma^2) )\int^\infty_{-\infty} exp\left(-\frac{(y-(\mu+2\sigma^2) )^2}{2\sigma^2}\right)dy

あとは(1)と同様に、
E[X^2]=exp(2\mu+2\sigma^2)


よって、
Var(X) = exp(2\mu+2\sigma^2)-(exp(\mu+\sigma^2/2) )^2\\=exp(2\mu+2\sigma^2)-exp(2\mu+\sigma^2)=exp(2\mu+\sigma^2)(exp(\sigma^2)-1)

3.13

この問題の気持ち

故障率関数の練習問題

(1)

P(T>t+s|T>s)=\frac{\int^{\infty}_{s+t}f(t)dt}{\int^{\infty}_{s}f(t)dt} = \frac{1-F(s+t)}{1-F(s)}

[tex:h(u)=\frac{f(u)}{S(u)}=\frac{f(u)}{1-F(u)}=-\frac{d}{du}log(1-F(u) )\\
\therefore 1-F(u) = exp\left(\int^u_{0} -h(u)du\right)]

よって、
P(T>]t+s|T>s)= \frac{1-F(s+t)}{1-F(s)}=\frac{exp\left(-\int^{s+t}_{0} h(u)du\right)}{exp\left (-\int^{t}_{0} h(u)du\right)} \\=exp\left(-\int^{s+t}_{0} h(u)du+\int^{t}_{0} h(u)du\right)\\=exp\left(-\int^{s+t}_{t} h(u)du\right)

(2)

P(T>t)
は、

S\rightarrow0
とした時なので、
P(T>t)=exp\left\{\int^t_{0}h(u)du\right\}

今回、
h(t)
は常に正の傾き、もつので、すべてのtで
h(s+t)<h(t)
となり、
h(0)=0
より、常に正である。また、e^{-ax}は単調減少なのでしめされた。


3.14

この問題の気持ち

有名なワイブル分布上の問題を使った問題。

(1)

上の関係を用いて、
P(T>t)=1-F(t)=exp\left\{ -\int^{t}_{0}h(u)du\right\}
より、
exp\left\{ -\int^{t}_{0}h(u)du\right\} = exp\left\{- \left[ \left(\frac{u}{\beta}\right)^{\alpha}\right]^t_0\right\}\\=exp\left\{ -\left(\frac{t}{\beta}\right)^{\alpha}\right\}

F(t) = 1-exp\left\{ -\left(\frac{t}{\beta}\right)^{\alpha}\right\}

f(t) = \frac{dF(t)}{dt} = -\frac{d}{dt}\left(exp\left\{ -\left(\frac{t}{\beta}\right)^\alpha\right\}\right)\\

=\frac{\alpha}{\beta}\left(\frac{t}{\beta}\right)^{\alpha-1} exp\left\{ -\left(\frac{t}{\beta}\right)^\alpha\right\}

よって示された。

 

 ほかの演習問題の解答・解説はこちら。

 

yosuke-programing.hatenadiary.com