Home ASE3: TD 1 - 2
Post
Cancel

ASE3: TD 1 - 2

Lien de la note Hackmd

Exercice 3

On considere $n$ boites numerotees de $1$ a $n$. La boite $n^{o}k$ contient $k$ boules numerotees de $1$ a $k$. On choisi au hasard une boite puis une boule dans cette boite. Soit:

  • $X$ v.a.: numero de la boite
  • $Y$ v.a.: numero de la boule
  1. Determiner la loi conjointe de $(X,Y)$
  2. Calculer $P(X=Y)$
  3. Determiner la loi de $Y$ et $E(Y)$
Solution

1.

Loi conjointe

\[X(\Omega) = [[1,n]]\\ Y(\Omega) = [[1,n]]\] \[\begin{aligned} \begin{matrix} \forall i\in X(\Omega)\\ \forall j\in Y(\Omega) \end{matrix}\Biggr\} P((X=i)\cap(Y=j))&=P_{(X=i)}(Y=j)P(X=i)\quad\text{Loi conditionnelle}\\ &=\frac{1}{i}\times\frac{1}{n}\quad\text{si } j\le i \end{aligned}\\ \begin{cases} P((X=i)\cap(Y=j))=\frac{1}{in} &\text{si }j\le i\\ P((X=i)\cap(Y=j))=0 &\text{si } j\gt i \end{cases}\]

2.

\[\underbrace{(X=Y)}_{\text{evenement}} = \cup_{i=1}^n\biggr((X=i)\cap(Y=i)\biggr)\\ \begin{aligned} P(X=Y)&=\sum_{i=1}^nP((X=i)\cap(Y=i))\\ &=\sum_{i=1}^n\frac{1}{in}=\color{green}{\frac{1}{n}\sum_{i=1}^n\frac{1}{i}} \end{aligned}\]

3.

Loi marginale de $Y$

\[\begin{aligned} \forall j\in[[1,n]]\quad P(Y=j)&=\sum_{i=1}^nP((X=i)\cap(Y=j))\\ &= \sum_{i=j}^n\frac{1}{in}=\color{red}{\frac{1}{n}\sum_{i=j}^n\frac{1}{i}} \end{aligned}\] \[\begin{aligned} E(Y)&=\sum_{j=1}^njP(Y=j)\\ &= \sum_{j=1}\frac{1}{n}\sum_{i=j}^n\frac{1}{i}\\ &= \frac{1}{n}\sum_{j=1}^nj\sum_{i=j}^n\frac{1}{i} \end{aligned}\]\[\begin{aligned} E(Y)&=\sum_{j=1}^njP(Y=j)\\ &= \sum_{j=1}^nj\frac{1}{n}\sum_{i=j}^n\frac{1}{i}\\ &= \frac{1}{n}\sum_{i=1}^n\frac{1}{i}\sum_{j=1}^ij\quad\text{inversion des sommes et } i\ge j\\ &= \frac{1}{n}\sum_{i=1}^n\frac{1}{i}\frac{i(i+1)}{2}\\ &=\frac{1}{2n}\sum_{i=1}^n(i+1)\\ &=\frac{1}{2n}\biggr(\frac{n(n+1)}{2}+n\biggr) \end{aligned}\]

Exercice 4

Une urne contient une boule blanche et une boule noire, les boules etant indiscernables au toucher. On y preleve une boule, chaque boule ayant la meme probabilite d’etre tiree. On note sa couleur et on la remet dans l’urne avec $c$ boules de la meme couleur. On repete cette experience, on realise une succession de $n$ tirages ($n\ge 2$). Soit $X_i$ la v.a.

\[1\le i\le n \begin{cases} X_i = 1&\text{si on obtient une boule blanche au }i\text{-eme tirage}\\ X_i=0&\text{sinon} \end{cases}\\ Z_p=\sum_{i=1}^pX_i\quad 2\le p\le n\]
  1. Determiner la loi du couple $(X_1,X_2)$. En deduire la loi de $X_2$
  2. Determiner la loi de $Z_2$
    1. Determiner $Z_p(\Omega)$
    2. Soit $p\le n-1$. Determiner \(P_{(Z_p=k)}(X_{p+1}=1)\) $\forall k\in Z_p(\Omega)$ et montrer que $P(X_{p+1}=1)=\frac{1+cE(Z_p)}{2+pc}$
  3. Montrer que $\forall p\in[[1,n]]$, $P(X_p=1)=\frac{1}{2}=P(X_p=0)$
Solution

1.

$X_1$ suit la loi de Bernouilli $\mathcal B(\frac{1}{2})$. On cherche $P((X_1=i)\cap(X_2=j))$.

\[X_1(\Omega)=[[0,1]]\\ X_2(\Omega)=[[0,1]]\\\]

$1^{er}$ cas: $i\neq j$

\[\begin{aligned} P((X_1=i)\cap(X_2=j))&=P(X_2=j/X_1=i)P(X_1=i)\quad P(X_1=i)=\frac{1}{2}\\ &=\frac{1}{2+c}\times\frac{1}{2} \end{aligned}\]

$2^e$ cas: $i=j$

\[\begin{aligned} P((X_1=i)\cap(X_2=j))&=P(X_2=j/X_1=i)P(X_1=i)\\ &= \biggr(\frac{1+c}{2+c}\biggr)\times\frac{1}{2} \end{aligned}\]
$X_2$ \ $X_1$$0$$1$Loi de $X_1$
$0$$\frac{1+c}{2(2+c)}$$\frac{1}{2(2+c)}$$\frac{1}{2}$
$1$$\frac{1}{2(2+c)}$$\frac{1+c}{2(2+c)}$$\frac{1}{2}$
Loi de $X_2$$\frac{1}{2}$$\frac{1}{2}$$1$

2.

\[Z_2=X_1+X_2\\ Z_2(\Omega)=[[0,2]]\\\] \[\begin{aligned} P(Z_2=0)&=P((X_1=0)\cap(X_2=0))\\ &=\color{green}{\frac{1+c}{2(2+c)}}\\ P(Z_2=1)&=P((X_1=0)\cap(X_2=1)) + P((X_1=1)\cap(X_2=0))\\ &= \color{green}{\frac{1}{2+c}}\\ P(Z_2=2)&=P((X_1=1)\cap(X_2=1))\\ &=\color{green}{\frac{1+c}{2(2+c)}} \end{aligned}\]

3.1.

\[Z_p=\sum_{i=1}X_i\\ Z_p(\Omega)=[[0,p]]\]

3.2.

\[p\le n-1\quad P_{(Z_p=k)}(X_{p+1}=1)= \quad \forall k\in\mathbb Z_p(\Omega)\]

Sachant que $(Z_p=k)$ est realise: $k$ boules blanches ont ete tirees au cours des $p$ premiers tirages (donc on a remis $kc$ boules blanches dans l’urne) et $p-k$ boules noires ont ete tirees (donc on a remis $(p-k)c$ boules noires). Donc au total l’urne contient $2+kc+(p-k)c=2+pc$ boules dont $(1+kc)$ boules blanches.

\[\begin{aligned} (X_{p+1}=1)&=U_{k=0}^p((X_{p+1}=1)\cap(Z_p=k))\\ P(X_{p+1}=1)&=\sum_{k=0}^pP((X_{p+1}=1)\cap(Z_p=k))\\ &=\sum_{k=0}^pP_{(Z_p=k)}(X_{p+1}=1)P(Z_p=k)\\ &= \sum_{k=0}^p\biggr(\frac{1+kc}{2+pc}\biggr)P(Z_p=k)\\ &= \frac{1}{2+pc}\biggr(\sum_{k=0}^pP(Z_p=k)+c\sum_{k=0}^pkP(Z_p=k)\biggr)\\ &=\color{green}{\frac{1}{2+pc}(1+cE(Z_p))} \end{aligned}\]

4.

\[\forall p\in [[1,n]]\quad P(X_p=1)=\frac{1}{2}=P(X_p=c)\]

Matrices resultat par recurrence sur slurp sur $p$:

Soit $R(p)$ la propriete: $P(X_p=1)=\frac{1}{2}$, $R(1)$, $R(2)$ vraies ($1^{ere}$ question)

Hypothese: Supposons que $R(1)$, $R(2)$,…, $R(p)$ vraies.

\[\begin{aligned} P(X_{p+1}) = \frac{1+cE(Z_p)}{2+pc}\quad\text{or } E(Z_p)&=E(\sum_{i=1}^pX_i) \\ &= \sum_{i=1}^pE(X_i)\\ &=\sum_{i=1}^p\frac{1}{2}\quad\text{car } X_i\to\mathcal B(\frac{1}{2})\quad 1\le i\le p \text{ (hypothese)}\\ &=\color{red}{p\times\frac{1}{2}=\frac{p}{2}}\\ \end{aligned}\\ \begin{aligned} P(X_{p+1})&=\frac{1+cE(Z_p)}{2+pc}\\ &=\frac{1+c\frac{p}{2}}{2+pc}\\ \end{aligned}\]

Exercice 5

$X$ et $Y$ 2 v.a. independantes suivant la meme loi de Bernoulli $\mathcal B(p)$ ($p\in]0,1[$). On pose $U=X+Y$, $V=X-Y$.

  1. Quelle est la loi conjointe de $(U,V)$ ?
  2. Calculer $Cov(U,V)$
  3. U,V sont-elles independantes ?
Solution

1.

$U(\Omega)=[[0,2]]$, $V(\Omega)=[[-1,1]]$

\[P((U=i)\cap(V=j))\quad \begin{cases} &\forall i\in[[0,2]]\\ &\forall j\in[[-1,1]] \end{cases}\\ \begin{cases} U=X+Y\Rightarrow X=\frac{U+V}{2}\\ V=X-Y\Rightarrow Y=\frac{U-V}{2} \end{cases}\\ \begin{aligned} P((U=i)\cap(V=j))&=P\biggr(\biggr(X=\frac{i+j}{2}\biggr)\cap\biggr(Y=\frac{i-j}{2}\biggr)\biggr)\\ &= P\biggr(X=\frac{i+j}{2}\biggr)P\biggr(Y=\frac{i-j}{2}\biggr)\color{red}{\text{ car } X\text{ et }Y\text{ sont independantes}} \end{aligned}\]
$U$ / $V$$-1$$0$$1$Loi de $U$
$0$$0$$q^2$$0$$q^2$
$1$$qp$$0$$pq$$2pq$
$2$$0$$p^2$$0$$p^2$
Loi de $V$$qp$$p^2+q^2$$pq$$1$

Exemple:

\[\begin{cases} U\Rightarrow1=i\\ V\Rightarrow-1=j \end{cases}\Rightarrow \begin{cases} \frac{i+j}{2}=\frac{1-1}{2}=0\\ \frac{i-j}{2}=\frac{1+1}{2}=1\\ \end{cases}\Rightarrow \begin{cases} P(X=0)=q\\ P(Y=1)=p \end{cases}\biggr\}qp\]

2.

\[\begin{aligned} Cov(U,V)&=Cov(X+Y,X-Y)\quad\color{red}{\text{bilineaire}}\\ &=Cov(X,X)-\underbrace{Cov(X,Y) + Cov(Y,X)}_{0 = \text{ par symetrie}} - Cov(Y,Y)\\ &= Cov(X,X)-Cov(Y,Y)\quad \end{aligned}\\ \begin{aligned} \text{or: } Cov(X,Y)&=E(X.Y)-E(X)E(Y)\\ \Rightarrow Cov(X,X)&=E(X.X)-(E(X))^2\\ &=V(X) \end{aligned}\\ \begin{aligned} Cov(U,V)&=V(X)-V(Y)\\ &=0\quad\color{red}{\text{car meme loi}} \end{aligned}\]

3.

Independance ?

\[P((U=0)\cap(V=-1))=0\neq P(U=0)P(V=-1)=q^3p\]
This post is licensed under CC BY 4.0 by the author.