Home PRST: Feuille de revisions
Post
Cancel

PRST: Feuille de revisions

Lien de la note Hackmd

Exercice 1

Question 10

La loi du demi-cercle de Wigner de parametre $R$ a une densite nulle en dehors de $] − R; R[$. Sur $] − R; R[$, sa densite est donnee par

\[f(x)=\frac{2}{\pi R^2}\sqrt{R^2-x^2}\]

Nous admettrons que sa variance est donnee par $\frac{R^2}{4}$.

En deduire un estimateur du parametre $R$ par la methode des moments.

Solution \[V(X)=\frac{R^2}{4}\\ \Leftrightarrow R^2=4V(X)\\ \Leftrightarrow R=2\sqrt{V(X)}\]\[S=\frac{1}{n-1}\sum_{i=1}^n(X_i-\bar X)^2\]

On sait que $E(X)=0$ (symetrie).

En effet, $E(X)=\int_{-R}^Rx\times\frac{2}{\pi R^2}\sqrt{R^2-x^2}dx=0$.

La fonction devient impaire car $\times x$.

On integre une fonction impaire sur l’intervalle $] − R; R[$.

$V(X)=E(X^2)$ donc $E(X^2)=\frac{R^2}{4}$

\[R=2\sqrt{E(X)}\Rightarrow\hat R=2\sqrt{\frac{1}{n}\sum_{i=1}^nx_i^2}\]

Question 11

Soient $X$ et $Y$ deux variables aleatoires independantes et suivant toutes deux une loi normale centree reduite. Considerons les variables aleatoires $U = X + 2Y$ et $V = X − 3Y$

  1. Montrer que le vecteur aleatoire $(U, V )^T$ est un vecteur gaussien.
  2. Les variables aleatoires U et V sont-elles independantes ?
Solution

1.

$X$ et $Y$ sont independants $\Rightarrow(X,Y)^T$ vecteur gaussien

\[\begin{pmatrix} U\\ V \end{pmatrix}= \begin{pmatrix} 1 & 2\\ 1&-3 \end{pmatrix}\]

2.

\[\begin{aligned} Cov(X)&=E(UV)-\underbrace{E(U)E(V)}_{=0}\\ &= E((X+2Y)(X-3Y))\\ &= E(X^2-3XY+2XY-6Y^2)\\ &= E(X^2)+\underbrace{E(XY)}_{=0}-6E(Y^2)\\ &= E(X^2)-6E(Y^2)\text{ car } V(X)=E(X^2)=1\\ &=1-6=\color{green}{5} \end{aligned}\]

Exercice 5

La variable aleatoire $X$ suit une loi uniforme sur $[0;\theta]$ avec $\theta$ inconnu.

Sa densite est par definition donnee par $f(x,\theta)=\frac{1}{\theta}𝟙_{[0;\theta]}(x)$ i.e. $f(x,\theta)=1$ si $0\le x\le\theta$ sinon 0.

  1. Montrer que sa densite peut etre ecrite $f(x,\theta)=\frac{1}{\theta}𝟙_{[0;1]}(\frac{x}{\theta})$
  2. En deduire que la fonction de vraisemblance definie sur $[0;+\infty[\times]0;+\infty[$ s’ecrit:\(L(x_1,...,x_n,\theta)=\begin{cases}\frac{1}{\theta^n}&\text{si} \max x_i\le\theta \\ 0&\text{sinon}\end{cases}\) ou encore \(L(x_1,...,x_n,\theta)=\frac{1}{\theta^n}𝟙_{[\max 1\le i\le n;+\infty]}(\theta)\)
  3. En deduire l’estimateur du maximum de vraisemblance du parametre $\theta$
  4. Quelle loi suit la v.a. $\frac{X_1}{\theta}$
  5. On pose \(T=\max_{1\le i\le n}\frac{X_i}{\theta}\). Determiner sa fonction de repartition $F_T$
  6. Montrer que $\mathbb P(\alpha\le T\le1)=1-\alpha^n$
  7. En deduire un reel $\alpha$ tel que $\mathbb P(T\in[\alpha;1])=0,95$
  8. Considerons des observations $x_1,…,x_n$. Notons \(M=\max_{1\le i\le n}x_i\). Deduire des questions precedentes un intervalle de confiance pour le parametre $\theta$ de niveau de confiance 0, 95.
Solution

1.

\[\begin{aligned} x\in[0;\theta]&\Leftrightarrow0\le x\le\theta\\ &\Leftrightarrow0\le\frac{x}{\theta}\le1\\ &\Leftrightarrow \frac{x}{\theta}\in[0;1] \end{aligned}\]

2.

\[\begin{aligned} L(x_1,...,x_n,\theta)&=\Pi_{i=1}^nf(x_i,\theta)\\ &= \Pi_{i=1}^n\frac{1}{\theta}𝟙_{[0;\theta]}(x_i)\\ &= \frac{1}{\theta^n}\Pi_{i=1}^n𝟙_{[0;\theta]}(x_i) \end{aligned}\]

Pour que ce ne soit pas egale a $0$, $x_i\in[0;\theta]$

\[\begin{aligned} L(x_1,...,x_n,\theta)&=\frac{1}{\theta^n}𝟙_{[0;\theta]}(\max(x_i))\\ &= \frac{1}{\theta^n}𝟙_{[\max x_i;+\infty]}(\theta) \end{aligned}\]

3.

EMV: $\hat\theta=\max_{1\le i\le n}(x_i)$

4.

Loi uniforme sur $[0;1]$

\[F_{\frac{X}{\theta}}(x)=P(\frac{X}{\theta}\le x)=P(X\le\theta x)\\ \color{red}{X\sim U([0;\theta])}= \begin{cases} 0 &\text{si } x\le0\\ \int_0^{\theta x}\frac{1}{\theta}dt=x &\text{si } \theta x\in[0;\theta]\color{red}{\Leftrightarrow x\in[0;1]}\\ 1 &\text{si } \color{red}{\theta x\lt\theta\text{, i.e. } x\gt1} \end{cases}\\ =F_U(x) \text{ avec } U=\frac{X}{\theta}\sim U([0;1])\]

5.

\[\begin{aligned} F_T(x)&=P(\max\frac{X_i}{\theta}\le x)\\ &= P(\cap_{i=1}^n\{X_i\le x\})=\Pi_{i=1}^nP(\frac{X_i}{\theta}\le n) \text{ car les v.a. } x_i \text{ sont independantes}\\ &= P(\frac{X}{\theta}\le x)^n\text{ car les }\frac{x_i}{\theta}\text{ ont les memes lois} \end{aligned}\\ F_T(x)= \begin{cases} 0 &x\lt0\\ x^n &x\in[0;1]\\ 1 &x\gt1 \end{cases}\]

7.

Resolution d’equation:

\[\begin{aligned} 1-\alpha^n&=0,95\\ \alpha^n&=0,05\\ \alpha&=\sqrt[n]{0,05} \end{aligned}\\\]

8.

$T=\max\frac{x_i}{\theta}$, $M=\max x_i$, donc $T=\frac{M}{\theta}$ (car $\theta\gt0$)

\[P(\sqrt[n]{0,05}\le T\le1)=095\Rightarrow P(\sqrt[n]{0,05}\le\frac{M}{\theta}\le 1)=0,95\\ P(1\le\frac{\theta}{M}\le(0,05)^{-\frac{1}{n}})=0,95\Leftrightarrow P(M\le\theta\le M(0,05)^{-\frac{1}{n}})=0,95\]
This post is licensed under CC BY 4.0 by the author.