Home PRSTA: TD 4
Post
Cancel

PRSTA: TD 4

Lien de la note Hackmd

Feuille 4 Exercice 2

Partie A

La variable aleatoire $X$ suit une loi de densite:

\[f(x,\theta)=\theta x^{\theta-1}1_{[0;1]}(x)\]

ou le parametre $\theta$ est strictement positif.

En d’autres termes, $f(x, \theta) = 0$ si $x \not\in [0; 1]$ et $f(x, \theta) = \theta x^{\theta−1}$ si $x \in [0; 1]$.

  1. Justifier que, pour tout $\theta \gt 0$, $f(., \theta)$ definit bien une densite sur $\mathbb R$.
  2. Calculer $E(X)$
  3. Determiner l’estimateur du maximum de vraisemblance $\hat\theta$ du parametre $\theta$.
  4. Considerons maintenant la variable aleatoire $Y := − \ln X$.
    1. Pourquoi est-elle bien definie ?
    2. Montrer que la variable aleatoire $Y$ suit une loi $\Gamma(1, \theta)$.
Solution

1.

Comme $\theta\gt 0$ et $x\in[0;1]$, $f(x,\theta)$ est strictement positive.

\[\begin{aligned} \int_0^1f(x,\theta)&=[x^{\theta}]^1_0\\ &= 1^{\theta}-0 =1 \end{aligned}\]

On a donc bien une densite.

2.

\[\begin{aligned} E(X)&=\int_0^1xf(x,\theta)1_{[0;1]}dx\\ &= \int_0^1\theta x^{\theta}dx\\ &= \biggr[\frac{\theta x^{\theta+1}}{\theta+1}\biggr]\\ &= \frac{\theta}{theta+1}\gt0 \end{aligned}\]

3.

Considerons:

\[\begin{aligned} L(x_1,\dots,x_n,\theta) &= \prod_{i=1}^n\theta x_i^{\theta-1}1_{[0;1]}(x_i)\\ &= \theta^n\prod_{i=1}^nx_i^{\theta-1}\prod_{i=1}^n1_{[0;1]}(x_i) \end{aligned}\]

Pourquoi est-ce que les indicatrices ne posent pas de problemes ?

Car nos observations sont entre $0$ et $1$

Pour determiner le maximum, nous pouvons nous restreindre au cas: $(x_1,\dots,x_n)\in[0;1]$ car les $x_i$ sont des observations.

Passons au logarithme:

\[\ln(L(x_1,\dots,x_n,\theta))=n\ln(\theta)+(\theta-1)\sum_{i=1}^nx_i\]

Calculons la derivee partielle:

\[\frac{\partial\ln(x_1,\dots,x_n,\theta)}{\partial\theta}=\frac{n}{\theta}+\sum_{i=1}^n\ln(X_i)\\ \begin{aligned} \frac{\partial\ln(x_1,\dots,x_n)}{\partial\theta}&=0\\ \Leftrightarrow\theta&=-\frac{n}{\sum_{i=1}^n\ln(X_i)} \end{aligned}\]

Verifions la conditions du second ordre:

\[\frac{\partial^2\ln(L(x_1,\dots,x_n,\theta))}{\partial\theta^2}=-\frac{n}{\theta^2}\lt 0\quad \forall \theta\gt 0\]

4.

Question 1.

Elle est bien definie car comme $X\in[0;1]$, $\ln(X)\lt0$ donc $-\ln(X)\gt 0$

2.

Pourquoi on parle de loi $\Gamma$ au lieu de loi exponentielle ?

Car c’est facile d’additionner les loi $\Gamma$.

\[\begin{aligned} y&=-\ln x\\ \ln x&=-y\\ x&=e^{-y} \end{aligned}\]

On pose $\phi(x)=-\ln(x)$

\[\phi'(x)=-\frac{1}{x}\\ \phi^{-1}(x)=e^{-x}\\ \begin{aligned} f_Y(y)&=\color{red}{-}\frac{1}{\phi'(\phi^{-1}(y))}\cdot f(\phi^{-1}(y))\quad\phi'(\phi^{-1}(y))=\color{red}{-}\frac{1}{e^{-x}}\\ &=e^{-y}\cdot\theta\phi^{-1}(y)^{\theta-1}\\ &=e^{-y}\cdot e^{-y(\theta-1)}\\ &=\theta e^{-\theta y} \end{aligned}\]

Donc $Y\rightsquigarrow \xi(\theta)=\Gamma(1,\theta)$

Qu’est-ce qu’on a oublie dans notre formule ?

La valeur absolue du Jacobien

Partie B

Considerons $n$ variables aleatoires independantes $X_i$ suivant la loi de $X$. Nous souhaitons tester l’hypothese $H_0 : \theta = \theta_0$ contre $H_1 : \theta = \theta_1$ avec $\theta_0 < \theta_1$ a l’aide d’observations $x_i$ issues de l’echantillon precedent.

  1. Nous noterons, dans la suite de l’exercice, $Y_i = − \ln X_i$. Montrer que la statistique de Neyman-Pearson est: $T_n:=\sum_{i=1}^nY_i$
  2. Determiner la loi de la variable aleatoire $T_n$ puis celle de la variable aleatoire $U_n:=\frac{T_n}{\theta}$
  3. Exprimer les risques de premiere et de seconde espece $\alpha$ et $\beta$ en fonction du seuil $S_{\alpha}$, des parametres $\theta_0$ et $\theta_1$ et de la fonction de repartition de la variable aleatoire $U_n$.
Solution

1.

\[\begin{aligned} \frac{L(X_1,\dots,X_n\theta_1)}{L(X_1,\dots,X_n\theta_0)}&=\frac{\prod_{i=1}^n\theta_1x_i^{\theta_1-1}}{\prod_{i=1}^n\theta_0x_i^{\theta_0-1}}\\ &= \biggr(\frac{\theta_1}{\theta_2}\biggr)^n\prod_{i=1}^nX_i^{\theta_1-\theta_0} \end{aligned}\]

$(H_0)$ est rejetee si:

\[\begin{aligned} T&\gt C_{\alpha}\\ \ln(T_n)=n\ln(\frac{\theta_1}{\theta_0})+(\theta_n-\theta_0)\sum_{i=1}^n\ln(X_i)&\gt\ln(C_{\alpha})\\ \sum_{i=1}^n\ln(X_i)&\gt\underbrace{\frac{\ln(C_{\alpha})-n\ln(\frac{\theta_1}{\theta_0})}{\theta_n-\theta_0}}_{S_{\alpha}'}\\ -\sum\ln(X_i)&\lt -S_{\alpha}'\\ T_n=-\sum_{i=1}^n\ln(X_i)&\lt S_{\alpha}\quad \text{ou } S_{\alpha}=-S_{\alpha}' \end{aligned}\]

2.

Quel loi suit $T_n$ ?

On sait que $X_i\sim P(1,\theta)$

Donc $\phi_X(t)=\frac{\theta}{\theta-it}$

\[T_n=\sum_{i=1}^n Y_i\]

Donc

\[\phi_{T_n}=(\phi_{Y_i}(t))^n\]

car les $Y_i$ sont independants.

On va calculer la densite de $U_n$

\[U_n=\theta T_n\\ \phi:]0;+\infty[\to]0;+\infty[\]

$\phi$ est derivable et bijective:

\[\phi^{-1}(x)=\frac{x}{\theta}\quad\text{et}\quad\phi'(x)=\theta\\ \begin{aligned} f_{U_n}(u)&=\frac{1}{\theta}\times\frac{1}{\Gamma(n)}\biggr(\frac{u}{\theta}\biggr)^{\alpha-1}\theta^{\alpha}e^{-\theta\frac{u}{\theta}} \end{aligned}\]

3.

Notons $H_n$ la fonction de repartition de $U_n$.

\[\begin{aligned} \alpha&=P(\text{Rejeter }H_0\vert H_0\text{ vraie})\\ &= P(T_n\lt S_{\alpha}\vert H_0\text{ vraie})\\ &= P(\theta_0 T_n\le\theta_0 S_{\alpha}\vert\theta=\theta_0)\\ &= \color{red}{P}(U_n\lt\theta_0 S_{\alpha})\quad\color{red}{\text{Sous } H_0}\\ &= H_n(\theta_0S_{\alpha}) \end{aligned}\\ S_{\alpha}=\frac{H_n^{-1}(\alpha)}{\theta_0}\]\[\begin{aligned} \beta &= P(\text{Rejeter } H_1\vert H_0\text{fausse})\\ &= P(T_n\ge S_{\alpha}\vert \theta=\theta_1)\\ &= P(\underbrace{\theta_1 T_n}_{\color{green}{U_n}}\ge S_{\alpha}\theta_1\vert \theta=\theta_1)\\ &= 1-H_n(\theta_1S_{\alpha}) \end{aligned}\]
This post is licensed under CC BY 4.0 by the author.