Lien de la note Hackmd
Feuille 4 Exercice 2
Partie A
La variable aleatoire $X$ suit une loi de densite:
\[f(x,\theta)=\theta x^{\theta-1}1_{[0;1]}(x)\]ou le parametre $\theta$ est strictement positif.
En d’autres termes, $f(x, \theta) = 0$ si $x \not\in [0; 1]$ et $f(x, \theta) = \theta x^{\theta−1}$ si $x \in [0; 1]$.
- Justifier que, pour tout $\theta \gt 0$, $f(., \theta)$ definit bien une densite sur $\mathbb R$.
- Calculer $E(X)$
- Determiner l’estimateur du maximum de vraisemblance $\hat\theta$ du parametre $\theta$.
- Considerons maintenant la variable aleatoire $Y := − \ln X$.
- Pourquoi est-elle bien definie ?
- Montrer que la variable aleatoire $Y$ suit une loi $\Gamma(1, \theta)$.
Solution
1.
Comme $\theta\gt 0$ et $x\in[0;1]$, $f(x,\theta)$ est strictement positive.
\[\begin{aligned} \int_0^1f(x,\theta)&=[x^{\theta}]^1_0\\ &= 1^{\theta}-0 =1 \end{aligned}\]On a donc bien une densite.
2.
\[\begin{aligned} E(X)&=\int_0^1xf(x,\theta)1_{[0;1]}dx\\ &= \int_0^1\theta x^{\theta}dx\\ &= \biggr[\frac{\theta x^{\theta+1}}{\theta+1}\biggr]\\ &= \frac{\theta}{theta+1}\gt0 \end{aligned}\]3.
Considerons:
\[\begin{aligned} L(x_1,\dots,x_n,\theta) &= \prod_{i=1}^n\theta x_i^{\theta-1}1_{[0;1]}(x_i)\\ &= \theta^n\prod_{i=1}^nx_i^{\theta-1}\prod_{i=1}^n1_{[0;1]}(x_i) \end{aligned}\]Pourquoi est-ce que les indicatrices ne posent pas de problemes ?
Car nos observations sont entre $0$ et $1$
Pour determiner le maximum, nous pouvons nous restreindre au cas: $(x_1,\dots,x_n)\in[0;1]$ car les $x_i$ sont des observations.
Passons au logarithme:
\[\ln(L(x_1,\dots,x_n,\theta))=n\ln(\theta)+(\theta-1)\sum_{i=1}^nx_i\]Calculons la derivee partielle:
\[\frac{\partial\ln(x_1,\dots,x_n,\theta)}{\partial\theta}=\frac{n}{\theta}+\sum_{i=1}^n\ln(X_i)\\ \begin{aligned} \frac{\partial\ln(x_1,\dots,x_n)}{\partial\theta}&=0\\ \Leftrightarrow\theta&=-\frac{n}{\sum_{i=1}^n\ln(X_i)} \end{aligned}\]Verifions la conditions du second ordre:
\[\frac{\partial^2\ln(L(x_1,\dots,x_n,\theta))}{\partial\theta^2}=-\frac{n}{\theta^2}\lt 0\quad \forall \theta\gt 0\]$\hat\theta$ est bien l’EMV!
4.
Question 1.
Elle est bien definie car comme $X\in[0;1]$, $\ln(X)\lt0$ donc $-\ln(X)\gt 0$
2.
Pourquoi on parle de loi $\Gamma$ au lieu de loi exponentielle ?
\[\begin{aligned} y&=-\ln x\\ \ln x&=-y\\ x&=e^{-y} \end{aligned}\]Car c’est facile d’additionner les loi $\Gamma$.
On pose $\phi(x)=-\ln(x)$
\[\phi'(x)=-\frac{1}{x}\\ \phi^{-1}(x)=e^{-x}\\ \begin{aligned} f_Y(y)&=\color{red}{-}\frac{1}{\phi'(\phi^{-1}(y))}\cdot f(\phi^{-1}(y))\quad\phi'(\phi^{-1}(y))=\color{red}{-}\frac{1}{e^{-x}}\\ &=e^{-y}\cdot\theta\phi^{-1}(y)^{\theta-1}\\ &=e^{-y}\cdot e^{-y(\theta-1)}\\ &=\theta e^{-\theta y} \end{aligned}\]Donc $Y\rightsquigarrow \xi(\theta)=\Gamma(1,\theta)$
car fonction caracteristique de la loi exponentielle
Qu’est-ce qu’on a oublie dans notre formule ?
La valeur absolue du Jacobien
Partie B
Considerons $n$ variables aleatoires independantes $X_i$ suivant la loi de $X$. Nous souhaitons tester l’hypothese $H_0 : \theta = \theta_0$ contre $H_1 : \theta = \theta_1$ avec $\theta_0 < \theta_1$ a l’aide d’observations $x_i$ issues de l’echantillon precedent.
- Nous noterons, dans la suite de l’exercice, $Y_i = − \ln X_i$. Montrer que la statistique de Neyman-Pearson est: $T_n:=\sum_{i=1}^nY_i$
- Determiner la loi de la variable aleatoire $T_n$ puis celle de la variable aleatoire $U_n:=\frac{T_n}{\theta}$
- Exprimer les risques de premiere et de seconde espece $\alpha$ et $\beta$ en fonction du seuil $S_{\alpha}$, des parametres $\theta_0$ et $\theta_1$ et de la fonction de repartition de la variable aleatoire $U_n$.
Solution
1.
\[\begin{aligned} \frac{L(X_1,\dots,X_n\theta_1)}{L(X_1,\dots,X_n\theta_0)}&=\frac{\prod_{i=1}^n\theta_1x_i^{\theta_1-1}}{\prod_{i=1}^n\theta_0x_i^{\theta_0-1}}\\ &= \biggr(\frac{\theta_1}{\theta_2}\biggr)^n\prod_{i=1}^nX_i^{\theta_1-\theta_0} \end{aligned}\]$(H_0)$ est rejetee si:
\[\begin{aligned} T&\gt C_{\alpha}\\ \ln(T_n)=n\ln(\frac{\theta_1}{\theta_0})+(\theta_n-\theta_0)\sum_{i=1}^n\ln(X_i)&\gt\ln(C_{\alpha})\\ \sum_{i=1}^n\ln(X_i)&\gt\underbrace{\frac{\ln(C_{\alpha})-n\ln(\frac{\theta_1}{\theta_0})}{\theta_n-\theta_0}}_{S_{\alpha}'}\\ -\sum\ln(X_i)&\lt -S_{\alpha}'\\ T_n=-\sum_{i=1}^n\ln(X_i)&\lt S_{\alpha}\quad \text{ou } S_{\alpha}=-S_{\alpha}' \end{aligned}\]2.
Quel loi suit $T_n$ ?
On sait que $X_i\sim P(1,\theta)$
Donc $\phi_X(t)=\frac{\theta}{\theta-it}$
\[T_n=\sum_{i=1}^n Y_i\]Donc
\[\phi_{T_n}=(\phi_{Y_i}(t))^n\]car les $Y_i$ sont independants.
Donc:
- $T_n\sim\Gamma(n, \theta_0)$ sous $(H_0)$
- $T_n\sim\Gamma(n, \theta_1)$ sous $(H_1)$
On va calculer la densite de $U_n$
\[U_n=\theta T_n\\ \phi:]0;+\infty[\to]0;+\infty[\]$\phi$ est derivable et bijective:
\[\phi^{-1}(x)=\frac{x}{\theta}\quad\text{et}\quad\phi'(x)=\theta\\ \begin{aligned} f_{U_n}(u)&=\frac{1}{\theta}\times\frac{1}{\Gamma(n)}\biggr(\frac{u}{\theta}\biggr)^{\alpha-1}\theta^{\alpha}e^{-\theta\frac{u}{\theta}} \end{aligned}\]Donc la loi de $U_n$ ne depend pas de $\theta$
3.
Notons $H_n$ la fonction de repartition de $U_n$.
\[\begin{aligned} \alpha&=P(\text{Rejeter }H_0\vert H_0\text{ vraie})\\ &= P(T_n\lt S_{\alpha}\vert H_0\text{ vraie})\\ &= P(\theta_0 T_n\le\theta_0 S_{\alpha}\vert\theta=\theta_0)\\ &= \color{red}{P}(U_n\lt\theta_0 S_{\alpha})\quad\color{red}{\text{Sous } H_0}\\ &= H_n(\theta_0S_{\alpha}) \end{aligned}\\ S_{\alpha}=\frac{H_n^{-1}(\alpha)}{\theta_0}\]Si $x\lt y$ alors:
\[H_n(y)-H_n(x)=\int_x^y\frac{1}{\Gamma(n)}t^{\alpha-1}e^{-t}dt\gt0\]Donc $(H_n)$ est strictement croissante sur $[0;+\infty[$
Par consequence, elle est strictement croissante