Processing math: 41%
Home PRSTA: TD 4
Post
Cancel

PRSTA: TD 4

Lien de la note Hackmd

Feuille 4 Exercice 2

Partie A

La variable aleatoire X suit une loi de densite:

f(x,θ)=θxθ11[0;1](x)

ou le parametre θ est strictement positif.

En d’autres termes, f(x,θ)=0 si x[0;1] et f(x,θ)=θxθ1 si x[0;1].

  1. Justifier que, pour tout θ>0, f(.,θ) definit bien une densite sur R.
  2. Calculer E(X)
  3. Determiner l’estimateur du maximum de vraisemblance ˆθ du parametre θ.
  4. Considerons maintenant la variable aleatoire Y:=lnX.
    1. Pourquoi est-elle bien definie ?
    2. Montrer que la variable aleatoire Y suit une loi Γ(1,θ).
Solution

1.

Comme θ>0 et x[0;1], f(x,θ) est strictement positive.

10f(x,θ)=[xθ]10=1θ0=1

On a donc bien une densite.

2.

E(X)=10xf(x,θ)1[0;1]dx=10θxθdx=[θxθ+1θ+1]=θtheta+1>0

3.

Considerons:

L(x1,,xn,θ)=ni=1θxθ1i1[0;1](xi)=θnni=1xθ1ini=11[0;1](xi)

Pourquoi est-ce que les indicatrices ne posent pas de problemes ?

Car nos observations sont entre 0 et 1

Pour determiner le maximum, nous pouvons nous restreindre au cas: (x1,,xn)[0;1] car les xi sont des observations.

Passons au logarithme:

ln(L(x1,,xn,θ))=nln(θ)+(θ1)ni=1xi

Calculons la derivee partielle:

ln(x1,,xn,θ)θ=nθ+ni=1ln(Xi)ln(x1,,xn)θ=0θ=nni=1ln(Xi)

Verifions la conditions du second ordre:

2ln(L(x1,,xn,θ))θ2=nθ2<0θ>0

4.

Question 1.

Elle est bien definie car comme X[0;1], ln(X)<0 donc ln(X)>0

2.

Pourquoi on parle de loi Γ au lieu de loi exponentielle ?

Car c’est facile d’additionner les loi Γ.

y=lnxlnx=yx=ey

On pose ϕ(x)=ln(x)

ϕ(x)=1xϕ1(x)=exfY(y)=1ϕ(ϕ1(y))f(ϕ1(y))ϕ(ϕ1(y))=1ex=eyθϕ1(y)θ1=eyey(θ1)=θeθy

Donc Y

Qu’est-ce qu’on a oublie dans notre formule ?

La valeur absolue du Jacobien

Partie B

Considerons n variables aleatoires independantes X_i suivant la loi de X. Nous souhaitons tester l’hypothese H_0 : \theta = \theta_0 contre H_1 : \theta = \theta_1 avec \theta_0 < \theta_1 a l’aide d’observations x_i issues de l’echantillon precedent.

  1. Nous noterons, dans la suite de l’exercice, Y_i = − \ln X_i. Montrer que la statistique de Neyman-Pearson est: T_n:=\sum_{i=1}^nY_i
  2. Determiner la loi de la variable aleatoire T_n puis celle de la variable aleatoire U_n:=\frac{T_n}{\theta}
  3. Exprimer les risques de premiere et de seconde espece \alpha et \beta en fonction du seuil S_{\alpha}, des parametres \theta_0 et \theta_1 et de la fonction de repartition de la variable aleatoire U_n.
Solution

1.

\begin{aligned} \frac{L(X_1,\dots,X_n\theta_1)}{L(X_1,\dots,X_n\theta_0)}&=\frac{\prod_{i=1}^n\theta_1x_i^{\theta_1-1}}{\prod_{i=1}^n\theta_0x_i^{\theta_0-1}}\\ &= \biggr(\frac{\theta_1}{\theta_2}\biggr)^n\prod_{i=1}^nX_i^{\theta_1-\theta_0} \end{aligned}

(H_0) est rejetee si:

\begin{aligned} T&\gt C_{\alpha}\\ \ln(T_n)=n\ln(\frac{\theta_1}{\theta_0})+(\theta_n-\theta_0)\sum_{i=1}^n\ln(X_i)&\gt\ln(C_{\alpha})\\ \sum_{i=1}^n\ln(X_i)&\gt\underbrace{\frac{\ln(C_{\alpha})-n\ln(\frac{\theta_1}{\theta_0})}{\theta_n-\theta_0}}_{S_{\alpha}'}\\ -\sum\ln(X_i)&\lt -S_{\alpha}'\\ T_n=-\sum_{i=1}^n\ln(X_i)&\lt S_{\alpha}\quad \text{ou } S_{\alpha}=-S_{\alpha}' \end{aligned}

2.

Quel loi suit T_n ?

On sait que X_i\sim P(1,\theta)

Donc \phi_X(t)=\frac{\theta}{\theta-it}

T_n=\sum_{i=1}^n Y_i

Donc

\phi_{T_n}=(\phi_{Y_i}(t))^n

car les Y_i sont independants.

On va calculer la densite de U_n

U_n=\theta T_n\\ \phi:]0;+\infty[\to]0;+\infty[

\phi est derivable et bijective:

\phi^{-1}(x)=\frac{x}{\theta}\quad\text{et}\quad\phi'(x)=\theta\\ \begin{aligned} f_{U_n}(u)&=\frac{1}{\theta}\times\frac{1}{\Gamma(n)}\biggr(\frac{u}{\theta}\biggr)^{\alpha-1}\theta^{\alpha}e^{-\theta\frac{u}{\theta}} \end{aligned}

3.

Notons H_n la fonction de repartition de U_n.

\begin{aligned} \alpha&=P(\text{Rejeter }H_0\vert H_0\text{ vraie})\\ &= P(T_n\lt S_{\alpha}\vert H_0\text{ vraie})\\ &= P(\theta_0 T_n\le\theta_0 S_{\alpha}\vert\theta=\theta_0)\\ &= \color{red}{P}(U_n\lt\theta_0 S_{\alpha})\quad\color{red}{\text{Sous } H_0}\\ &= H_n(\theta_0S_{\alpha}) \end{aligned}\\ S_{\alpha}=\frac{H_n^{-1}(\alpha)}{\theta_0}\begin{aligned} \beta &= P(\text{Rejeter } H_1\vert H_0\text{fausse})\\ &= P(T_n\ge S_{\alpha}\vert \theta=\theta_1)\\ &= P(\underbrace{\theta_1 T_n}_{\color{green}{U_n}}\ge S_{\alpha}\theta_1\vert \theta=\theta_1)\\ &= 1-H_n(\theta_1S_{\alpha}) \end{aligned}
This post is licensed under CC BY 4.0 by the author.