Home PRSTA: Seance 3
Post
Cancel

PRSTA: Seance 3

Lien de la note Hackmd

Exemple

  1. $H_0:m=m_0$ contre $H_1:m=m_1$ ou $X$ suit une loi $\mathcal N(m,1)$ et $m_0\le m_1$
  2. A. N.: $m_0=1$ et $m_1=2$
  3. Calculer $\alpha$
  4. Calculer $\beta$
Solution

Determiner la statistique de NP

\[\begin{aligned} \frac{L(X_1,\dots,X_n,2)}{L(X_1,\dots,X_n,1)} &= \frac{\Pi_{i=1}^n\frac{1}{\sqrt{2\pi}}e^{-\frac{(X_i-2)^2}{2}}}{\Pi_{i=1}^n\frac{1}{\sqrt{2\pi}}e^{-\frac{(X_i-1)^2}{2}}}\\ &= e^{\frac{1}{2}[-\sum X_i^2-4X_i+4+\sum X_i^2-2X_i+1]}\\ &= e^{\frac{1}{2}\sum_{i=1}^n(1X_i-3)}\\ &=e^{\sum_{i=1}^nX_i}\times \underbrace{e^{-\frac{3n}{2}}}_{\color{red}{c}} \end{aligned}\]

Passons au log

\[\log(T)=\sum_{i=1}^nX_i+\log(\color{red}{c})\]

L’hypothese $H_0$ est rejetee lorsque

\[\begin{aligned} T&\gt S_{\alpha}\\ \log(T)&\gt\log(S_{\alpha})\\ \sum X_i+\log(c)&\gt\log(S_{\alpha})\\ \end{aligned}\\ \color{red}{\boxed{\sum X_i\gt\log(S_\alpha)-\log(c)}}\\ \sum X_i\gt C_{\alpha}\]

On veut calculer $\alpha$:

\[\begin{aligned} \alpha &= P(\text{rejeter } H_0\vert H_0\text{ vraie})\\ &= P(\sum X_i\gt C_{\alpha}\vert m=1) \end{aligned}\]

On veut se ramener a la loi centree-reduite:

\[\begin{aligned} \alpha&=P(\underbrace{\frac{\sum X_i}{n}}_{\color{green}{\bar X_n}}\gt\frac{C_{\alpha}}{n}\vert m=1)\\ &= P(\bar X_n\gt\frac{C_{\alpha}}{n}\vert m=1)\\ &= P(\sqrt{n}(\bar X_n-1)\gt\frac{\sqrt{n}(C_{\alpha}-1)}{n}) \end{aligned}\]

Sous l’hypothese $H_0$: $Z_n=\sqrt{n}(\bar X_n-1)\sim\mathcal N(0,1)$

Par definition, qu’est-ce que ce nombre ? On rejette combien a droite ?

C’est un quantile au niveau $1-\alpha$

\[\sqrt{n}(\frac{C_{\alpha}}{n}-1)=Z_{1-\alpha}\]

ou $Z_{1-\alpha}$ designe le quantile de $\mathcal N(0,1)$ au niveau $1-\alpha$.

Maintenant on veut exprimer $\beta$.

De quoi on a besoin pour determiner $\beta$ ?

\[\begin{aligned} \beta &= P(\text{Accepter } H_0\vert H_1\text{ vraie})\\ &= P(\sum X_i\le C_{\alpha}\vert m=2) \end{aligned}\]

On veut exprimer $C_{\alpha}$ en fonction de $Z_{1-\alpha}$.

\[\begin{aligned} \sqrt{n}(\frac{C_{\alpha}}{n}-1)&=Z_{1-\alpha}\\ \frac{C_{alpha}}{n}-1&=\frac{Z_{1-\alpha}}{\sqrt{n}}\\ \frac{C_{\alpha}}{n}=\frac{Z_{1-\alpha}}{\sqrt{n}}+1\\ \end{aligned}\\ \color{red}{\boxed{C_{\alpha}=n\biggr(\frac{Z_{1-\alpha}}{\sqrt{n}}+1\biggr)=\sqrt{n}Z_{1-\alpha}+n}}\]

Avant de continuer, essayons de trouver $C_{\alpha}$ dans le cas ou $\alpha=1\%$ et dans le cas ou $\alpha=5\%$

Avant de calculer $\beta$, on trouve les $C_{\alpha}$.

\[\begin{matrix} \alpha=5\%&C_{\alpha}=1,64\sqrt{n}+n\\ \alpha=1\%&C_{\alpha}=2,33\sqrt{n}+n \end{matrix}\]

Si $n=100$, $\alpha=1\%$, alors $C_{\alpha}=123,3$ et pour $\alpha=5\%$, $C_{\alpha}=116,4$.

Maintenant on peut calculer $\beta$.

\[\begin{aligned} \beta&=P(\text{Ne pas rejeter } H_0\vert H_0\vert \text{ fausse})\\ &=P(\sum X_i\lt C_{\alpha}\vert m=2)\\ &=P(\bar X_n\lt\frac{C_{\alpha}}{n}\vert m=2)\\ &=P(\sqrt{n}(\bar X_n-2)\lt\sqrt{n}(\frac{C_{\alpha}}{n}-2)\vert m=2)\\ \end{aligned}\]

Sous l’hypothese $(H_1)$

\[Z_n=\sqrt{n}(\bar X_n-2)\sim\mathcal N(0,1)\\ \color{red}{\boxed{\beta=P(Z_n\lt\sqrt{n}(\frac{C_\alpha}{n}-2))}}\]

Pour $\alpha=5\%$ et $n=100$:

\[\begin{aligned} \sqrt{n}(\frac{C_{\alpha}}{n}-2)&=10(1,164-2)\\ &=-8,36 \end{aligned}\\ \beta=P(Z_n\lt-8,36)=3\times10^{-17}\]
1
scipy.stats.norm.cdf(-8.36)
  • norm: loi normale
  • cdf: cumulative distribution function

Pourquoi $\beta$ est aussi petit ?

Parce que $\alpha$ est tres grand par rapport a $n$

Faisons la meme chose pour $n=25$ et $\alpha=1\%$

Test du rapport de vraisemblance generalise (GLR)

Comment on le traduit ?

$H_0:m\in{0}$ $H_1:m\in\mathbb R\setminus{0}$

Test de comparaison de 2 moyennes

  • Deux populations
  • Deux echantillons independants suffisamment grand $(X_1,\dots,X_{n_1})$ et $(Y_1,\dots,Y_{n_1})$
  • Statistique
\[Z=\frac{\bar X_{n_1}-\bar Y_{n_2}}{\sqrt{(\frac{S^2_{n+1}}{n_1}+\frac{S^2_{n_2}}{n_2})}}\]
  • $H_0:m_1=m_2$ contre $H_1:m_1\neq m_2$
  • $H_0:m_1=m_2$ contre $H_1:m_1\gt m_2$
  • $H_0:m_1=m_2$ contre $H_1:m_1\lt m_2$

Principe de Neyman Pearson

Hypotheses simples

  • $H_0:\theta=\theta_0$
  • $H_1:\theta=\theta_1$

Exemple

Premier exemple

La variable aleatoire $X$ suit une loi $\mathcal N(m,1)$. Nous voulons tester $H_0:m=0$ contre $H_1:m\neq0$

Solution

Qu’est-ce que le maximum de vraisemblance ?

C’est ce qui maximise la fonction de vraisemblance en fonction de $\theta$

Maximum de vraisemblance pour une loi normale ?

\[L(x_1,\dots,x_n,m)=\Pi_{i=1}^n\frac{1}{\sqrt{2\pi}}e^{-\frac{(x_i-m)^2}{2}}\]

Il n’y a pas de $\sigma$ car $\sigma=1$

\[L(x_1,\dots,x_n,m)=\Pi_{i=1}^n\frac{1}{\color{red}{\sigma}\sqrt{2\pi}}e^{-\frac{(x_i-m)^2}{2\color{red}{\sigma^2}}}\]

On a une fonction $f\Rightarrow\log(f’)$?

Prenons un exemple:

\[\begin{aligned} f(x) &= x^2-2x\\ f'(x)&=2x-2\\ \log(f'(x))&=\log(2x-2)\\ \log(f'(x))=0&\Leftrightarrow2x-2=1\\ &\Leftrightarrow \color{red}{\boxed{x=\frac{3}{2}}}\\ \end{aligned}\\ \begin{aligned} f(x)&=x^2-2x\\ \log(f(x))&=\log(x^2-2x)\\ (\log(f(x)))'&=\frac{2x-2}{x^2-1}\\ (\log(f(x)))'=0&\Leftrightarrow\color{red}{\boxed{x=1}} \end{aligned}\]

La formule du maximum de vraisemblance est:

\[T=\frac{L(X_1,\dots,X_n,\hat\theta)}{L(X_1,\dots,X_n,\theta_0)}\]

Avec $\hat\theta$ l’estimateur du maximum de vraisemblance de $\theta$.

On cherche $\bar X$.

\[\begin{aligned} T&=\frac{L(X_1,\dots,X_n,\bar X)}{L(X_1,\dots,X_n,0)}\quad \text{car }m=0\\ &= e^{-\frac{1}{2}[\sum_{i=1}^n(X_i-\bar X)^2-\sum_{i=1}^nX_i^2]}\\ &=e^{-\frac{1}{2}[e\sum_{i=1}^nX_i+n\bar X^2]}\\ &=e^{-\sum_{i=1}^nX_i-\frac{n}{2}\bar X^2} \end{aligned}\\ \log(T)=-\sum X_i-\frac{n}{2}\bar X^2\]

$(H_0)$ rejetee $\color{red}{si}$ $T\gt S_{\alpha}$

\[\begin{aligned} \log(T)&\gt\log(S_{\alpha})\\ -\sum X_i-\frac{n\bar X^2}{2}&\gt \log(S_{\alpha})\\ \sum_{i=1}^nX_i+\frac{n\bar X^2}{2}&\lt\log(S_{\alpha}) \end{aligned}\]

Nous supposerons que les hypotheses techniques evoquees sont verifiees.

En revenant a nos calculs:

\(2\biggr(\sum_{i=1}^nX_i+n\bar X^2\biggr)\sim\chi^2(1)\)

Second exemple

  • La variable aleatoire $X$ suit une loi $\varepsilon(\lambda)$
  • $H_0:\lambda=1$ contre $H_1:\lambda\gt1$
This post is licensed under CC BY 4.0 by the author.