Lien de la note Hackmd
Rappel
Proposition
Sous des hypotheses techniques, en notant $\hat\theta_n$ l’estimateur du maximum de vraisemblance.
$\sqrt{n!(\theta_0)}(\hat\theta_n-\theta_0)$ converge en loi vers $\mathcal N(0,1)$
Nous disons que l’estimateur du maximum de vraisemblance est normal asymptotiquement efficace ou NAE (Best asymptotically normal ou BAN)
Nous supposerons que les hypotheses techniques evoquees sont verifiees
Theoreme de Wilks
Sous l’hypothese $(H_0)$, $R_n:=2\log T_n$ converge en loi ver une loi $\chi^2(1)$
Cas particulier
- $H_0:\theta=\theta_0$
- $H_1:\theta\neq \theta_1$
Notons $\hat\theta$ l’EMV
Definition
La statistique de Wald est:
\[W_n=\frac{(\hat \theta_n-\theta_0)^2}{V(\hat\theta_n)}\]Theoreme
Sous $H_0$, $W_n$ converge en loi vers un $\chi^2(1)$
Exemple
Premier exemple
- $X\sim\mathcal N(m,1)$
- $H_0:m=0$ contre $H_1:m\neq 0$
Second exemple
- $H_0$: “le patient est sain”
- $H_1$: “le patient est malade”
- $\alpha$: probabilite de rejeter $(H_0)$ alors qu’elle est vraie i.e. probabilite de fausse alarme
- $\beta$: probabiliter de rejeter $(H_1)$ alors qu’elle est vraie i.e., probabilite de non detection
- Ainsi, la puissance $\pi:=1-\beta$ est la probabilite de detection
Caracteristiques Operationnelles du Recepteur
- Elles permettent d’analyser les performances d’un test
- Expression de la puissance comme une fonction de $\alpha$
- $\beta=f(\alpha)$