Home ASE2: Convergence et estimation - 3
Post
Cancel

ASE2: Convergence et estimation - 3

Lien de la note Hackmd

$\bar X$ est un exemple d’estimateur de la moyenne $m=E(X)$ (sert a approximer la moyenne de la population globale)

Proposition

\[S^2 = \frac{1}{n}\sum_{i=1}^nX_i^2-(\bar X)^2\]

Demo

\[\begin{aligned} S^2&=\frac{1}{n}\sum_{i=1}^n(X_i-\bar X) = \frac{1}{n}\sum_{i=1}^n(X_i^2 - X_i\bar X+\bar X^2)\\ &= \frac{1}{n}\sum_{i=1}^nX_i^2-2\bar X\sum_{i=1}^nX_i+\frac{n}{n}\bar X^2\\ &= \frac{1}{n}\sum_{i=1}^nX_i^2-2\bar X^2+\bar X=\frac{1}{n}\sum_{i=1}^nX_i^-(\bar X) \end{aligned}\]

Montrons que $S^2\to^P\sigma^2$ lorsque $n\to+\infty$

D’après la loi des grands nombres, on a: $\bar X=\frac{1}{n}\sum_{i=1}^nX_i\to^Pm=E(X)$ quand $n\to+\infty$ et $\frac{1}{n}\sum_{i=1}^nX_i^2\to^PE(X^2)$ quand $n\to+\infty$ Donc $S^2=\frac{1}{n}\sum_{i=1}^nX_i^2-(\bar X)^2\to^PE(X^2)-E^2(X)=\sigma^2=V(X)$

On appelle biais de l’estimateur la quantité $b(T_n)=E(T_n)-\theta$

Comme exemple $\bar X$ est un estimateur sans biais de $m=E(X)$ puisque $E(\bar X) = m$

On appelle risque quadratique de $T_n$ ou erreur quadratique: \(R(T_n)=E((T_n-\theta)^2)\)

Propositiom

Le risque quadratique est :

\[R(T_n) = V(T_n)+(E(T_n)-\theta)^2\]

Démonstration

\[(T_n-\theta)^2=(T_n-E(T_n)+E(T_n)-\theta)^2\\ \begin{aligned} E((T_n-\theta)^2)&=E((T_n-E(T_n))^2)+2E((T_n-E(T_n))(E(T_n)-\theta))+E((E(T_n)-\theta)^2)\\ &= V(T_n)+2(E(T_n)-\theta)(E(T_n)-E(T_n))+(E(T_n)-\theta)^2\\ \end{aligned}\\ \text{Donc } R(T_n) = V(T_n)+(E(T_n)=\theta)^2\]

Remarque

Si l’estimateur est sans biais $b(T_n)=E(T_n)-\theta=0$ Alors $R(T_n)=V(T_n)$ Donc si on a deux estimateurs sans biais du paramètre $\theta$, le plus précis est celui de variance minimale.

This post is licensed under CC BY 4.0 by the author.