Lien de la note Hackmd
¯X est un exemple d’estimateur de la moyenne m=E(X) (sert a approximer la moyenne de la population globale)
Utile quand on a un parametre inconnu.
Definition: On appelle variance empirique, la statistique :
S2=1nn∑i=1(Xi−¯X)2Proposition
S2=1nn∑i=1X2i−(¯X)2Demo
S2=1nn∑i=1(Xi−¯X)=1nn∑i=1(X2i−Xi¯X+¯X2)=1nn∑i=1X2i−2¯Xn∑i=1Xi+nn¯X2=1nn∑i=1X2i−2¯X2+¯X=1nn∑i=1X−i(¯X)Montrons que S2→Pσ2 lorsque n→+∞
D’après la loi des grands nombres, on a: ¯X=1n∑ni=1Xi→Pm=E(X) quand n→+∞ et 1n∑ni=1X2i→PE(X2) quand n→+∞ Donc S2=1n∑ni=1X2i−(¯X)2→PE(X2)−E2(X)=σ2=V(X)
S2 est un estimateur de la variance.
Definition On considère une population X, distribuée suivant une loi de probabilité qui dépend d’un paramètre θ inconnu. On prélève un échantillon (X1,X2,…,Xn) de X, on appelle estimateur de θ, toute variable aléatoire Tn fonction de l’échantillon:
Tn=f(X1,X2,...Xn)On appelle biais de l’estimateur la quantité b(Tn)=E(Tn)−θ
On dit que l’estimateur est sans biais si b(Tn)=0⇔E(Tn)=θ.
Comme exemple ¯X est un estimateur sans biais de m=E(X) puisque E(¯X)=m
Definition On dit qu’une suite (Tn) d’estimateurs de θ est asymptotiquement (cad au voisinage de +∞) sans biais et si
limn→+∞(E(Tn))=θOn appelle risque quadratique de Tn ou erreur quadratique: R(Tn)=E((Tn−θ)2)
Propositiom
Le risque quadratique est :
R(Tn)=V(Tn)+(E(Tn)−θ)2Démonstration
(Tn−θ)2=(Tn−E(Tn)+E(Tn)−θ)2E((Tn−θ)2)=E((Tn−E(Tn))2)+2E((Tn−E(Tn))(E(Tn)−θ))+E((E(Tn)−θ)2)=V(Tn)+2(E(Tn)−θ)(E(Tn)−E(Tn))+(E(Tn)−θ)2Donc R(Tn)=V(Tn)+(E(Tn)=θ)2Remarque
Si l’estimateur est sans biais b(Tn)=E(Tn)−θ=0 Alors R(Tn)=V(Tn) Donc si on a deux estimateurs sans biais du paramètre θ, le plus précis est celui de variance minimale.
Definition On dit que l’estimateur Tn est convergent si cet estimateur converge en probabilité vers le paramètre θ. On ecrira Tn→Pθ lorsque n→+∞
Definition On appelle vraisemblance de θ, la densité de l’échantillon (X1,X2,…,Xn):
{L(x1,x2,...,xn,θ)=Πni=1P(Xi=xi)(dans le cas discret)L(x1,x2,...,xn,θ)=Πni=1f(xi)(dans le cas continu)