Home ASE2: Convergence et estimation - 1
Post
Cancel

ASE2: Convergence et estimation - 1

Lien de la note Hackmd

Introduction

L’objectif de l’estimation c’est estimer le parametre.

Qualites de l’estimateur:

  1. Etre convergent
  2. Etre precis
    • Plus la variance est minimale, plus on a un estimateur precis
  3. Etre efficace

Pour etudier la convergeance, on va voir 3 types:

  1. Convergence en proba
  2. Convergence quadratique
  3. Convergence discrete

Rappels de la loi Gamma et la loi Normale

Propriete de la fonction Gamma

  1. $\Gamma(x+1)=x\Gamma(x)$ (integration par partie)
  2. $\Gamma(1)=1$
  3. $\Gamma(n+1)=n!$
  4. $\Gamma(k+\frac{1}{2}) = \frac{1.3.5…..(2k -1)}{2^k}\Gamma(\frac{1}{2})$
  5. $\Gamma(\frac{1}{2}) = \sqrt{\pi}$

Esperance de la loi $\gamma_r$: soit $X$ une variable aleatoire suivant la loi gamma de parametre r. On a: \(E(x)=\frac{1}{\Gamma}\int^{+\infty}_0 t^T\exp(-t)dt = \frac{\Gamma(r+1)}{\Gamma(r)} = r\)

Variance de la loi $\gamma_r : V(X) = E(X^2) - E^2(X)$ \(E(X^2) = \frac{1}{\Gamma(r)}\int^{+\infty}_0 t^2\exp(-t) t^{r-1}dt = \frac{1}{\Gamma(r)}t^{r+1}\exp(-t)dt = \frac{\Gamma(r+2)}{\Gamma(r)} = r(r + 1)\) Donc $V(X) = r(r + 1) - r^2 = r$

Loi Normale de parametre $(m, \sigma)$

On dit qu’une variable aleatoire $X$ suit la loi normale notee $N(m, \sigma)$ si sa densite est $f(x)=\frac{1}{\sigma\sqrt{2\pi}}\exp(-\frac{1}{2}(\frac{x-m}{\sigma})^2)$ ou:

  • $m=E(X)$
  • $\sigma=\sqrt{V(X)}$ (ecart-type)

Avec le changement de variable $U=\frac{X-m}{\sigma}$ (variable normale centree reduite), la densite de $U$ est $f(u) = \frac{1}{\sqrt{2\pi}}\exp(-\frac{1}{2}u^2)$.

Montrons que $V(U) = 1$

On a $V(U) = E(U^2) = \int_{-\infty}^{+\infty}\frac{1}{\sqrt{2\pi}}u^2\exp(-\frac{1}{2}u^2)du = \frac{2}{\sqrt{2\pi}}\int^{+\infty}_{0}u^2\exp(-\frac{1}{2}u^2)du$. Posons:

  • $t = \frac{u^2}{2}$
  • ut = udu

\(\begin{aligned} V(U) &= \frac{2}{\sqrt{2\pi}}\int^{+\infty}_{0}2t\exp(-t)\frac{dt}{\sqrt{2t}}\\ &= \frac{2}{\sqrt{\pi}}\int^{+\infty}_{0}t^{\frac{1}{2}}\exp(-t)dt\\ &= \frac{2}{\sqrt{\pi}}\Gamma(\frac{3}{2})\\ &= \frac{2}{\sqrt{\pi}}\frac{1}{2}\Gamma(\frac{1}{2}) \end{aligned}\) Donc $V(U) = \frac{1}{\sqrt{\pi}}\sqrt{\pi} = 1$

Moments de la loi normale centree reduite

Soit $U$ une variable normale centree reduite, on appelle moment d’ordre $k$ de $U$: $u_k = E(U^k)$

  • Si $k = 2p + 1$ alors $u_{2p+1} = 0$ (car fonction impaire)
  • Si $k = 2p$ alors $u_{2p} = \frac{1}{\sqrt{2\pi}}\int_{-\infty}^{+\infty}u^{2p}\exp(-\frac{1}{2}u^2)du = \frac{2}{\sqrt{2\pi}}\int^{+\infty}_{0}u^{2p}\exp(-\frac{1}{2}u^2)du$

Posons:

  • $t= \frac{u^2}{2}$
  • $dt=udu$

\(\begin{aligned} u_{2p} &= \frac{2}{\sqrt{2\pi}}\int^{+\infty}_0(2t)^p\exp(-t)\frac{dt}{\sqrt{2\pi}}\\ &=\frac{2^p}{\sqrt{\pi}}\int^{+\infty}_0t^{p-\frac{1}{2}}\exp(-t)dt\\ &=\frac{2^p}{\sqrt{\pi}}\Gamma(p + \frac{1}{2}) \end{aligned}\) Or $\Gamma(p+\frac{1}{2})=\frac{1.3.5…(2p-1)}{2^p}$ et $\Gamma(\frac{1}{2}) = \sqrt{\pi}$ Donc $u_{2p}=1.3.5…..(2p-1) = \frac{(2p)!}{2^pp!}$

Fonctions caracteristiques

Definition

Si $X$ est une variable a densite ($X$ est une VA continue de densite $f$) alors:

\(\phi_X(t)=\int_{\mathbb R}\exp(itx)f(x)dx\) Si $X$ est une variable discrète alors sa fonction caractéristique est:

\[\phi_X(t) = \sum_k\exp(itk)P(X = k)\]

Proprietes

  1. $\phi_{\lambda X} = \phi_X(\lambda t)$ $\forall \lambda$ un scalaire
  2. $\phi_{X+a}(t) = \exp(ita)\phi_X(t)$
  3. Si $X$ est une variable aleatoire d’esperance et d’ecrat-type $\sigma$ et $U = \frac{X-m}{\sigma}$
\[\phi_{\frac{X-m}{\sigma}}(t) = \phi_U(T) = \exp(-\frac{itm}{\sigma})\phi_X(\frac{t}{\sigma})\]

Remarque

la fonction caractéristique se prête bien aux additions de variables aléatoires indépendantes : Si $X$ et $Y$ sont deux variables aléatoires indépendantes alors

\[\phi_{X+Y}(t)=\phi_X(t)\phi_Y(t)\]

En effet $\phi_{X+Y}(t) = E(\exp(it(X+Y))) = E(\exp(itX)\exp(itY))$ Or $X$ et $Y$ sont indépendantes $E(\exp(itX)\exp(itY)) = E(\exp(itX))E(\exp(itY))$ Donc $\phi_{X+Y}(t) = \phi_X(t)\phi_Y(t)$

Proposition

Soit $X$ une variable aléatoire de fonction de répartition $\phi_X(t)$. On a:

  • $\phi_X(0) = 1$
  • $\frac{d^k\phi_X}{dt^k}(0) = \phi_X^{(k)}(0) = i^kE(X^k)$

Demo

Supposons que $X$ est une variable continue de densité $f$ On a $\phi_X(t)=\int_{\mathbb R}\exp(itx)f(x)\Rightarrow\phi_X(0) = \int_{\mathbb R}f(x)dx=1$ (car $f$ est une densité) En derivant $\phi_X(t)$ par rapport a t: $\phi_x’(t)=i\int_{\mathbb R}x\exp(itx)f(x)dx$

  • Si $t=0$, $\phi_X’(0) = i\int_{\mathbb R}xf(x)dx=iE(X)$

Si on dérive 2 fois, $\phi_X^{(2)}(t)=\int_{\mathbb R}(ix)^2\exp(itx)f(x)dx$

  • Pour $t = 0$, $\phi_X^{(2)}(0) = (i)^2\int_{\mathbb R}x^2f(x)dx = -\int_{\mathbb R}x^2f(x)dx=-E(X^2)$

En dérivant $k$ fois par rapport à $t$: $\phi_x^{(k)}(t)=\int_{\mathbb R}(ix)^k\exp(itx)f(x)dx$

  • $\phi_X^{(k)}(0) = (i^k)\int_{\mathbb R}x^kf(x)dx = i^kE(X^k)$ $\forall k\in\mathbb N$

Formule de Mac-Laurin

Exemple 1

Soit X une variable aléatoire continue de densité: \(\begin{cases} f(x) = \exp(-x) &\text{si } x\gt0\\ f(x) = 0 &\text{sinon} \end{cases}\) Determiner la fonction caracteristique de $X$

Solution

On a \(\begin{aligned} \phi_X(t)&=\int_{\mathbb R}\exp(itx)f(x)dx=\int_{0}^{+\infty}\exp(itx)\exp(-x)dx = \int_{0}^{+\infty}\exp(-(1-it)x)dx\\ &= \int_{0}^{+\infty}\exp(-(1-it)x)dx = \biggr[\frac{-\exp(-(1-it)x)}{(1-it)}\biggr]^{+\infty}_{0} = \frac{1}{1-it} \end{aligned}\)

car $\exp(-(1-it)x) = \exp(-x)\exp(itx)\to 0$ lorsque $x\to +\infty$ Puisque $\exp(itx)$ est bornee de module 1 et $\exp(-x)\to 0$ quand $x\to +\infty$

Exemple 2

Déterminer la fonction caractéristique de la loi de Bernoulli de paramètre $p$

Solution

Soit X une variable de Bernoulli :

  • $X=1$ avec la probabilite $p$
  • $X=0$ avec la probabilité $1-p$

$X$ étant discrète, donc sa fonction caractéristique est: \(\phi_X(t)\sum_k\exp(itk)P(X=k) = \sum_{k=0}^1\exp(itk)P(X=k)=P(X=0)+\exp(it)P(X=1)\\ \phi_X(t) = 1 - p + p\exp(it) = q + p\exp(it) \text{avec } q =1 - p\)

Convergence des suites de variables aleatoires

Convergence en probabilite

Definition

Remarque

Lorsque $E(X_n)\to_{n\to+\infty}0$, il suffit de montrer que $V(X_n)\to_{n\to+\infty} 0$ pour établir la convergence en probabilité de la suite $(X_n)$ vers a.

En effet d’après Tchebychev:

\(P(\vert X_n-E(X_n)\vert\gt\varepsilon)\lt\frac{V(X_n)}{\varepsilon^2}\to 0\) Donc en passant a la limite:

\[\lim_{n\to+\infty}P(\vert X_n - a\vert\gt\varepsilon) = 0\\ \forall\varepsilon\gt0\]

Convergence en moyenne quadratique

On suppose que $E(\vert X_n-X\vert^2)$ existe.

Definition

Convergence en loi

Definition

Remarque

Pour les variables discrètes, la convergence en loi est équivalente à

\[\lim_{n\to+\infty}P(X_n=k) = P(X=k)\]

Theoreme

Si la suite des fonctions caractéristiques $\phi_{x_n}(T)$ converge vers $\phi_X(t)$ alors $(X_n)\to^LX$

Applications - Convergence en loi de la binomiale vers la loi Normale

Théorème (Moivre-laplace)

Demonstration

La fonction caractéristique de la loi $B(n,p)$ est:

\[\begin{aligned} \phi_{X_n}(t) &= (p\exp(it)+1-p)^n \text{ donc celle de } Y_n=\frac{X_n-np}{\sqrt{npq}} \text{ est:}\\ \phi_{Y_n} &=(p\exp(\frac{it}{\sqrt{npq}})+1-p)^n\exp(-\frac{itnp}{\sqrt{npq}})\\ Ln(\phi_{Y_n}(t)) &= nLn(p(\exp(\frac{it}{\sqrt{npq}})-1)+1) - \frac{itnp}{\sqrt{npq}} \end{aligned}\]

On rappelle le développement limité de l’exponentielle à l’ordre 2: $\exp(x) \approx 1+x+\frac{x^2}{2}$ (au voisinage de 0)

\[Ln(\phi_{Y_n}(t)) \approx nLn(p(\frac{it}{\sqrt{npq}} - \frac{t^2}{2npq})+1)-\frac{itnp}{\sqrt{npq}}\]

On rappelle $Ln(1+x)\approx x - \frac{x^2}{2}$ (au voisinage de 0) Donc:

\[\begin{aligned} Ln(\phi_{Y_n}(t))&\approx n[\frac{pit}{\sqrt{npq}}-\frac{pt^2}{2npq}+\frac{p^2t^2}{2npq}]-\frac{itnp}{\sqrt{npq}}\\ &\approx -\frac{t^2}{2q} + \frac{pt^2}{2q} = \frac{t^2}{2q}(p-1)=-\frac{t^2}{2} \end{aligned}\]

En composant par l’exponentielle:

\[Ln(\phi_{Y_n}(t))\approx\exp(-\frac{t^2}{2}) \text{ caractéristique de la loi normale } N(0,1)\]

Conclusion: $\frac{X_n-np}{\sqrt{npq}}\to^LN(0,1)$

Remarque

Il convient cependant d’effectuer la correction de continuité : on obtient donc une valeur approchée de $P(X=x)$ par la surface sous la courbe de densité de la loi normale $N(np,\sqrt{npq})$ comprise entre les droites d’abscisse $x-\frac{1}{2}$ et $x+\frac{1}{2}$

\[P(X=x)\approx P(x-\frac{1}{2}\lt X\lt x+\frac{1}{2}) = P(\frac{x-\frac{1}{2}-np}{\sqrt{npq}}\lt\frac{X-np}{\sqrt{npq}}\lt\frac{x+\frac{1}{2}-np}{\sqrt{npq}})\]

Et $P(X\le x)\approx P(\frac{X-np}{\sqrt{npq}}\lt\frac{x+\frac{1}{2}-np}{\sqrt{npq}})$

This post is licensed under CC BY 4.0 by the author.