Lien de la note Hackmd
PRST - Seance 2
Definition
- Soit $X$ une v.a (aucune condition prescrite)
- $\phi$ definie sur $\mathbb R$ par: $\phi_X(t) = E(e^{itx})$
- $\vert e^{itx}\vert \le 1$
- $\phi(t)=\int_{\omega}e^{itx(\omega)}$
- Caracterise la loi d’une v.a, i.ei $\phi_X=\phi_Y \Rightarrow X$ et $Y$ suivent la meme loi
Lois marginales
- Lois des v.a $X_i$
- Impossible, sans hypothese supplementaire, de determiner la loi conjointe a partir des lois marginales
Matrice de covariance
- Matrice carre d’ordre $d$ definie par $m_{ij} = Cov$
Indepenance de 2 variables: cas discret
- 2 va $X$ et $Y$ sont dites independantes si, pour tout reel $x$ et $y$ de leur supports respectifs:
- $P({X\le x})$
- 2 variables aleatoires sont independantes si:
Definition
- Un vecteur aleatoire $(X_1,…,X_d)$ est dit gaussien si toute combinaison des VA $X_k$ est gaussienne
- Un vecteur gaussien est entierement caracterise par $m=(E(X_1),…,E(X_d))^T$ et sa matrice de variance-covariances $\Sigma$. Sa loi sera notee $N(m,\Sigma)$ et nous parlerons de loi normale multidimensionnelle
Proposition
Si $X$ est un vecteur gaussien et $A$ est une application lineaire definie sur $\mathbb R^+$ $Y = AX$ est un vecteur gaussien
L’image d’un vecteur gaussien par une application lineaire est un vecteur gaussien.
Comment prouver que la d-ieme composante est gaussienne ? Soit $(X_1, X_2, X_3)$ un vecteur gaussien. Pourquoi $X_3$ suit-elle une loi gaussienne ? \(\underbrace{\begin{pmatrix}0 & 0 &1\end{pmatrix}}_{\text{application lineaire}} \begin{pmatrix} X_1\\ X_2\\ X_3 \end{pmatrix} = X_3\)
On considere Leo et Alexandre jouent a un jeu de pile ou face et font bourses communes.
Leo | |
---|---|
pile | 10 € |
face | -10 € |
Alexandre | Proba | |
---|---|---|
Image | 10 € | 1/2 |
SCIA | 5 € | 1/10 |
GISTRE | -100 € | 4/10 |
Ils vont pas en cours les SCIA - Alexandre
On a $(X;Y)$ avec $X$ les gains de Leo et $Y$ les gains de Alexandre. Les deux VA sont independantes
\[P(X=1-;Y=10) = \frac{1}{2} \times \frac{1}{2} = \frac{1}{4}\\ P(X=-10;Y=100) = \frac{1}{2}\times\frac{4}{10} = 0,5\\ (E(X); E(Y)) = (0; -34,5)\]Proposition
Soit $X = (X_1,…, X_d)$ un vecteur gaussien. Les variables aleatoires $X_1,…X_d$ sont independantes si et seulement si la matrice $\Sigma$ est diagonale. $Cov(UV) = E(UV) - E(U) \times E(V)$ \(\Sigma = \begin{pmatrix} Var(U) & Cov(U, V)\\ Cov(U, V) & Var(U) \end{pmatrix}\)
Convergence presque sure (p.s.)
- $(X_i)$ suite de variables aleatoires sur le meme espace $\Omega$ et $X$ une variable aleatoire egalement definie $\Omega$
- convergence ponctuelle
- implique tous les autres $\lim_{n\to+\infty}X_n(\omega) = Y(\omega)$ pour tous $\omega\in\Omega$
Convergence en probabilite
- Meme cadre que precedemment
- $\forall\varepsilon\gt 0, \lim_{n\to+\infty}P(\vert X_n - X\vert\ge \varepsilon) = 0$
Convergence en loi
- Meme cadre que precedemment
- $\lim_{n\to+\infty}F_{X_n} = F_X$
Theoreme de Paul Levy
- Si la suite de v.a. $(X_n)$ converge en loi vers une v.a. $X$ alors
- $\lim_{n\to+\infty}\pi_{X_n} = \phi_X(t)$
Convergence $L^2$
- aussi appelee convergence en moyenne quadratique
- $\lim_{n\to+\infty}E(\vert X_n - X\vert^2) = 0$
- n’a de sens que pour les VA telles que $E(X^2)\lt+\infty$
- implique la convergence en probabilite
Convergence $L^1$
- aussi appelee convergence en moyenne
- $\lim_{n\to+\infty}E(\vert X_n -X\vert) = 0$
Loi forte des grands nombres
Soit $(X_i)$ une suite de VA i.i.d. (independant et suivat la meme loi)
\[\lim_{n\to+\infty}\overline{X_n} = E(X)\]au sens de la convergence p.s. ou $\overline{X_n} := \frac{X_1 + … + X_n}{n}$
Cas unidimensionnel
- Soit $(X_i)$ une suite v.a. i.i.d.
- Noton $m:=E(X_i)$ et $\sigma^2 = V(X_i)$
$X_1$ et $X_2$ deux v.a. independantes. \(\phi_{X_1 + X_2}(t) = \phi_{X_1}(t) + \phi_{X_2}(t)\)
Preuve
\(\begin{aligned} \phi_{X_1 + X_2}(t) &= E(e^{it(X_1 + X_2)})\\ &= E(e^{itX_1})E(e^{itX_2}) \end{aligned}\) Car les v.a. sont independantes \(\phi_{X_1+X_2} =\)