Lien de la note Hackmd
Dedramatiser les espaces tangents
Pour une fonction \(\begin{aligned}f:\mathbb R&\to\mathbb R \\ x&\mapsto f(x)\end{aligned}\)
\[Gr(f) = \{(x,f(x)), x\in\mathbb R\} \subseteq \mathbb R^2\]Une droite affine est un sous-espace de dimension 1
\[\begin{aligned} \color{red}{\mathcal T_{Gr(f), p}} &= (a,f(a)) + \color{red}{\underbrace{\{\lambda(1,f'(a)),\lambda\in\mathbb R\}}_{vect((1,f'(a))) = span((1,f'(a)))}}\\ &= \{((a+\lambda), f(a) + \lambda f'(a),\lambda\mathbb R)\}\quad\text{representation parametrique de } \mathcal T_{Gr(f), p} \end{aligned}\]$Gr(f)$ $\to$ courbe $y=f(x)\equiv$ courbe \(\underbrace{f(x)-y}_{g(x,y)}=0\)
On va introduire \(\begin{aligned}g:\mathbb R^2&\to\mathbb R \\ (x,y)&\mapsto f(x)-y \end{aligned}\)
$Gr(f)$ $\to$ courbe $y=f(x)\equiv$ coubre \(\underbrace{f(x)-y}_{g(x,y)}=0 \equiv\{(x,y)\in\mathbb R^2, g(x,y) = 0\}=\mathcal C_0(g)\)
On passe a la courbe de niveau 0
Que vaut $\nabla g(p)$ ?
\[\nabla g(x,y) = (\frac{\partial g}{\partial x}, \frac{\partial g}{\partial y}) = (f'(x), -1)\\ \nabla g(p=(a,f(a))) = (f'(a), -1)\]On a trouve precedemment un vecteur directeur de l’espace tangent $(1, f’(a))$.
On obtient 2 vecteurs orthogonaux
Le gradient d’une fonction en un point donne est orthogonal aux lignes de niveau de cette fonction.
Cas general
Dans le cas general $f:\mathbb R^n\to\mathbb R$
Notre “bol” est:
\[Gr(f) = \{(x,y,f(x,y)), (x,y)\in\mathbb R^2\} \subseteq\mathbb R^3\]On veut calculer l’espace tangent dans un point donne de l’espace
On a deux directions de pentes
- Qu’est-ce qui se passe selon $x$ ?
- Si on se deplace de $1$ en $x$, $\frac{\delta f}{\delta x}(x_0,y_0)$ en $z$
- Qu’est-ce qui se passe selon $y$ ?
- Si on se deplace de $1$ en $y$, $\frac{\delta f}{\delta y}(x_0,y_0)$ en $z$
Zoomons au niveau du point $p$:
Ces vecteurs generent l’espace tangent
\[\begin{aligned} \mathcal T_{Gr(f), p} &= p + vect\biggr(\underbrace{(\overbrace{1,0}^{e_x},\frac{\partial f}{\partial x}(x_0, y_0)}_{\in\mathbb R^3}), \underbrace{(\overbrace{0,1}^{e_y},\frac{\partial f}{\partial y}(x_0,y_0))}_{\in\mathbb R^3}\biggr)\\ &= p + vect\underbrace{((e_x, \frac{\partial f}{\partial x}), (e_y, \frac{\partial f}{\partial y}))}\\ &\{\lambda(e_x, \frac{\partial f}{\partial x}) + \mu(e_y, \frac{\partial f}{\partial y}),(\lambda,\mu\in\mathbb R^2)\} \end{aligned}\]Le vrai cas general $f:\mathbb R^n\to\mathbb R$
- $n$ pertes $\frac{\partial f}{\partial x}$ selon chaque vecteur de base $e_i=(0,…0,1,…,0)$
- $n$ vecteurs de perte \(\underbrace{(\underbrace{e_i}_{\in\mathbb R^n},\frac{\partial f}{\partial x_i})}_{\in\mathbb R^{n+1}}, i=1,...,n\)
$Gr(f)=$ surface $y=f(x_1,…,x_n)$
\[f(x_1,...,x_n)-y=0 \equiv \{(x_1,...,x_n,y)\text{ tel que } \underbrace{f(x_1,...,x_n)-y}_{g(x_1,...,x_n,y)}=0\} = \mathcal C_0(g)\\ \begin{aligned} g:\mathbb R^{n+1}&\to\mathbb R\\ (x_1,...,x_n,y) &\mapsto f(x_1,...,x_n)-y \end{aligned}\\ \nabla g(x,y) = (\frac{\partial g}{\partial x_1},...,\frac{\partial g}{\partial x_n},\frac{\partial g}{\partial y}) = (\frac{\partial f}{\partial x_1},...,\frac{\partial f}{\partial x_n},-1)\]Implicitement: \(\mathcal T_{C_0(g),p} = \{x\in\mathbb R^{n+1}, \nabla g^T x = 0\}\)
Exercice
Soit \(\begin{aligned} f:\mathbb R^2&\to\mathbb R \\ (x,y)&\mapsto ax^2+by^2 \quad (a,b)\in\mathbb (R_{*}^+)^2 \end{aligned}\)
- Decrire l’espace tangent en tout point du graph de $f$
- Decrire l’espace tangent a la courbe de niveau $1$ de $f$
- Exo 4.53
1.En un point $(x,y,f(x,y))\in Gr(f)$
- perte selon $x$: $(1,0,\frac{\partial f}{\partial x}) = \color{blue}{(1,0,2ax)}$
- perte selon $y$: $(0,1,\frac{\partial f}{\partial y}) = \color{green}{(0,1,2by)}$
2.$\mathcal C_1(f) = {(x,y)\in\mathbb R^2, f(x,y)=ax^2+by^2=1}$
On commence par regarder que vaut le gradient de cette fonction::
\[\nabla f(x,y) = \begin{pmatrix} 2ax \\ 2by \end{pmatrix}\]Dans quel sens pointe le gradient ?
Quel est l’espace par rapport au gradient ?
\[\begin{aligned} \mathcal T_{\mathcal C_1(f),p} = p + \{(x,y), \nabla f(x_0, y_0)^T\begin{pmatrix}x \\ y \end{pmatrix} &= 0\}\\ (2ax_0, 2by_0)\begin{pmatrix}x \\ y \end{pmatrix} &= 0\\ 2ax_0x + 2by_0y &= 0\\ y&=-\frac{ax_0}{by_0}x \end{aligned}\\ \mathcal T_{\mathcal C_1(f),p} = (x_0, y_0) + \{(x,y)\in\mathbb R^2, \underbrace{y = -\frac{ax_0}{by_0}x}_{\nabla f(x_0, y_0)^T\begin{pmatrix}x \\ y \end{pmatrix} = 0}\}\]3.Ou est le minimum de $f$ ? Quel point minimise $ax^2 + by^2$ ?
C’est $(0,0)$.
\[argmin f(x,y) = ax^2 + by^2 = (0,0)\]Dans quel sens pointe le gradient en tout point de la courbe de niveau par rapport au point minimal?
En tout point des courbes de niveau de $f$, $Df$ point a l’oppose du point optimal $(x^+=0, y^+=0)$
Caracterisation au premier ordre de la convexite
Graphiquement, quelque soit $x$, $Gr(f)\ge \mathcal T_{Grf(x,f(x))}$, le point est toujours au-dessus de la tangente.
Si $f$ est convexe, $\forall x,y$, $f(y) - f(x)\ge f’(x)(y-x)$
Pour une fonction $f:\mathbb R^n\to\mathbb R$, $f$ convexe $\Leftrightarrow$ $\forall x,y\in\mathbb R^n$ \(\color{red}{f(y)-f(x)\ge \nabla \underbrace{f(x)^T}_{\in\mathbb R^n}\underbrace{(y-x)}_{\in\mathbb R^n}}\)