Home OCVX: Differentielles
Post
Cancel

OCVX: Differentielles

Lien de la note Hackmd

Bienvenue dans le merveilleux monde de la differentielle <3

Exemple

\[f(x) = ax^2+bx+c\quad a\gt 0\]

\[f'(x^*) = 0 = 2ax^*+b\]

Point optimal:

\[x^*=-\frac{b}{2a}\]

Valeur optimale:

\[\begin{aligned} f^*=f(x^*)&=a(-\frac{b}{2a})^2+b(-\frac{b}{2a})+c\\ &=\frac{b^2}{4a}-\frac{b^2}{2a}+c\\ &=-\frac{b^2}{4a}+c \end{aligned}\]

On a envie de faire pareil pour \(\begin{aligned}f:\mathbb R^n&\to\mathbb R \\ x=(x_1,x_2,...,x_n)&\mapsto f(x) \end{aligned}\)

Rappel

On dit que $f:\mathbb R\to\mathbb R$ est derivable en $x_0$ ssi \(\lim_{x\to x_0}\frac{f(x)-f(x_0)}{x-x_0}\) existe et est finie.

Si c’est le cas, \(f'(x_0)=\lim_{x\to x_0}\frac{f(x)-f(x_0)}{x-x_0}\) est le nombre derive de $f$ en $x_0$.

$f’(x_0)\equiv$ pente de la tangente au point $(x_0,f(x_0))$.

On peut reecrire le nombre derive comme \(f'(x_0)=\lim_{h\to 0}\frac{f(x_0+h)-f(x_0)}{h}\) en posant $h=x-x_0$

Comment generaliser la notion de derivee pour $f:\mathbb R^n\to\mathbb R$ ?

En quoi c’est faux ?

\[\lim_{x\to x_0}\frac{f(x)-f(x_0)}{\underbrace{x-x_0}_{\in\mathbb R^n}} = \lim_{h\to 0}\frac{f(x)-f(x_0)}{\underbrace{x-x_0}_{\in\mathbb R^n}}\]\[\phi(t) = f(x_1,...,x_k+t,...,x_n) = f(x+t(0,...0,1,0,...0))\]

On regarde ce qu’il se passe pour la $k^e$ coordonnee en “bloquant” les autres.

Pour $f:\mathbb R\to\mathbb R$, $f’(x_0)$ existe $\Leftrightarrow$ $f$ derivable en $x_0$ $\Rightarrow$ f continue en $x_0$

Exemple

\[\begin{aligned} f:\mathbb R^2&\to\mathbb R\\ (x,y)&\mapsto\begin{cases} \frac{xy}{x^2+y^2} &(x,y)\neq(0,0)\\ 0 &(x,y)=(0,0) \end{cases} \end{aligned}\]

On va regarder \(\begin{aligned}\phi_x:t&\to f((0,0)+t(1,0)) \\ \phi_x(t)&=f(t,0)=0\forall t \\ &\rightarrow\phi_x'(0)=0\frac{\delta f}{\delta x}(0,0)\end{aligned}\)

Idem pour $y$

\[\begin{aligned} \phi_y:t&\to f((0,0)+t(0,1)) = f(0,t)=0\forall t\\ &\rightarrow \phi_y'(0)=0=\frac{\delta f}{\delta y}(0,0) \end{aligned}\]

Derivee directionnelle

Exemple

\[\begin{aligned} f:\mathbb R^2&\to\mathbb R\\ (x,y)&\mapsto x^2+y^2 \end{aligned}\]

Que vaut la derivee selon $v=(2,0)$ et $x_0=(1,0)$ ?

\[\begin{aligned} \phi:t\to f(x_0+tv) &= f((1,0)+t(2,0))\\ &= f(1+2t,0)\\ &= (1+2t)^2+0^2\\ &= 4t^2+4t+1 \end{aligned}\\ \rightarrow\phi(t) = 4t^2+4t+1\rightarrow \phi'(t)=8t+4\rightarrow phi'(0)=D_vf(x_0)=4\\ \text{Et } D_{e_1}=\frac{\delta f}{\delta x}(x_0) = 2\\ \begin{cases} D_{(2,0)}f(x_0)=4\\ D_{(1,0)}f(x_0)=\frac{\delta f}{\delta x}(x_0)=2 \end{cases} \text{D'une maniere generale, } D_{\alpha v}f(x_0)=\alpha D_v f(x_0)\]

Si $\Vert v\Vert=1\rightarrow$ derivee en $x_0$ en vecteur $v$ $\equiv$ derivee directionnelle en $x_0$ selon $v$

Est-ce que les derivees directionnelles sont la solution ?

Est-ce que l’existence des derivees directionnelles en $x_0$ selon tout vecteur $v\in\mathbb R^n\setminus{0}$ garantit la continuite ?

Exemple

\[\begin{aligned} f:\mathbb R^2&\to\mathbb R\\ (x,y)&\mapsto\begin{cases} \frac{y^2}{x} &x\neq0\\ y &x=0 \end{cases} \end{aligned}\]

En $(0,0)$ selon $v=(v_1,v_2)\neq{(0,0)}$

\[\begin{aligned} \phi:t&\to f(x_0+tv)=f((0,0)+t(v_1,v_2)) = f(tv_1,tv_2)\\ \phi(t)&=\begin{cases} \frac{(tv_2)^2}{tv_1} &v_1\neq0\\ tv_2 &v_1=0 \end{cases}\\ \phi(t)&=\begin{cases} t\frac{v_2^2}{v_1} &v\neq 0\\ tv_2 &v_1=0 \end{cases}\\ \phi'(t)&=\begin{cases} \frac{v_2^2}{v_1} &v_1\neq0\\ v_2 &v_1=0 \end{cases}\\ \phi'(0)&=\begin{cases} \frac{v_2^2}{v_1} &v_1\neq0\\ v_2 &v_1=0 \end{cases} \rightarrow\text{ existe }\forall v\in\mathbb R^2\setminus\{0\} \end{aligned}\]

Si on regarde le parametrage $\psi:t\to(t^2,t)$

\[f\circ\psi(t)=f(\psi(t)) = f(t^2,t)=\begin{cases} \frac{t^2}{t^2} &t\neq0\\ 0 &t=0 \end{cases}\]

$\rightarrow$ $f\circ\psi$ n’est pas continue en $0$ $\rightarrow$ $f$ n’est pas continue en 0

Nouvelle approche

On va changer l’angle d’attaque Pour $f:\mathbb R\to\mathbb R$, on a vu: $f$ derivable en $x_0$ \(\begin{aligned}&\Leftrightarrow \lim_{h\to0}\frac{f(x_0+h)-f(x_0)}{h} \\ &\Leftrightarrow f(x_0+h)=\underbrace{f(x_0)}_{\text{la variable c'est }h}+\underbrace{hf'(x_0)}_{\text{fonction lineaire par rapport a }h}+\underbrace{\theta_a(h)}_{h\varepsilon(h)}\end{aligned}\)

Pour $f:\mathbb R\to\mathbb R$, $f$ derivable en $x_0$ $\Leftrightarrow$ \(f(x_0+h)=f(x_0) + \underbrace{hf'(x_0)}_{d_{x_0}f\text{ avec } d_{x_0}f:h\to hf'(X_0)} + h\varepsilon(h)\)

Exemple

\[\begin{aligned} f:\mathbb R&\to\mathbb R\\ x&\mapsto x^2 \end{aligned}\]

En $x_0$

\[f(x_0+h)=(x_0)^2=\underbrace{x_0^2}_{f(x_0)}+\overbrace{2hx_0}^{\text{fonction lineaire par rapport a }h \\ \rightarrow d_{x_0}f(h)=2hx_0 \\ \rightarrow d_{x_0}h\mapsto\underbrace{2x_0h}_{f(x_0)}}+\underbrace{h^2}_{\theta_a(h)\to\frac{h^2}{h}=h\to_{h\to0}0}\\\] \[\begin{aligned} f:\mathbb R^n&\to\mathbb R\\ x&\mapsto x^Tx \end{aligned}\]

En $x_0$:

\[\begin{aligned} f(x_0+h)&=(x_0+h)^T(x_0+h) = x_0^Tx_0+x_0^Th+\underbrace{h^Tx_0}_{(h^Tx_0)^T=x_0^Th}+h^Th\\ &= \underbrace{x_0^Tx_0}_{f(x_0)} + 2x_0^Th+\underbrace{h^Th}_{\theta_a(\Vert h\Vert)} \end{aligned}\\ h^Th=<h,h>=\Vert h\Vert^2\\ \frac{h^Th}{\Vert h\Vert}=\frac{\Vert h\Vert^2}{\Vert h\Vert}=\Vert h\Vert\to_{h\to0}0\]

Et $2x_0^Th$ est lineaire $\color{red}{(2x_0^T(h_1+\lambda h_2))=2x_0^Th_1+2\lambda x_0^Th}$

Lien entre differentielle et vecteur gradient

f differentielle en $x_0$, $f$ admet des derivees selon tout vecteur $h\in\mathbb R^n\setminus{0}$, en particulier selon les vecteurs de la base canonique $(e_1,…,e_n)$ $\rightarrow$ toutes les derivees partielles $\frac{\delta f}{\delta x}(x_0)$ existent

\[h\in\mathbb R^n\\ h=\begin{pmatrix} h_1\\ \vdots\\ h_n \end{pmatrix}\quad h=\sum_{i=1}^nh_ie_i\\ \begin{aligned} d_{x_0}f(h) &= d_{x_0}f(\sum_{i=1}^nh_ie_i) \begin{cases} h_i\in\mathbb R\forall i\\ e_i\in\mathbb R^n \end{cases}\quad f\text{ lineaire } f(\lambda x+\mu y) = \lambda f(x) + \mu f(y)\\ &= \sum_{i=1}^nh_id_{x_0}f(e_i)\\ &= \sum_{i=1}^nh_iD_{e_i}f(x_0) = \sum_{i=1}^nh_i\frac{\delta f}{\delta x_i}(x_0) \end{aligned}\]\[\begin{aligned} d_{x_0}f(h) &= \sum_{i=1}^nh_i\frac{\delta f}{\delta x_i}(x_0) = (\underbrace{\frac{\delta f}{\delta x_1}(x_0),...,\frac{\delta f}{\delta x_n}(x_0)}_{\nabla_{x_0}f^T})\begin{pmatrix} h_1 \\ \vdots \\ h_n \end{pmatrix}\\ &=\nabla_{x_0}f^Th=<\nabla_{x_0},h> \end{aligned}\]

$f$ differentielle en $x_0$, $d_{x_0}=<\nabla_{x_0}f,h>=\nabla_{x_0}f^Th$

Comment s’etend la differentielle pour \(\begin{aligned}f:\mathbb R^n&\to\mathbb R^p \\ x=(x_1,...,x_n)&\mapsto f(x) = (f_1(x_1,...,x_n),...,f_p(x_1,...,x_n))\end{aligned}\)

\[\begin{aligned} f:\mathbb R&\rightarrow \mathbb R^3\\ x&\mapsto(2x, x^2, 3x+2) \end{aligned}\]

$f$ differentiable en $x_0$ $\Leftrightarrow$ $f_1,…,f_p$ sont differentiables en $x_0$

\[\begin{aligned} f(x_0+h)&=\begin{pmatrix} f_1(x_0+h) \\ \vdots \\ f_p(x_0+h) \end{pmatrix}\\ &= \begin{pmatrix} f_1(x_0) + d_{x_0}f_1(h)+\theta_a(\Vert h\Vert)\\ \vdots \\ f_p(x_0) + d_{x_0}f_p(h)+\theta_a(\Vert h\Vert) \end{pmatrix}\\ &= \underbrace{\begin{pmatrix} f_1(x_0)\\ \vdots\\ f_p(x_0) \end{pmatrix}}_{f(x_0)} + \underbrace{\begin{pmatrix} d_{x_0}f_1(h)\\ \vdots\\ d_{x_0}f_p(h) \end{pmatrix}}_{?} + \underbrace{\theta(\Vert h\Vert)}_{\in\mathbb R^p} \end{aligned}\]

Les $f_i, i = 1,…,p$ sont des fonctions differentiables de $\mathbb R^n\to\mathbb R$

\[d_{x_0}f_i(h) = <\nabla_{x_0}f_i,h> = \nabla_{x_0}f_i^Th=\biggr(\frac{\delta f_1}{\delta x_1}(x_0),...,\frac{\delta f_n}{\delta x_n}(x_0)\biggr)h\\ \begin{pmatrix}d_{x_0}f_1(h) \\ \vdots \\ d_{x_0}f_p(h) \end{pmatrix}_{\mathbb R^p} = \begin{pmatrix}\nabla_{x_0}f_1^Th \\ \vdots \\ \nabla_{x_0}f_p^Th \end{pmatrix}_{\mathbb R^p} = \begin{pmatrix} (\frac{\delta f_1}{\delta x_1},...,\frac{\delta f_1}{\delta x_n})h \\ \vdots \\ (\frac{\delta f_p}{\delta x_1},...,\frac{\delta f_p}{\delta x_n})h \end{pmatrix}_{\mathbb R^p} = \underbrace{\begin{bmatrix} \frac{\delta f_1}{\delta x_1},...,\frac{\delta f_1}{\delta x_n} \\ \vdots \\ \frac{\delta f_p}{\delta x_1},...,\frac{\delta f_p}{\delta x_n} \end{bmatrix}_{\mathbb R^{p\times n}}}_{\text{matrice jacobienne}}h_{\mathbb R^n}\]

\(\color{red}{d_{x_0}f(h) = Jac_{x_0}f\times h}\) La differentielle de $f:\mathbb R^n\to\mathbb R^p$ en $x_0$ est l’application lineaire $d_{x_0}f:h\mapsto Jac_{x_0}f\times h$ $f$ differentielle en $x_0$, \(f(x_0+h)=f(x_0)+\underbrace{d_{x_0}}_{d_{x_0}f\text{ application lineaire}}+\theta_a(\Vert h\Vert)\)

  1. \[\begin{aligned} f:\mathbb R&\rightarrow \mathbb R^3\\ d_{x_0}f:h&\mapsto hf'(x_0) \end{aligned}\]
  2. \[\begin{aligned} f:\mathbb R^n&\rightarrow \mathbb R\\ d_{x_0}f:h&\mapsto <\nabla_{x_0}f, h>=\nabla_{x_0}f^Th \end{aligned}\]
  3. \[\begin{aligned} f:\mathbb R^n&\rightarrow \mathbb R^p\\ d_{x_0}f:h&\mapsto Jac_{x_0}f\times h \end{aligned}\]
This post is licensed under CC BY 4.0 by the author.