Home CAMA : ma32 ma32 Méthode du gradiant pour système matriciel
Post
Cancel

CAMA : ma32 ma32 Méthode du gradiant pour système matriciel

Lien de la note Hackmd

Cours du 25/06

$Ax = b$ vu comme un probleme d’optimisation

Pour résoudre $Ax = b$ on va chercher le minimum de la fonctionnelle \(J(x) = \frac{1}{2}x^TAx - b.x\) La dérivée s’annule en ce point et est $Ax - b$

Calcul de la dérivée

Les derivées de dimension supérieure a 1 peuvent être manipulées comme des derivées partielles ou une derivée totale. On s’intéresse à la derivée dans une direction, c.a.d la derivée partielle en $y$ si on va dans la direction de l’axe $y$.

Si $f$ est dérivable en $a$ alors $\forall h \in X$ \(f'(a)(h) = lim_{\theta\to0}\frac{f(a + \theta h) - f(a)}{\theta}\)

Notation avec le gradient

\(f(a + h) = f(a) + (\nabla f)(a)^T h + h^T\epsilon(h)\)

  • $f$ est scalaire
  • $(\nabla f)(a)$ est un vecteur dont le produit scalaire avec h donne un réel

Calculons la dérivée de J suivant une direction

On calcule la dérivée de $J(x)$ au point $a$ suivant la direction $h$ \(J'(a)(h) = \lim_{\theta\to0}\frac{J(a + \theta h) - J(a)}{\theta} \\ = \lim_{\theta\to 0}\frac{1}{\theta}\biggr(\frac{1}{2}(a+\theta h)^TA(a+\theta h) - b^T(a+\theta h) - \frac{1}{2}a^TAa+b^Ta\biggr) \\ = \lim_{\theta\to0}\frac{1}{\theta}\biggr(\frac{1}{2}(\theta a^TAh + \theta h^TAa +\theta^2 h^TAh) - \theta b^Th\biggr) \\ = \frac{1}{2}(a^TAh + h^TAa) - b^T h\) donc \(J':x\in\Omega\subset\mathbb{R}^n\to L(\mathbb{R}^n,\mathbb{R}) \\ x\mapsto\frac{1}{2}(x^TA + Ax)-b\)

A symétrique

Dans le cas ou A est symétrique, on a: \(J'(x) = \nabla J(x) = Ax - b\)

Propriéte

This post is licensed under CC BY 4.0 by the author.