Optimisation convexe

Bonjour à tous!

Je me permets de vous solliciter à propos d'un exercice. Soit A une matrice rectangulaire(n x m) à coef réels. et g dans C^2(R^n,R). On définit f : R^m -> R par f(x) = g(Ax + b) pour x dans R^m.
Il m'est demandé un DL de f(x+h) à l'ordre 2 pour h au voisinage de 0. Donc mon DL est :
f(t) = f(0) + t*f '(0) + 1/2 * t^2 f '' (0) + o(t^2) (car f est 2 deux différentiables par composition)

f(0) = g(b)

f ' (0) = g ' (b) = <Grad g(b), A> avec <.,.> le produit scalaire usuel

f '' (0) = transpose(A)*Hg(b)*A avec Hg la matrice Hessienne de g.

Ce qui m'embête dans tout ça c'est le produit scalaire en un vecteur et une matrice... Qu'en pensez-vous?
(Veuillez m'excuser pour mon ignorance manifeste de Latex)

Réponses

  • Je ne sais pas comment tu as procédé pour la dérivée première, mais de toute façons la formule à droite n'a aucun sens (pdt scalaire entre un élément de $\R^n$ et une matrice carrée d'ordre $n$).

    La fonction $f$ apparaît comme la composée de $g$ et de l'application affine $\ell:x \mapsto Ax+b$, dont la différentielle est sa partie linéaire $h \mapsto Ah$.

    En appliquant la formule de composition, il vient :
    $Df(x)(h)=Dg(Ax+b) .(Ah)=\langle \nabla g(Ax+b),Ah\rangle=\langle {}^t A \nabla g(Ax+b),h\rangle$ donc là tu lis le gradient de $f$ en $x$.


    Par ailleurs, si l'énoncé est bien écrit, on attend le DL, à $x$ fixé, par rapport à $h$ qui est un vecteur (donc le DL en $0$ de la fonction $y \mapsto f(x+y)$). Son expression va plutôt ressembler à

    $f(x)+Df(x)(h)+\frac12 D^2f(x).(h,h)+o(\|h\|^2)$

    EDIT : oubli d'une balise LATEX
Connectez-vous ou Inscrivez-vous pour répondre.