[Optimisation]Plein d'exos, je ne sais pas partir...

Bonjour à tous et toutes !
J'ai pas mal d'exercices en optimisation, mais je n'arrive pas à les résoudre...

Commençons par un exo qui paraît simple, mais où je ne sais pas partir :

Soit $X \in \R^n$ et $A$ une matrice symétrique réelle.
On cherche $min X^T \cdot A \cdot X$ sous $X^T \cdot X = 1$

Déjà, il faudrait écrire les conditions nécessaires du 1er et 2nd ordre.
Le gradient $X^T \cdot A \cdot X$ est bien $2XA$ ?
Mais je ne sais pas écrire les CN pour des matrices...
Ensuite, il me faut caractériser le vecteur solution et le multiplicateur de Lagrange associé...

Alors, voilà, déjà, là, je bloque.

Réponses

  • La gradient serait plutôt $2AX$...

    Thibaut
  • Bonjour,

    je n'ai pas le temps tout de suite, mais une recherche sur google à propos du théorème de Rayleigh-Ritz devrait pouvoir fournir la preuve que tu cherches.

    Cordialement,

    Ritchie
  • Re,

    J'ai un peu plus de temps maintenant ;-)

    On cherche donc à résoudre d'optimisation suivant :

    $(P):\mathop {\min }\limits_{\left\| x \right\| = 1} \left\langle {Ax,x} \right\rangle$

    On pose successivement :

    $\begin{array}{*{20}c}
    {R:} & {\R^n } & \to & \R \\
    {} & x & \mapsto & {\left\langle {Ax,x} \right\rangle } \\
    \end{array}$

    et

    $\begin{array}{*{20}c}
    {N:} & {R^n } & \to & R \\
    {} & x & \mapsto & {\left\| x \right\|^2 - 1} \\
    \end{array}$

    On calcule les gradients de $R$ et $N$ :

    $\nabla R (x) = 2Ax$
    $\nabla N(x) = 2x$

    Soit maintenant $x^*$ une solution du problème $(P)$ (ça existe, on est sur un compact).

    condition nécessaire du premier ordre : il existe $\lambda \in \R$ tel que $\nabla R (x^*) = \lambda \nabla N (x^*)$, soit :

    $Ax^* = \lambda x^*$

    Par conséquent, puisque $x^*$ est non nul, c'est un vecteur propre associé à la valeur propre $\lambda$. De plus, $R(x^*) = \lambda \left\| x^* \right\|^2 = \lambda$.
    Ainsi, le minimum recherché est égal à ${\min }\limits_{\lambda \in Sp(A)} \lambda$, la plus petite valeur propre de $A$.

    Cordialement,

    Ritchie
  • Bonjour,

    La matrice A est symetrique relle donc, elle est diagonalisable dans une base orthonormee et il existe une matrice de passage orthogonale telle que A=tP*D*P.

    Ainsi, <tX,A,X>= <tX tP A PX> = <t(PX), A, (PX)>.

    Minimiser sur E = {X, |X|=1} equivaut a minimiser sur les PX de norme 1, soit encore minimiser <tY, D,Y> sur E car les applications orthogonales conservent la norme : |PX|=|X|=1.

    Si on se place sur la boule unite E, qui est un compact (c'est un ferme borne en dimension finie), l'application qui a tout Y de norme 1 (Y =PX)associe <tY,D,Y> est une application bilineaire (c'est un produit scalaire) donc continue.

    L'image d'un compact par une application continue etant compacte, on sait que Im(<tY,D,Y>) est borne et atteint ses bornes. Les inf et les sup sont donc des min et des max.

    Or <tY,D,Y> = somme {lambda(i) yi^2} ou les lambda i sont les n valeurs propres. Donc

    min{lambda(i)} somme{yi^2} <= <tY,D,Y> <= max{lambda(i)} somme {yi^2}

    soit

    min{lambda(i)} <= <tY,D,Y> <= max{lambda(i)}

    puisque Y est de norme 1.

    see ya'
    vinh
  • Merci beaucoup !!
    J'ai d'autres exercices, mais pas le temps immédiatement.
    En tout cas merci beaucoup de vos réponses claires !
Connectez-vous ou Inscrivez-vous pour répondre.