optimisation continue

Bonjur das le cadre de l'optimisation continue (par opposition à l'optimisation discrète PLNE,...) je cherche un ouvrage concis et claire qui aborde:
- l'optimisation différentiable (la fonction objectif et es fonctins ontraintes (égaité et inégalité snt au mins différentiable pour appliquer KKT)
- l'optimisation convexe (lorsque l'on perd la régularité due à la différentiabilité de notre fonctin objectif et de ns contraintes mais que l'on a de la convexité)
Et celà en traitant la dimension finie et la dimension infinie pour bien comprendre c qui distingue les deux cas.

Réponses

  • Rmq: En effet tout est assez floue dans ma tête.

    1) En dimension finie (reherche d' extremums locaux, ce qu'on a en pratique!)
    lorsque j dispose d'un problème de minimisation je ne sais pas trop comment le traiter.

    Ce que je sais (même si c'est assez bordélique):

    a-si l'on dispse d'une fonction différentiable et que le domaine est ouvert (donc les extremums sont dans l'interieur d domaine!)
    On regarde les points critiques (conditin néessaire d'optimalité) puis la hessienne (conditin suffisante). Selon son caractère définit psitif ou définit négative n peut conclure, sinon si la hessienne n'est pas de ce type on ne peut conclure!


    b-si l'on dispse d'une fonction différentiable et que le domaine n'est pas ouvert (donc les extremums ont de fortes chances de se trouver sur la frontière du domaine!)

    On peut réappliquer a) pour écarter ls extremums à l'interieur du domaine et se concentrer sur ceux situés au bord du domaine). Ici on peut souvent se ramener à des contraintes d'égalités et d'inégalités. Dès lors on applique les connditions KKT qui nous donne des conditin necessaires pour les extremums.

    c- si l'on a la convexité de la fonction objectif (la différentiabilité pouvant être généralisé par la notion de sous différentielle on peut donc aussi traiterle cas non-différentiable/ généraliser le cas différentiable

    On dispose de la règle de fermat qui nous donne la condition necessaire d'optimalité (on nous amène à trouver les zéros des sous différentiels en de tels points).

    Ce qui est formidable c'est que les conditions KKT se généralisent dans le cadre convexe. Ce qui nous fournit un moyen de trouver les extremums.
  • En fait j'ai l'impression qe la cadre de la dimesion finie et infini ne diffèrent pas!
    On s'interesse à min f(x) s.C. x dans K (contraintes)

    2- En dimension infinie cas différentiable

    Lorsque le minimum est attient dans l'interieur de K une condition necessaire d'optimalité est d'annuler la différentielle. Lorsque l'on est au bord de K (où à l'interieur) on a une nouvelle ondition nécessaire d'optimalité (plus gnérale) qui fait intervenir le cône tangent en x_0 (minimum). La différentielle de f appliquée aux points du cône tangent doit etre positive. Donc tout l'enjeux consiste à déterminer le cône tangent (pas facile)!!

    Determination du cône tangent:
    Lorsque l'on a des contraintes d'égalités du type g(x)=0,
    - si la différentielle de g en x_0 est surjective: le cône tangent en x_0 s'identifie au noyau de la différentielle de g en x_0 (utilisant le théorèm de l'application surjective ou peut etre des fonctions implicites). Du oup on retrouve la condition KKT (d'extrema lié).



    Lorsque l'on a des contraints d'inégalités:
    Le cône tangent est exprimable que si l'o rajoute des hypothèses. Il s'agit des "conditions de qualification". ar exemple pour les conditions de Mangasarian n retrouve le e tangent. Ensuite l' existence (le résultat d'existence) des multiplicateurs (de Lagrangé) estdirectement donné par le lemme de Farkas. (n change un pour tout en un il existe)


    De manière indépendante on peut s'interesser au "Lagrangien" qui nous amène dans la théorie de la dualité (on s'interesse aux points selles du Lagrangien qui nous donne une solution primale duale". On est ramené à un problème de max min sans contraintes! Bien sur pour avoir des résultats interesants on doit avoir un Lagrangien de type concave en une variable et convexe en l'autre. On doit don se placer dans le cadre ou la fonction objectif est convexe (les variables duales sont linéaires donc la oncavité est autmatique!).
  • Pour la dimension finie :
    - le livre de Ruszczynski est plutôt bien fait et simple d'accès http://press.princeton.edu/titles/8219.html
    - tu peux contacter J.C.Gilbert qui a un excellent poly (~800 pages) qu'il accepte généralement de t'envoyer par pdf contre la signature d'une lettre de non-diffusion (et avec ton nom en filigrane)

    Pour la dimesion infinie je ne connais pas de livres "générique" qui fasse l'unanimité. Cela dépends beaucoup des raisons qui te poussent à regarder la dimension infinie (EDP, stochastique, contrôle...) et du type de questions que tu te poses. J'ai un peu pratiqué le Bonnans-Shapiro, qui est plutôt ardu mais avec une section "rappels" et des premiers chapitre qui répondront peut-être à tes besoins.
  • Alexey Izmailov et Mikhail Solodov (en portuguais) mais rien en français.
Connectez-vous ou Inscrivez-vous pour répondre.