de savoir formuler un problème d'optimisation dans $\mathbb{R}^n$, avec ou sans contraintes;
de savoir écrire les conditions d'optimalité ;
de connaître et maîtriser les algorithmes de base (simplexe, gradient, gradient conjugué, Newton)
Sommaire
Cas sans contrainte : Existence, convexité (stricte, forte), coercivité, conditions d'optimalité.
Cas sans contrainte 1D : méthode de recherche linéaire (Armijo, Wolfe, Goldstein), Newton.
Cas sans contrainte ND : algorithme de gradient à pas fixe, à pas optimal, Newton.
Cas avec contraintes : Lagrangien, conditions d'optimalité (Kuhn-Tucker).
Cas avec contraintes : algorithme de gradient projeté, d'Uzawa, méthode de pénalisation.
Cas linéaire avec contraintes : algorithme du simplexe.
Bibliographie
Michel Bierlaire. Introduction à l'optimisation différentiable. Presses polytechniques et universitaires romandes, 2013.
J. Frédéric Bonnans, Jean Charles Gilbert, Claude Lemaréchal, and Claudia Sagastizábal. Optimisation numérique, volume 27 of Mathématiques & Applications (Berlin). Springer-Verlag, Berlin, 1997.
Stephen Boyd and Lieven Vandenberghe. Convex Optimization Boyd and Vandenberghe. Cambridge Univerity Press, 2004.
Philippe G. Ciarlet. Introduction à l'analyse numérique matricielle et à l'optimisation. Dunod, 2007.
Jean-Baptiste Hiriart-Urruty. Optimisation et analyse convexe. EDP Sciences, 2009.