From 39b78c5bd07e2188842105a82eba2d2075bbcf1c Mon Sep 17 00:00:00 2001 From: Orestis Malaspinas <orestis.malaspinas@hesge.ch> Date: Sun, 25 Nov 2018 18:43:59 +0100 Subject: [PATCH] debut optimisation continue --- cours.md | 23 +++++++++++++++++++++++ 1 file changed, 23 insertions(+) diff --git a/cours.md b/cours.md index d36bd6c..b57d88e 100644 --- a/cours.md +++ b/cours.md @@ -1571,6 +1571,29 @@ sous la contrainte et le tour était joué. ## L'optimisation mathématique Suite à ces deux exemples, nous allons essayer de définir de façon assez théorique comment formuler mathématiquement un probélème d'optimisation. +Il existe comme on vient de le voir deux types disctincts de problèmes d'optimisation: + +1. L'optimisation continue. +2. L'optimisation discrète (ou optimisation combinatoire). + +### L'optimisation continue + +Soit $f:\real^n\rightarrow\real$ une fonction objectif, on cherche $\vec x_0\in\real^n$, tel que $f(\vec x_0)\leq f(\vec x)$ pour $\vec x$ certaines conditions. +Les conditions peuvent se séparer en deux parties différentes, les contraintes d'égalités et d'inégalités. +Soient $m$ fonctions $g_i:\real^n\rightarrow\real$ et $n$ fonctions $h_j:\real^n\rightarrow$ +\begin{align} +&g_i(\vec x)\leq 0,\quad i=1,...,m,\mbox{ et}\\ +&h_j(\vec x)= 0,\quad j=1,...,n. +\end{align} +Si $m=0$ et $n=0$ on a à faire à un problème d'optimisation sans contraintes. On peut résumer tout cela comme +\begin{align*} +&\min_{\vec x\in\real^n}f(\vec x),\\ +&g_i(\vec x)\leq 0,\quad i=1,...,m,\mbox{ et}\\ +&h_j(\vec x)= 0,\quad j=1,...,n,\\ +&m\geq 0,\quad n\geq 0. +\end{align*} + + [^1]: On pourrait, de façon similaire, utiliser la formule de différences finies en avant ou en arrière (ou un mélange des deux). [^2]: Comme ce polynôme passe par les points $(x_0,y_0)$, $(x_1,y_1)$, ..., $(x_m,y_m)$, il est unique, c'est donc exactement le même que celui exprimé avec les $\{a_i\}_{i=0}^m$. -- GitLab