From 39b78c5bd07e2188842105a82eba2d2075bbcf1c Mon Sep 17 00:00:00 2001
From: Orestis Malaspinas <orestis.malaspinas@hesge.ch>
Date: Sun, 25 Nov 2018 18:43:59 +0100
Subject: [PATCH] debut optimisation continue

---
 cours.md | 23 +++++++++++++++++++++++
 1 file changed, 23 insertions(+)

diff --git a/cours.md b/cours.md
index d36bd6c..b57d88e 100644
--- a/cours.md
+++ b/cours.md
@@ -1571,6 +1571,29 @@ sous la contrainte et le tour était joué.
 ## L'optimisation mathématique
 
 Suite à ces deux exemples, nous allons essayer de définir de façon assez théorique comment formuler mathématiquement un probélème d'optimisation.
+Il existe comme on vient de le voir deux types disctincts de problèmes d'optimisation:
+
+1. L'optimisation continue.
+2. L'optimisation discrète (ou optimisation combinatoire).
+
+### L'optimisation continue
+
+Soit $f:\real^n\rightarrow\real$ une fonction objectif, on cherche $\vec x_0\in\real^n$, tel que $f(\vec x_0)\leq f(\vec x)$ pour $\vec x$ certaines conditions.
+Les conditions peuvent se séparer en deux parties différentes, les contraintes d'égalités et d'inégalités.
+Soient $m$ fonctions $g_i:\real^n\rightarrow\real$ et $n$ fonctions $h_j:\real^n\rightarrow$
+\begin{align}
+&g_i(\vec x)\leq 0,\quad i=1,...,m,\mbox{ et}\\
+&h_j(\vec x)= 0,\quad j=1,...,n.
+\end{align}
+Si $m=0$ et $n=0$ on a à faire à un problème d'optimisation sans contraintes. On peut résumer tout cela comme
+\begin{align*}
+&\min_{\vec x\in\real^n}f(\vec x),\\
+&g_i(\vec x)\leq 0,\quad i=1,...,m,\mbox{ et}\\
+&h_j(\vec x)= 0,\quad j=1,...,n,\\
+&m\geq 0,\quad n\geq 0.
+\end{align*}
+
+
 
 [^1]: On pourrait, de façon similaire, utiliser la formule de différences finies en avant ou en arrière (ou un mélange des deux).
 [^2]: Comme ce polynôme passe par les points $(x_0,y_0)$, $(x_1,y_1)$, ..., $(x_m,y_m)$, il est unique, c'est donc exactement le même que celui exprimé avec les $\{a_i\}_{i=0}^m$.
-- 
GitLab