Skip to content
Snippets Groups Projects
Verified Commit 38a51a5a authored by orestis.malaspin's avatar orestis.malaspin
Browse files

updated 02

parent 06e677a0
No related branches found
No related tags found
No related merge requests found
......@@ -45,7 +45,7 @@ a &= \frac{C}{B}=\frac{\sum_{i=1}^Nx_iy_i}{\sum_{i=1}^Nx_i^2}.
---
#### Exemple {-}
Exemple #
Soient les 4 points $(0, 0.1)$, $(1, 0.3)$, $(2, 0.3)$ et $(3, 0.4)$. La fonction d'erreur $E(a)$ s'écrit
$$
......@@ -196,7 +196,7 @@ distance maximale du zéro de $(b_1+a_1)/2^n$. On dit que cette méthode est d'o
---
#### Exercice (Racine de polynôme) {-}
Exercice (Racine de polynôme) #
Déterminer la racine du polynôme $x^4+x^3+x^2-1$ avec $a_1=0.5$ et $b_1=1$ (faire au maximum 6 itérations).
......@@ -232,7 +232,7 @@ La méthode de la fausse position est plus efficace que la méthode de la bissec
---
#### Exercice {-}
Exercice #
Déterminer le zéro positif de la fonction
$$
......@@ -261,7 +261,7 @@ En revanche elle est plus efficace, lorsque qu'elle converge, que ces deux méth
---
#### Exercice {-}
Exercice #
Déterminer le zéro positif de la fonction
$$
......@@ -282,7 +282,7 @@ Mais, nous n'avons pas encore vu de méthode pour déterminer les valeur de la f
---
#### Remarque {-}
Remarque #
On peut procéder de façon très similaire pour $[a,b]$ tel que
......@@ -343,7 +343,7 @@ En revanche les contraintes pour sa convergence sont plus strictes que pour les
---
#### Remarque (non-convergence ou convergence lente) {-}
Remarque (non-convergence ou convergence lente) #
Il y a un certain nombre de cas où la méthode de Newton ne converge pas.
......@@ -357,7 +357,7 @@ Il y a un certain nombre de cas où la méthode de Newton ne converge pas.
---
#### Exercice {-}
Exercice #
Déterminer le zéro de la fonction
$$
......@@ -375,7 +375,7 @@ Il suffit de remplacer $g(x)$ par $f'(x)$ et le tour est joué.
---
#### Exercice {-}
Exercice #
Écrire l'algorithme de Newton pour le cas de la minimisation d'une fonction $f(x)$ quelconque, mais continûment dérivable 2 fois.
......@@ -398,7 +398,7 @@ f:\real^n\rightarrow \real.
---
#### Exemple (Régression linéaire) {-}
Exemple (Régression linéaire) #
Dans le cas de la régression linéaire, si la droite ne passe pas par l'origine, nous avons que
la fonction de coût qui dépend de deux variables, $a$, et $b$ (et plus uniquement de $a$)
......@@ -445,7 +445,7 @@ Comme on le voit ici, pour chaque dérivée partielle, on ne fait varier qu'une
---
#### Exemple (Dérivée partielle) {-}
Exemple (Dérivée partielle) #
Les dérivée partielles de la fonction
$$
......@@ -468,7 +468,7 @@ $$
---
#### Remarque {-}
Remarque #
Pour une fonction à une seule variable, $f(x)$, on a que
$$
......@@ -488,7 +488,7 @@ pour les façon à une seule variable. Pour une fonction à deux variables, on a
---
#### Remarque {-}
Remarque #
Si $f$ est dérivable en $x$ et $y$, on a que
$$
......@@ -499,7 +499,7 @@ $$
---
#### Exemple (Dérivées partielles deuxièmes) {-}
Exemple (Dérivées partielles deuxièmes) #
Pour la fonction $f(x,y)=x^2-y^2$, on a
\begin{align}
......@@ -549,7 +549,7 @@ $$
---
#### Exemple (Gradient d'une fonction à deux variables) {-}
Exemple (Gradient d'une fonction à deux variables) #
Pour la fonction $f(x,y)=x^2-y^2$, le gradient est donné par
$$
......@@ -610,7 +610,7 @@ Le taux de variation maximal est donc la longueur du vecteur $\vec \nabla f$.
---
#### Remarque (Généralisation) {-}
Remarque (Généralisation) #
Tout ce que nous venons d'écrire ici se généralise à un nombre arbitraire de dimensions.
......@@ -711,7 +711,7 @@ Même si cela ne suffit pas à prouver mathématique que $\vec 0$ est le minimum
---
#### Question {-}
Question #
Avec ce qui précède, voyez-vous une façon de trouver le minimum de la fonction $f(x,y)$?
......@@ -740,7 +740,7 @@ peut se voir dans la @fig:gradient.
---
#### Exemple (quelques itérations) {-}
Exemple (quelques itérations) #
Prenons la fonction objectif $f(x,y)$ suivante
$$
......
0% Loading or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment