Skip to content
GitLab
Explore
Sign in
Primary navigation
Search or go to…
Project
math_tech_info
Manage
Activity
Members
Labels
Plan
Issues
Issue boards
Milestones
Wiki
Code
Merge requests
Repository
Branches
Commits
Tags
Repository graph
Compare revisions
Snippets
Build
Pipelines
Jobs
Pipeline schedules
Artifacts
Deploy
Releases
Model registry
Operate
Environments
Monitor
Incidents
Analyze
Value stream analytics
Contributor analytics
CI/CD analytics
Repository analytics
Model experiments
Help
Help
Support
GitLab documentation
Compare GitLab plans
Community forum
Contribute to GitLab
Provide feedback
Keyboard shortcuts
?
Snippets
Groups
Projects
Show more breadcrumbs
orestis.malaspin
math_tech_info
Commits
38a51a5a
Verified
Commit
38a51a5a
authored
4 years ago
by
orestis.malaspin
Browse files
Options
Downloads
Patches
Plain Diff
updated 02
parent
06e677a0
No related branches found
Branches containing commit
No related tags found
No related merge requests found
Changes
1
Hide whitespace changes
Inline
Side-by-side
Showing
1 changed file
02_optimisation.md
+17
-17
17 additions, 17 deletions
02_optimisation.md
with
17 additions
and
17 deletions
02_optimisation.md
+
17
−
17
View file @
38a51a5a
...
...
@@ -45,7 +45,7 @@ a &= \frac{C}{B}=\frac{\sum_{i=1}^Nx_iy_i}{\sum_{i=1}^Nx_i^2}.
---
####
Exemple
{-}
Exemple
#
Soient les 4 points $(0, 0.1)$, $(1, 0.3)$, $(2, 0.3)$ et $(3, 0.4)$. La fonction d'erreur $E(a)$ s'écrit
$$
...
...
@@ -196,7 +196,7 @@ distance maximale du zéro de $(b_1+a_1)/2^n$. On dit que cette méthode est d'o
---
####
Exercice (Racine de polynôme)
{-}
Exercice (Racine de polynôme)
#
Déterminer la racine du polynôme $x^4+x^3+x^2-1$ avec $a_1=0.5$ et $b_1=1$ (faire au maximum 6 itérations).
...
...
@@ -232,7 +232,7 @@ La méthode de la fausse position est plus efficace que la méthode de la bissec
---
####
Exercice
{-}
Exercice
#
Déterminer le zéro positif de la fonction
$$
...
...
@@ -261,7 +261,7 @@ En revanche elle est plus efficace, lorsque qu'elle converge, que ces deux méth
---
####
Exercice
{-}
Exercice
#
Déterminer le zéro positif de la fonction
$$
...
...
@@ -282,7 +282,7 @@ Mais, nous n'avons pas encore vu de méthode pour déterminer les valeur de la f
---
####
Remarque
{-}
Remarque
#
On peut procéder de façon très similaire pour $[a,b]$ tel que
...
...
@@ -343,7 +343,7 @@ En revanche les contraintes pour sa convergence sont plus strictes que pour les
---
####
Remarque (non-convergence ou convergence lente)
{-}
Remarque (non-convergence ou convergence lente)
#
Il y a un certain nombre de cas où la méthode de Newton ne converge pas.
...
...
@@ -357,7 +357,7 @@ Il y a un certain nombre de cas où la méthode de Newton ne converge pas.
---
####
Exercice
{-}
Exercice
#
Déterminer le zéro de la fonction
$$
...
...
@@ -375,7 +375,7 @@ Il suffit de remplacer $g(x)$ par $f'(x)$ et le tour est joué.
---
####
Exercice
{-}
Exercice
#
Écrire l'algorithme de Newton pour le cas de la minimisation d'une fonction $f(x)$ quelconque, mais continûment dérivable 2 fois.
...
...
@@ -398,7 +398,7 @@ f:\real^n\rightarrow \real.
---
####
Exemple (Régression linéaire)
{-}
Exemple (Régression linéaire)
#
Dans le cas de la régression linéaire, si la droite ne passe pas par l'origine, nous avons que
la fonction de coût qui dépend de deux variables, $a$, et $b$ (et plus uniquement de $a$)
...
...
@@ -445,7 +445,7 @@ Comme on le voit ici, pour chaque dérivée partielle, on ne fait varier qu'une
---
####
Exemple (Dérivée partielle)
{-}
Exemple (Dérivée partielle)
#
Les dérivée partielles de la fonction
$$
...
...
@@ -468,7 +468,7 @@ $$
---
####
Remarque
{-}
Remarque
#
Pour une fonction à une seule variable, $f(x)$, on a que
$$
...
...
@@ -488,7 +488,7 @@ pour les façon à une seule variable. Pour une fonction à deux variables, on a
---
####
Remarque
{-}
Remarque
#
Si $f$ est dérivable en $x$ et $y$, on a que
$$
...
...
@@ -499,7 +499,7 @@ $$
---
####
Exemple (Dérivées partielles deuxièmes)
{-}
Exemple (Dérivées partielles deuxièmes)
#
Pour la fonction $f(x,y)=x^2-y^2$, on a
\b
egin{align}
...
...
@@ -549,7 +549,7 @@ $$
---
####
Exemple (Gradient d'une fonction à deux variables)
{-}
Exemple (Gradient d'une fonction à deux variables)
#
Pour la fonction $f(x,y)=x^2-y^2$, le gradient est donné par
$$
...
...
@@ -610,7 +610,7 @@ Le taux de variation maximal est donc la longueur du vecteur $\vec \nabla f$.
---
####
Remarque (Généralisation)
{-}
Remarque (Généralisation)
#
Tout ce que nous venons d'écrire ici se généralise à un nombre arbitraire de dimensions.
...
...
@@ -711,7 +711,7 @@ Même si cela ne suffit pas à prouver mathématique que $\vec 0$ est le minimum
---
####
Question
{-}
Question
#
Avec ce qui précède, voyez-vous une façon de trouver le minimum de la fonction $f(x,y)$?
...
...
@@ -740,7 +740,7 @@ peut se voir dans la @fig:gradient.
---
####
Exemple (quelques itérations)
{-}
Exemple (quelques itérations)
#
Prenons la fonction objectif $f(x,y)$ suivante
$$
...
...
This diff is collapsed.
Click to expand it.
Preview
0%
Loading
Try again
or
attach a new file
.
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Save comment
Cancel
Please
register
or
sign in
to comment