diff --git a/cours.md b/cours.md index fe0cf82ff099aaa324c7fe06fa4e1abef3c8976a..af70b72425e6543432283700185c27010658928a 100644 --- a/cours.md +++ b/cours.md @@ -2189,7 +2189,7 @@ Exemple (Espaces vectoriels) +.# \end{aligned}$$ 5. Espace des applications linéaires. Soit $f$ une fonction de - $f:W\rightarrow V$, avec $W,V\in E$ des espaces vectoriels, alors + $f:W\rightarrow V$, avec $W,V$ des espaces vectoriels sur $E$, alors une application est dite linéaire si $$\begin{aligned} &f(x+y)=f(x)+f(y),\quad \forall x,y\in W,\\ &f(\alpha \cdot x)=\alpha \cdot f(x),\quad \forall \alpha\in E,\ \mbox{et}\ x\in W. @@ -2197,23 +2197,23 @@ Exemple (Espaces vectoriels) +.# ### Base -Nous avons introduit la notion très générale d’espace vectorielle et +Nous avons introduit la notion très générale d’espace vectoriel et nous avons présenté quelques exemples. Reprenons l’exemple de l’espace Euclidien, soit l’espace des vecteurs comme vous en avez l’habitude. Limitons nous au cas où les vecteur sont bidimensionnels, soit $v=(v_1,v_2)$ avec $v_1,v_2\in{\real}$. D’habitude ces vecteurs sont représentés dans le système de coordonnées cartésien où on a deux vecteurs (de base) définis comme $e_1=(1,0)$ et $e_2=(0,1)$ qui sont -implicites. Par exemple, si $u=(4,5)$ cela signifie implicitement qu’on -a $$u=4\cdot e_1+5\cdot e_2.$$ +implicites. Par exemple, si $u=(4,5)$ cela signifie implicitement que +$$u=4\cdot e_1+5\cdot e_2.$$ {#fig:baseCart width="35.00000%"} -De façon générale le vecteur $v=(v_1,v_2)$ est représenté implicitement +De façon générale tout vecteur $v=(v_1,v_2)$ est représenté implicitement par (voir la @fig:baseCart) $$v=v_1\cdot e_1+v_2\cdot e_2.$$ On dit que $e_1$ et $e_2$ forme une *base* de l’espace ${\real}^2$. En -d’autre terme n’importe quel vecteur $v\in{\real}^2$ peut être +d’autres termes n’importe quel vecteur $v\in{\real}^2$ peut être exprimé comme une combinaison linéaire de $e_1$ et $e_2$. Néanmoins, le choix de la base $e_1$ et $e_2$ est totalement arbitraire. @@ -2261,7 +2261,7 @@ Exemple (Famille libre) +.# ${\real}^2$. En effet, $$1\cdot e_1+1\cdot e_2-1\cdot v=(0,0).$$ -4. $\{\sin(x),\cos(x)\}$ est une famille libre. On em peut pas écrire +4. $\{\sin(x),\cos(x)\}$ est une famille libre. On ne peut pas écrire $\sin(x)=\alpha\cos(x)+\beta$. Il n’y a pas de relation linéaire qui relie les deux. La relation est non-linéaire $\sin(x)=\sqrt{1-\cos^2(x)}$. @@ -2276,8 +2276,8 @@ linéaire des vecteur $e_i$. Illustration (Familles génératrices) +.# -1. $\{e_1\}$ n’est une famille génératrice de ${\real}^2$. On ne - peut pas représenter tous les vecteurs de la forme $v=(0,v_2)$, +1. $\{e_1\}$ n’est pas une famille génératrice de ${\real}^2$. On ne + peut pas représenter les vecteurs de la forme $v=(0,v_2)$, $v_2\neq 0$. 2. $\{e_1,e_2\}$ est une famille génératrice de ${\real}^2$. @@ -2346,7 +2346,7 @@ problèmes physiques existant et qui ont des contraintes particulières. Nous allons considérer une fonction $f(t)$ qui est une fonction périodique, de période $T$, de pulsation $\omega=2\pi/T$ et de fréquence -$\nu=1/T$. Ce genre de fonction a la propriété suivante +$\nu=1/T$. La périodicité signifie que $$f(t+T)=f(t),\quad \forall t.$$ Nous cherchons à décomposer $f$ en un ensemble potentiellement infini de fonctions périodiques. Notons cet ensemble de fonctions $\{g_j\}_{j=0}^\infty$, où $g_j$ est une fonction @@ -2371,35 +2371,35 @@ deux degrés de libertés des sinus dont la période est imposée, soit l’amplitude $A_j$ et la phase $\phi_j$. On va donc écrire $f(t)$ comme $$f(t)=\sum_{j=0}^\infty A_j\sin(j\omega t+\phi_j).$${#eq:sin_phase_ampl} Cette forme n’est pas pratique du tout comme décomposition, en -particulier à cause de la phase $\phi_j$. On utilise donc la relation +particulier à cause de la phase $\phi_j$. On utilise alors la relation trigonométrique (déjà utilisée pour interpréter le produit de deux nombres complexes) $$\sin(\theta+\phi)=\sin(\theta)\cos(\phi)+\cos(\theta)\sin(\phi).$$ Il -vient donc $$\begin{aligned} +vient $$\begin{aligned} f(t)=\sum_{j=0}^\infty A_j\left(\sin(j\omega t)\cos(\phi_j)+\cos(j\omega t)\sin(\phi_j)\right).\end{aligned}$$ En renommant $$\begin{aligned} a_j&\equiv A_j\cos(\phi_j),\\ b_j&\equiv A_j\sin(\phi_j),\end{aligned}$$ on obtient $$f(t)=\sum_{j=0}^\infty \left(a_j\sin(j\omega t)+b_j\cos(j\omega t)\right). $${#eq:decomp_sincos} -On a donc transformé une équation où on devait déterminer une amplitude -et une phase, ce qui est très compliqué, en une autre équation où on +On a ainsi transformé une équation où on devait déterminer une amplitude +et une phase, ce qui est plutôt compliqué, en une autre équation où on doit déterminer uniquement deux amplitude. Par ailleurs, comme $\cos$ et $\sin$ sont indépendants, on peut calculer les $a_j$ et $b_j$ de façon également indépendantes. -Nous voulons donc à présent calculer $a_n$ et $b_n$ pour avoir les +Nous voulons à présent calculer $a_n$ et $b_n$ pour avoir les coordonnées de $f$ dans la base des $\sin$ et des $\cos$. Pour ce faire, -on va tenter de trouver les amplitudes $a_j,b_j$ tels que les +nous allons tenter de trouver les amplitudes $a_j,b_j$ tels que les $a_j\cos(j\omega t)$ et $b_j\sin(j\omega t)$ approximent au mieux la fonction $f$. -On va donc considérer les fonctions d’erreur suivantes +Nous allons considérer les fonctions d’erreur suivantes $$E^s_j=\int_0^T(f(t)-a_j\sin(j\omega t))^2{\mathrm{d}}t,\quad E^c_j=\int_0^T(f(t)-b_j\cos(j\omega t))^2{\mathrm{d}}t.$$ Puis on va déterminer $a_j,b_j$ tels que $E_j^s$ et $E_j^c$ sont minimales. Pour ce faire on va utiliser les dérivées et déterminer nos coefficients en résolvant les équations -$${\frac{{\mathrm{d}}E^s_j}{{\mathrm{d}}b_j}}=0,$${#eq:deriv_bj} -$${\frac{{\mathrm{d}}E^c_j}{{\mathrm{d}}a_j}}=0.$${#eq:deriv_aj} +$${\frac{{\mathrm{d}}E^s_j}{{\mathrm{d}}a_j}}=0,$${#eq:deriv_aj} +$${\frac{{\mathrm{d}}E^c_j}{{\mathrm{d}}b_j}}=0.$${#eq:deriv_bj} Pour l'@eq:deriv_aj, on a $$\begin{aligned} {\frac{{\mathrm{d}}E^c_j}{{\mathrm{d}}b_j}}&={\frac{{\mathrm{d}}\int_0^T(f(t)-b_j\cos(j\omega t))^2{\mathrm{d}}t}{{\mathrm{d}}b_j}},\nonumber\\ &=\underbrace{{\frac{{\mathrm{d}}(\int_0^Tf^2(t){\mathrm{d}}t)}{{\mathrm{d}}b_j}}}_{=0}+{\frac{{\mathrm{d}}(b_j^2\int_0^T(\cos^2(j\omega t){\mathrm{d}}t))}{{\mathrm{d}}b_j}}-{\frac{{\mathrm{d}}(2b_j\int_0^T(f(t)\cos(j\omega t){\mathrm{d}}t))}{{\mathrm{d}}b_j}},\nonumber\\ @@ -2464,7 +2464,7 @@ $$f(t)=\sum_{j=-\infty}^\infty c_je^{ij\omega t}.$$ En multipliant cette relation par $\frac{1}{T}e^{-ik\omega t}$ et en intégrant entre $-\frac{T}{2}$ et $\frac{T}{2}$, on obtient $$\frac{1}{T}\int_{-\frac{T}{2}}^{\frac{T}{2}}f(t)e^{-ik\omega t}{\mathrm{d}}t=\frac{1}{T}\sum_{j=-\infty}^\infty c_j\int_{-\frac{T}{2}}^{\frac{T}{2}}e^{ij\omega t}e^{-ik\omega t}{\mathrm{d}}t.$$ -Pour évaluer le membre de droite de cette équation nous transformer les +Pour évaluer le membre de droite de cette équation nous transformons les exponentielles en sinus/cosinus. L’intégrale du membre de droite devient $$\begin{aligned} \int_{-\frac{T}{2}}^{\frac{T}{2}}e^{ij\omega t}e^{-ik\omega t}{\mathrm{d}}t&=\int_{-\frac{T}{2}}^{\frac{T}{2}}\left(\cos(j\omega t)+i\sin(j\omega t)\right)\left(\cos(-k\omega t)+i\sin(-k\omega t)\right){\mathrm{d}}t,\nonumber\\