%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \chapter{Déterminant} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \minitoc \newpage %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Groupe symétrique} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% $n$ désigne un entier au moins égal à 2. %--------------------------------------------------------------------- \subsection{Généralités} %--------------------------------------------------------------------- \begin{Df}[Permutation]\alaligne Une \emph{permutation} d'un ensemble $X$ est une bijection de $X$ sur lui-même. \end{Df} \begin{Df}[Groupe symétrique]\alaligne $\sym$ désigne l'ensemble des permutations de $\Intf1n$; on l'appelle le \emph{groupe symétrique} d'ordre $n$. Une permutation $s\in\sym$ est notée $$ s= \begin{pmatrix} 1&2&\dots&n-1&n\\ s(1)&s(2)&\dots&s(n-1)&s(n) \end{pmatrix} $$ \end{Df} \begin{Df}[Transposition]\alaligne La permutation qui échange $i$ et $j$ et laisse les autres éléments invariants est appelée \emph{transposition} et est notée $\tau_{i,j}$. \end{Df} \begin{Df}[Cycle]\alaligne Un \emph{cycle de longueur} $q$ $(q\leq n)$ est une permutation $c$ telle qu'il existe un sous-ensemble à $q$ éléments de $\{a_1,\cdots,a_q\}$ vérifiant $$ c(a_1)=a_2,\ c(a_2)=a_3,\ \dots\ ,c(a_{q-1})=a_q,\ c(a_q)=a_1 $$ les autres éléments restant invariants. \end{Df} \begin{Exs}\alaligne $\sym[2]$ contient deux éléments : la permutation identique et la transposition qui échange 1 et 2. Les six éléments de $\sym[3]$ sont \begin{itemize} \item la permutation identique : $e= \begin{pmatrix} 1&2&3\\1&2&3 \end{pmatrix}$; \item trois transpositions : $\tau_1 = \begin{pmatrix} 1&2&3\\1&3&2 \end{pmatrix}$, $\tau_2 = \begin{pmatrix} 1&2&3\\3&2&1 \end{pmatrix}$ et $\tau_3 = \begin{pmatrix} 1&2&3\\2&1&3 \end{pmatrix}$; \item deux cycles de longueur 3 : $c_1 = \begin{pmatrix} 1&2&3\\2&3&1 \end{pmatrix}$ et $c_2 = \begin{pmatrix} 1&2&3\\3&1&2 \end{pmatrix}$. \end{itemize} \end{Exs} \begin{Th}[Structure de groupe pour $\sym$]\alaligne Muni de la composition des applications, $\sym$ est un groupe de cardinal $n!$ et non commutatif pour $n\geq 3$. \end{Th} \begin{proof} Rappelons qu'une structure de groupe nécessite une loi de composition interne, associative, possédant un élément neutre et un symétrique pour tout élément. \begin{itemize} \item $(s_1,s_2)\mapsto s_1\circ s_2$ est une loi de composition interne : la composée de deux bijections est une bijection; \item la composition des applications est associative; \item l'identité de $\Intf1n$, que l'on note $e$, est une permutation; c'est l'élément neutre pour la composition; \item si $s$ est une permutation, $s^{-1}$ en est une. \end{itemize} $(\sym,\circ)$ est donc un groupe. \end{proof} %-------------------------------------------------- \begin{NBs} $\sym$ contient exactement $\binom n2$ transpositions. Toute transposition est une involution : $\tau\circ\tau=e$; une transposition est un cycle de longueur 2. \end{NBs} %--------------------------------------------------------------------- \subsection{Structure d'une permutation} %--------------------------------------------------------------------- \begin{Th}[Décomposition d'une permutation]\alaligne Toute permutation de $\sym$ est un produit d'au plus $n$ transpositions. \end{Th} \begin{proof} Effectuons une récurrence sur $n$.\\ % $\sym[2]$ est un groupe à 2 éléments $\tau$ et $e=\tau\circ\tau$; la propriété est donc vraie pour $n=2$.\\ % On suppose la propriété vraie au rang $n$. Soit $s\in\sym[n+1]$; \begin{itemize} \item si $s(n+1)=n+1$, on note $s'$ la permutation induite par la restriction de $s$ à $\Intf1n$; $s'$ est une permutation de $\Intf1n$ et grâce à l'hypothèse de récurrence, $s'=\tau'_1\circ\cdots\circ\tau'_k$ avec $k\leq n$, où les $\tau'_j$ sont des transpositions de $\sym$. On pose $\tau_j(i)=\tau'_j(i)$ si $i\in\Intf1n$ et $\tau_j(n+1)=n+1$; les $\tau_j$ sont des transpositions de $\sym[n+1]$ et $s=\tau_1\circ\cdots\circ\tau_k$; \item si $s(n+1)=p\in\Intf1n$, $\tau_{p,n+1}\circ s$ est une permutation qui laisse $n+1$ invariant et on retrouve le cas précédent; on peut écrire que $\tau_{p,n+1}\circ s=\tau_1\circ\cdots\circ\tau_k$ avec $k\leq n$, et $s=\tau_{p,n+1}\circ\tau_1\circ\cdots\circ\tau_k$ \end{itemize} Ainsi toute permutation $s\in\sym[n+1]$ est un produit d'au plus $n+1$ transpositions. Le théorème de récurrence montre que la propriété est vraie pour tout $n$. \end{proof} %-------------------------------------------------- \begin{NB}[]\alaligne La décomposition en produit de transpositions n'est pas unique; par exemple $$ s=\begin{pmatrix} 1&2&3&4\\3&1&4&2 \end{pmatrix} =\tau_{2,4}\circ\tau_{1,2}\circ\tau_{1,3} =\tau_{1,3}\circ\tau_{3,4}\circ\tau_{2,4} $$ \end{NB} %--------------------------------------------------------------------- \subsection{Signature d'une permutation} %--------------------------------------------------------------------- \begin{Df}[Signature]\alaligne Soit $s\in\sym$; on dit que le couple $(i,j)$ avec $i<j$, présente une \emph{inversion} pour $s$ si $s(i)>s(j)$. On note $I(s)$ le nombre d'inversions de $s$ et on appelle \emph{signature de la permutation} $s$ le nombre $\eps(s)\in\{-1,1\}$ défini par $$ \eps(s)=(-1)^{I(s)} $$ \end{Df} % La signature de l'identité est 1 : $\eps(e)=1$. \begin{Th}[Signature d'une transposition]\alaligne La signature d'une transposition est $-1$. \end{Th} \begin{proof} Soit $\tau$ la transposition qui échange $k$ et $l$, avec $k<l$ : $$ \setcounter{MaxMatrixCols}{15} \tau= \begin{pmatrix} 1&2&\dots&k-1&k&k+1&\dots&l-1&l&l+1&\dots&n\\ 1&2&\dots&k-1&l&k+1&\dots&l-1&k&l+1&\dots&n \end{pmatrix} \setcounter{MaxMatrixCols}{10} $$ Comptons le nombre d'inversions de $\tau$ : \begin{itemize} \item les couples $(i,j)$ avec $i\in\Intf1{k-1}\cup\Intf ln$ et $i<j$ ne présentent pas d'inversion; \item le couple $(k,j)$ avec $k<j$ présente une inversion si, et seulement si, $j$ appartient à $\Intf{k+1}l$, ce qui fait $l-k$ inversion(s); \item si $i\in\Intf{k+1}{l-1}$ et $i<j$, $(i,j)$ présente une inversion si, et seulement si, $j=l$, ce qui fait $l-1-k$ inversion(s). \end{itemize} ce qui donne $I(\tau)=(l-k)+(l-1-k)=2(l-k-1)+1$; ce nombre est impair et $\eps(\tau)=(-1)^{I(\tau)}=-1$. \end{proof} %-------------------------------------------------- Considérons maintenant le produit $$ V_n=\prod_{1\leq i<j\leq n}(j-i) =\bigl[(2-1)\bigr]\times\bigl[(3-1)(3-2)\bigr]\times\cdots\times \bigl[(n-1)(n-2)\dots\bigl(n-(n-1)\bigr)\bigr] $$ % Pour $s\in\sym$, posons $s\cdot V_n=\prod_{1\leq i<j\leq n} \bigl(s(j)-s(i)\bigr)$. Puisque $s$ est une bijection, les $\binom n2$ facteurs de $V_n$ se retrouvent, au signe près, une et une seule fois dans $s\cdot V_n$ et $s\cdot V_n=(-1)^{I(s)}V_n=\eps(s)V_n$. Ainsi : \begin{Prop}[Expression de la signature]\alaligne La signature d'une permutation $s\in\sym$ est donnée par : $\dsp\eps(s)=\prod_{1\leq i<j\leq n}\ra{s(j)-s(i)}{j-i}$ \end{Prop} %-------------------------------------------------- \begin{Th}[Signature d'un produit de permutations]\alaligne $\eps$ est un morphisme du groupe $(\sym,\circ)$ sur le groupe $\{1,-1\}$ muni de la multiplication, \ie $$ \qqs(s_1,s_2)\in\sym^2,\ \eps(s_1\circ s_2)=\eps(s_1)\times\eps(s_2) $$ \end{Th} \begin{proof} On a : $(s_1\circ s_2)\cdot V_n=s_1\cdot(s_2\cdot V_n)=\eps(s_1) (s_2\cdot V_n)=\eps(s_1)\eps(s_2)V_n$. Puisque $(s_1\circ s_2)\cdot V_n=\eps(s_1\circ s_2)V_n$, la formule annoncée est démontrée. \end{proof} %-------------------------------------------------- \begin{Cor} La signature d'une permutation produit de $p$ transpositions est $(-1)^p$. \end{Cor} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Applications multilinéaires} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %--------------------------------------------------------------------- \subsection{Applications bilinéaires} %--------------------------------------------------------------------- \begin{Df}[Bilinéarité]\mbox{} Soient $E_1$, $E_2$ et $F$ trois $\K$-espaces vectoriels; une application $f$ de $E_1\times E_2$ à valeurs dans $F$ est \emph{bilinéaire} si \begin{prop} \item pour tout $\vc x\in E_1$, l'application $\vc y\mapsto f(\vc x,\vc y)$ est linéaire; \item pour tout $\vc y\in E_2$, l'application $\vc x\mapsto f(\vc x,\vc y)$ est linéaire. \end{prop} Si $F=\K$, on parle de \emph{forme bilinéaire}. \end{Df} \begin{Exs}\alaligne Le produit scalaire est une forme bilinéaire sur $\R^3\times\R^3$; le produit vectoriel est une application bilinéaire de $\R^3\times\R^3$ sur $\R^3$. Soit $\mathcal{A}$ une $\K$-algèbre (par exemple $\K$, $\K[X]$, $\MnK$, $\LE$); les applications $$ f_1 : (x,y)\mapsto x.y,\quad f_2 : (x,y)\mapsto x.y+y.x,\quad f_1 : (x,y)\mapsto x.y-y.x $$ sont des applications bilinéaires de $\mathcal{A}\times\mathcal{A}$ vers $\mathcal{A}$ (le démontrer).\\ Si $\mathcal{A}=\K$ ou $\K[X]$, $f_2=2f_1$ et $f_3=0$.\\ Si $\mathcal{A}=\MnK$ ou $\LE$, $f_3$ n'est pas l'application nulle. $\vphi : (f,g)\mapsto\int_a^b f(t)g(t)\,dt$ est une forme bilinéaire sur $\CabE{\K}\times\CabE{\K}$. $\psi : (A,B)\mapsto\tr({}^tAB)$ est une forme bilinéaire sur $\MnK\times\MnK$. \end{Exs} \begin{Df}[Symétrie, antisymétrie, alternance]\alaligne Soient $E$ et $F$ deux $\K$-espaces vectoriels et $f$ une application bilinéaire de $E\times E$ à valeurs dans $F$; on dit que \begin{prop} \item $f$ est \emph{symétrique} si $\qqs(\vc x,\vc y)\in E^2,\ f(\vc x,\vc y)=f(\vc y,\vc x)$; \item $f$ est \emph{antisymétrique} si $\qqs(\vc x,\vc y)\in E^2,\ f(\vc x,\vc y)=-f(\vc y,\vc x)$; \item $f$ est \emph{alternée} si $\qqs\vc x\in E,\ f(\vc x,\vc x)=\vc 0_F$; \end{prop} \end{Df} \begin{Exs}\alaligne Le produit scalaire est symétrique, le produit vectoriel est antisymétrique. $f_2$ est symétrique, $f_3$ est antisymétrique et $f_1$ est symétrique si, et seulement si, $\mathcal{A}$ est une algèbre \emph{commutative}. $\vphi$ est symétrique. $\psi$ est symétrique. \end{Exs} \begin{Th}[Antisymétrie et alternance]\alaligne Si $f$ est une application bilinéaire de $E\times E$ dans $F$, $f$~est antisymétrique si, et seulement si, $f$ est alternée. \end{Th} \begin{proof}\alaligne \CN Pour tout $\vc x\in E$, $f(\vc x,\vc x)=-f(\vc x,\vc x)$ puisque $f$ est antisymétrique, donc $f(\vc x,\vc x)=\vc 0_F$. \CS Pour tout $(\vc x,\vc y)\in E^2$, on peut écrire \begin{align*} f(\vc x+\vc y,\vc x+\vc y) & =\vc 0_F &\quad &\text{ puisque $f$ est alternée} \\ & =f(\vc x,\vc x+\vc y)+f(\vc y,\vc x+\vc y)&& \\ & =f(\vc x,\vc x)+f(\vc x,\vc y)+f(\vc y,\vc x)+f(\vc y,\vc y) &\quad &\text{ puisque $f$ est bilinéaire} \\ & =f(\vc x,\vc y)+f(\vc y,\vc x) &\quad &\text{ puisque $f$ est alternée} \end{align*} ce qui montre que $f(\vc x,\vc y)=-f(\vc y,\vc x)$. \end{proof} %-------------------------------------------------- %--------------------------------------------------------------------- \subsection{Applications $p$-linéaires} %--------------------------------------------------------------------- $p$ désigne un entier au moins égal à 2. \begin{Dfs}[Application et forme $p$-linéaires]\alaligne Soient $E$ et $F$ deux $\K$-espaces vectoriels; une application $f$ de $E^p$ à valeurs dans $F$ est dite $p$-\emph{linéaire} si elle est linéaire par rapport à chacune de ses variables, \ie{} si pour tout $j\in\Intf1p$ et pour tout $\vc a_k\in E$, $k\in\Intf 1p\setminus\{j\}$, les applications $$ \vc x\in E\mapsto f(\vc a_1,\dots,\vc a_{j-1},\vc x,\vc a_{j+1},\dots,\vc a_p)\in F $$ sont linéaires. L'ensemble des applications $p$-linéaires de $E$ dans $F$ est noté $\LpEF$. Les applications $p$-linéaires de $E$ vers le corps des scalaires $\K$ sont appelées \emph{formes $p$-linéaires} sur $E$. \end{Dfs} \begin{Exs}\alaligne \begin{demprop} \monitem Si $\vphi_1$,\dots,$\vphi_p$ sont des formes linéaires sur $E$, l'application $$ f : \Nuple{\vc x}p\in E^p\mapsto \vphi_1(\vc x_1)\times\cdots\times\vphi_p(\vc x_p) $$ est une forme $p$-linéaire sur $E$. \monitem L'application déterminant $$ (\vc x,\vc y)\in\K^2\times\K^2\mapsto \begin{vmatrix} x_1&y_1 \\ x_2&y_2 \end{vmatrix} =x_1y_2-x_2y_1 $$ est une forme 2-linéaire (ou bilinéaire) sur $\K^2$. \monitem L'application déterminant \begin{multline*} (\vc x,\vc y,\vc z)\in\K^3\times\K^3\times\K^3\mapsto \begin{vmatrix} x_1&y_1&z_1 \\ x_2&y_2&z_2 \\ x_3&y_3&z_3 \end{vmatrix} \\ =(x_1y_2z_3+x_2y_3z_1+x_3y_1z_2)-(x_3y_2z_1+x_1y_3z_2+x_2y_1z_3) \end{multline*} est une forme 3-linéaire (ou trilinéaire) sur $\K^3$. \end{demprop} \end{Exs} \begin{Prop}\alaligne \begin{prop} \item L'application nulle de $E^p$ vers $F$ est à la fois $p$-linéaire et linéaire. \item Si $f$ est une application $p$-linéaire de $E$ dans $F$, et si l'un des vecteurs $\vc x_i$ est nul, le vecteur $f(\vc x_1,\dots,\vc x_p)$ est nul. \item $\LpEF$ est un $\K$-espace vectoriel. \end{prop} \end{Prop} \begin{proof}\alaligne \begin{demprop} \setcounter{numdemprop}{1} \monitem $f$ est une application linéaire par rapport à sa $i$\fup{e} variable, et l'image de $\vc 0_E$ par une application linéaire est $\vc 0_F$. \monitem $\LpEF$ est un sous-espace vectoriel de l'espace de toutes les applications de~$E^p$ vers $F$. \end{demprop} \end{proof} %-------------------------------------------------- \begin{Dfs}[Symétrie, antisymétrie et alternance]\alaligne Soient $E$ et $F$ deux $\K$-espaces vectoriels et $f$ une application $p$-linéaire sur $E$ à valeurs dans $F$; on dit que \begin{itemize} \item $f$ est \emph{symétrique} si $\qqs(\vc x_1,\ldots,\vc x_p)\in E^p,\ \qqs(i,j)\in\Intf1p,$ $$ i<j\implique f(\ldots,\vc x_i,\ldots,\vc x_j,\ldots)= f(\ldots,\vc x_j,\ldots,\vc x_i,\ldots) $$ \item $f$ est \emph{antisymétrique} si $\qqs(\vc x_1,\ldots,\vc x_p)\in E^p,\ \qqs(i,j)\in\Intf1p,$ $$ i<j\implique f(\ldots,\vc x_i,\ldots,\vc x_j,\ldots)= -f(\ldots,\vc x_j,\ldots,\vc x_i,\ldots) $$ \item $f$ est \emph{alternée} si $\qqs(\vc x_1,\ldots,\vc x_p)\in E^p,\ \qqs(i,j)\in\Intf1p,$ $$ i<j\et \vc x_i=\vc x_j\implique f(\ldots,\vc x_i,\ldots,\vc x_j,\ldots)=\vc 0_F $$ \end{itemize} \end{Dfs} %-------------------------------------------------- \begin{Exs} Reprenons les exemples précédents. \begin{demprop} \monitem $f$ est symétrique \monitem et \addtocounter{numdemprop}{1}{\textit{\roman{numdemprop}}.} Les déterminants sont antisymétriques et alternés. Pourquoi? \end{demprop} \end{Exs} \begin{Prop}[]\mbox{} L'ensemble des applications $n$-linéaires symétriques et l'ensemble des applications $n$-linéaires alternées de $E$ à valeurs dans $F$ sont des sous-espaces vectoriels de $\LpEF$. \end{Prop} \begin{proof}\alaligne \begin{verse} Prenez vos ardoises et vos crayons.\\ Écrivez-moi cette démonstration. \end{verse} \end{proof} %-------------------------------------------------- \begin{Th}[Symétrie et permutation]\alaligne Soit $f$ une application $p$-linéaire de $E$ vers $F$; les propriétés suivantes sont équivalentes : \begin{prop} \item $f$ est symétrique; \item pour toute permutation $s\in\sym[p]$ et tout $(\vc x_1,\dots,\vc x_p)\in E^p$ $$ f(\vc x_{s(1)},\dots,\vc x_{s(p)})=f(\vc x_1,\dots,\vc x_p) $$ \end{prop} \end{Th} \begin{proof}\alaligne \CS La transposition $\tau_{i,j}\in\sym[p]$ qui échange $i$ et $j$ donne la symétrie. \CN La symétrie montre que la propriété est vraie pour toute transposition, et, puisqu'une permutation est un produit de transpositions, une récurrence sur le nombre de transpositions montre le résultat. \end{proof} %-------------------------------------------------- \begin{Th}[Antisymétrie, alternance et permutation]\alaligne Soit $f$ une application $p$-linéaire de $E$ vers $F$; les propriétés suivantes sont équivalentes : \begin{prop} \item $f$ est alternée; \item $f$ est antisymétrique; \item pour toute permutation $s\in\sym[p]$ et tout $(\vc x_1,\dots,\vc x_p)\in E^p$ $$ f(\vc x_{s(1)},\dots,\vc x_{s(p)})=\eps(s)f(\vc x_1,\dots,\vc x_p) $$ \end{prop} \end{Th} \begin{proof}\alaligne \makebox[1em][r]{\textit{i}.$\iff$\textit{ii}.} Soient $1\leq i<j\leq p$ et l'application $$ g_{i,j} : (\vc x_i,\vc x_j)\in E^2\mapsto f(\dots,\vc x_i,\dots,\vc x_j,\dots) $$ $g_{i,j}$ est bilinéaire puisque $f$ est $p$-linéaire; donc $g_{i,j}$ est antisymétrique si, et seulement si, $g_{i,j}$ est alternée, ce qui montre l'équivalence. \makebox[1em][r]{\textit{iii}.\ $\Longleftarrow$\ \textit{ii}.} Il suffit de prendre une transposition et $f$ est antisymétrique puisque la signature d'une transposition est $-1$. \makebox[1em][r]{\textit{ii}.\ $\Longrightarrow$\ \textit{iii}.} La formule est vraie pour les transpositions. Puisque toute permutation $s\in\sym[p]$ se décompose en un produit de transpositions $s=\tau_1\circ\cdots\circ\tau_k$ et puisque la signature de $s$ vaut $(-1)^k$, une récurrence, sur le nombre $k$ de transpositions, achève la démonstration. \end{proof} %-------------------------------------------------- \begin{Th}[Règle de calcul]\alaligne On ne change pas la valeur prise par une application $p$-linéaire alternée sur un $p$-uple de $E^p$ en ajoutant à l'un des vecteurs une combinaison linéaire des \emph{autres vecteurs}. En particulier, toute application $p$-linéaire alternée prend la valeur $\vc 0_F$ sur tout $p$-uple qui constitue une famille liée. \end{Th} \begin{proof} Soit $f$ une application $p$-linéaire alternée sur $E$. En ajoutant la combinaison linéaire $\sum_{j\neq k}\lambda_j \vc x_j$ au vecteur $\vc x_k$, on obtient \begin{align*} f(\dots,\vc x_k+\sum_{j\neq k}\lambda_j\vc x_j,\dots) &=f(\dots,\vc x_k,\dots) +\sum_{j\neq k}\lambda_j f(\dots,\vc x_j,\dots,\vc x_j,\dots) \\ &=f(\dots,\vc x_k,\dots)\qquad\hfill\text{ car $f$ est alternée} \end{align*} Si la famille $\Nuple{\vc x}p$ est liée, l'un des vecteurs, par exemple $\vc x_k$, est combinaison des autres vecteurs, et $$ f(\dots,\vc x_k,\dots)=f(\dots,\sum_{j\neq k}\lambda_j\vc x_j,\dots) =\sum_{j\neq k}\lambda_j f(\dots,\vc x_j,\dots,\vc x_j,\dots) =\vc0_F $$ puisque $f$ est alternée. \end{proof} %-------------------------------------------------- \begin{NBs}\alaligne Si $E$ est un espace vectoriel de dimension finie, la seule application $p$-linéaire alternée, avec $p>\dim E$, est l'application nulle, car, dans ce cas, toute famille de $p$ vecteurs est liée. Les seuls cas intéressants sont ceux où $p\leq\dim E$. Le programme nous demande d'étudier le cas où $p=\dim E=n$. Soient $E$ un espace vectoriel de dimension 2, $\mathcal{B}=(\vc e_1,\vc e_2)$ une base de $E$ et $f$ une application bilinéaire alternée sur $E$. Décomposons $\vc x=x_1\vc e_1+x_2\vc e_2$ et $\vc y=y_1\vc e_1+y_2\vc e_2$ sur la base $\mathcal{B}$. On obtient : \begin{align*} f(\vc x,\vc y) &= x_1y_1 f(\vc e_1,\vc e_1) + x_1y_2 f(\vc e_1,\vc e_2) + x_2y_1 f(\vc e_2,\vc e_1) + x_2y_2 f(\vc e_2,\vc e_2) \\ &= (x_1y_2-x_2y_1)f(\vc e_1,\vc e_2)\quad\text{ car $f$ est alternée}\\ &=\begin{vmatrix}x_1 & y_1 \\ x_2 & y_2 \end{vmatrix} f(\vc e_1,\vc e_2) \end{align*} et on retrouve le déterminant des deux vecteurs $\vc x$ et $\vc y$ dans la base $\mathcal{B}$. Envisageons le cas d'un espace vectoriel $E$ de dimension 3, muni d'une base $\mathcal{B}=(\vc e_1,\vc e_2,\vc e_3)$. Si $f$ est une application trilinéaire alternée sur $E$, on obtient, de manière analogue en ne notant que les termes non nuls : \begin{align*} f(\vc x&,\vc y,\vc z) = x_1y_2z_3 f(\vc e_1,\vc e_2,\vc e_3) + x_1y_3z_2 f(\vc e_3,\vc e_3\vc e_2) + x_2y_1z_3f(\vc e_2,\vc e_1,\vc e_3) \\ &\phantom{,\vc y,\vc z) =} + x_2y_3z_1 f(\vc e_2,\vc e_3,\vc e_1) + x_3y_1z_2 f(\vc e_3,\vc e_1,\vc e_2) + x_3y_2z_1 f(\vc e_3,\vc e_2,\vc e_1) \\ &=\bigl((x_1y_2z_3+x_2y_3z_1+x_3y_1z_2)- (x_3y_2z_1+x_1y_3z_2+x_2y_1z_3)\bigr) f(\vc e_1,\vc e_2,\vc e_3) \\ &=\begin{vmatrix} x_1&y_1&z_1 \\ x_2&y_2&z_2 \\ x_3&y_3&z_3 \end{vmatrix} f(\vc e_1,\vc e_2,\vc e_3) \end{align*} On retrouve le déterminant des trois vecteurs $\vc x$, $\vc y$ et $\vc z$ dans la base $\mathcal{B}$. \end{NBs} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Déterminant de $n$ vecteurs} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Dans cette section, $E$ désigne un $\K$-espace vectoriel de dimension finie~$n$, muni d'une base $\mathcal{B}=(\vc e_1,\dots,\vc e_n)$; la base duale $\mcal{B}^*=\nuple{\vphi}$ est définie par $\vphi_i(\vc x)=x_i$ la coordonnée de rang $i$ relative à $\mcal{B}$. Nous étudions l'ensemble $\Lambda_n^*(E)$ des \emph{formes $n$-linéaires alternées} définies sur $E$ et $f$ désigne une telle forme. %--------------------------------------------------------------------- \subsection{Déterminant de $n$ vecteurs dans la base $\mathcal{B}$} %--------------------------------------------------------------------- Soit $\nuple{\vc x}\in E^n$; les composantes de $\vc x_j$ dans $\mcal{B}$ sont notées $a_{i,j}$ et pour $f\in\Lambda_n^*(E)$, on écrit \begin{align*} f\nuple{\vc x} &=f\Bigl(\sum_{i_1=1}^n a_{i_1,1}\vc e_{i_1},\vc x_2,\dots,\vc x_n\Bigr) \\ &=\sum_{i_1=1}^n a_{i_1,1} f(\vc e_{i_1},\vc x_2,\dots,\vc x_n) \quad\text{ linéarité de $f$ par rapport à $\vc x_1$} \\ &=\sum_{1\leq i_1,\dots,i_n\leq n}a_{i_1,1}\dots a_{i_n,n} f(\vc e_{i_1},\dots,\vc e_{i_n}) \quad\text{$n$-linéarité de $f$} \end{align*} Étant donnés $(i_1,\dots,i_n)\in\Intf1n^n$, on pose $s(k)=i_k$ pour $k\in\Intf1n$. Si $s$ n'est pas injective, deux vecteurs $\vc e_{s(k)}$ sont égaux et, puisque que $f$ est alternée, $$ f(\vc e_{i_1},\dots,\vc e_{i_n})=f(\vc e_{s(1)},\dots,\vc e_{s(n)})=0 $$ Sinon $s$ est bijective et appartient à $\sym$, et $$ f(\vc e_{i_1},\ldots,\vc e_{i_n})=f(\vc e_{s(1)},\ldots,\vc e_{s(n)})= \eps(s) f(\vc e_1,\ldots,\vc e_n) $$ Ainsi \begin{align*} f\nuple{\vc x} &=\sum_{1\leq i_1,\dots,i_n\leq n}a_{i_1,1}\dots a_{i_n,n} f(\vc e_{i_1},\dots,\vc e_{i_n}) \\ &=\sum_{s\in\sym} a_{s(1),1}\dots a_{s(n),n} f(\vc e_{s(1)},\dots,\vc e_{s(n)}) \\ &=\Bigl(\sum_{s\in\sym} \eps(s) a_{s(1),1}\dots a_{s(n),n}\Bigr) f(\vc e_1,\dots,\vc e_n) \\ &=\Bigl(\sum_{s\in\sym}\eps(s)\prod_{j=1}^n a_{s(j),j}\Bigr) f(\vc e_1,\dots,\vc e_n) \end{align*} Posons $i=s(j)$ soit $j=s^{-1}(i)$; on obtient $\prod_{j=1}^n a_{s(j),j}=\prod_{i=1}^n a_{i,s^{-1}(i)}$; comme l'application $s\to s^{-1}$ est une bijection de $\sym$ (c'est même une involution) et $\eps(s^{-1})=\eps(s)^{-1}=\eps(s)$, on peut écrire, en effectuant le changement d'indice de sommation $\sigma=s^{-1}$ $$ \sum_{s\in\sym}\eps(s)\prod_{j=1}^n a_{s(j),j} =\sum_{s\in\sym}\eps(s^{-1})\prod_{i=1}^n a_{i,s^{-1}(i)} =\sum_{\sigma\in\sym}\eps(\sigma)\prod_{i=1}^n a_{i,\sigma(i)} $$ \begin{Df}[Déterminant de $n$ vecteurs dans une base]\alaligne Soient $E$ un $\K$-espace vectoriel de dimension finie $n$ et $\mcal{B}=\nuple{\vc e}$ une base de $E$; on appelle \emph{déterminant dans la base $\mcal{B}$} et l'on note $\Det$, l'unique forme $n$-linéaire alternée sur $E$ qui prend la valeur 1 sur $\mcal{B}$. Si pour tout $j\in\Intf1n$, $\vc x_j=\sum_{i=1}^n a_{i,j}\vc e_i$, le scalaire $\det\nuple{\vc x}$, appelé \emph{déterminant dans la base $\mcal{B}$ du $n$-uple $\nuple{\vc x}\in E^n$}, admet deux expressions \begin{equation}\label{eq\DP det} \Det\nuple{\vc x}=\sum_{s\in\sym}\eps(s)\prod_{j=1}^n a_{s(j),j} =\sum_{s\in\sym}\eps(s)\prod_{i=1}^n a_{i,s(i)} \end{equation} \end{Df} \begin{proof} L'essentiel a été vu avant l'énoncé du théorème; reste à prouver l'existence de ce gros machin. En utilisant les éléments $\vphi_i$ de la base duale, on obtient $$ \prod_{j=1}^n a_{s(j),j}=\prod_{j=1}^n \vphi_{s(j)}(\vc x_j) =\vphi_{s(1)}(\vc x_1)\times\dots\times\vphi_{s(n)}(\vc x_n) $$ ce qui montre la $n$-linéarité de ces produits par rapport à $\nuple{\vc x}$ et la $n$-linéarité de $\det B$ par combinaison linéaire. Soit $\tau$ une transposition de $\sym$; comme $s\to s\circ\tau$ est une bijection de $\sym$ (c'est même une involution) et puisque $\eps(s\circ\tau)=\eps(s)\eps(\tau)=-\eps(s)$, on peut écrire \begin{align*} \Det(\vc x_{\tau(1)},\dots,\vc x_{\tau(n)}) & = \sum_{s\in\sym}\eps(s)\prod_{i=1}^n a_{i,s(\tau(i))} = \sum_{s\in\sym}-\eps(s\circ\tau)\prod_{i=1}^n a_{i,s(\tau(i))} \\ & = -\sum_{\sigma\in\sym}\eps(\sigma)\prod_{i=1}^n a_{i,\sigma(i)} \end{align*} en utilisant le changement d'indice $\sigma=s\circ\tau$. \end{proof} %-------------------------------------------------- \begin{Th}[Dimension de $\Lambda_n^*(E)$]\alaligne L'espace vectoriel $\Lambda_n^*(E)$ des formes $n$-linéaires alternées sur un espace vectoriel $E$ de dimension $n$ est de dimension $1$; il admet pour base $(\Det)$ et \begin{equation}\label{eq\DP nLinAlt} \qqs f\in\Lambda_n^*(E),\ f=f\nuple{\vc e}\Det=f(\mcal{B})\Det \end{equation} \end{Th} %-------------------------------------------------- \begin{Th}[Déterminant d'un système triangulaire de vecteurs]\alaligne Si chaque vecteur $\vc x_j$ est combinaison linéaire des vecteurs $\Nuple{\vc e}{j}$, autrement dit, si $a_{i,j}=0$ pour $i>j$, \begin{equation}\label{eq\DP DetSysTri} \Det\nuple{\vc x}= \begin{vmatrix} a_{1,1} & a_{1,2} & \dots & a_{1,n} \\ 0 & a_{2,2} & \dots & a_{2,n} \\ \hdotsfor[2]{4} \\ 0 & 0 & \dots & a_{n,n} \end{vmatrix} =\prod_{i=1}^n a_{i,i} \end{equation} \end{Th} \begin{proof} Soit $s\in\sym$ telle qu'il existe $j_0$ avec $s(j_0)>j_0$; alors $a_{s(j_0),j_0}=0$ et $\prod_{j=1}^n a_{s(j),j}=0$. Dans la somme qui définit $\det\nuple{\vc x}$, seuls les permutations $s$ pour lesquelles $s(j)\leq j$ pour tout $j\in\Intf1n$ peuvent données un produit non nul, ce qui impose à $s$ d'être la permutation identique et donne le résultat. \end{proof} %-------------------------------------------------- %--------------------------------------------------------------------- \subsection{Caractérisation des bases} %--------------------------------------------------------------------- \begin{Th}[Passage d'une base à une autre]\alaligne Si $\mcal{B}$ et $\mcal{B}'$ sont deux bases de $E$ et $\mcal{V}$ un $n$-uple de $E^n$, on a \begin{gather} \Det(\mcal{B}')\times\Det[B'](\mcal{B})=1 \\ \Det[B'](\mcal{V})=\Det[B'](\mcal{B})\times \Det(\mcal{V}) \end{gather} \end{Th} \begin{proof} $\Det[B']$ est une forme $n$-linéaire alternée à qui on applique la formule \ref{eq\DP nLinAlt}, soit $$ \Det[B']=\Det[B'](\mcal{B})\Det $$ En prenant la valeur de ces expressions en $\mcal{B}'$ et en $\mcal{V}$, on obtient les résultats. \end{proof} %-------------------------------------------------- \begin{Th}[Caractérisation des bases]\alaligne Si $\mcal{V}=\nuple{\vc v}$ est une famille de $n$ vecteurs d'un espace vectoriel de dimension $n$ et si $\mcal{B}$ est une base de $E$, \Reponse{$ \mcal{V} \text{ est une base de $E$}\iff\Det(\mcal{V})\neq 0 $} \end{Th} \begin{proof}\alaligne \CN Si $\mcal{V}$ est une base de $E$, $\Det(\mcal{V})$ n'est pas nul, car $\Det(\mcal{V})\times\Det[V](\mcal{B})=1$. \CS Par contraposée; si $\mcal{V}$ n'est pas une base de $E$, $\mcal{V}$ est une famille liée ($\mcal{V}$ est maximale) et donc $\Det(\mcal{V})=0$ (image d'une famille liée par une forme $n$-linéaire alternée). \end{proof} %-------------------------------------------------- \begin{Exs}\alaligne \begin{demprop} \monitem $(1,j)$ est une base du $\R$-espace vectoriel $\C$.\\ On note $\mcal{B}=(1,i)$ la base canonique du $\R$-espace vectoriel $\C$ et $$ \Det(1,j)= \begin{vmatrix} 1 & -\ra12 \\ 0 & \ra{\sqrt3}2 \end{vmatrix} =\ra{\sqrt3}2\neq0 $$ \monitem Toute famille de $(n+1)$ polynômes de $\K_n[X]$ et échelonnés en degré est une base de $\K_n[X]$.\\ On note $\mcal{B}=(1,X,\dots,X^n)$ la base canonique de $\K_n[X]$; si $P_k$ est un polynôme de degré $k\leq n$, on pose $P_k=\sum_{i=0}^k a_{i,k}X^i$ avec $a_{k,k}\neq0$; la famille $(P_0,P_1,\dots,P_n)$ est un système triangulaire de vecteurs et la formule \eqref{eq\DP DetSysTri} donne $$ \Det(P_0,P_1,\dots,P_n)=\prod_{k=0}^n a_{k,k}\neq0 $$ \end{demprop} \end{Exs} %--------------------------------------------------------------------- \subsection{Orientation d'un $\R$-espace vectoriel} %--------------------------------------------------------------------- Dans ce paragraphe, $E$ est un espace vectoriel réel; on ne peut orienter que des espaces sur le corps des réels. \begin{Df}[Orientation de deux bases]\alaligne Deux bases ordonnées $\mcal{B}$ et $\mcal{B'}$ du même $\R$-espace vectoriel $E$ ont \emph{même orientation} si $$ \Det(\mcal{B'})>0 $$ \end{Df} % Cette propriété définit une relation d'équivalence sur les bases de $E$ : \begin{itemize} \item \emph{réflexivité} : $\Det(\mcal{B})=1>0$; \item \emph{symétrie} : $\Det(\mcal{B'})>0$ implique $\Det[B'](\mcal{B})= \bigl(\Det(\mcal{B'})\bigr)^{-1}>0$ \item \emph{transitivité} : $\Det(\mcal{B'})>0$ et $\Det[B'](\mcal{B''})>0$ implique $\Det(\mcal{B''})=\Det(\mcal{B'})\times \Det[B'](\mcal{B''})>0$ \end{itemize} Une base $\mcal{C}$ de $E$ étant choisie, cette relation d'équivalence définit une partition de l'ensembles des bases de $E$ en deux classes : $\mcal{C}^+$ et $\mcal{C}^-$ : \begin{itemize} \item $\mcal{C}^+$ est l'ensemble des bases $\mcal{B}$ de $E$ de même orientation que $\mcal{C}$ : $\Det[C](\mcal{B})>0$; \item $\mcal{C}^-$ est l'ensemble des bases $\mcal{B}$ de $E$ ayant l'orientation opposée à celle de $\mcal{C}$ : $\Det[C](\mcal{B})<0$. \end{itemize} Choisir une de ces classes, c'est, par définition, orienter l'espace vectoriel réel $E$ : toutes les bases appartenant à cette classe sont appelées \emph{directes} ou \emph{positivement orientées}, les bases appartenant à l'autre classe sont appelées \emph{indirectes}, \emph{rétrogrades} ou \emph{négativement orientées}. Dans $\R^2$, on décide que la base canonique $(\vc e_1,\vc e_2)$ est directe et que la base $(\vc e_2,\vc e_1)$ est rétrograde. Dans $\R^3$, on décide que la base canonique $(\vc e_1,\vc e_2,\vc e_3)$ est directe; les bases $(\vc e_2,\vc e_3,\vc e_1)$ et $(\vc e_3,\vc e_1,\vc e_2)$ sont directes; les bases $(\vc e_1,\vc e_3,\vc e_2)$, $(\vc e_2,\vc e_1,\vc e_3)$ et $(-\vc e_1,\vc e_2,\vc e_3)$ sont rétrogrades (utilisez un calcul de déterminant ou un petit coup de tire-bouchon, technique bien connue de tous les amateurs de physique,\dots{} et de bon vin). %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Déterminant d'un endomorphisme} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Soient $E$ un $\K$-espace vectoriel de dimension finie $n>0$ muni d'une base $\mcal{B}=(\vc e_1,\ldots,\vc e_n)$ et $u$ un endomorphisme de $E$. À toute forme $n$-linéaire alternée $f$ sur $E$, on associe l'application $\vphi_u(f)$ définie par : \begin{equation} \vphi_u(f) : \nuple{\vc x}\in E^n\mapsto f\bigl(u(\vc x_1),\ldots,u(\vc x_n)\bigr)\in\K \end{equation} L'application $\vphi_u(f)$ est une forme $n$-linéaire, car $u$ est linéaire et $f$ est $n$-linéaire alternée. D'autre part, l'application $\vphi_u : f\mapsto\vphi_u(f)$ est linéaire; $\vphi_u$ est donc un endomorphisme de la droite vectorielle $\Lambda_n^*(E)$, donc une homothétie, ce qui donne le \begin{Lem} Si $u$ est un endomorphisme d'un $\K$-espace vectoriel $E$ de dimension finie $n$, il existe un unique scalaire $\lambda$ tel que \begin{equation}\label{eq\DP DetEndo} \qqs f\in\Lambda_n^*(E),\ \qqs\nuple{\vc x},\ f\bigl(u(\vc x_1),\ldots,u(\vc x_n)\bigr)=\lambda f\nuple{\vc x} \end{equation} \end{Lem} \begin{Df}[Déterminant d'un endomorphisme]\alaligne Ce scalaire est appelé \emph{déterminant} de $u$ et noté $\det u$. \end{Df} \begin{Cor}[Expression du déterminant d'un endomorphisme]\alaligne Si $\mcal{B}$ est une base (quelconque) de $E$, le déterminant de $u$ se calcule par \Reponse{$ \det u=\Det\bigl(u(\vc e_1),\ldots,u(\vc e_n)\bigr) $} \end{Cor} \begin{proof} On utilise $f=\Det$ et $\nuple{\vc x}=\nuple{\vc e}=\mcal{B}$ dans la formule \eqref{eq\DP DetEndo}. \end{proof} %-------------------------------------------------- \begin{NB} L'expression du déterminant dans la formule précédente, est indépendante de la base $\mcal{B}$ choisie. \end{NB} \begin{Th}[Propriétés du déterminant d'un endomorphisme]\alaligne \label{th\DP PropDetEndo} Si $E$ est un $\K$-espace vectoriel de dimension $n$, on a \begin{prop} \item $\det I_E=1$; \item $\qqs u\in\LE,\ \qqs\lambda\in\K,\ \det(\la u)=\la^n\det(u)$; \item $\qqs(u,v)\in\LE^2,\ \det(u\circ v)=\det u\times\det v$. \end{prop} \end{Th} \begin{proof} Utilisons l'expression du déterminant d'un endomorphisme relativement à une base; \begin{demprop} \monitem $\det(I_E)=\Det(\mcal{B})=1$; \monitem $\det (\la u)= \Det\bigl(\la u(\vc e_1),\ldots,\la u(\vc e_n)\bigr)= \la^n\det\bigl(u(\vc e_1),\ldots,u(\vc e_n)\bigr)= \la^n\det u$; \monitem la formule \eqref{eq\DP DetEndo} appliquée à $f=\Det$ et $\nuple{\vc x}=\bigl(v(\vc e_1),\ldots,v(\vc e_n)\bigr)$ donne $$ \det(u\circ v)= \Det\Bigl(u\bigl(v(\vc e_1)\bigr),\ldots,u\bigl(v(\vc e_n)\bigr)\Bigr) =\det u\,\Det\bigl(v(\vc e_1),\ldots,v(\vc e_n)\bigr)= \det u\,\det v $$ \end{demprop} \end{proof} %-------------------------------------------------- \begin{NB} En général, $\det(u+v)$ est différent de $\det u+\det v$. Donnons un exemple : si $n\geq 2$, $\det(I_E+I_E)=\det(2I_E)=2^n\neq\det I_E+\det I_E=2$. \end{NB} \begin{Th}[Caractérisation des automorphismes]\alaligne \label{th\DP DetAuto} Soit $u$ est un endomorphisme d'un $\K$-espace vectoriel $E$ de dimension finie $n>0$; $u$ est inversible si, et seulement si, son déterminant n'est pas nul, et, dans ce cas, $\det u^{-1}=(\det u)^{-1}$. \Reponse{$ u\in\GLE\iff\det u\neq0\text{ et, dans ce cas, }\det (u^{-1})=(\det u)^{-1} $} \end{Th} \begin{proof} Soit $\mcal{B}=\nuple{\vc e}$ une base de $E$; $u$ est inversible si, et seulement si, $n=\rg u=\rg\bigl(u(\vc e_1),\ldots,u(\vc e_n)\bigr)$, \ie{} si, et seulement si, $u(\mcal{B})$ est une base de $E$, soit si, et seulement si, $0\neq\Det u(\mcal{B})=\det u$. Si $u$ est inversible, $u^{-1}\circ u=I_E$; on obtient $1=\det I_E=\det (u\circ u^{-1})=\det (u^{-1})\,\det u$, ce qui montre que $\det u^{-1}=(\det u)^{-1}$. \end{proof} %-------------------------------------------------- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Déterminant d'une matrice carrée} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Considérons une matrice carrée $M$ d'ordre $n\geq 1$ à coefficients dans $\K$; on note $a_{i,j}$ le terme général de cette matrice et $C_1$,\dots,$C_n$ ses vecteurs colonnes; on écrira indifféremment : $M=[a_{i,j}]=(C_1,\ldots,C_n)$. Appelons $\mcal{E}=\nuple{E}$ la base canonique de $\Mnp[n,1]{\K}$; le scalaire $a_{i,j}$ s'interprète comme la composante du vecteur colonne $C_j$ suivant $E_i$ relativement à la base canonique $\mcal{C}$, ce qui donne~la \begin{Df}[Déterminant d'une matrice carrée]\alaligne On appelle \emph{déterminant} de la matrice carrée $M=[a_{i,j}]$, et l'on note $\det M$, le déterminant $\Det[E]\nuple{C}$ de la famille de ses vecteurs colonnes dans la base canonique de $\Mnp[n,1]{\K}$. \end{Df} \begin{Th}[Déterminant de la transposée d'une matrice]\alaligne Si $M=[a_{i,j}]\in\MnK$, on a $$ \det M=\det \trans M=\sum_{s\in\sym}\eps(s)\prod_{j=1}^n a_{s(j),j} =\sum_{s\in\sym}\eps(s)\prod_{i=1}^n a_{i,s(i)} $$ \end{Th} \begin{proof} Le vecteur colonne $C_j$ a pour coordonnées $(a_{1,j},\ldots,a_{n,j})$ dans la base canonique de $\Mnp[n,1]{\K}$. En changeant $M$ en $\trans M$, on passe de l'une des expressions du déterminant à l'autre. \end{proof} %-------------------------------------------------- %--------------------------------------------------------------------- \subsection{Propriétés} %--------------------------------------------------------------------- \begin{Th}[Déterminant d'une matrice triangulaire]\alaligne Le déterminant d'une matrice triangulaire est le produit des éléments de sa diagonale principale. \end{Th} \begin{proof} Si $M$ est une matrice triangulaire supérieure, on utilise l'expression \eqref{eq\DP DetSysTri} du déterminant d'un système triangulaire de vecteurs. Si $M$ est une matrice triangulaire inférieure, $\trans M$ est une matrice triangulaire supérieure; l'égalité $\det M=\det \trans M$ donne le résultat. \end{proof} %-------------------------------------------------- \begin{Th}[Déterminant de la matrice d'un endomorphisme]\alaligne Si $u$ est un endomorphisme d'un $\K$-espace vectoriel $E$ de dimension finie $n\geq1$, le déterminant de $u$ est le déterminant de la matrice de $u$ dans une base quelconque de $E$. \Reponse{ Pour toute base $\mcal{B}$ de $E$,\quad $\det u=\det \bigl(\mat(u)\bigr) $} \end{Th} \begin{proof} Soit $\mcal{B}=\nuple{\vc e}$ une base de $E$; les composantes du vecteur colonne $C_j$ de $\mat(u)$ sont les composantes de $u(\vc e_j)$ dans $\mcal{B}$, ce qui donne l'égalité $\det\bigl(u(\vc e_1),\ldots,u(\vc e_n)\bigr) =\Det[E]\nuple{C} =\det \bigl(\mat(u)\bigr)$. \end{proof} %-------------------------------------------------- \begin{Th}%\label{th\DP PropDetEndo} Si $n$ est un entier positif, on a \begin{prop} \item $\det I_n=1$; \item $\qqs M\in\MnK,\ \qqs\lambda\in\K,\ \det(\lambda M)=\lambda^n\det(M)$; \item $\qqs(M,N)\in\MnK^2,\ \det(MN)=\det M\times\det N$; \item $M\in\GLnK\iff\det M\neq 0$ et, dans ce cas, $\det(M^{-1})=(\det M)^{-1}$. \end{prop} \end{Th} \begin{proof} C'est la traduction matricielles des théorèmes \ref{th\DP PropDetEndo}{} et \ref{th\DP DetAuto}{} consacrés aux déterminants d'endomorphismes. \end{proof} %-------------------------------------------------- \begin{Prop}[Déterminant de matrices semblables]\alaligne Deux matrices semblables ont même déterminant. \end{Prop} \begin{proof} Si $A$ et $B$ sont semblables, il existe une matrice inversible $P$ telle que $B=P^{-1}AP$ et donc $\det (P^{-1}AP)=\det (P^{-1})\det A\det P=\det A$. \end{proof} %-------------------------------------------------- \begin{NBs}\alaligne Si $M$ et $N$ sont deux matrices carrées d'ordre $n\geq 2$, $\det(M+N)$ est (presque) toujours différent de $\det M+\det N$. L'application $\det $ est une application continue sur l'espace vectoriel normé $\MnK$, car application polynomiale en les composantes des matrices. On en déduit que $\GLnK$ est une partie ouverte de $\MnK$ comme image réciproque de la partie ouverte $\K\setminus\{0\}$ par l'application continue $\det$. \end{NBs} %--------------------------------------------------------------------- \subsection{Règles de calcul du déterminant d'une matrice} %--------------------------------------------------------------------- Le déterminant d'une matrice carrée est une application $n$-linéaire alternée des \emph{vecteurs colonnes}, et donc \begin{itemize} \item si on échange deux colonnes d'une matrice, le déterminant se change en son opposé; \item le déterminant d'une matrice dépend linéairement de chacun de ses vecteurs colonnes; \item on ne change pas la valeur du déterminant d'une matrice en ajoutant à l'un de ses vecteurs colonnes, une combinaison linéaire des \emph{autres} vecteurs colonnes; \item le déterminant d'une matrice est nul si l'un des vecteurs colonnes est nul, ou si l'un des vecteurs colonnes est combinaison linéaire des autres vecteurs colonnes. \end{itemize} Puisque le déterminant d'une matrice est égal au déterminant de sa transposée, on peut remplacer \og vecteur colonne\fg{} par \og vecteur ligne\fg{} dans les propriétés précédentes. %--------------------------------------------------------------------- \subsection{Déterminant d'une matrice triangulaire par blocs} %--------------------------------------------------------------------- Soient $\mcal{C}=(\beps_1,\ldots,\beps_n)$ est la base canonique de $\K^n$, $E'$ le sous-espace vectoriel de $\K^n$ de base $\mcal{C}'=(\beps_2,\ldots,\beps_n)$ et $E''$ le sous-espace vectoriel de $\K^n$ de base $\mcal{C}''=(\beps_1,\ldots,\beps_{n-1})$. L'application \begin{equation*} f : (\vc x_1,\ldots,\vc x_{n-1})\mapsto \Det[C](\beps_1,\vc x_1,\ldots,\vc x_{n-1}) \end{equation*} est une forme $(n-1)$-linéaire alternée sur $E'$; elle est donc proportionnelle à $\Det[C']$, et comme $f(\mcal{C}')= \Det[C](\beps_1,\beps_2,\ldots,\beps_n)=1$, on a l'égalité \begin{equation*} \qqs(\vc x_1,\ldots,\vc x_{n-1})\in E',\ \Det[C](\beps_1,\vc x_1,\ldots,\vc x_{n-1})= \Det[C'](\vc x_1,\ldots,\vc x_{n-1}) \end{equation*} De même, en utilisant la $(n-1)$-forme linéaire alternée sur $E''$ $$ g : (\vc x_1,\ldots,\vc x_{n-1})\mapsto\Det[C](\vc x_1,\ldots,\vc x_{n-1},\beps_n) $$ on obtient \begin{equation*} \qqs(\vc x_1,\ldots,\vc x_{n-1})\in E'',\ \Det[C]\alaligne(\vc x_1,\ldots,\vc x_{n-1},\beps_n)= \Det[C''](\vc x_1,\ldots,\vc x_{n-1}) \end{equation*} Nous venons de démontrer le \begin{Lem} Si $A\in\Mn[n-1]{\K}$, alors $$ \begin{vmatrix} 1 & \vdots & 0_{1,n-1} \\ \hdotsfor[]{3} \\ 0_{n-1,1} & \vdots & A \end{vmatrix} =\det A = \begin{vmatrix} A & \vdots & 0_{n-1,1} \\ \hdotsfor[]{3} \\ 0_{1,n-1} & \vdots & 1 \end{vmatrix} $$ \end{Lem} \begin{Lem} Si $A\in\Mn[n-1]{\K}$ et $B\in\Mn[n-1]{\K}$, alors $$ \begin{vmatrix} 1 & \vdots & B \\ \hdotsfor[]{3} \\ 0_{n-1,1} & \vdots & A \end{vmatrix} =\det A = \begin{vmatrix} A & \vdots & 0_{1,n-1} \\ \hdotsfor[]{3} \\ \trans B & \vdots & 1 \end{vmatrix} $$ \end{Lem} \begin{proof} On pose $B=(b_2,\dots,b_n)$; on effectue les transformations $C_j\leftarrow C_j-b_j C_1$ pour $j=2..n$; ces transformations laissent le déterminant invariant et donnent : $$ \begin{vmatrix} 1 & \vdots & B \\ \hdotsfor[]{3} \\ 0_{n-1,1} & \vdots & A \end{vmatrix} = \begin{vmatrix} 1 & \vdots & 0_{1,n-1} \\ \hdotsfor[]{3} \\ 0_{n-1,1} & \vdots & A \end{vmatrix} =\det A $$ De même, en effectuant les transformations $C_j\leftarrow C_j-b_j C_n$ pour $j=1..n-1$, on obtient : $$ \begin{vmatrix} A & \vdots & 0_{n-1,1} \\ \hdotsfor[]{3} \\ \trans B & \vdots & 1 \end{vmatrix} = \begin{vmatrix} A & \vdots & 0_{n-1,1} \\ \hdotsfor[]{3} \\ 0_{1,n-1} & \vdots & 1 \end{vmatrix} =\det A $$ \end{proof} %-------------------------------------------------- En utilisant ce lemme et une démonstration par récurrence, on retrouve le \begin{Th}[Déterminant d'une matrice triangulaire]\alaligne Le déterminant d'une matrice triangulaire est le produit des éléments de sa diagonale principale. \end{Th} \begin{Lem}[]\mbox{} Soient $A\in\mcal{M}_{p}(\K)$, $B\in\mcal{M}_{p,q}(\K)$ et $C\in\mcal{M}_{q,p}(\K)$; alors $$ \begin{vmatrix} I_p & \vdots & B \\ \hdotsfor[]{3} \\ 0 & \vdots & A \end{vmatrix} =\det A= \begin{vmatrix} A & \vdots & 0 \\ \hdotsfor[]{3} \\ C & \vdots & I_q \end{vmatrix} $$ \end{Lem} \begin{proof} La démonstration s'effectue par récurrence sur $p$ (ou sur $q$) en utilisant le lemme précédent. \end{proof} %-------------------------------------------------- \begin{Th}[Déterminant d'une matrice triangulaire par blocs]\alaligne Si $A\in\Mn[p]{\K}$, $B\in\Mn[q]{\K}$ et $C\in\Mnp[p,q]{\K}$, on a $$ \begin{vmatrix} A & \vdots & C \\ \hdotsfor[]{3} \\ 0 & \vdots & B \end{vmatrix} =\det A\times\det B $$ \end{Th} \begin{proof} On écrit la matrice dont on veut calculer le déterminant, comme un produit de deux matrices du type précédent, en utilisant le produit matriciel par blocs $$ M= \begin{pmatrix} A & \vdots & C \\ \hdotsfor[]{3} \\ 0 & \vdots & B \end{pmatrix} = \begin{pmatrix} I_p & \vdots & 0 \\ \hdotsfor[]{3} \\ 0 & \vdots & B \end{pmatrix} \, \begin{pmatrix} A & \vdots & C \\ \hdotsfor[]{3} \\ 0 & \vdots & I_q \end{pmatrix} =NR $$ Le lemme précédent et $\det M=\det N\det R$ donnent le résultat. \end{proof} %-------------------------------------------------- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Développement d'un déterminant suivant une rangée} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %---------------------------------------------------------------------- \subsection{Mise en place} %---------------------------------------------------------------------- Soient $M=[a_{i,j}]=\nuple{C}$ une matrice carrée d'ordre $n\geq 2$, $\mcal{E}=\nuple{E}$ la base canonique de $\Mnp[n,1]{\K}$; pour $j\in\Intf1n$, $C_j=\sum_{i=1}^n a_{i,j}E_i$. Le déterminant de $M$ se développe suivant son $j$\fup{e} argument en utilisant la linéarité et l'on a $$ \det M=\Det[E](C_1,\ldots,\sum_{k=1}^n a_{k,j}E_k,\ldots,C_n) =\sum_{k=1}^n a_{k,j}\Det[E](C_1,\ldots,E_k,\ldots,C_n) =\sum_{k=1}^n a_{k,j}A_{k,j} $$ où les déterminants $A_{k,j}$ s'exprime par $$ A_{k,j} = \begin{vmatrix} a_{1,1} & \cdots & a_{1,j-1} & 0 & a_{1,j+1} & \cdots & a_{1,n} \\ \hdotsfor[]{7} \\ a_{k-1,1} & \cdots & a_{k-1,j-1} & 0 & a_{k-1,j+1} & \cdots & a_{k-1,n} \\ a_{k,1} & \cdots & a_{k,j-1} & 1 & a_{k,j+1} & \cdots & a_{k,n} \\ a_{k+1,1} & \cdots & a_{k+1,j-1} & 0 & a_{k+1,j+1} & \cdots & a_{k+1,n} \\ \hdotsfor[]{7} \\ a_{n,1} & \cdots & a_{n,j-1} & 0 & a_{n,j+1} & \cdots & a_{n,n} \\ \end{vmatrix} $$ soit \begin{align*} A_{k,j} & =(-1)^{j-1} \begin{vmatrix} 0 & a_{1,1} & \cdots & a_{1,j-1} & a_{1,j+1} & \cdots & a_{1,n} \\ \hdotsfor[]{7} \\ 0 & a_{k-1,1} & \cdots & a_{k-1,j-1} & a_{k-1,j+1} & \cdots & a_{k-1,n} \\ 1 & a_{k,1} & \cdots & a_{k,j-1} & a_{k,j+1} & \cdots & a_{k,n} \\ 0 & a_{k+1,1} & \cdots & a_{k+1,j-1} & a_{k+1,j+1} & \cdots & a_{k+1,n} \\ \hdotsfor[]{7} \\ 0 & a_{n,1} & \cdots & a_{n,j-1} & a_{n,j+1} & \cdots & a_{n,n} \\ \end{vmatrix}\\ &\qquad\qquad\text{ en effectuant $(j-1)$ transpositions de colonnes} \end{align*} ce qui donne \begin{align*} A_{k,j} & =(-1)^{(j-1)+(k-1)} \begin{vmatrix} 1 & a_{k,1} & \cdots & a_{k,j-1} & a_{k,j+1} & \cdots & a_{k,n} \\ 0 & a_{1,1} & \cdots & a_{1,j-1} & a_{1,j+1} & \cdots & a_{1,n} \\ \hdotsfor[]{7} \\ 0 & a_{k-1,1} & \cdots & a_{k-1,j-1} & a_{k-1,j+1} & \cdots & a_{k-1,n} \\ 0 & a_{k+1,1} & \cdots & a_{k+1,j-1} & a_{k+1,j+1} & \cdots & a_{k+1,n} \\ \hdotsfor[]{7} \\ 0 & a_{n,1} & \cdots & a_{n,j-1} & a_{n,j+1} & \cdots & a_{n,n} \\ \end{vmatrix}\\ &\qquad\qquad\text{ en effectuant $(k-1)$ transpositions de lignes} \\ & =(-1)^{j+k} \begin{vmatrix} a_{1,1} & \cdots & a_{1,j-1} & a_{1,j+1} & \cdots & a_{1,n} \\ \hdotsfor[]{6} \\ a_{k-1,1} & \cdots & a_{k-1,j-1} & a_{k-1,j+1} & \cdots & a_{k-1,n} \\ a_{k+1,1} & \cdots & a_{k+1,j-1} & a_{k+1,j+1} & \cdots & a_{k+1,n} \\ \hdotsfor[]{6} \\ a_{n,1} & \cdots & a_{n,j-1} & a_{n,j+1} & \cdots & a_{n,n} \\ \end{vmatrix} =(-1)^{j+k}\det M_{k,j} \end{align*} Ainsi $A_{k,j}=(-1)^{k+j}\det M_{k,j}$ où $M_{k,j}$ est la matrice déduite de $M$ par suppression de la $k$\fup{e} ligne et de la $j$\fup{e} colonne. \begin{Dfs}[Mineur, cofacteur]\alaligne Si $M=[a_{i,j}]$ est une $\K$-matrice carrée d'ordre $n\geq 2$, on appelle \begin{itemize} \item \emph{mineur} relatif à l'élément $a_{i,j}$, le déterminant de la matrice carrée $M_{i,j}$ d'ordre $(n-1)$ et déduite de $M$ par la suppression de la $i$\fup{e} ligne et de la $j$\fup{e} colonne; \item \emph{cofacteur} de $a_{i,j}$, le scalaire $(-1)^{i+j}\det M_{i,j}$. \end{itemize} \end{Dfs} \begin{Th}[Développement du déterminant suivant une rangée]\alaligne Si $M=[a_{i,j}]$ est une $\K$-matrice carrée d'ordre $n\geq 2$ et $A_{i,j}$ le cofacteur de $a_{i,j}$, alors, pour tout $i$ et tout $j$ dans $\Intf1n$, on a \begin{itemize} \item $\dps\det M=\sum_{k=1}^n a_{k,j}A_{k,j}$, développement du déterminant suivant la $j$\fup{e} colonne; \item $\dps\det M=\sum_{k=1}^n a_{i,k}A_{i,k}$, développement du déterminant suivant la $i$\fup{e} ligne. \end{itemize} \end{Th} \begin{proof} La première formule a été démontrée. Pour la seconde, on utilise l'égalité du déterminant de $M$ et de sa transposée, et le développement de $\det\trans M$ par rapport à la $i$\fup{e} colonne de $\trans M$, \ie{} la $i$\fup{e} ligne de $M$. \end{proof} %-------------------------------------------------- %--------------------------------------------------------------------- \subsection{Matrice des cofacteurs} %--------------------------------------------------------------------- \begin{Df}[Matrice des cofacteurs]\alaligne Si $M=[a_{i,j}]$ est une $\K$-matrice carrée d'ordre $n\geq 2$, on appelle \emph{matrice des cofacteurs} ou \emph{comatrice} de $M$, et on note $\com M$, la matrice de terme général $A_{i,j}$, le cofacteur relatif à $a_{i,j}$. \Reponse{$ \com M=[A_{i,j}]=\bigl[(-1)^{i+j}\det M_{i,j}\bigr] $} \end{Df} \begin{Th}[]\mbox{} Pour toute $\K$-matrice carrée $M$ d'ordre $n\geq 2$, on a \Reponse{$ M\,\trans (\com M)=\trans (\com M)\,M=(\det M)I_n $} \end{Th} \begin{proof} Si, dans $M$, on remplace la $j$\fup{e} colonne $(a_{k,j})_k$ par $(b_k)_k$, le déterminant de cette nouvelle matrice s'écrit $\sum_{k=1}^n b_k A_{k,j}$ : c'est le développement du déterminant par rapport à sa $j$\fup{e} colonne. Si la nouvelle colonne $(b_k)_{1\leq k\leq n}$ est la $i$\fup{e} colonne de $M$, le déterminant est nul si $i\neq j$, et vaut $\det M$ si $i=j$, ce qui s'écrit $$ \qqs(i,j)\in\Intf1n^2,\qquad \sum_{k=1}^n a_{k,i}A_{k,j}=\delta_{j,i}(\det M) $$ ou encore, puisque $(\trans (\com M)\,M)_{j,i}=\sum_{k=1}^n A_{k,j}a_{k,i}$, $$ \trans (\com M)\,M=(\det M)I_n $$ Par une méthode analogue, que je vous encourage à rédiger, on montre que $$ \qqs(i,j)\in\Intf1n^2,\qquad \sum_{k=1}^n a_{i,k}A_{j,k}=\delta_{i,j}(\det M) $$ ce qui revient à écrire $$ M\,\trans (\com M)=(\det M) I_n $$ \end{proof} %-------------------------------------------------- \begin{NB} $M\mapsto\com M$ est une application continue de $\MnK$dans $\MnK$, car les composantes de $\com M$ sont polynomiales en les coefficients de $M$. \end{NB} %---------------------------------------------------------------------- \begin{Cor}[Inverse d'une matrice carrée]\alaligne Si $M$ est une matrice carrée inversible d'ordre $n\geq 2$, on a \Reponse{$\dsp M\in\GLnK\implique M^{-1}=\ra1{\det M}\trans(\com M) $} \end{Cor} %---------------------------------------------------------------------- \begin{NBs} Exceptés les cas $n=2$ et $n=3$, cette formule ne peut servir au calcul numérique de l'inverse car elle comporte trop d'opérations. $$ M=\begin{pmatrix} a&c\\b&d\end{pmatrix}\in\mcal{GL}_2(\K) \implique M^{-1}=\ra1{ad-bc}\begin{pmatrix}d&-c\\-b&a\end{pmatrix} $$ Par contre, elle est utile dans des questions théoriques; par exemple, $M\mapsto M^{-1}$ est une bijection continue de $\GLnK$ (c'est même une involution) car produit de deux applications continues. \end{NBs} %---------------------------------------------------------------------- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Exemple de calcul de déterminant} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %--------------------------------------------------------------------- \subsection{Déterminant de Vandermonde} %--------------------------------------------------------------------- \noindent Soient $n>1$ et $\nuple a\in\K^n$; alors \Reponse{$\dsp V\nuple{a}= \begin{vmatrix} 1 & a_1 & \cdots & a_1^{n-1} \\ 1 & a_2 & \cdots & a_2^{n-1} \\ \hdotsfor[]{4} \\ 1 & a_n & \cdots & a_n^{n-1} \end{vmatrix} =\prod_{1\leq i<j\leq n}(a_j-a_i) $} \begin{proof} S'il existe $i<j$ avec $a_i=a_j$, le déterminant possède deux lignes identiques; il est donc nul et la formule est vérifiée. On envisage maintenant le cas où les $a_i$ sont distincts deux à deux et on effectue une démonstration par récurrence sur $n$. Pour $n=2$, $V(a_1,a_2)=a_2-a_1$. En développant $P(x)=V(a_1,\ldots,a_n,x)$ par rapport à la dernière ligne, on remarque que $P$ est un polynôme de degré $n$ et de coefficient dominant $V(a_1,\ldots,a_n)$; on remarque aussi que $P(a_i)=0$ (si $x=a_i$, le déterminant possède deux lignes identiques) et $P$ admet $n$ racines distinctes. Ainsi, $$ P(X)=V(a_1,\ldots,a_n)\prod_{k=1}^n(X-a_k) $$ d'où le résultat en remplaçant $X$ par $a_{n+1}$. Le passage du rang $n$ au rang $n+1$ se démontre aussi en manipulant les colonnes de la façon suivante : $$ C_{k+1}\leftarrow C_{k+1}-a_1C_k\quad \text{ pour $k$ variant de $n$ à 1} $$ On a donc \begin{align*} V &(a_1,\dots,a_n,a_{n+1})= \\ & \begin{vmatrix} 1 & a_1 & \cdots & a_1^{n-1} & a_1^n \\ 1 & a_2 & \cdots & a_2^{n-1} & a_2^n \\ \hdotsfor[]{5} \\ 1 & a_{n+1} & \cdots & a_{n+1}^{n-1} & a_{n+1}^n \end{vmatrix} = \begin{vmatrix} 1 & 0 & 0 & 0 & 0 \\ 1 & a_2-a_1 & \cdots & a_2^{n-1}-a_1a_2^{n-2} & a_2^n-a_1a_2^{n-1} \\ \hdotsfor[]{5} \\ 1 & a_{n+1}-a_1 & \cdots & a_{n+1}^{n-1}-a_1a_{n+1}^{n-2} & a_{n+1}^n-a_1a_{n+1}^{n-1} \end{vmatrix} = \\ & \prod_{k=2}^n(a_k-a_1) \begin{vmatrix} 1 & 0 & 0 & 0 & 0 \\ 1 & 1 & a_2 & \cdots & a_2^{n-1} \\ \hdotsfor[]{5} \\ 1 & 1 & a_{n+1} & \cdots & a_{n+1}^{n-1} \end{vmatrix} =\prod_{k=2}^n(a_k-a_1)\, V(a_2,\ldots,a_{n+1}) =\prod_{1\leq i<j\leq n+1}(a_j-a_i) \end{align*} \end{proof} %--------------------------------------------------------------------- \subsection{Déterminant circulant (droit)} %--------------------------------------------------------------------- Soient $n>1$ et $\nuple a\in\K^n$; alors \Reponse{$\dsp C\nuple{a}= \begin{vmatrix} a_1 & a_2 & \cdots & a_{n} \\ a_n & a_1 & \cdots & a_{n-1} \\ \hdotsfor[]{4} \\ a_2 & a_3 & \cdots & a_1 \end{vmatrix} =\prod_{k=1}^n\Bigl(\sum_{s=1}^n a_s \zeta^{k(s-1)}\Bigr) \text{ où $\zeta=\exp(\ra{2i\pi}n)$} $} %--------------------------------------------------------------------- \subsection{Déterminant de Cauchy} %--------------------------------------------------------------------- Soient $n>1$, $\nuple{a}\in\K^n$ et $\nuple{b}\in\K^n$ tels que, pour tout $i$ et $j$ de $\Intf1n$, on ait $a_i+b_j\neq0$; alors \Reponse{$\dsp \begin{vmatrix} (a_1+b_1)^{-1} & (a_1+b_2)^{-1} & \cdots & (a_1+b_n)^{-1} \\ (a_1+b_1)^{-1} & (a_1+b_2)^{-1} & \cdots & (a_1+b_n)^{-1} \\ \hdotsfor[]{4} \\ (a_n+b_1)^{-1} & (a_n+b_2)^{-1} & \cdots & (a_n+b_n)^{-1} \end{vmatrix} =\ra{\dsp\prod_{1\leq i<j\leq n}(a_j-a_i)(b_j-b_i)} {\dsp\prod_{(i,j)\in\Intf1n^2}(a_i+b_j)} $} \noindent Application au déterminant de la matrice de Hilbert $H_n=\bigl[(i+j)^{-1}\bigr]$ \Reponse{$\dsp \det H_n=\ra{\bigl[1!\times 2!\times\cdots\times(n-1)!\bigr]^3 n!} {(n+1)!\times(n+2)!\times\cdots\times(2n)!} $} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Résolution des systèmes linéaires} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %--------------------------------------------------------------------- \subsection{Quelques notations} %--------------------------------------------------------------------- Soient $n$ et $p$ deux entiers au moins égaux à~1, et $\mcal{E}=\nuple{E}$ la base canonique de $\Mnp[n,1]{\K}$. À toute matrice $M=[a_{i,j}]=\puple{C}\in\MnpK$, on associe l'application linéaire $u$ de $\K^p$ vers $\K^n$ telle que : $$ \Mat BC(u)=M $$ Pour $j\in\Intf1p$, on note $\vc c_j=(a_{1,j},\dots,a_{n,j})=\trans C_j\in\K^n$, $\vc b=\nuple b=\trans B\in\K^n$ et $\vc x=\puple x=\trans X\in\K^p$ divers vecteurs. Tout système linéaire $(\mcal{L})$ de $n$ équations à $p$ inconnues peut s'écrire de manière \begin{itemize} \item analytique : $ \left\{ \begin{matrix} a_{1,1}x_1+\cdots+a_{1,p}x_p & = & b_1 \\ a_{2,1}x_1+\cdots+a_{2,p}x_p & = & b_2 \\ \hdotsfor[]{3} \\ a_{n,1}x_1+\cdots+a_{n,p}x_p & = & b_n \end{matrix} \right. $ \item vectorielle : $\dsp\sum_{j=1}^px_j\vc c_j=\vc b$ ou encore $\dsp\sum_{j=1}^p x_j C_j=B$ \item matricielle : $MX=B$; \item fonctionnelle : $u(\vc x)=\vc b$. \end{itemize} Les rangs de $M$, de $u$, de la famille de vecteurs $\puple{\vc b}$ ou de la famille $\puple C$ sont égaux; cet entier est noté $r$ et appelé \emph{rang du système linéaire} $(\mcal{L})$. %--------------------------------------------------------------------- \subsection{Cas des systèmes de Cramer} %--------------------------------------------------------------------- \begin{Df}[Systèmes de Cramer]\alaligne Un système linéaire $(\mcal{L})$ de $n$ équations à $n$ inconnues est appelé \emph{système de Cramer} si, et seulement si, l'une des conditions équivalentes suivantes est vérifiée \begin{prop} \item $n=p=r$; \item $M\in\GLnK$; \item $u$ est inversible. \end{prop} \end{Df} \begin{Th}[Formules de Cramer]\alaligne Avec les notations précédentes, l'unique solution d'un système de Cramer est donnée par $$ \qqs j\in\Intf1n,\ x_j=\ra{\det M_j}{\det M} $$ où $M_j$ est la matrice déduite de $M$ en remplaçant le vecteur colonne $C_j$ par le second membre $B$. \end{Th} \begin{proof} $X=\trans\puple x$ est solution de $(\mcal{L})$ si, et seulement si, $\sum_{j=1}^p x_j C_j=B$. On a donc \begin{align*} \det M_j & = \det(C_1,\ldots,C_{j-1},B, C_{j+1},\ldots,C_n) \\ & = \det(C_1,\ldots,C_{j-1},\sum_{k=1}^p x_k C_k, C_{j+1},\ldots,C_n) \\ & = \sum_{k=1}^p x_k\det(C_1,\ldots,C_{j-1},C_k, C_{j+1},\ldots,C_n) \qquad\text{ ($\det$ est $n$-linéaire)} \\ & = x_j\det(C_1,\ldots,C_{j-1},C_j, C_{j+1},\ldots,C_n) \qquad\qquad\text{ ($\det$ est alterné)} \\ & = x_j \det M \end{align*} Puisque $\det M\neq0$, on a le résultat annoncé. \end{proof} %-------------------------------------------------- %--------------------------------------------------------------------- \subsection{Cas des systèmes homogènes} %--------------------------------------------------------------------- Un système linéaire est dit \emph{homogène} si le second membre $\vc b$ est nul; il admet toujours au moins une solution : la solution nulle. L'ensemble des solutions d'un système linéaire homogène est un sous-espace vectoriel de $\K^p$ de dimension $p-r$, c'est $\ker u$; il suffit d'en exhiber une base. %-------------------------------------------------- \subsubsection{Cas particulier : $p=n+1$, $r=n$} %-------------------------------------------------- Les solutions d'un système linéaire homogène de $n$ équations à $n+1$ inconnues et de rang maximum $n$ constituent une droite vectorielle; il suffit donc d'exhiber une solution non nulle. Appelons $M_j$ la matrice carrée d'ordre $n$ déduite de $M$ par suppression de la $j$\fup{e} colonne et $\tilde M$ la matrice carrée d'ordre $n+1$ obtenue en ajoutant à $M$ la ligne $(b_1,\ldots,b_{n+1})$; $\det M_j$ est le mineur de $\tilde M$ relatif à $b_j$ et le développement de $\tilde M$ suivant sa dernière ligne donne $$ \det\tilde M=\sum_{j=1}^{n+1} b_j (-1)^{n+1+j}\det M_j $$ Au lieu de compléter $M$ par la ligne $(b_j)_j$, complétons-la par sa $i$\fup{e} ligne $(a_{i,j})_j$; dans ce cas, $\tilde M$ possède deux lignes identiques et l'égalité précédente devient $$ \qqs i\in\Intf1n,\ 0=\sum_{j=1}^{n+1} a_{i,j} (-1)^{n+1+j}\det M_j =(-1)^{n+1}\sum_{j=1}^{n+1} a_{i,j} (-1)^{j}\det M_j $$ ce qui signifie que $\bigl((-1)^j \det M_j\bigr)_j$ est une solution du système, solution non nulle puisque $M$ est de rang $n$.Cette solution constitue donc une base de la droite vectorielle des solutions. %-------------------------------------------------- \subsubsection{Intersection de deux plans de $\K^3$} %-------------------------------------------------- Considérons le système homogène $$ (\mcal{H}) : \left\{ \begin{matrix} (\mcal{P}_1) : u_1x+v_1y+w_1z=0 \\ (\mcal{P}_2) : u_2x+v_2y+w_2z=0 \end{matrix} \right. $$ avec $(u_i,v_i,w_i)\neq\vc 0$ pour $i=1$ et $i=2$. On pose \begin{gather*} d_1=\begin{vmatrix}v_1&w_1\\v_2&w_2\end{vmatrix},\ d_2=\begin{vmatrix}w_1&u_1\\w_2&u_2\end{vmatrix}= -\begin{vmatrix}u_1&w_1\\u_2&w_2\end{vmatrix},\ d_3=\begin{vmatrix}u_1&v_1\\u_2&v_2\end{vmatrix},\\ \Delta_1=\begin{vmatrix}u_1&v_1&w_1\\u_2&v_2&w_2\\u_1&v_1&w_1 \end{vmatrix},\ \Delta_2=\begin{vmatrix}u_1&v_1&w_1\\u_2&v_2&w_2\\u_2&v_2&w_2\end{vmatrix} \end{gather*} En développant $\Delta_1$ et $\Delta_2$ suivant leur dernière ligne, on trouve $\Delta_1=0=u_1d_1+v_1d_2+w_1d_3$ et $\Delta_2=0=u_2d_1+v_2d_2+w_2d_3$. Si les deux plans $(\mcal{P}_1)$ et $(\mcal{P}_2)$ sont identiques, alors $(d_1,d_2,d_3)=\vc 0$. Sinon, $(d_1,d_2,d_2)$ dirige la droite $\mcal{P}_1\cap\mcal{P}_2$. Dans $\R^3$ euclidien, le vecteur $(d_1,d_2,d_3)$ s'interprète comme le produit vectoriel des vecteurs $(u_1,v_1,w_1)$ et $(u_2,v_2,w_2)$ normaux respectivement à $(\mcal{P}_1)$ et $(\mcal{P}_2)$. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Déterminant et rang} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Le rang d'une matrice $M=[a_{i,j}]=\puple C=\trans\nuple L\in\MnpK$ est le rang de ses vecteurs colonnes $(C_j)_{j\in\Intf1p}$ ou celui de ses vecteurs lignes $(L_i)_{i\in\Intf1n}$ car le rang d'une matrice est égal à celui de sa transposée; on a donc : $$ \rg M\leq\inf(n,p) $$ \begin{Df}[Matrice extraite]\alaligne Si $I$ est une partie non vide de $\Intf1n$ et $J$ une partie non vide de $\Intf1p$, on appelle \emph{matrice extraite de $M$ associée} à $I$ et $J$, la matrice $R=[a_{i,j}]$ où $i\in I$ et $j\in J$. \end{Df} \begin{Lem}[] Le rang d'une matrice extraite de $M$ est inférieur ou égal au rang de $M$. \end{Lem} \begin{proof} Soit $R$ une matrice extraite de $M$ associée à $I$ et $J$. Considérons la matrice $Q$ extraite de $M$ et associée à $\Intf1n$ et $J$; les vecteurs colonnes $(C_j)_{j\in J}$ de $Q$ constituent une sous-famille des vecteurs colonnes de $M$, donc $\rg Q\leq \rg M$. De même, les vecteurs lignes $(L_i)_{i\in I}$ de $R$ constituent une sous-famille des vecteurs lignes de $Q$, d'où $\rg R\leq\rg Q$, et le résultat. \end{proof} %-------------------------------------------------- \begin{Th}[Caractérisation du rang d'une matrice]\alaligne Le rang d'une matrice non nulle est l'ordre maximal des matrices carrés inversibles extraites. \end{Th} \begin{proof}Soit $M\in\MnpK$ une matrice non nulle. L'ensemble des ordres des matrices carrées inversibles extraites de $M$ n'est pas vide (il contient 1 puisque $M$ n'est pas la matrice nulle), et est majoré par $\rg M$ d'après le lemme. On note $r$ son plus grand élément; on a donc $1\leq r \leq\rg M$. De la famille $\puple{C}$ des vecteurs colonnes de $M$, on peut extraire une sous-famille libre $(C_j)_{j\in J}$ de cardinal $\rg M$; on note $Q$ la matrice extraite de $M$ associée à $\Intf1n$ et $J$, et $rg M=\rg Q$. Des vecteurs lignes $\nuple{L}$ de $Q$, on peut encore extraire une sous-famille libre $(L_i)_{i\in I}$ de cardinal $\rg Q$; on note $R$ la matrice extraite de $M$ et associée à $I$ et $J$ et $\rg R=\rg Q$. $R$ est une matrice carrée de rang maximum ($\# I=\# J=\rg R=\rg Q=\rg M$), donc une matrice inversible. En conséquence, $r\geq \rg M$. Finalement $r$ est égal au rang de $M$. \end{proof} %-------------------------------------------------- \begin{Cor}[Caractérisation des familles libres]\alaligne Si $\mcal{F}=\puple{\vc c}$ est une famille de $p$ vecteurs d'un $\K$-espace vectoriel $E$ de dimension finie~$n$, si $M=\mat(\mcal{F})\in\MnpK$ est la matrice des composantes de $\mcal{F}$ relatives à une base $\mcal{B}$ de~$E$, $\mcal{F}$ est une famille libre si, et seulement si, il existe une matrice carrée d'ordre $p$, extraite de~$M$ et de déterminant non~nul. \end{Cor}