Cette vidéo sur Youtube explique bien ce qu'est le déterminant d'un point de vue visuel. La suite de cette page web vous permettra d'avoir l'essentiel des formules et de pouvoir les travailler.
Le déterminant d'une matrice est noté de manière générique $\det(M)$ soit on utilise la forme matricielle encadrée par deux lignes verticales, une de chaque coté comme on le voit à droite de l'égalité.
Pour finir, la méthode de calcul du déterminant d'une matrice carrée de dimension $2 \times 2$:
Cette formule donne le déterminant des deux vecteurs : $$ \begin{align} \vec{u} = \left( \begin{array}{ccc} a\\ b \\ \end{array} \right) ; \text{ et } \vec{v} = \left( \begin{array}{ccc} c \\ d \\ \end{array} \right) ; \end{align} $$
La démonstration est laissée en exercice.
Une matrice est inversible si et seulement si son déterminant est non nul.
Le déterminant permet de savoir si une famille de vecteurs est libre. En calculant le déterminant de cette famille de vecteurs, si il est nul la famille n'est pas libre. On renvoie aux notions d'algèbre linéaire et plus particulièrement des espaces vectoriels, de leurs bases, des familles génératrices et autres notions dont le nom est aussi compliqué qu'elles sont simples.
Le déterminant de deux vecteurs permet de déterminer l'orientation d'une surface représentée dans le plan. Cette surface, est vue du dessus ou du dessous selon que le signe est positif ou négatif respectivement.
Soient deux vecteurs de $\mathbb{R}^{3}$ : $$ \begin{align} \vec{u} = \left( \begin{array}{ccc} u_{x} \\ u_{y} \\ u_{z} \\ \end{array} \right) ; \text{ et } \vec{v} = \left( \begin{array}{ccc} v_{x} \\ v_{y} \\ v_{z} \\ \end{array} \right) ; \end{align} $$ Alors le résultat du produit vectoriel de ces deux vecteurs est un vecteur ayant la particularité d'être orthogonal aux deux vecteurs $\vec{u}$ et $\vec{v}$. $$ \vec{u} \wedge \vec{v} = \begin{vmatrix} u_{y} & v_{y} \\ u_{z}& v_{z} \end{vmatrix} . \vec{i} +\begin{vmatrix} u_{z} & v_{x}\\ u_{x} & v_{y} \end{vmatrix} . \vec{j} +\begin{vmatrix} u_{x} & v_{x} \\ u_{y}& v_{y} \end{vmatrix} . \vec{k} $$ On a : $$ \vec{u} \wedge \vec{v} = ( u_{y} v_{z} - u_{z} v_{y}) . \vec{i} +( u_{z} v_{y} - u_{x} v_{x} ) . \vec{j} +( u_{x} v_{y} - u_{y} v_{x} ) . \vec{k} $$ Si on pose $\vec{w} = \vec{u} \wedge \vec{v}$ alors le trièdre $(\vec{u} ; \vec{v} ; \vec{w})$ est direct. Si $\vec{u}$ et $\vec{v}$ sont de plus orthogonaux, tous les axes du trièdre sont orthogonaux entre eux.
Il existe plusieurs moyen mnémotechniques pour se rappeler cette formule. Une première méthode est de prendre les deux vecteurs $\vec{u}$ et $\vec{v}$, de "copier/coller" les deux premières coordonnées pour les rajouter à la fin, comme ceci: $$ \begin{align} \vec{u} = \left( \begin{array}{ccc} u_{x} \\ u_{y} \\ u_{z} \\ \end{array} \right) ; \text{ et } \vec{v} = \left( \begin{array}{ccc} v_{x} \\ v_{y} \\ v_{z} \\ \end{array} \right) \text{ donnent respectivement : } \vec{u} = \left( \begin{array}{ccc} u_{x} \\ u_{y} \\ u_{z} \\ u_{x} \\ u_{y} \\ \end{array} \right) ; \text{ et } \vec{v} = \left( \begin{array}{ccc} v_{x} \\ v_{y} \\ v_{z} \\ v_{x} \\ v_{y} \\ \end{array} \right) \end{align} $$ Pour obtenir la première composante (coordonnée) de $\vec{w}$, on calcul le déterminant des deux suivantes : $$ \begin{vmatrix} u_{y} & v_{y} \\ u_{z}& v_{z} \end{vmatrix} $$ Pour la deuxième composante, en $\vec{j}$, on calcul le déterminant suivant : $$ \begin{vmatrix} u_{z} & v_{x}\\ u_{x} & v_{y} \end{vmatrix} $$ Et pour la dernière, $\vec{z}$, on a : $$ \begin{vmatrix} u_{x} & v_{x} \\ u_{y}& v_{y} \end{vmatrix} $$ On obtient alors, la première composante et donnée par le déterminant des deux suivantes, etc : $$ \begin{align} \begin{array}{ccc} & u_{x}& & v_{x} &\begin{vmatrix} u_{y} & v_{y} \\ u_{z}& v_{z} \end{vmatrix}\\ & u_{y}& & v_{y} & \begin{vmatrix} u_{z} & v_{x}\\ u_{x} & v_{y} \end{vmatrix} \\ & u_{z}& & v_{z} & \begin{vmatrix} u_{x} & v_{x} \\ u_{y}& v_{y} \end{vmatrix}\\ & u_{x}& & v_{x} & \\ & u_{y}& & v_{y} & \\ \end{array} \end{align} $$ Avec des couleurs pour ceux que ça peut aider: $$ \begin{align} \begin{array}{ccc} & u_{x} & & v_{x} & & \color{red}{\begin{vmatrix} u_{y} & v_{y} \\ u_{z}& v_{z} \end{vmatrix}}\\ & \color{red}{u_{y}}& & \color{red}{v_{y}} & \rightarrow & \begin{vmatrix} u_{z} & v_{x}\\ u_{x} & v_{y} \end{vmatrix} \\ & \color{red}{u_{z}}& & \color{red}{v_{z}} & \rightarrow & \begin{vmatrix} u_{x} & v_{x} \\ u_{y}& v_{y} \end{vmatrix}\\ & u_{x} & & v_{x} & & \\ & u_{y} & & v_{y} & & \\ \end{array} ; \begin{array}{ccc} & u_{x} & & v_{x} & & \begin{vmatrix} u_{y} & v_{y} \\ u_{z}& v_{z} \end{vmatrix}\\ & u_{y} & & v_{y} & & \color{olive}{\begin{vmatrix} u_{z} & v_{x}\\ u_{x} & v_{y} \end{vmatrix}} \\ & \color{olive}{u_{z}} & & \color{olive}{v_{z}} & \rightarrow & \begin{vmatrix} u_{x} & v_{x} \\ u_{y}& v_{y} \end{vmatrix}\\ & \color{olive}{u_{x}} & & \color{olive}{v_{x}} & \rightarrow & \\ & u_{y} & & v_{y} & & \\ \end{array} ; \begin{array}{ccc} & u_{x} & & v_{x} & & \begin{vmatrix} u_{y} & v_{y} \\ u_{z} & v_{z} \end{vmatrix}\\ & u_{y} & & v_{y} & & \begin{vmatrix} u_{z} & v_{x} \\ u_{x} & v_{y} \end{vmatrix} \\ & u_{z} & & v_{z} & & \color{blue}{\begin{vmatrix} u_{z} & v_{x}\\ u_{x} & v_{y} \end{vmatrix}}\\ & \color{blue}{u_{x}} & & \color{blue}{v_{x}} & \rightarrow& \\ & \color{blue}{u_{y}} & & \color{blue}{v_{y}} & \rightarrow & \\ \end{array} \end{align} $$
Soit le système $\mathcal{S}$ : $$ \begin{aligned} \alpha x + \beta y & = b_1 \\ \gamma x + \delta y & = b_2 \\ \end{aligned} $$ Première chose, écrivons ce système sous forme matricielle: $$ M.X = B $$ Où l'inconnue est $X$ un vecteur de $\mathbb{R}^{2}$. $M$ une matrice carrée à deux lignes et deux colonnes. Et $B$ ce que l'on appelle le second membre, un vecteur quelconque de $\mathbb{R}^{2}$. On a donc : $$ \begin{align} M = \left( \begin{array}{ccc} \alpha & \beta \\ \gamma & \delta \\ \end{array} \right) ; X = \left( \begin{array}{ccc} x \\ y \\ \end{array} \right) ; \text{ et } B = \left( \begin{array}{ccc} b_1 \\ b_2\\ \end{array} \right) ; \end{align} $$
La première étape de la résolution du système est de s'assurer qu'il est possible de le résoudre. A savoir, a-t-il des solutions? Pour répondre à cela on se sert du déterminant. Si le déterminant de la matrice $M$ est différetn de $0$ alors le système admet un couple de solutions.
Le déterminant de $M$ : $\det (M) = \alpha \delta -\gamma \beta$. On pose $\Delta = \alpha \delta -\gamma \beta$.
Il maintenant calculer le déterminant de deux autres matrice que l'on va créer à l'aide du second membre. A savoir les matrices : $$ \begin{align} M_x = \left( \begin{array}{ccc} b_1 & \beta \\ b_2 & \delta \\ \end{array} \right) \end{align} $$ et $$ \begin{align} M_y = \left( \begin{array}{ccc} \alpha & b_1 \\ \gamma & b_2 \\ \end{array} \right) \end{align} $$ et Dont les déterminants sont respectivement : $$ \begin{align} \det(M_x) & = b_1 \delta - b_2 \beta = \Delta_x \\ \det(M_y) & = b_2 \alpha - b_1 \gamma = \Delta_y\\ \end{align} $$
On obtient les solutions du système $\mathcal{S}$ : $$ \begin{align} x = \dfrac{\Delta_x}{\Delta} \\ y = \dfrac{\Delta_y}{\Delta}\\ \end{align} $$ D'où l'importance que le déterminant de la matrice du système $M$ soit non nul.
L'extrapolation aux systèmes de dimensions supérieures est relativement facile. Le prérequis nécessaire est de savoir calculer le déterminant des matrices d'ordre supérieur. On montre le cas général dans la suite.
Nous pouvons maintenant généraliser la méthode ci-dessus à un système de Cramer de taille $n\geq 3$.
Soit $A\in M_n(\mathbf{K})$, les matrice carrée de taille $n$, $B, X \in \mathbb{R}^{n}.$ Soit le système d’équations à $n$ équations et $n$ inconnues, ou variables :
$$ \begin{align} a_{11}x_1 + a_{12}x_2 + \dots +a_{1n}x_n \, \,= b_1 \\ a_{21}x_1 + a_{22}x_2 + \dots +a_{2n}x_n \, \,= b_2 \\ \, \,= \vdots \\ a_{n1}x_1 + a_{n2}x_2 + \dots +a_{nn}x_n \, \,= b_n \\ \end{align} $$représenté sous forme d’un produit matriciel:
$$ \begin{pmatrix} a_{11} \, \, a_{12} \, \, \dots \, \, a_{1n} \\ a_{21}\, \, a_{22} \, \, \dots \, \, a_{2n} \\ \vdots \, \, \vdots \, \, \ddots \, \, \vdots \\ a_{n1} \, \, a_{n2} \, \, \dots \, \, a_{nn} \end{pmatrix} \begin{pmatrix} x_{1} \\ x_2 \\ \vdots \\ x_n \end{pmatrix} = \begin{pmatrix} b_{1} \\ b_2 \\ \vdots \\ b_n \end{pmatrix} \Leftrightarrow AX = B. $$ Avec: $$ A = \begin{pmatrix} a_{11} \, \, a_{12} \, \, \dots \, \, a_{1n} \\ a_{21}\, \, a_{22} \, \, \dots \, \, a_{2n} \\ \vdots \, \, \vdots \, \, \ddots \, \, \vdots \\ a_{n1} \, \, a_{n2} \, \, \dots \, \, a_{nn} \end{pmatrix} , X = \begin{pmatrix} x_{1} \\ x_2 \\ \vdots \\ x_n \end{pmatrix} , B = \begin{pmatrix} b_{1} \\ b_2 \\ \vdots \\ b_n \end{pmatrix} $$Ce système admet une solution unique $X = (x_1, x_2, \dots, x_i, \dots, x_n)$ si seulement si la matrice $A$ est inversible $\Leftrightarrow \det(A) \neq 0$. On peut exprimer chaque $x_i$ sous la forme:
$$ x_i = \frac{\det(A_i)}{\det(A)}, \quad i = 1, \dots, n, $$où $A_i$ est la matrice carrée formée en remplaçant la $i$-ème colonne de $A$ par le vecteur $B$. Un exemple en dimension $3$ est plus parlant, bien que celui en dimension $2$ résume bien le principe.