Matrices

RANG D’UNE MATRICE et rang d’une famille de vecteurs :

Nous savons à présent un certain nombre de choses sur les matrices. Nous savons effectuer la somme, le produit de deux matrices, calculer la puissance d’une matrice, trouver l’inverse, la transposée, la trace d’une matrice.
Nous savons également ce qu’est une matrice identité, une matrice élémentaire, une matrice échelonnée, échelonnée réduite, une matrice symétrique ou antisymétrique.
Nous savons appliquer le binôme de Newton sur deux matrices lorsque leur produit est commutatif, et nous savons ce que sont des matrices triangulaires et diagonales…

Si vous avez étudié le chapitres sur les espaces vectoriels (nous vous recommandons expressément de le faire si vous ne connaissez pas encore cette notion), vous devriez savoir ce qu’est une application linéaire, ou un morphisme.
Il s’avère que les matrices sont extrêmement utiles et utilisées en algèbre linéaire, et il faut savoir que n’importe quelle application linéaire peut être définie par une matrice !

Nous allons commencer par revoir une notion que nous connaissons, et voir qu’on peut la considérer sous sa représentation matricielle.
Nous allons parler du rang d’une matrice, qui n’est autre que le rang d’une famille de vecteurs, et vous allez voir pourquoi…

Qu’est-ce alors que le rang d’une famille vecteurs ?
Soit E un \mathbb{K}-espace vectoriel de dimension finie.
Le rang d’une famille de vecteurs \{v_1,v_2,...,v_p\} \in E est la dimension du sous-espace vectoriel engendré par tous ces vecteurs.

Autrement dit, rg( v_1,v_2,...,v_p)=Vect( v_1,v_2,...,v_p)

Quelques propriétés/propositions intéressantes :

  • 0 \leq rg( v_1,v_2,...,v_p) \leq p
    Le rang est la dimension de l’espace généré par les vecteurs ( v_1,v_2,...,v_p), mais tous ces vecteurs ne sont pas nécessairement libres, par conséquent, la dimension du rang de ces derniers est nécessairement inférieure ou égale aux nombre de p vecteurs.

  • rg(v_1,v_2,...,v_p) \leq dim(E)
    En effet, le rang des vecteurs (v_1,v_2,...,v_p) étant la dimension du sous-espace vectoriel engendré par ces vecteurs dans E, cette dimension est nécessairement inférieure ou égale à celle de E.

Prenons immédiatement un exemple…

Soit v_1=\begin{pmatrix}1 \\ 0 \\ 1 \\ 0 \end{pmatrix}, v_2= \begin{pmatrix} 0 \\ 1 \\ 1 \\ 1 \end{pmatrix} et v_3= \begin{pmatrix} -1 \\ 1 \\ 0 \\ 1 \end{pmatrix} trois vecteurs de \mathbb{R}^4

Trouvons le rang de cette famille de vecteurs. Tout d’abord, procédons par élimination.

  • Nous sommes dans \mathbb{R}^4, donc rg(v_1,v_2,v_3) \leq 4.

  • Il y a trois vecteurs, p=3, donc rg(v_1,v_2,v_3) \leq 3.

  • Aucun des trois vecteurs n’est nul, donc rg(v_1,v_2,v_3) \geq 1.

  • La suite du raisonnement consiste à déterminer si notre famille de vecteurs est libre ou liée.
    Or, on voit immédiatement que v_1 et v_2 ne sont pas colinéaires, donc, il faut maintenant déterminer si v_3 est linéairement ou non des deux autres.£

    Pour cela, on pose \lambda v_1 + \mu v_2 + \alpha v_3=0

    Après quelques calculs relativement simples, on trouve que v_1-v_2+v_3=0 et donc que la famille est liée.
    Par conséquent, Vect(v_1,v_2,v_3)=Vect(v_1,v_2) et donc rg(v_1,v_2,v_3)=2

Maintenant, voyons comment appliquer ceci aux matrices. Comme vous vous en souvenez sans doute, une matrice est un tableau de nombres, définie par n lignes et p colonnes. En réalité, et peut être comme vous l’avez remarqué, une matrice peut être vue comme juxtaposition de vecteurs colonnes.

Par exemple, la matrice V=\begin{pmatrix} 1 & 2 & -\frac{1}{2} & 0 \\ 2 & 4 & -1 & 0 \end{pmatrix} peut être décomposée en 4 vecteurs colonnes : v_1=\begin{pmatrix} 1 \\ 2 \end{pmatrix}, v_2=\begin{pmatrix} 2 \\ 4 \end{pmatrix}, v_3=\begin{pmatrix}  -\frac{1}{2}  \\ -1 \end{pmatrix}, v_4=\begin{pmatrix} 0 \\ 0 \end{pmatrix}

Calculer le rang de cette matrice équivaut à calculer le rang de la famille de vecteurs \{v_1,v_2,v_3,v_4\}

Il est inutile d’effectuer les calculs, car on voit immédiatement que tous ces vecteurs sont colinéaires à v_1
Par conséquent, rg( v_1,v_2,v_3,v_4)=1 et donc rg(A)=1

Encore… Une propriété intéressante :

Le rang d’une matrice échelonnée par colonnes est égal au nombre de colonnes non nulles.
Par exemple, prenons une matrice A=\begin{pmatrix} 1 & 3 & 0 & 2 \\ 4 & 6 & 1 & 5 \\ 2 & 0 & 3 &1 \end{pmatrix} \in M_{3,4}(\mathbb{K})

Pour échelonner une matrice colonne, on va non pas utiliser le pivot de Gauss-Jordan sur les lignes, mais sur les colonnes.

On peut commencer par faire :

C_4 \Leftarrow C_4-2C_1 :  \begin{pmatrix} 1 & 3 & 0 & 0 \\ 4 & 6 & 1 & -3 \\ 2 & 0 & 3 & -3 \end{pmatrix}

C_4 \Leftarrow C_4+C_3 :  \begin{pmatrix} 1 & 3 & 0 & 0 \\ 4 & 6 & 1 & -2 \\ 2 & 0 & 3 & 0 \end{pmatrix}

C_4 \Leftarrow -\frac{1}{2}C_4 :  \begin{pmatrix} 1 & 3 & 0 & 0 \\ 4 & 6 & 1 & 1 \\ 2 & 0 & 3 & 0 \end{pmatrix}

C_3 \Leftarrow C_3-C_4~et~C_3 \Leftrightarrow C_4 :  \begin{pmatrix} 1 & 3 & 0 & 0 \\ 4 & 6 & 1 & 0 \\ 2 & 0 & 0 & 3 \end{pmatrix}

C_2 \Leftarrow \frac{1}{3}C_2 :  \begin{pmatrix} 1 & 1 & 0 & 0 \\ 4 & 2 & 1 & 0 \\ 2 & 0 & 0 & 3 \end{pmatrix}

C_2 \Leftarrow C_2-2C_3~et~C_4 \Leftrightarrow \frac{1}{3}C_4 :  \begin{pmatrix} 1 & 1 & 0 & 0 \\ 4 & 0 & 1 & 0 \\ 2 & 0 & 0 & 1 \end{pmatrix}

C_1 \Leftrightarrow C_4~et~C_4 \Leftarrow C_4-(4C_3+C_2+2C_1)  :  \begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 1 & 0 & 0 & 0 \end{pmatrix}

C_1 \Leftrightarrow C_2~et~ C_2 \Leftrightarrow C_3   :  \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \end{pmatrix}

Nous sommes allés un petit plus loin que nécessaire, la matrice que nous avons là, n’est pas une matrice échelonnée mais une matrice échelonnée réduite par colonnes.
Quoi qu’il en soit, nous avons bien évidemment notre réponse…
Les colonnes C_1,C_2,C_3,C_4 définis par les 4 vecteurs qu’on va appeler (v_1,v_2,v_3,v_4) forment une famille libre, et même une base de \mathbb{R}^3 (en fait, c’est même la base canonique).

Le rang de la matrice A étant égal au nombre de colonnes non nulles, rg(A)=3 et Vect(v_1,v_2,v_3,v_4)=Vect\left( \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}, \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}, \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix} \right)

Dernière propriété intéressante :

Une matrice carrée de taille n est inversible si et seulement si elle est de rang n

Vous pouvez vous rendre compte de cela par vous même, prenez par exemple une matrice de M_n(\mathbb{K})(matrice carrée) formant une famille liée de vecteurs, et inversez la matrice. Vous vous rendrez compte que si rg(M) \neq dim(M), alors la matrice n’est pas inversible, et vous n’aurez soit aucune solution, soit vous en aurez une infinité.

Exemple :

Soit M=\begin{pmatrix} 2 & 0 & 1 \\ 2 & 3 & 1 \\ 0 & 3 & 0 \end{pmatrix} \in M_3(\mathbb{K}).
Si M est inversible, alors il existe une solution unique de son produit avec une matrice quelconque résultant en la matrice identité. On pose donc :

M \times M' = Id=\begin{pmatrix} 2 & 0 & 1 \\ 2 & 3 & 1 \\ 0 & 3 & 0 \end{pmatrix} \times  \begin{pmatrix} a & b & c \\ d & e & f \\ g & h & i \end{pmatrix} = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}

Nous voulons laissons poser le système pour constater qu’il n’existe pas de solution.

En fait, il faut préciser quelques petites choses avant de passer au chapitre suivant.
On a vu qu’une matrice était une superposition de vecteurs colonnes. Une matrice peut également être vue comme une superposition de vecteurs lignes !
Il y a une chose très importante qui découle de cette similarité. La dimension de l’espace vectoriel engendré par les vecteurs colonnes d’une matrice est égale à la dimension de l’espace vectoriel engendré par les lignes de cette matrice

Seconde conséquence mais qui est en fait une autre façon de dire la même chose : rg(A)=rg(A^T)