Matrices

Matrice d’une application linéaire :

Nous y sommes, les matrices d’applications linéaires…

Revenons rapidement sur un exemple d’application linéaire.

Soit l’application f qui, pour tout quadruplet (x,y,z,t) \in \mathbb{R}^4, associe le triplet de la forme (x-y+z,2x+2y+6z+4t,-x-2z-t) \in \mathbb{R}^3

L’application linéaire f transforme tout vecteur de départ dans \mathbb{R}^4 en un vecteur de \mathbb{R}^3. Ce qui nous intéresse d’étudier dans une application linéaire, c’est le noyau de cette application, son image, et déterminer si il s’agit d’un endomorphisme, un isomorphisme ou d’un automorphisme.

Calculons le noyau…

On sait que pour calculer le noyau, on va devoir poser un système. On pose donc :

\left\{\begin{array}{l} x-y+z=0 \\ 2x+2y+6z+4t=0 \\ -x+2z-t=0\\ \end{array}\right.

En faisant somme de la deuxième ligne et trois fois la deuxième on a :

\left\{\begin{array}{l} x-y+z=0 \\ y+z+t=0 \\ \end{array}\right.

Nous n’avons pas besoin de nous occuper de la dernière ligne, nous avons les informations que nous voulons. A présent, on va utiliser z et t comme paramètres, c’est à dire, exprimer x et y en fonction de ces derniers :

\left\{\begin{array}{l} x=y-z \Rightarrow x=-2z-t \\ y=-z-t \\ \end{array}\right. avec z,t \in \mathbb{R}

En fait c’est terminé, on voit immédiatement que Ker(f)=(-2z-t,-z-t,z,t)

Par conséquent, Ker(f)=z \begin{pmatrix} -2 \\ -1 \\ 1 \\ 0 \end{pmatrix} +  t \begin{pmatrix} -1 \\ -1 \\ 0 \\ 1 \end{pmatrix}= Vect \left(  \begin{pmatrix} -2 \\ -1 \\ 1 \\ 0 \end{pmatrix}, \begin{pmatrix} -1 \\ -1 \\ 0 \\ 1 \end{pmatrix} \right)

Donc, dim~ Ker(f)=2

Calculons maintenant l’image de f.

Soit (e_1,e_2,e_3,e_4) la base canonique de \mathbb{R}^4.

On a :

f(e_1)=\begin{pmatrix} 1 \\ 0 \\ 0 \\ 0 \end{pmatrix}=\begin{pmatrix}  1 \\ 2 \\ -1 \end{pmatrix}

f(e_2)=\begin{pmatrix} 0 \\ 1 \\ 0 \\ 0 \end{pmatrix}=\begin{pmatrix}  -1 \\ 2 \\ 0 \end{pmatrix}

f(e_3)=\begin{pmatrix} 0 \\ 0 \\ 1 \\ 0 \end{pmatrix}=\begin{pmatrix}  1 \\ 6 \\ -2 \end{pmatrix}

f(e_4)=\begin{pmatrix} 0 \\ 0 \\ 0 \\ 1 \end{pmatrix}=\begin{pmatrix}  0 \\ 4 \\ -1 \end{pmatrix}

En fait, on se rend compte qu’on peut écrire ça sous forme matricielle, par exemple, en appelant la matrice A :

A=\begin{pmatrix} 1 & -1 & 1 & 0 \\ 2 & 2 & 6 & 4  \\ -1 & 0 & -2 & -1 \end{pmatrix}

Pour déterminer la dimension et une base de l’image de f, il suffit, comme on peut le deviner, d’échelonner cette matrice afin de calculer son rang.

En passant les calculs, on trouve :

A=\begin{pmatrix} 1 & 0 & 0 & 0 \\ 2 & 4 & 0 & 0  \\ -1 & -1 & 0 & 0 \end{pmatrix}

Donc, rg(A)=2. Ceci correspond en effet à la dimension de l’image de f. On avait dim~ Ker(f)=2 et dim~ Im(f)+dim~ Ker(f)=4. Ce qui est vrai car dim~\mathbb{R}^4=4

En conclusion, le noyau n’étant pas réduit au vecteur nul, et l’image de f ne décrivant pas tout \mathbb{R}^3, f n’est pas surjective, donc pas bijective. Ce n’est donc ni un endomorphisme ni un isomorphisme.

Passons maintenant à la définition rigoureuse et à un exemple détaillé d’une matrice d’application linéaire.

Soit E et F, deux espaces vectoriels et soit f une application linéaire de E dans F.

Soit B=(e_1,e_2,...,e_p) une base de E, et B'=(f_1,f_2,...,f_n) une base de F.

On définit alors f(e_j)=a_{1,j}f_1+ a_{2,j}f_2+...+a_{n,j}f_n

Voici donc comment écrire la matrice de l’application linéaire, si on se base sur cette définition :

Prenons immédiatement deux exemples pour illustrer ceci. Le premier exemple, en considérant des bases canoniques, et ensuite, dans le deuxième, des bases quelconques.

Tout d’abord… Soit F=\mathbb{R}^4 et E=\mathbb{R}^3.
Soient (e_1,e_2,e_3,e_4) la base canonique de E et (f_1,f_2,f_3) la base canonique de F.
Soit une application linéaire f : E \rightarrow F définie telle que (x_1,x_2,x_3,x_4) \rightarrow (x_1+x_2-x_3,2x_2+x_3-x_4,3x_1+2x_2+2x_4)

Alors :

f(e_1)=f \begin{pmatrix} 1 \\ 0 \\ 0 \\ 0 \end{pmatrix} =\begin{pmatrix} 1 \\ 0 \\ 3 \end{pmatrix}, f(e_2)=f \begin{pmatrix} 0 \\ 1 \\ 0 \\ 0 \end{pmatrix} =\begin{pmatrix} 1 \\ 2 \\ 2 \end{pmatrix}, f(e_3)=f \begin{pmatrix} 0 \\ 0 \\ 1 \\ 0 \end{pmatrix} =\begin{pmatrix} -1 \\ 1 \\ 0 \end{pmatrix}, f(e_4)=f \begin{pmatrix} 0 \\ 0 \\ 0 \\ 1 \end{pmatrix} =\begin{pmatrix} 0 \\ -1 \\ 2 \end{pmatrix}.

On peut donc exprimer la matrice que l’on va appeler M, de l’application f comme la matrice de la base B dans la base B' comme ceci :

Prenons un autre exemple maintenant, en considérant deux bases non canoniques. Vous allez voir, c’est un petit peu plus délicat, mais pas insurmontable :).

Soient G=\mathbb{R}^3 et H=\mathbb{R}^2, deux k-espaces vectoriels.
Soit g, une application linéaire de E dans F définie par (x_1,x_2,x_3) \rightarrow (x_1+x_2-x_3,x_1-2x_2+3x_3).
Soit B''=(\epsilon_1, \epsilon_2 , \epsilon_3 ) une base de E tel que :

  • \epsilon_1=\begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix}, \epsilon_2=\begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix} et \epsilon_3=\begin{pmatrix} 0 \\ 1 \\ 1 \end{pmatrix}

Soit B'''=(\phi_1, \phi_2) une base de F tel que :

  • \phi_1=\begin{pmatrix} 1 \\ 0 \end{pmatrix} et \phi_2=\begin{pmatrix} 1 \\ 1 \end{pmatrix}

Alors :

g(\epsilon_1)=g\begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix}=\begin{pmatrix} 2 \\ -1 \end{pmatrix}=3 \phi_1 - \phi_2

Expliquons rapidement ce que nous avons fait ici. Contrairement au premier exemple, nous ne somme plus dans le cadre d’expression d’une base canonique dans une autre, mais d’une base quelconque dans une autre base quelconque. Par conséquent, l’application g appliquée au vecteur \epsilon_1 ne considère non plus uniquement la valeur x_1, mais les valeurs x_1 et x_2. On a donc bien x_1+x_2=2 et x_1-2x_2=-1.

Ensuite, il nous reste à déterminer une combinaison linéaire des vecteurs \phi_1 et \phi_2 qui renvoie le vecteur \begin{pmatrix} 2 \\ -1 \end{pmatrix}. On voit qu’il suffit de multiplier \phi_1 par 3 et de lui déduire le vecteur \phi_2 une fois.

Continuons :

g(\epsilon_2)=g\begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix}=\begin{pmatrix} 0 \\ 4 \end{pmatrix}=-4 \phi_1 + 4 \phi_2

g(\epsilon_3)=g\begin{pmatrix} 0 \\ 1 \\ 1 \end{pmatrix}=\begin{pmatrix} 0 \\ 1 \end{pmatrix}=- \phi_1 +  \phi_2

A présent, le plus dur est fait, il ne nous reste qu’à écrire la matrice de cette application de la base B'' dans la base B''' :

Ces deux cas sont des cas particuliers… Comment pourrions nous définir l’application linéaire de manière générale ?
Quelle serait la meilleure définition ?

Prenons deux espaces vectoriels U et V tout à fait quelconques.
Considérons une application linéaire T : U \rightarrow V.

Quel est notre but ? Notre but est de trouver la matrice d’une application linéaire donnée, mais en réalité, la règle pour trouver cette matrice s’applique à n’importe quelle application linéaire, et quelque soit la base de départ et la base d’arrivée…

Pour deux bases données, \{u_1,...,u_n\}, une base de U et \{v_1,...,v_m\} une base de V, alors, on sait que tout vecteur de U s’écrit comme une combinaison linéaire des vecteurs de la base, autrement dit : \forall X \in U, X= \alpha_1 u_1 + \alpha_2 u_2 + ... + \alpha_n u_n.

Que signifie T(X) ?

X représente un vecteur quelconque de U, donc, T(X) signifie prendre n’importe quel vecteur de U et lui appliquer une transformation dont le vecteur d’arrivé est un vecteur de V.

Par exemple, en prenant T(u_1)=\lambda_{1,1} v_1+ \lambda_{2,1} v_2+ ... + \lambda_{m,1} v_m, avec u_1 \in U.
On peut réécrire comme ceci : T(u_1)= \displaystyle{\sum_{i=1}^m \lambda_{i,1} v_i}
Rappelez vous, et ceci est très important, que chaque v_i est un vecteur de la base d’arrivée, donc, en simplifiant, une colonne.
Si par exemple, on avait choisi la base canonique de \mathbb{R}^m comme base de V, on aurait eu quelque chose de la forme :

T(u_1)=\lambda_{1,1} \begin{pmatrix} 1 \\ 0 \\ ... \\ 0 \end{pmatrix} + \lambda_{2,1}  \begin{pmatrix} 0 \\ 1 \\ ... \\ 0 \end{pmatrix} + ... + \lambda_{m,1}  \begin{pmatrix} 0 \\ 0 \\ ... \\ 1 \end{pmatrix}

Plus généralement donc, pour un j \in \{1,2,...,n\}, on aurait :

T(u_j)= \displaystyle{\sum_{i=1}^m \lambda_{i,j} v_i}

En fait, lorsqu’on veut construire la matrice d’une application linéaire, que nous faut-il comme information préliminaire?

Il nous faut savoir ce que l’application linéaire fait à tous les vecteurs de la base de départ. Si on sait ce que l’application fait à tous les vecteurs de cette base, alors on sait tout ce qu’il y a à savoir sur l’application en question.

On peut donc écrire la même chose pour T(u_2) :
T(u_2)= \displaystyle{\sum_{i=1}^m \lambda_{i,2} v_i}

Rappelons qu’on sait que \forall X \in U, X=\ \displaystyle{\sum_{j=1}^n \alpha_j u_j}.
Or, si on pose Y=T(X), un vecteur quelconque de l’image de X par l’application T, alors ce vecteur s’écrit T(X)=\displaystyle{ T \left(\sum_{j=1}^n \alpha_j u_j \right)}.

T est une application linéaire, par conséquent :

T(X)=\displaystyle{ \sum_{j=1}^n \alpha_j T(u_j) }

Nous savons ce qu’est T(u_j), donc, on va le remplacer par sa valeur :

T(X)=\displaystyle{ \sum_{j=1}^n \alpha_j   \sum_{i=1}^m \lambda_{i,j} v_i }

Réarrangeons les termes des sommations dans un but pratique :

T(X)=\displaystyle{ \sum_{i=1}^m \left( \sum_{j=1}^n  \lambda_{i,j}   \alpha_j  \right) v_i }

Ecris sous forme de vecteurs, on a :

T(X)= v_1\begin{pmatrix}  \displaystyle{\sum_{j=1}^n  \lambda_{1,j}   \alpha_j} \\ 0 \\ ... \\ 0  \end{pmatrix}+ v_2\begin{pmatrix}  0 \\  \displaystyle{\sum_{j=1}^n  \lambda_{2,j}   \alpha_j}  \\ ... \\ 0  \end{pmatrix}+...+ v_m\begin{pmatrix}  0 \\ 0 \\ ... \\  \displaystyle{\sum_{j=1}^n  \lambda_{m,j}   \alpha_j}   \end{pmatrix}

Si on écrit ceci d’une forme matricielle maintenant :

Y=\begin{pmatrix} \lambda_{1,1} &  \lambda _{1,2} & ... &  \lambda _{1,n} \\   \lambda _{2,1} &  \lambda _{2,2} & ... &  \lambda _{2,n} \\ ... & ... & ... & ... \\   \lambda _{m,1} &  \lambda _{m,2} & ... &  \lambda _{m,n} \end{pmatrix} \begin{pmatrix} \alpha_1 \\ \alpha_2 \\ ... \\ \alpha_n \end{pmatrix}

Quelques petites remarques postérieures à notre démonstration.

Tout d’abord, on peut constater que l’opération qui consiste à transformer le système linéaire en matrice revient à transposer les lignes en colonnes, et vice versa. Cette transformation s’effectue lorsqu’on arrange les termes de la somme, en effet, on voit bien qu’on ne somme plus les coefficients a_{i,j} sur j mais sur i.

Ensuite, comme vous l’avez surement remarqué, la matrice de l’application linéaire n’est tout simplement que la représentation matricielle de l’application linéaire en question. Ceci peut paraître trivial, mais c’est l’essence de la compréhension des matrices d’applications linéaire qui repose sur cette définition.