Matrices

Opérations sur les applications linéaires et les matrices :

Maintenant que nous savons représenter une application linéaire à travers une matrice, voyons les opérations que nous pouvons effectuer sur ces dernières.

Tout d’abord, commençons par les propriétés de certaines opérations simples et d’autres plus spécifiques :

  • Propriété sur la somme de matrices d’applications linéaires :

    Soit f,g, deux applications linéaires de E dans F.
    Soit B une base de E et B' une base de F.

    Mat_{B,B'}(f+g)=Mat_{B,B'}(f)+Mat_{B,B'}(g)

    Attention, ceci implique de considérer la même base des applications sur l’espace de départ et l’espace d’arrivée. En effet, par exemple, cela n’a pas de sens d’additionner deux matrices n’ayant pas le même nombre de lignes et de colonnes.

    Prenons un exemple.

    Soit U,V=\mathbb{R}^2, deux espaces vectoriels et soit f et g deux applications linéaires telles que f : U \rightarrow V et g : U \rightarrow V.

    Soit f\begin{pmatrix} a \\ b \end{pmatrix}= \begin{pmatrix} 1 & 2 \\ 0 & -1 \end{pmatrix}\begin{pmatrix} a \\ b \end{pmatrix} et g\begin{pmatrix} a \\ b \end{pmatrix}= \begin{pmatrix} 0 & 3 \\ 1 & -1 \end{pmatrix}\begin{pmatrix} a \\ b \end{pmatrix}.

    Vous l’avez compris, on exprime ici la représentation matricielle des applications f,g.

    Montrons que la matrice de la somme de f et g est la somme des matrices de f et g :

    f\begin{pmatrix} a \\ b \end{pmatrix}+ g\begin{pmatrix} a \\ b \end{pmatrix}=\begin{pmatrix} 1 & 2 \\ 0 & -1 \end{pmatrix}\begin{pmatrix} a \\ b \end{pmatrix}+\begin{pmatrix} 0 & 3 \\ 1 & -1 \end{pmatrix}\begin{pmatrix} a \\ b \end{pmatrix}=\left(\begin{pmatrix} 1 & 2 \\ 0 & -1 \end{pmatrix}+\begin{pmatrix} 0 & 3 \\ 1 & -1 \end{pmatrix}\right)\begin{pmatrix} a \\ b \end{pmatrix}=\begin{pmatrix} 1 & 5 \\ 1 & -2 \end{pmatrix} \begin{pmatrix} a \\ b \end{pmatrix}

    On voit bien que les bases des deux applications doivent être les mêmes sur l’espace de départ, et les mêmes sur l’espace d’arrivée.




  • Propriété sur le produit de la matrice d’une application linéaire avec un scalaire :

    Mat_{B,B'}(\lambda f)= \lambda Mat_{B,B'}(f)

    De manière analogue, ceci implique de considérer également la même base de l’application f sur l’espace de départ et l’espace d’arrivée.

    Je pense que vous avez compris le principe, sinon, entraînez vous. Prenez un scalaire quelconque, et montrez que la matrice du produit de ce scalaire avec une application quelconque, est équivalent au produit du scalaire avec la matrice de l’application linéaire.




  • Propriétés sur la composition d’applications linéaires :

    Soient \phi_1 : E \rightarrow F et \phi_2 : F \rightarrow G et B une base de E, B' une base de F et B'' une base de G. Alors :

    Mat_{B,B"}(\phi_2 \circ \phi_1)=Mat_{B',B''}(\phi_2) \times  Mat_{B,B'}(\phi_1)

    Rappelez vous, l’ordre de composition est inversé, car il faut prendre en compte le fait qu’on applique d’abord la première application \phi_1 à notre vecteur, puis la deuxième \phi_2, mais ceci revient à écrire (pour tout vecteur x \in E) \phi_2(\phi_1 (x)). On applique d’abord \phi_1 à x, puis \phi_2.

    Exemple :

    Soit U,V,W, trois k-espaces vectoriels, avec U=\mathbb{R}^2, V=\mathbb{R}^3 et W=\mathbb{R}^2.

    Soit également \phi_1 : U \rightarrow V et \phi_2 : V \rightarrow W

    On définit la matrice A de l’application linéaire \phi_1, et B, la matrice de l’application linéaire \phi_2 telles que :

    A=Mat_{B,B'}(\phi_1)=\begin{pmatrix} 1 & 0 \\ 1 & 1 \\ 0 & 2 \end{pmatrix} et B=Mat_{B',B''}(\phi_2)=\begin{pmatrix} 2 & -1 & 0 \\ 3 & 1 & 2 \end{pmatrix}

    Par conséquent, (\phi_2 \circ \phi_1) : \mathbb{R}^2 \rightarrow \mathbb{R}^2

    Pourquoi ? Si on pose tranquillement, on a :

    \phi_1 \begin{pmatrix} a \\ b \end{pmatrix}=\begin{pmatrix} 1 & 0 \\ 1 & 1 \\ 0 & 2 \end{pmatrix} \begin{pmatrix} a \\ b \end{pmatrix}=\begin{pmatrix} a \\ a+b \\ 2b \end{pmatrix}

    \phi_2 \begin{pmatrix} a \\ b \\ c \end{pmatrix}=\begin{pmatrix} 2 & -1 & 0 \\ 3 & 1 & 2 \end{pmatrix} \begin{pmatrix} a \\ b \\ c \end{pmatrix}=\begin{pmatrix} 2a-b \\ 3a+b+2c \end{pmatrix}

    Donc :

    \phi_2(\phi_1(x))=\phi_2\begin{pmatrix} a \\ a+b \\ 2b \end{pmatrix}=\begin{pmatrix} 2 & -1 & 0 \\ 3 & 1 & 2 \end{pmatrix}\begin{pmatrix} a \\ a+b \\ 2b \end{pmatrix}=\begin{pmatrix} a-b \\ 4a+5b \end{pmatrix}

    En fait, ceci revient à faire :

    (B \times A)\begin{pmatrix} a \\ b \end{pmatrix} = \left(\begin{pmatrix} 2 & -1 & 0 \\ 3 & 1 & 2 \end{pmatrix} \times \begin{pmatrix} 1 & 0 \\ 1 & 1 \\ 0 & 2 \end{pmatrix}\right) \begin{pmatrix} a \\ b \end{pmatrix}=\begin{pmatrix} a-b \\ 4a+5b \end{pmatrix}

    Par conséquent, la propriété Mat_{B,B"}(\phi_2 \circ \phi_1)=Mat_{B',B''}(\phi_2) \times  Mat_{B,B'}(\phi_1) est vérifiée.





  • A présent, montrons que (\phi_2 \circ \phi_1) n’implique pas que (\phi_1 \circ \phi_2) soit définie.

    Soient M_2(\mathbb{K})\xrightarrow{S}\mathbb{R}^4 \xrightarrow{T} R^3[X]

    Définissons S\begin{pmatrix} a & b \\ c & d \end{pmatrix}= \begin{pmatrix} a + b \\ 0 \\ c+d \\ 0 \end{pmatrix} et T\begin{pmatrix} x \\ y \\ z \\ t \end{pmatrix}= y+tX^2+(y+t)X^3

    (T \circ S) est définie, mais on voit clairement que (S \circ T) ne l’est pas. Pourquoi ? En fait, on voit bien qu’appliquer T à un vecteur de M_2(\mathbb{K}) n’a pas de sens. L’application T ne prend et ne transforme que des vecteurs de \mathbb{R}^4.





  • Propriétés sur les matrices d’endomorphismes :

    Si une application f de E dans E est linéaire (endomorphisme), alors la matrice A de l’application f est inversible.

    Exemple :

    Soit E=\mathbb{R}^2 et f : E \longrightarrow E, une application linéaire définie par A=\begin{pmatrix} 1 & 2 \\ 3 & -1 \end{pmatrix}, la matrice de l’application f.

    En résolvant le système linéaire (ou la matrice augmentée), on trouve :

    A^{-1}=\displaystyle{\begin{pmatrix} \frac{1}{7} & \frac{2}{7} \\ \frac{3}{7} & -\frac{1}{7} \end{pmatrix}}

    A présent, si on applique notre application à un vecteur quelconque de E :

    f \begin{pmatrix} a \\ b \end{pmatrix}=\begin{pmatrix} 1 & 2 \\ 3 & -1 \end{pmatrix} \begin{pmatrix} a \\ b \end{pmatrix}=\begin{pmatrix} a+2b \\ 3a-b \end{pmatrix}

    Maintenant, si on applique l’inverse de f au vecteur auquel que nous avons trouvé :

    f^{-1} \begin{pmatrix} a+2b \\ 3a-b \end{pmatrix}=\begin{pmatrix} \frac{1}{7} & \frac{2}{7} \\ \frac{3}{7} & -\frac{1}{7} \end{pmatrix} \begin{pmatrix} a+2b \\ 3a-b \end{pmatrix}=\begin{pmatrix} \frac{a+2b}{7}+\frac{2(3a-b)}{7} \\ \frac{3(a+2b)}{7}-\frac{3a-b}{7} \end{pmatrix}=\begin{pmatrix} a \\ b \end{pmatrix}

    On retombe bien sur un vecteur de E.




  • La matrice de l’application linéaire identité est définie par la matrice identité : Mat_B(Id)=I_n

    Exemple, si on se place dans R_n[X], avec sa base canonique, alors :

    Id(X)=1+X +X^2 + ... +X^n=\begin{pmatrix} 1 & 0 & ... & ... & 0 \\ 0 & 1 & ... & ... & 0 \\ ... & ... & 1 & ... & ... \\ 0 & ... & ... & 1 & 0 \\ 0 & ... & ... & 0 & 1 \end{pmatrix} \begin{pmatrix} 1 \\ X \\ X^2 \\ ... \\ X^n \end{pmatrix}

    Donc, Mat_B(Id)=I_n




  • La matrice d’une homothétie par rapport à lambda, un scalaire quelconque, est égale au produit de lambda et de la matrice identité :

    Mat_B(\lambda h)=\lambda I_n

    Nul besoin de prendre d’exemple, ceci étant trivial.




  • La matrice de l’application linéaire d’une symétrie centrale est l’opposée de la matrice identité (Attention, on ne parle pas ici d’une symétrie vectorielle , qui se fait par rapport à un axe, mais bien d’une symétrie par rapport à l’origine).
    Soit E=\mathbb{R}^2, et u \in E, alors :

    s(u)=-u=-\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} \begin{pmatrix} u_1 \\ u_2 \end{pmatrix}.

    Par conséquent, Mat_B(s)=-I_n. En fait, ceci est une également une homothétie de rapport -1.






  • La matrice de l’application linéaire d’une rotation d’angle \theta et centrée à l’origine de \mathbb{R}^2 dans \mathbb{R}^2, muni de la base canonique B, est définie par :

    r\theta(x,y)=(xcos\theta - ysin \theta, xsin \theta + ycos \theta).

    On a vu dans le chapitre « applications linéaires », qu’un vecteur pouvait s’écrire de plusieurs manières, dépendant du système de coordonnées. Avec des coordonnées polaires par exemple, un vecteur u quelconque s’écrit comme ceci :

    u=\begin{pmatrix} r cos(\phi) \\ r sin (\phi) \end{pmatrix}

    L’application r\theta n’étant qu’une rotation, on suppose donc que l’application ne fait qu’ajouter un angle théta à notre vecteur, tel que :

    r \theta (u)=\begin{pmatrix} r cos(\phi+\theta) \\ r sin (\phi+\theta) \end{pmatrix}

    On connait les propriétés des sommes des cosinus et des sinus, on développe alors :

    r \theta (u)=\begin{pmatrix} r [\cos(\phi) \cos(\theta)- \sin(\phi) \sin (\theta)] \\ r [\sin (\phi) \cos(\theta)+\cos(\phi) \sin(\theta)] \end{pmatrix}=\begin{pmatrix} r \cos(\phi) \cos(\theta)- r \sin(\phi) \sin (\theta)] \\ r \sin (\phi) \cos(\theta)+r \cos(\phi) \sin(\theta) \end{pmatrix}

    On voit qu’on peut remplacer r cos(\phi) et r \sin(\phi) par x et y respectivement :

    r \theta (u)=\begin{pmatrix} x \cos(\theta)- y \sin (\theta) \\ x \sin(\theta)+y \cos(\theta) \end{pmatrix}=\begin{pmatrix} \cos(\theta)- \sin (\theta) \\ \sin(\theta)+ \cos(\theta) \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}

    Par conséquent, Mat_B(r \theta)=\begin{pmatrix} \cos(\theta)- \sin (\theta) \\ \sin(\theta)+ \cos(\theta) \end{pmatrix}



  • Propriétés sur les occurrences d’endomorphismes :

    Soient f : E \longrightarrow E, un endomorphisme et B une base de E.
    Alors, \forall p \in \mathbb{N} :

    Mat_B(f^p)=Mat_B(f)^p

    La matrice associée à f^p=f \circ f \circ ... \circ f est A^p=A \times A \times ... \times A

    Exemple :

    Mat_B(r_\theta^p)=(Mat_B(r_\theta))^p=\begin{pmatrix} \cos(\theta)- \sin (\theta) \\ \sin(\theta)+ \cos(\theta) \end{pmatrix}^p=\begin{pmatrix} \cos(p \theta)- \sin ( p\theta) \\ \sin(p \theta)+ \cos(p \theta) \end{pmatrix}

    Ceci découle de la formule de Moivre.




  • Dernière propriété importante des matrices d’endomorphismes, la composition d’applications inverses. Considérons V \xrightarrow{S} V \xrightarrow{T} V Notre postulat est :

    (TS)^{-1}=S^{-1} T^{-1}. Montrons cela :

    On va poser (TS)(S^{-1}T^{-1})(v)=I(v), ou I(v) est l’identité de v. Si on arrive à montrer que le terme de gauche est égal à v, alors on a terminé la preuve. C’est en réalité très simple :

    (TS)(S^{-1}T^{-1})(v)=T(S(S^{-1}T^{-1})(v)=T(T^{-1})(v)=I(v)

    En fait, l’ordre inversé dans la composition inverse d’applications est due à la non commutativité des matrices 🙂


  • Propriétés sur les matrices d’isomorphismes :

    Soient E et F, deux k-ev de même dimension finie.
    Soit f, une application de E dans F et B une base de E, B' une base de F.
    Soit A=Mat_{B,B'}(f)

    On dit que f est bijective (est un isomorphisme), si et seulement si A est inversible.
    Dans ce cas là, en plus, la matrice de f^{-1} est A^{-1}.

    Nous allons prendre un exemple ou une construction et un certain niveau d’abstraction seront nécessaires.
    Pourquoi ce choix ? Tout simplement parce que dans la majorité des cours ou des exemples que vous trouverez sur internet concernant les matrices représentatives d’isomorphismes, ces exemples seront en réalité des exemples de matrices d’endomorphismes, donc d’automorphismes.

    Soit deux espaces vectoriels U=\mathbb{R}^4 et V=M_2(\mathbb{K}) de dimension 4 sur un corps \mathbb{K}.
    Soit \gamma : U \longrightarrow V, un isomorphisme.
    Soient B=\{e_1,..,e_4\} la base canonique de U et B'=\{f_1,...,f_4\}, la base canonique de V.

    Comment pourrions-nous définir A, la matrice de l’application linéaire \gamma ?
    Il n’y a à priori pas de solution simple, en effet, quelle matrice, multipliée par un vecteur de \mathbb{R}^4 pourrait donner un vecteur dans les matrices carrées 2 \times 2 ? Aucune, c’est impossible, pour les multiplier, la première matrice doit avoir autant de colonnes que la deuxième matrice à de lignes… Ici, ce n’est pas le cas ? Alors, cette matrice n’existe pas ?
    Ce serait absurde, car nous avons affirmé plus haut que notre application est linéaire, et possède donc nécessairement une représentation matricielle…

    C’est ici qu’un peu d’abstraction est nécessaire pour bien comprendre.

    On veut trouver la matrice représentative de \gamma tel que :

    \gamma \begin{pmatrix} a \\ b \\ c \\ d \end{pmatrix}= \begin{pmatrix} a & b \\ c & d \end{pmatrix}

    On a dit que, contrairement aux endomorphismes, trouver une matrice entre deux espaces isomorphes peut être compliqué.
    On sait que notre isomorphisme se défini ainsi :

    \gamma(a e_1+b e_2+c e_3+ d e_4)=a f_1 + b f_2 + c f_3 + d f_4.

    L’idée ici, c’est d’associer le vecteur e_1 de la base de départ, avec le vecteur f_1 de la base d’arrivée, e_2 avec f_2 etc… Ce qui nous donne :

    \begin{pmatrix} a \\ b \\ c \\ d \end{pmatrix}= a e_1+b e_2+c e_3+ d e_4 \xrightarrow{\gamma} a f_1 + b f_2 + c f_3 + d f_4= \begin{pmatrix} a & b \\ c & d \end{pmatrix}

    En fait, nous imposons une forme de relation d’équivalence entre les vecteurs de la base de départ et ceux de la base d’arrivée, deux à deux. Ceci étant dit, la matrice de notre isomorphisme, compte tenu de nos deux bases canoniques et de l’équivalence de ces dernières, il s’agit simplement de :

    A=I_4

    On pourrait prendre à présent, une base différente pour B, par exemple B=\left\{ \begin{pmatrix} 2 \\ 0 \\ 0 \\ 0 \end{pmatrix}, \begin{pmatrix} 0 \\ 2 \\ 0 \\ 0 \end{pmatrix}, \begin{pmatrix} 0 \\ 0 \\ 2 \\ 0 \end{pmatrix}, \begin{pmatrix} 0 \\ 0 \\ 0 \\ 2 \end{pmatrix}\right\}

    Dans ce cas là, on aurait :

    \begin{pmatrix} a \\ b \\ c \\ d \end{pmatrix}=\frac{a}{2}e_1+\frac{b}{2}e_2+\frac{c}{2}e_3+\frac{d}{2}e_4 \xrightarrow{\gamma} \frac{a}{2} f_1 + \frac{b}{2} f_2 + \frac{c}{2} f_3 + \frac{d}{2} f_4= \begin{pmatrix} \frac{a}{2} & \frac{b}{2} \\ \frac{c}{2} & \frac{d}{2} \end{pmatrix}