Matrices


Transposées de matrices :

Nous continuons dans la lignée des transformations de matrices, avec maintenant, ce qu’on appelle la transposition de deux matrices. On pourra presque résumer cette notion en deux lignes :

Soit une matrice M quelconque de taille n \times m, on appelle transposée de M la matrice M^T, et telle que si M=m_{(i,j)}, alors M^T=m_{(j,i)} avec i,j \in \{1,2,...,n\} \times \{1,2,...,m\}.

De manière plus littéraire, transposer une matrice consiste à échange ses lignes et ses colonnes. Par exemple, si on prend une matrice M=\begin{pmatrix} a & b \\ c & d \end{pmatrix}, alors sa transposée s’écrit M^T=\begin{pmatrix} a & c \\ b & d \end{pmatrix}

Voici comment on peut schématiser le processus :

Il en découle quelques propriétés intéressantes. Soit A et B, deux matrices quelconques compatibles de M_n(K) :

  • (A^T)^T=A. On remarque que c’est une application linéaire, et qui est involutive, analogue à une symétrie par exemple, autrement dit, lorsqu’on l’applique deux fois la transposée, on retrouve la matrice de départ. En fait, et pour être plus précis, c’est un endomorphisme involutif.
  • (A+B)^T=A^T+B^T
    On peut démontrer ceci facilement :
    (A+B)^T=(A+B)^T_{ij}=(A+B)_{ji}=(A)_{ji}+(B)_{ji}=(A^T)_{ij}+(B^T)_{ij}=A^T+B^T
  • (\alpha A^T)=\alpha (A^T)
  • (AB)^T=B^T \cdot A^T
    Prouvons cela également car c’est digne d’intérêt. Dans cet exemple, on choisira deux matrices A,B de dimension respectivement m \times p et p \times n, il faut effectivement qu’elles soient compatibles :
    (AB)^T=(AB)_{ji}=\displaystyle{\sum_{k=1}^p (A)_{jk} (B)_{ki}=\sum_{k=1}^p (B)_{ki}(A)_{jk}}.
    En effet, on applique l’écriture de sommation du produit matriciel, et, on se rend compte que pour des i,j fixés, le produit devient commutatif puisqu’il ne s’agit que de nombres réels (ou complexes). Donc, on continue, et on a :
    (AB)^T=\displaystyle{\sum_{k=1}^p (B)_{ki}(A)_{jk}=\sum_{k=1}^p (B^T)_{ik}(A^T)_{kj}=\sum_{k=1}^p (B^T \cdot A^T)_{ij}}=B^T \cdot A^T