Matrices

Puissance d’une matrice :

Comme pour les nombres réels, les puissances de matrices existent, et se formalise de manière analogue.

Remarque : Dans M_n (K) (l’ensemble des matrices n \times n), la multiplication des matrices est un produit interne, tel que :
Si A, B \in M_n (K), alors  A \times B \in M_n (K).

On note une puissance de matriceA^p = A \times A \times A .... p fois..
En particulier, on peut noter :
A^2 = A \times A, A^3 = A \times A \times A, etc… A^0 = I_n (la matrice identité), qui est analogue à x^0=1 dans les réels.

Prenons un exemple, on va calculer A^p jusqu’à A^4 :

Prenons A=\begin{pmatrix}1 & 0 & 1 \\ 0 & -1 & 0 \\ 0 & 0 & 2 \end{pmatrix},

Alors A^2=\begin{pmatrix}1 & 0 & 1 \\ 0 & -1 & 0 \\ 0 & 0 & 2 \end{pmatrix}\cdot \begin{pmatrix}1 & 0 & 1 \\ 0 & -1 & 0 \\ 0 & 0 & 2 \end{pmatrix}=\begin{pmatrix}1 & 0 & 3 \\ 0 & 1 & 0 \\ 0 & 0 & 4 \end{pmatrix},

Alors A^3=\begin{pmatrix}1 & 0 & 3 \\ 0 & 1 & 0 \\ 0 & 0 & 4 \end{pmatrix}\cdot \begin{pmatrix}1 & 0 & 1 \\ 0 & -1 & 0 \\ 0 & 0 & 2 \end{pmatrix}=\begin{pmatrix}1 & 0 & 7 \\ 0 & -1 & 0 \\ 0 & 0 & 8 \end{pmatrix},

Alors A^4=\begin{pmatrix}1 & 0 & 7 \\ 0 & -1 & 0 \\ 0 & 0 & 8 \end{pmatrix}\cdot \begin{pmatrix}1 & 0 & 1 \\ 0 & -1 & 0 \\ 0 & 0 & 2 \end{pmatrix}=\begin{pmatrix}1 & 0 & 15 \\ 0 & 1 & 0 \\ 0 & 0 & 16 \end{pmatrix}

De l’observation de ces puissances de matrices, en née une conjecture, cette conjecture est la suivante :

On constate que la formule d’une matrice A^p pourrait donc s’écrire de la forme :

A^p=\begin{pmatrix}1 & 0 & 2^p -1 \\ 0 & (-1)^p & 0 \\ 0 & 0 & 2^p \end{pmatrix}

*Ceci est vrai pour la matrice que nous avons pris dans notre exemple, ce n’est pas vrai pour une matrice quelconque. Dans ce cas, il faudra conjecturer la forme de la matrice désirée.
Le seul cas ou ceci est vrai, est lorsque la matrice en question est une matrice diagonale, c’est à dire, une matrice dont les valeurs de la diagonale sont non nulles et nulles partout ailleurs, exemple avec un matrice diagonale M quelconque :

M=\begin{pmatrix} a & 0 & 0 \\ 0 & b & 0 \\ 0 & 0 & c \end{pmatrix}

Nous allons maintenant démontrer le résultat que nous avons trouvé plus haut par récurrence.

Initialisation : Est-ce vrai pour p = 1? Oui, car on trouve bien la matrice d’origine :

A^1=\begin{pmatrix}1 & 0 & 2-1 \\ 0 & (-1)^1 & 0 \\ 0 & 0 & 2^1 \end{pmatrix}=\begin{pmatrix}1 & 0 & 1 \\ 0 & -1 & 0 \\ 0 & 0 & 2 \end{pmatrix}

Hérédité : On va à présent démontrer l’hérédité. On va supposer un entier p fixé, et on va prouver que la formule est vrai pour p+1.
On pose A^{p+1} = A^p \times A. Donc, d’après l’hypothèse de récurrence, on a :

A^{p+1}=\begin{pmatrix}1 & 0 & 2^p -1 \\ 0 & (-1)^p & 0 \\ 0 & 0 & 2^p \end{pmatrix} \cdot \begin{pmatrix}1 & 0 & 1 \\ 0 & -1 & 0 \\ 0 & 0 & 2 \end{pmatrix} =\begin{pmatrix}1 & 0 & 1+2(2^p -1) \\ 0 & -1(-1)^p & 0 \\ 0 & 0 & 2(2^p) \end{pmatrix}=\begin{pmatrix}1 & 0 & 2^{p+1}-1 \\ 0 & (-1)^{p+1} & 0 \\ 0 & 0 & 2^{p+1} \end{pmatrix}

Par conséquent, et d’après le principe de récurrence, on peut dire avec beaucoup de confiance, que la propriété est démontrée.