Espaces Vectoriels

Familles de vecteurs :

Il existe plusieurs type de « vecteurs » dans un espace vectoriel. Certains, sont absolument nécessaires à la construction du dit espace vectoriel, d’autres sont des combinaisons linéaires d’autres vecteurs.

Nous allons commencer par parler de famille libre et de famille liée. Avant de rentrer dans les définitions formelles, nous allons essayer de vous expliquer le plus intuitivement, les notions qui vont suivre.

Les familles liées :

Une famille liée de vecteurs d’un espace vectoriel regroupe des vecteurs qui sont on pourrait dire, linéairement dépendants. Qu’est ce que cela signifie ? Cela signifie qu’ils peuvent être construits à travers les combinaisons linéaires d’autres vecteur de cet espace vectoriel.

Donc, si l’on en croît cette affirmation, prenons E, un K-espace vectoriel, et on va supposer que pour tout vecteur (u_i)\in E d’indice i \in\left\{1,2,...,n\right\}, on peut écrire qu’il existe un j \in\left\{1,2,...,n\right\} et \exists\lambda_1,\lambda_2,...,\lambda_{j-1},\lambda_{j+1},...,\lambda_n\in (\mathbb{K}^n)^* et tel que le vecteur u_j s’écrit :

u_j=\lambda_1 u_1+\lambda_2 u_2+...+\lambda_{j-1} u_{j-1}+\lambda_{j+1} u_{j+1}+...+\lambda_n u_n

Comprenez vous pourquoi nous écrivons ceci ? En fait, nous avons dit qu’une famille liée de vecteurs d’un espace vectoriel est une famille telle que tout vecteur appartenant à cet espace vectoriel est la combinaison linéaire des autres vecteurs de l’espace. En d’autres termes, tout vecteur de l’espace est dépendant linéairement des autres, c’est exactement ce que nous avons écrit plus haut, si il y a n vecteurs, il y a n scalaires, et u_j étant un vecteur quelconque de l’espace.
Le problème, c’est que si l’espace vectoriel est de très grande dimension, il est évident que l’on ne va pas s’amuser à faire la démonstration terme à terme. Alors, que pouvons nous faire ? On peut passer le vecteur en question de l’autre côté de l’égalité :

0=\lambda_1 u_1+\lambda_2 u_2+...+\lambda_{j-1} u_{j-1}-u_j+\lambda_{j+1} u_{j+1}+...+\lambda_n u_n

Ce qui est embêtant, c’est que u_j a un coefficient particulier, on aimerait qu’il ait un coefficient similaire aux autres. Pour cela, on va simplement renommer les coefficients \lambda_i en \mu_i et on va considérer le coefficient devant u_j comme  -1=\mu_j

Maintenant, on sait que les coefficients sont non tous nuls, et en particulier \mu_j\ne 0, on va donc isoler \mu_j u_j (sans oublier qu’on change de signe) et poser :

\mu_j u_j=\mu_1 u_1-\mu_2 u_2-...-\mu_{j-1} u_{j-1}-\mu_{j+1} u_{j+1}-...-\mu_n u_n

On divise par \mu_j :

u_j=\frac{\mu_1}{\mu_j} u_1-\frac{\mu_2}{\mu_j} u_2-...-\frac{\mu_{j-1}}{\mu_j} u_{j-1}-\frac{\mu_{j+1}}{\mu_j} u_{j+1}-...-\frac{\mu_n}{\mu_j} u_n

Eh bien, il ne nous reste plus qu’à écrire tout ceci de manière un peu plus homogène. Un scalaire étant un scalaire, on peut modifier les coefficients \mu_i en \alpha_i\in K :

u_j=\alpha_1 u_1+\alpha_2 u_2+\alpha_{j-1}u_{j-1}+\alpha_{j+1}u_{j+1}+...+\alpha_n u_n

Donc nécessairement :

\alpha_1 u_1+\alpha_2 u_2+\alpha_{j-1}u_{j-1}+\alpha_j u_j+\alpha_{j+1}u_{j+1}...+\alpha_n u_n=0

L’implication est-elle démontrée, oui, pourquoi ? On voit clairement que u_j est combinaison linéaire des autres vecteurs, donc, (u_1,u_2,...,u_n) est une famille liée.

Montrons graphiquement des vecteurs d’une famille liée :

Afficher l’image source

On voit bien que dans les deux schémas, le vecteur \overrightarrow{u+v} est combinaison linéaire de \overrightarrow{u} et de \overrightarrow{v}. La famille (\overrightarrow{u},\overrightarrow{v},\overrightarrow{u+v}) est donc liée.

Pour illustrer ceci ,prenons un premier exemple avec une famille de polynômes, et essayons de voir s’il s’agit d’une famille liée.
Prenons les « vecteurs » (X+2),(X),(\frac{1}{2}X) :

On pose simplement :

\lambda_1 (X+2)+ \lambda_2 X+ \lambda_3 \frac{1}{2}X=0

*Précisons que 0 est l’élément neutre de l’espace vectoriel des polynômes à coefficients réels, qu’on note 0_{\mathbb{R}[X]}

On rassemble les termes :

X(\lambda_1+\lambda_2+\frac{1}{2} \lambda_3)+ 2\lambda_1=0

On se retrouve avec un système d’équation que l’on va devoir résoudre pour trouver les lambdas :

\left\{\begin{array}{l} \lambda_1+\lambda_2+\frac{1}{2} \lambda_3 = 0 \\ 2\lambda_1 = 0 \\ \end{array}\right.

Comme on peut le constater, il y a une infinité de solutions, nous allons donc devoir fixer arbitrairement un lambda et trouver une solution particulière, ce qui nous apporte déjà l’information dont nous avions besoin : il s’agit d’une famille liée.
Fixons \lambda_3=2, on a alors :

\left\{\begin{array}{l} \lambda_2+1 = 0 \\ \lambda_1 = 0 \\ \end{array}\right.

On a donc \lambda_2 =-1 et on a trouvé les solutions telles que \lambda_1=0, \lambda_2=-1 et \lambda_3=2

Prenons un autre exemple, cette fois encore avec une famille de polynômes. Soient (2+X^2),(X-1),(4X)\in \mathbb{R}[X]

Pour montrer que la famille est liée (ou ne l’est pas), on va donc poser :

\lambda_1(2+X^2)+\lambda_2(X-1)+\lambda_3(4X)=0

On rassemble les termes :

X^2(\lambda_1)+X(\lambda_2+4\lambda_3)+2\lambda_1-\lambda_2=0

On se retrouve avec un système d’équation tel que :

\left\{\begin{array}{l} \lambda_1 = 0 \\ \lambda_2+4\lambda_3 = 0 \\ 2\lambda_1-\lambda_2=0 \\ \end{array}\right.

Continuons à résoudre le système :

\left\{\begin{array}{l} \lambda_1 = 0 \\ \lambda_2+4\lambda_3 = 0 \\ \lambda_2=0 \\ \end{array}\right.

Si \lambda_2=0, alors on voit clairement que \lambda_3=0 également. Donc, cette famille de vecteur n’est PAS une famille liée ! Nous venons de démontrer la contraposée ! Ce qui va nous amener au type de famille suivant.

Les familles libres :

Une famille libre est l’opposée d’une famille liée. C’est une famille de vecteurs qui sont linéairement indépendants et qui ne peuvent pas être construits avec d’autres vecteurs sous-jacents de la dites famille.

Comment se définit une famille libre. En fait, il suffit de faire quelque chose de très simple, prendre la négation de l’implication logique dans la définition d’une famille liée…

Voici la définition d’une famille liée à nouveau :

Soit E un k-espace vectoriel, avec \forall u_1,u_2,...,u_n \in E on dit que u_i, i\in I est liée si \forall \lambda_1,\lambda_2,...,\lambda_n \in K et \lambda_1,\lambda_2,...,\lambda_n non tous nuls (ce qui veut dire qu’un des coefficients au moins est non nul) implique \lambda_1 u_1+\lambda_2 u_2+...+\lambda_n u_n=0

Quelle est la négation de cette définition ?
Eh bien, il suffit d’affirmer que si la famille est non liée, cela veut dire que TOUS les \mu_1,\mu_2,...,\mu_n=0, autrement dit, \mu_1=\mu_2,...,=\mu_n=0

Réécris correctement, la définition devient :

Soit E un k-espace vectoriel, avec \forall u_1,u_2,...,u_n \in E on dit que u_i, i\in I est libre si \forall \mu_1,\mu_2,...,\mu_n \in K, \mu_1 u_1+\mu_2 u_2+...+\mu_n u_n=0 implique \forall \mu_1=\mu_2,...,=\mu_n=0

Nous avons traité d’un cas de figure de famille libre plus haut, nous savons donc que cette définition est vraie, et qu’une famille libre est l’opposée d’une famille liée. Prenons un autre exemple, trois fonctions de \mathbb{R}^{+}_* dans \mathbb{R} par exemple  :

Soient f_1, f_2, f_3 telles que f_1(x)=x-1, f_2(x)=ln(x) et f_3(x)=e^x

On va essayer de montrer que f_1, f_2 et f_3 sont des vecteurs d’une famille libre de E.

Soit \eta_1,\eta_2, \eta_3 \in K, on veut montrer que \eta_1 u_1+\eta_2 u_2+\eta_3 u_3=0, autrement dit que :

\eta_1 (x-1)+\eta_2 ln(x)+\eta_3 e^x=0

Ce que l’on va faire, c’est écrire un système d’équation, mais en laissant les termes tels quels, il ne nous est pas possible de le résoudre, donc, il va falloir choisir des valeurs de x différentes, et voir si il est possible de déterminer des valeurs de êta :

En fixant x=1 dans la première ligne, x=2 dans la deuxième, et x=3 dans la troisième, on a

\left\{\begin{array}{l} 0+0+\eta_3 e^1 = 0 \\ \eta_1+\eta_2 ln(2)+\eta_3 e^2 = 0 \\ 2\eta_1+\eta_2 ln(3)+\eta_3 e^3=0 \\ \end{array}\right.

Dans la première équation, on voit que, étant donné que e^1 est non nul, \eta_3=0. On va donc pouvoir remplacer \eta_3 sur les autres lignes :

\left\{\begin{array}{l} \eta_1+\eta_2 ln(2) = 0 \\ 2\eta_1+\eta_2 ln(3)=0 \\ \end{array}\right.

A présent, on se retrouve avec un système de deux équations, et, grâce à la méthode du pivot de Gauss, on résoud le système en soustrayant deux fois l’équation 1 à l’équation 2 :

\left\{\begin{array}{l} \eta_1+\eta_2 ln(2) = 0 \\ \eta_2 ln(3) - 2\eta_2 ln(2)=0 \\ \end{array}\right.

On factorise par \eta_2 :

\left\{\begin{array}{l} \eta_1+\eta_2 ln(2) = 0 \\ \eta_2 (ln(3) - 2 ln(2))=0 \\ \end{array}\right.

2ln(2)=ln(4) et ln(3)-ln(4)=ln(\frac{3}{4}). Ceci est forcément non nul, donc si le tout est nul, c’est que \eta_2=0
Donc, si \eta_2=0, alors \eta_1=0 également.

Par conséquent, il s’agit bien d’une famille libre de vecteurs.

Bonus :

Il existe d’autres techniques d’analyse pour trouver des équations afin de déterminer si une famille de fonctions d’un espace ou d’un sous espace vectoriel est liée ou libre.

Par exemple, en utilisant le passage à la limite, pour une fonction de \mathbb{R} dans \mathbb{R}, \forall x, f_1(x)=\frac{x^2}{x^2 + 1} et f_2(x)=e^{-x}, on sait que :

\lim\limits_{x \to +\infty} \frac{x^2}{x^2 + 1} = 1 et \lim\limits_{x \to +\infty} e^{-x} = 0

Par conséquent, on se retrouve avec le système d’équations suivant :

\mu_1+0 = 0 lorsque x tend vers +\infty, 0+\mu_2 = 0 lorsque x tend vers 0

C’est terminé, on a donc bien \mu_1=\mu_2=0

L’utilisation de la dérivée pour écrire le système d’équations et trouver le type de famille d’un sous espace vectoriel. Prenons par exemple deux fonctions de \mathbb{R} dans \mathbb{R} telles que f_1(x)=x et f_2(x)=x^2.

On écrit donc \lambda_1 x+\lambda_2 x^2=0

On dérive une fois et on a :

\lambda_1+2\lambda_2 x = 0

On dérive une seconde fois :

0 + 2\lambda_2=0

Vous voyez j’en suis sûr, la réponse. En effet, \lambda_2=0, donc \lambda_1 =0 et donc f_1 et f_2 sont une famille libre.

Familles génératrices :

Comme son nom l’indique, une famille génératrice de vecteurs est une famille qui génère un espace vectoriel. Cela veut dire que tout vecteur de l’espace vectoriel en question, est combinaison linéaire des vecteurs de la famille génératrice. Tous les vecteurs de l’espace vectoriel peuvent donc être construits à partir des vecteurs de la famille génératrice.

Formellement, on écrit :

Soit un corps K, et E, un k-ev. Soit une famille finie de vecteurs (f_1,f_2,...,f_n)\in E. La famille de ces vecteurs est dites génératrice, sisi :

\forall x\in E, \exists (\lambda_1,\lambda_2,...,\lambda_n)\in K, tel que x=\lambda_1 f_1+\lambda_2 f_2+...+\lambda_n f_n ou x=\sum_{k=1}^{n} \lambda_k f_k

Prenons trois exemples, chacun étant un exemple d’un type différent :

Tout d’abord, comme premier exemple :

Soit E, un espace vectoriel de \mathbb{R}^3 dans \mathbb{R}^3. Nous allons montrer que les vecteurs \begin{pmatrix}1 \\ 0 \\ 0\end{pmatrix},\begin{pmatrix}0 \\ 1 \\ 0\end{pmatrix} et \begin{pmatrix}0 \\ 0 \\ 1\end{pmatrix} sont des vecteurs d’une famille génératrice de \mathbb{R}^3. En fait, ces trois vecteurs sont même ce qu’on appelle la base canonique de \mathbb{R}^3, mais nous verrons cela plus tard.

On sait qu’on peut écrire n’importe quel vecteur de l’espace \mathbb{R}^3 de la forme \begin{pmatrix}x \\ y \\ z\end{pmatrix}, donc, si on applique la définition, on veut trouver des scalaires (\lambda_1,\lambda_2,...,\lambda_n), qui vérifient l’équation x=\lambda_1 f_1+\lambda_2 f_2+...+\lambda_n f_n. Eh bien, il nous suffit de poser ceci avec nos vecteurs et voir ce que l’on peut trouver en faisant des combinaisons linéaires. Dans notre cas de figure, il y a 3 vecteurs, donc, on va chercher trois scalaire (\lambda_1,\lambda_2,\lambda_3) :

\begin{pmatrix}x \\ y \\ z\end{pmatrix}=\lambda_1\begin{pmatrix}1 \\ 0 \\ 0\end{pmatrix}+\lambda_2\begin{pmatrix}0 \\ 1 \\ 0\end{pmatrix}+\lambda_3\begin{pmatrix}0 \\ 0 \\ 1\end{pmatrix}

On a alors :

\begin{pmatrix}x \\ y \\ z\end{pmatrix}=\begin{pmatrix}\lambda_1 \\ \lambda_2 \\ \lambda_3\end{pmatrix}

Il est inutile d’aller plus loin, nous avons démontré l’existence des scalaires que nous cherchions et avons prouvé que les vecteurs que nous avons choisis sont des vecteurs générateurs de \mathbb{R}^3.

Prenons un autre exemple :

Soit E, un s.e-v de \mathbb{R}^2[X]. Soient trois polynômes (1),(X+3),(2X^2-1). Démontrons qu’il s’agit d’une famille génératrice de \mathbb{R}^2[X]

On ne peut pas vraiment faire comme pour de simples vecteurs en exprimant la combinaison linéaire de ces derniers en fonction de x,y et z. En revanche, on sait la forme que prend un polynôme de degrés 2 :

P[X]=a_0+a_1X+a_2X^2

On pose donc :

P[X]=a_0+a_1X+a_2X^2=\lambda_1+\lambda_2(X+3)+\lambda_3(2X^2-1)

Alors, en rassemblant les termes :

P[X]=a_0+a_1X+a_2X^2= (3\lambda_2-\lambda_3+\lambda_1)+ \lambda_2 X+2\lambda_3 X^2

On se retrouve avec un sytème d’équation :

\left\{\begin{array}{l} a_0 = 3\lambda_2-\lambda_3+\lambda_1 \\ a_1 = \lambda_2 \\ a_2= 2\lambda_3 \\ \end{array}\right.

On utilise la méthode du pivot de Gauss pour se débarrasser de certains termes (Une fois la ligne 1 mois 3 fois la ligne 2) :

\left\{\begin{array}{l} a_0-3a_1 = -\lambda_3+\lambda_1 \\ a_1 = \lambda_2 \\ a_2= 2\lambda_3 \\ \end{array}\right.

On remplace certaines valeurs :

\left\{\begin{array}{l} a_0-3 a_1 = \lambda_1 -\frac{1}{2} a_2 \\ a_1 = \lambda_2 \\ a_2= 2\lambda_3 \\ \end{array}\right.

Donc, on a :

\left\{\begin{array}{l} \lambda_1 = a_0 - 3 a_1 + \frac{1}{2} a_2 \\ \lambda_2 = a_1 \\ \lambda_3= \frac{1}{2} a_2 \\ \end{array}\right.

Que peut-on en déduire ? Les scalaires existent bien ! Donc, la famille est génératrice.

Un peu plus compliqué.
Soit E, un espace vectoriel de \mathbb{R}^2[X]. Montrons que les vecteurs suivant sont une famille génératrice de E :

P_1 = (X^2+2X+1), P_2=(2X^2+X-2), P_3=(-X^2 - X+1).

On pose donc :

P(X) = a_0+a_1 X+a_2 X^2=\lambda_1 (X^2+2X+1)+ \lambda_2 (2X^2+X-2)+ \lambda_3 (-X^2 - X+1)

On rassemble les termes :

P(X) = (\lambda_1+2\lambda_2-\lambda_3)X^2+(2\lambda_1+\lambda_2-\lambda_3)X+(\lambda_1-2\lambda_2+\lambda_3)

On a donc le système suivant :

\left\{\begin{array}{l} a_2 = \lambda_1+2\lambda_2-\lambda_3 \\ a_1 = 2\lambda_1+\lambda_2-\lambda_3 \\ a_0= \lambda_1-2\lambda_2+\lambda_3 \\ \end{array}\right.

Par pivot de Gauss :

\left\{\begin{array}{l} a_2 = \lambda_1+2\lambda_2-\lambda_3 \\ a_1 = 2\lambda_1+\lambda_2-\lambda_3 \\ a_0+a_1= 3\lambda_1-\lambda_2 \\ \end{array}\right.

Ensuite :

\left\{\begin{array}{l} a_2 = \lambda_1+2\lambda_2-\lambda_3 \\ a_1-a_2 = \lambda_1-\lambda_2 \\ a_0+a_1= 3\lambda_1-\lambda_2 \\ \end{array}\right.

Et :

\left\{\begin{array}{l} a_2 = \lambda_1+2\lambda_2-\lambda_3 \\ a_1-a_2 = \lambda_1-\lambda_2 \\ a_0+a_1-3(a_1-a_2)= 2\lambda_2 \\ \end{array}\right.

Viens :

\left\{\begin{array}{l} a_2 = \lambda_1+2\lambda_2-\lambda_3 \\ a_0+a_1-3(a_1-a_2)+2(a_1-a_2) = 2\lambda_1 \\ a_0+a_1-3(a_1-a_2)= 2\lambda_2 \\ \end{array}\right.

Et par conséquent :

\left\{\begin{array}{l} a_2 = \lambda_1+2\lambda_2-\lambda_3 \\ \lambda_1 = \frac{1}{2}a_0+\frac{1}{2}a_2 \\ \lambda_2 = \frac{1}{2}a_0 + \frac{3}{2} a_2 \\ \end{array}\right.

Alors, il nous suffit de remplacer les valeurs de \lambda_1 et de \lambda_2 dans la première ligne pour trouver \lambda_3 :

\left\{\begin{array}{l} \lambda_3 = \frac{5}{2} a_2+\frac{3}{2} a_0-2 a_1 \\ \lambda_1 = \frac{1}{2}a_0+\frac{1}{2}a_2 \\ \lambda_2 = \frac{1}{2}a_0 + \frac{3}{2} a_2-a_1 \\ \end{array}\right.

Donc, on vient de démontrer l’existence de scalaires qui vérifient l’égalité que nous avons montré au début et qui est la définition d’une famille génératrice. Donc, on pourrait écrire le polynôme de la forme :

(\frac{1}{2}a_0+\frac{1}{2}a_2)(X^2+2X+1)+(\frac{1}{2}a_0 + \frac{3}{2} a_2-a_1)(2X^2+X-2)+(\frac{5}{2} a_2+\frac{3}{2} a_0-2 a_1)(_X^2-X+1)

Dernier exemple pour les familles génératrices et qui va nous permettre d’enchaîner sur la notion de base.
Cette fois, on va se pencher sur quelque chose d’un peu différent. On va essayer de construire \mathbb{C}.
Comment procéder ? Nous allons procéder en deux étapes. La première, va être de montrer qu’il nous faut deux vecteurs qui soient générateurs de \mathbb{C}.

On ne va pas prendre les deux vecteurs les plus simples avec lesquels on pourrait construire \mathbb{C} (qui sont d’ailleurs les deux vecteurs de la base canonique que nous verrons juste après), qui sont les vecteurs 1 et le vecteur i (qui est l’unité imaginaire pure).
On va prendre deux vecteurs complexes (a+ i b) et (c + i d).
Ce que l’on cherche à démontrer, c’est que tout nombre complexe puisse s’écrire comme combinaison linéaire de nos deux vecteurs, on va par exemple écrire :

\alpha + i \beta = (\lambda a + \mu c) + i(\lambda b + \mu d)

Pourquoi écrivons nous ceci ? On sait qu’un nombre complexe s’écrit de la forme \alpha + i \beta. Ici, on se contente d’exprimer un nouveau nombre complexe qui est combinaison linéaire de nos deux vecteurs, et nous allons essayer de démontrer l’existence d’un \lambda et d’un \mu qui soient solutions de l’équation que nous cherchons.
On pose donc :

\alpha = (\lambda a + \mu c), \beta=(\lambda b + \mu d)

On se retrouve avec le système d’équation suivant :

\left\{\begin{array}{l} \alpha = \lambda a+\mu c \\ \beta = \lambda b + \mu d \\ \end{array}\right.

Ce système n’est pas forcément simple à résoudre, il faut connaître les méthodes de résolutions de système linéaires (voir chapitre systèmes linéaires).
On va donc multiplier la première ligne par b et la seconde par a :

\left\{\begin{array}{l} \alpha b = \lambda ab+\mu cb \\ \beta a = \lambda ba + \mu da \\ \end{array}\right.

On fait la première ligne moins la deuxième et on a :

\left\{\begin{array}{l} \alpha b - \beta a = \mu(cb-da) \\ \beta a = \lambda ba + \mu d \\ \end{array}\right.

Si (cb-da)\ne 0, alors on peut diviser par cette valeur et on a \mu=\frac{\alpha b - \beta a}{(cb-da)}

De la même façon, on peut trouver \lambda. On fait le même calcul dans le système d’équation suivant ;

\left\{\begin{array}{l} \alpha = \lambda a+\mu c \\ \beta = \lambda b + \mu d \\ \end{array}\right.

On multiplie la ligne 1 par d et la ligne 2 par c :

\left\{\begin{array}{l} \alpha d = \lambda ad+\mu cd \\ \beta c = \lambda bc + \mu dc \\ \end{array}\right.

On fait la différence entre la ligne 1 et la ligne 2, on élimine cette fois donc \mu, et on a :

\left\{\begin{array}{l} \alpha d - \beta c = \lambda (ad-bc) \\ \beta c = \lambda b + \mu dc \\ \end{array}\right.

Si (ad-bc)\ne 0, alors c’est terminé, car \lambda=\frac{\alpha d - \beta c}{(ad-bc)} et l’existence de \lambda et \mu est démontrée.
Si ce n’est pas le cas, alors les vecteurs ne sont pas générateurs du plan complexe.

Donc, ces deux vecteurs sont générateurs de \mathbb{C}, à présent, on va voir s’ils forment une famille libre ou lié.

Pour vérifier cela, on pose donc :

\left\{\begin{array}{l} \lambda a+\mu c = 0 \\ \lambda b + \mu d = 0 \\ \end{array}\right.

On multiplie la première ligne par b et la seconde par a :

\left\{\begin{array}{l} \lambda ab+\mu c b =0 \\ \lambda ba + \mu d a =0 \\ \end{array}\right.

On soustrait la ligne 2 de la ligne 1 :

\left\{\begin{array}{l} \mu (cb-da) =0 \\ \lambda ba + \mu d =0 \\ \end{array}\right.

Nous avons montré plus haut que nos vecteurs étaient générateurs, donc (cd-da)\ne 0, si c’est le cas, alors \mu est nécessairement nul.
je pense que vous avez compris, par le même procédé, on trouve que \lambda est également nul, ce qui veut dire que \lambda = \mu = 0 et nos deux vecteurs sont bien libres.
Nos deux vecteurs étant générateurs et libres, ils sont une base de \mathbb{C}. (Attention, on parle de base d’un r-espace vectoriel dans \mathbb{C}).

Base d’un espace vectoriel :

Nous avons déjà défini indirectement ce qu’était une base d’un espace vectoriel à travers l’exemple précédent. Nous allons maintenant définir formellement ce que c’est et prendre un autre exemple.
La base d’un espace vectoriel est une famille de vecteur qui est à la fois libre, et génératrice, tout simplement.
Bon, et en langage mathématique, peut on définir ceci de manière plus précise ? Oui, et pour comprendre, il faut se souvenir de la définition que nous avions trouvé d’une famille génératrice. La voici en rappel :

Soit E, un k-ev, et u, un vecteur dans E, u est un vecteur générateur de E si \forall x \in E, \exists (\lambda_1,\lambda_2,...,\lambda_n)\in \mathbb{K}^n, tq x=\lambda_1 u_1+\lambda_2 u_2+...+\lambda_n u_n ou x= \displaystyle{\sum_{i=1}^{n} \lambda_i u_i}

Pourquoi réécrivons nous ceci ? Il faut comprendre une chose, en mathématique, une nuance d’écriture suffit parfois à modifier radicalement le sens d’une expression. A présent, écrivons la définition d’une base, et discutons en :

Soit E, un k-ev, et u, un vecteur dans E, u est un vecteur d’une base de E si \forall x \in E, \exists ! (\lambda_1,\lambda_2,...,\lambda_n)\in \mathbb{K}^n, tq x=\lambda_1 u_1+\lambda_2 u_2+...+\lambda_n u_n ou x= \displaystyle{\sum_{i=1}^{n} \lambda_i u_i}

Vous voyez la différence entre les deux expressions ? c’est le « ! », qui désigne l’unicité d’un jeu de \lambda_i qui fait toute la différence, et pourquoi cette unicité d’ailleurs ? La réponse est simple, une famille de vecteurs qui forme une base de E nous l’avons dit est génératrice de l’e-v, mais également libre. En d’autres termes, tout vecteur faisant partie de E se décompose de manière unique depuis cette base ! Par exemple, si on se place dans l’espace vectoriel \mathbb{R}^3, et si on considère sa base canonique (1,0,0),(0,1,0),(0,0,1), et un vecteur quelconque qu’on va choisir comme u=(5,\frac{1}{4},2), on voit bien qu’il n’existe qu’une seule façon de le décomposer à partir de la base. Il y a donc un unique jeu de lambda qui vérifie l’existence de ce vecteur.

Vous avez compris, une famille de vecteurs formant une base contient des vecteurs qui sont à la fois libres entre eux, et générateurs de l’espace vectoriel, d’ou l’expression ci dessus. Il suffit donc, lorsque nous voulons démontrer qu’une famille de vecteurs est une base d’un espace vectoriel, que cette famille est libre et génératrice de cet espace vectoriel.

Nous considérons qu’à ce stade, il n’est pas nécessaire de prendre un régiment d’exemples à titre explicatif, vous savez maintenant démontrer qu’une famille est libre et/ou génératrice. Nous allons tout de même en prendre un, qui est un exemple d’une base de matrice, notion avec laquelle nous n’avons pas beaucoup travaillé.

Rappelons la notation algébrique d’une matrice. On sait qu’une matrice \textit {A} de la forme M_{n,p}(K), peut prendre la notation \textit {A}=(a_{i,j}) 1\leq i \leq n, 1 \leq j \leq p.
Prenons l’exemple d’une matrice quelconque, trouvons quelle est sa base et nous discuterons ensuite de la manière dont on peut définir la base d’un espace vectoriel de matrices étendue à n lignes et p colonnes. Prenons donc :

\textit{A}=\begin{pmatrix} 3 & 5 & 1 \\ 2 & 1 & 4 \\ 1 & 3 & 0 \end{pmatrix}

C’est donc une matrice du type M_{3,3}(K).  A votre avis, combien faudrait t-il au minimum de matrices pour construire cette matrice-ci ? Autrement dit, de combien de matrices est composée la base permettant de construire cette matrice ? Eh bien, il en faudrait 3 \times 3, 3 lignes fois 3 colonnes.

Il est en réalité simple, comme vous pouvez le voir, de définir la base canonique de cette matrice. En effet, il suffit de définir une matrice, qu’on va appeler E_{r,s}, qui est une matrice à n lignes et p colonnes, et qui prend la valeur 0 partout sauf à la r-ième ligne et à la s-ième colonne, ou la valeur est 1. 
Comment transposer ceci dans notre exemple ? Eh bien si on se sert de la matrice que nous venons de définir, on se retrouve avec la somme :

\textit{A}=\begin{pmatrix} 3 & 5 & 1 \\ 2 & 1 & 4 \\ 1 & 3 & 0 \end{pmatrix}=3 \begin{pmatrix} 1 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}+ 5\begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}+\begin{pmatrix} 0 & 0 & 1 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}+2\begin{pmatrix} 0 & 0 & 0 \\ 1 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}+\begin{pmatrix} 0 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 0 \end{pmatrix}+4\begin{pmatrix} 0 & 0 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix}+\begin{pmatrix} 0 & 0 & 0 \\ 0 & 0 & 0 \\ 1 & 0 & 0 \end{pmatrix}+3\begin{pmatrix} 0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 1 & 0 \end{pmatrix}

Les coefficients dans les matrices sont les a_{i,j}, et maintenant, nous avons assez d’éléments pour déterminer la formule de la base canonique des matrices M_{n,p}(K) :

\textit{A}=\displaystyle {\sum_{\substack {i=1 \\ j=1}}^n a_{i,j} E_{i,j}}

En fait, on peut déduire deux choses en comptant le nombre de matrices E_{r,s}. Tout d’abord, que compter ces matrices revient à compter le nombre de positions que peut prendre 1. Ensuite, on peut en déduire un théorème important qui va en plus nous permettre d’entamer le chapitre suivant, ce théorème dit :

L’espace vectoriel M_{n,p}(K) est de type fini, et sa dimension est n\times p.

Voici la conclusion et ce qu’il faut retenir concernant les différentes familles de vecteurs :

  • Une famille libre est une famille de vecteurs qui n’est pas combinaison linéaire des autres, c’est à dire qu’il n’est pas possible de construire un vecteur de cette famille à partir des autres. Il s’agit d’indépendance linéaire. La formule est : Soit E un k-espace vectoriel. Un vecteur est libre, si, \forall x \in E, et \forall (\lambda_1,\lambda_2,...,\lambda_n) \in K^n, \displaystyle{\sum_{i=1}^n \lambda_i x_i = 0}, implique \lambda_1 = \lambda_2 = ... = \lambda_n =0. Autrement dit, la seule combinaison linéaire possible de ces vecteurs qui soit nulle, implique forcément que tous les coefficients soient nuls.
    Au contraire, une famille liée est une famille de vecteurs qui sont combinaison linéaire des autres, et qui sont construits avec d’autres vecteurs en notre possession.
  • Une famille génératrice est une famille de vecteurs qui génère un espace vectoriel. Ce que cela veut dire, c’est que tout vecteur de l’espace vectoriel peut s’exprimer comme combinaison linéaire des vecteurs de la famille génératrice de cet espace. Rappelons la formule :
    Soit E un k-ev, et soit (e_1,e_2,...,e_n) une famille de vecteurs de E. Cette famille est dite génératrice si \forall x\in E, \exists (\lambda_1,\lambda_2,...,\lambda_n) \in K^n, tq x=\displaystyle{\sum_{i=1}^n \lambda_i e_i}.
    On peut traduire cette expression par le fait que x, un vecteur de l’espace vectoriel, peut être construit à partir de combinaisons linéaire d’un ou de certains coefficient avec un ou des vecteurs générateurs de l’ev.
  • Une base, est une famille qui est à la fois libre et génératrice. Autrement dit, les vecteurs d’une base d’un ev doivent être linéairement indépendants, mais également générateur de cet ev. Et pour cela, nous avons apporté plus haut des modifications à la formule d’une famille génératrice pour faire en sorte de répondre à ces deux critères :
    Soit E un k-ev, et soit (e_1,e_2,...,e_n) une famille de vecteurs de E. Cette famille est une base de E, si \forall x\in E, \exists ! (\lambda_1,\lambda_2,...,\lambda_n) \in K^n, tq x=\displaystyle{\sum_{i=1}^n \lambda_i e_i}.