On trouvera des manipulations proches de celles décrites ici dans la partie sur les
déterminants. La proposition illustre aussi des opérations
sur les lignes et les colonnes.
FLEMMARD
-> determinants
-> resol syst. lineaires
Définition
On appelle système d'équations linéaires une équation de la forme , où (matrice) et (vecteur) sont donnés et où est l'inconnue.
Les opérations sur les lignes et les colonnes d'une matrice ou d'un système linéaire sont par définition:
l'addition d'une ligne (resp. colonne) à une ligne (resp. colonne)
la multiplication d'une ligne (resp. colonne) par un scalaire
la permutation de deux lignes (resp. colonnes) et
Ces opérations seront notées respectivement:
(resp.
)
(resp.
)
(resp.
)
On pourra éventuellement ajouter à une ligne (resp. une colonne) une autre ligne (resp. colonne) multipliée par un scalaire ; cela se notera
(resp.
).
Exemples:
Sur un système:
Avant:
Après
:
Sur une matrice
Avant:
Après
Proposition
Les opérations sur les lignes correspondent à des multiplications à droite par des matrices inversibles; les opérations sur les colonnes correspondent à des multiplications à gauche par des matrices inversibles. L'inverse d'une opération sur les lignes (resp. les colonnes) est une opération sur les lignes (resp. les colonnes).
Démonstration:
Proposition
Le déterminant d'une matrice n'est pas modifié en ajoutant à une ligne une combinaison linéaire des autres lignes.
Multiplier une ligne par multiplie le déterminant par .
Permuter des lignes multiplie le déterminant par .
Les mêmes résultats sont valables pour les colonnes.
Démonstration:Cela découle immédiatement des propriétés du déterminant, et du fait que le
déterminant d'une matrice est égal au déterminant de sa transposée. Ceux qui ont besoin de rappels peuvent consulter la partie .
Théorème [Formules de Cramer]
Considérons le système d'équations linéaire, avec de type :
On suppose en outre que est inversible.
Alors est solution, avec
Démonstration:La solution est clairement unique, car par inversibilité de .
On a alors
avec la -ième colonne de .
Donc, quel que soit , on a alors
avec
et
On en déduit donc, en supprimant de la somme
les termes nuls,
, ce qui est précisément le résultat désiré.
Théorème [Méthode du pivôt de Gauss]
La méthode de Gauss consiste à :
1) permuter les lignes pour avoir un coefficient non nul en haut à gauche de la matrice;
ce coefficient est appelé pivôt
2) soustraire la première ligne multipliée par un coefficient adéquat à chacune des
autres lignes de manière à avoir des zéros sur toute la première colonne en dehors
du premier coefficient
3) Procéder de même sur la matrice extraite, simplement dépourvue de sa première ligne et sa première colonne.
Le point pourra toujours être réalisé si on trouve toujours un coefficient non nul à échanger; pour peu que la matrice soit inversible, cette condition sera toujours vérifiée. Si elle ne l'est pas, on peut travailler sur la matrice extraite par suppression de la première colonne.
En réitérant cette méthode, on arrive à obtenir une matrice triangulaire supérieure. En fait la matrice obtenue est de la forme illustrée sur la figure , du moins après permutation des colonnes.
Figure:
Matrice obtenue après pivôt de Gauss. La "ligne brisée" évoquée comporte soit des sauts à droite, soit des sauts en diagonale en bas à droite. Le premier élément de la ligne brisée se trouve quelque part sur la première ligne (éventuellement en haut à gauche).
La matrice ainsi obtenue est donc beaucoup plus maniable: le calcul du déterminant (si la matrice est carré) se résume à la multiplication des éléments diagonaux, la résolution de systèmes linéaires est plus aisée (il convient de noter pour cela que les opérations sur les colonnes sont de simples permutations sur les inconnues), le calcul du rang est immédiat (nombre d'éléments avant le dernier élément non nul de la dernière colonne).
Afin de minimiser les pertes de précision d'un calcul numérique, il est préférable de choisir un pivôt grand en valeur absolue.
La méthode du pivôt total consiste à chercher le pivôt non pas seulement sur la colonne en cours, mais d'éventuellement permuter les colonnes pour avoir un pivôt plus grand. Par opposition au pivôt total, la méthode ci-dessus est dite pivôt partiel.
Théorème [Décomposition ]
Etant donnée une matrice supposée inversible, on définit
, déterminant de
la matrice obtenue en se restreignant aux premières lignes et premières colonnes.
On appelle décomposition un produit du type
avec matrice triangulaire inférieure ne comportant que des sur la diagonale, matrice triangulaire supérieure,
Alors il existe une décomposition si et seulement si les sont non nuls pour tout dans .
Démonstration:Il suffit d'utiliser la méthode de Gauss, en considérant les matrices correspondant aux opérations sur les lignes et les colonnes. C'est-à-dire que l'on obtient un produit
, avec la matrice correspondant à l'opération sur les lignes et les colonnes effectué à la -ième étape. Mais l'inverse d'une
opération sur les lignes ou les colonnes est une opération sur les lignes ou les colonnes (facile à trouver); donc on peut aussi écrire
, avec l'inverse de . Le produit des est bien de la forme désirée, triangulaire supérieure à diagonale unité, comme on s'en convaincra en considérant la stabilité de l'ensemble des matrices triangulaires supérieures à diagonale unité par multiplication par
les matrices des opérations sur les lignes et les colonnes.
Proposition
Si est inversible, il existe une matrice de permutation telle que .
Démonstration:Si est nul, il existe nécéssairement une permutation de lignes qui arrange ça, sinon
ne pourrait pas être de rang plein - il suffit donc de multiplier les différentes permutations de lignes
nécéssaires pour obtenir une matrice vérifiant les conditions demandées.
Théorème [Décomposition de Cholesky]
On appelle décomposition de Cholesky ou décomposition , un produit de la forme ,
avec triangulaire inférieure inversible.
admet une décomposition de Cholesky si et seulement si est symétrique définie positive.
Démonstration:On pourra consulter [7] pour cette preuve.