On sait que toute matrice , à coefficients réels ou complexes, dont les valeurs propres sont toutes distinctes, est diagonalisable. Peut-on réaliser cette diagonalisation de manière continue ? En d’autres termes, peut-on choisir la matrice conjuguant à une matrice diagonale, de façon à ce quelle dépende continument de ? Le but de ce texte est de démontrer que cela n’est pas possible sur tout l’ouvert des matrices dont les valeurs propres sont toutes distinctes.
1. Etude locale
Remarquons d’abord que si
est conjuguée à une matrice diagonale
par le biais
d’une matrice ,
alors les coefficients diagonaux de sont des valeurs propres de et les vecteurs colonnes de sont des vecteurs propres de . Réciproquement, si est une matrice inversible dont les colonnes sont des vecteurs propres de , alors est diagonale.
Par conséquent, diagonaliser continument revient donc peu ou prou à faire un choix pour les vecteurs propres de , qui dépende continument de .
Ce choix est toujours possible localement, au voisinage d’une matrice dont toutes les valeurs propres sont distinctes. C’est une application classique du théorème d’inversion locale.
Pour simplifier, on va se restreindre au cas des matrices 2x2, et donner des expressions explicites pour ces conjuguaisons. Intéressons nous au cas des matrices à coefficients réels et notons l’ouvert de correspondant aux matrices ayant leurs deux valeurs propres distinctes.
où est le polynôme caractéristique de et est son discriminant : . Cet ouvert a deux composantes connexes et correspondant à et . Considérons le cas , c’est à dire le cas où a ses deux valeurs propres réelles.
Les deux valeurs propres de sont données par les expressions :
Elles dépendent continument de et sur l’ouvert . Les vecteurs propres associés à sont proportionnels à ; remarquons que ce vecteur est lui-même proportionnel à . Les vecteurs propres associés à sont proportionnels à ; remarquons que ce vecteur est lui-même proportionnel au vecteur propre .
On peut donc former différentes matrices susceptibles de diagonaliser à partir de ces vecteurs ; par exemple, la matrice , dont le déterminant est égal à , ou de déterminant égal à (car , ou encore de déterminant égal à . Par conséquent :
Sur ,
Sur ,
Sur ,
Les trois ouverts précédents recouvrent ; on est donc parvenu à diagonaliser , au moins localement. Le problème est que les trois matrices qui réalisent ces conjuguaisons ne coïncident pas sur l’intersection de ces ouverts, si bien qu’il n’est pas possible de les "recoller" afin de former une solution globale continue qui conjugue à une matrice diagonale.
On pourrait penser que cela est dû à un mauvais choix quant au choix des vecteurs propres que nous avons fait. Il n’en est rien :
Théorème 1 Soit
et
,
ou
et .
Il n’existe pas de fonction continue
telle que, pour tout ,
soit diagonale.
Remarque : ce théorème est en fait vrai en toute dimension.
2. Le cas réel
Remarquons que si une telle fonction existait, alors on pourrait diagonaliser continument les matrices symétriques à l’aide de matrices de . En effet, si sont les deux vecteurs colonnes de : , alors conjugue encore à une matrice diagonale. Si est symétrique, ses vecteurs propres et sont orthogonaux ; par conséquent . La fonction réalise donc la conjuguaison recherchée. Le théorème précédent découle donc de l’énoncé suivant :
Théorème 2 Soit .
Il n’existe pas de fonction continue
telle que, pour tout ,
soit diagonale.
Au lieu de considérer l’ensemble de toutes les matrices symétriques, on peut même se restreindre à la classe de conjugaison d’une matrice diagonale . Posons
Les matrices de la forme , , sont diagonales et conjuguées à ; elles ont donc les même valeurs propres que . Il n’existe qu’un nombre fini de telles matrices, elles sont obtenues en permutant les termes diagonaux de . Comme est connexe, on voit que est constant. Quitte à multiplier par une matrice de permutation, on peut donc supposer que est égale à .
Théorème 3 Soit
une matrice diagonale.
Il n’existe pas de fonction continue
tel que
Lemme 1 Soit
une matrice diagonale.
Si ,
alors
est diagonale
Preuve du lemme
doit commuter
avec . La
matrice
doit donc laisser invariant les sous-espaces propres de
;
ceux-ci sont engendrés par les vecteurs de la base canonique. La matrice
est
donc diagonale.
Preuve du théorème
Soit le sous-ensemble des
matrices diagonales de .
Considérons la projection
de
sur
donnée par :
Le lemme montre que les "fibres" de cette projection s’identifient naturellement à :
L’existence de permettrait d’établir un homéomorphisme entre et :
On peut écrire explicitement l’inverse de cette application :
La matrice
est bien diagonale car elle commute avec
. En effet, d’après
la définition de ,
on doit avoir l’égalité :
On est parvenu a une absurdité. Il n’existe pas d’homéomorphisme entre et car est connexe tandis que n’est pas connexe.
Remarques
– La preuve se généralise à des matrices de taille quelquonque.
– L’application
est un revétement à deux feuillets non trivial de
par
.
3. Le cas complexe
Les énoncés précédents se généralisent au cas complexe en remplaçant
par
et les
matrices symétriques par les matrices hermitiennes.
Les arguments précédents établiraient un homéomorphisme entre et . Mais est homéomorphe à qui est simplement connexe ; l’homéomorphisme est donné par :
tandis que est homéomorphe au cercle , qui n’est pas simplement connexe.
Remarques
– On peut démontrer que est
homéomorphe à la sphère .
La projection
est la fibration de Hopf.
– La preuve se généralise en dimension quelquonque. Le groupe
est maintenant
homéomorphe à un tore .