Commençons par regarder un problème sympathique: 31 schtroumpfs habitent dans une forêt. Chacun a une maison, de laquelle part un chemin et arrive un autre. Tous les matins, tous les schtroumpfs se lèvent et marchent jusqu’à la maison suivante, où ils resteront pour dormir la nuit. On se pose la question suivante: si tous les schtroumpfs sont partis de chez eux, est-ce que, au bout de 1000 journées, il y aura eu un jour où chacun aura dormi chez soi?

Je laisse au lecteur le soin de résoudre ce problème amusant en entier, mais je voudrais regarder en détail les premiers pas qu’un étudiant en mathématiques ferait pour l’aborder. Le premier réflexe est de dire « on numérote les schtroumpfs de 1 à 31 », puis, après un peu plus de réflexion, de se dire: « on a une permutation, on l’étudie », ce qui correspond en général à la décomposer en cycles.

Je voudrais regarder de près un point qui n’est pas très important, mais qui aide beaucoup pour l’organisation des idées: la numérotation. Elle n’a aucune importance dans le raisonnement, et on peut passer d’une numérotation à une autre par une opération très simple, à savoir une conjugaison. Si on fixe une numérotation pour les schtroumpfs que l’on voudrait changer, il faut changer chaque numéro en un autre: on obtient ainsi une permutation \sigma. Si la permutation qu’on étudie, avec la première numérotation, est \tau, celle qu’on aura avec la deuxième sera \sigma \tau \sigma ^{-1}. Elle aura la même décomposition en cycles que \tau, puisque \sigma envoie un cycle de \tau sur un cycle de \sigma \tau \sigma ^{-1} (tout simplement en renommant les éléments de chaque cycle grâce à \sigma). Le mouvement des schtroumpfs reste le même: nous avons tout simplement changé de coordonnées pour comprendre le même phénomène.

Le cas des permutations est un des deux exemples très bien connus des étudiants en mathématiques que je voudrais mentionner ici. Le deuxième est celui des matrices et des applications linéaires. En forçant un peu sur la mémoire pour arriver aux cours de début de licence, vous vous souviendrez qu’on parlait de matrices « semblables » et que beaucoup de choses ne changeaient pas pour des matrices semblables: le rang, les valeurs propres, le polynôme caractéristique…

Pour une application linéaire, quand on change de base on obtient une matrice de passage P. Si la matrice dans la première base est M, celle dans la deuxième est P M P^{-1} : on conjugue pour changer de base ou de coordonnées. Et vice versa. Les matrices semblables gardent les mêmes invariants puisqu’elles décrivent la même application linéaire sous-jacente. Si, par exemple, on s’intéresse à l’orbite d’un vecteur pour une matrice M (l’ensemble des M^{n} X, avec n \in \mathbb{N}), on cherche une matrice semblable à M qui soit plus facile à comprendre (par exemple diagonale), mais qui donnera toute l’information dont on a besoin: on cherche un changement de coordonnées, ou une conjugaison.

Ceci est un fait très général. Lorsqu’on a une application T: X -> X (à savoir un système dynamique) et que l’on s’intéresse au comportement de ses itérés, on essaie de voir les aspects intrinsèques de la transformation: ils ne dépendent pas du choix de coordonnées qu’on fera. La structure des orbites (un des points sur lesquels on se penche le plus) restera invariante par conjugaison. On étudie le tout « à conjugaison près » et on essaie souvent soit de trouver une conjugaison qui nous ramène à un système bien connu, soit de trouver des propriétés du système qui resteront invariantes par conjugaison et qui aideront à mieux les comprendre.

Publicités