À mi-chemin entre l’algèbre et l'analyse
Salut
Parmi les questions qui me donnent des frissons et sueurs froides dans le dos, l’étude de la surjectivité d'une application f Non Linéaire entre deux ev E et F à dimensions finies.
Dans le cas linéaire, l’utilisation du Noyau simplifie l’étude.
Je tombe sur cet exemple non linéaire. On note $E=M_n(\C)$ et $F=GL_n(\C)$ et on demande de démontrer que l’exponentiel est une surjection de E sur F et comme indication : Utiliser des arguments topologiques pour démontrer que $exp(\C[A]))=\C[A]^*$ et conclure
1- Je comprends si $A\in M_n[\C]$ , alors $exp(A)\in \C[A]$ mais quel est le lien entre $\C[A]^*$ et $GL_n(\C)$ ( Je soupçonne que $\C[A]^*=\C[A]\cap GL_n(\C)$
2- Je me demande naïvement, les arguments topologiques que je dois utiliser
Parmi les questions qui me donnent des frissons et sueurs froides dans le dos, l’étude de la surjectivité d'une application f Non Linéaire entre deux ev E et F à dimensions finies.
Dans le cas linéaire, l’utilisation du Noyau simplifie l’étude.
Je tombe sur cet exemple non linéaire. On note $E=M_n(\C)$ et $F=GL_n(\C)$ et on demande de démontrer que l’exponentiel est une surjection de E sur F et comme indication : Utiliser des arguments topologiques pour démontrer que $exp(\C[A]))=\C[A]^*$ et conclure
1- Je comprends si $A\in M_n[\C]$ , alors $exp(A)\in \C[A]$ mais quel est le lien entre $\C[A]^*$ et $GL_n(\C)$ ( Je soupçonne que $\C[A]^*=\C[A]\cap GL_n(\C)$
2- Je me demande naïvement, les arguments topologiques que je dois utiliser
Le 😄 Farceur
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
2) De mémoire, c'est un développement d'agreg classique qui passe par la décomposition de Jordan (peut-être peut-on balayer le truc avec un argument topologique, mais enfin il faudra bien faire un minimum d'algebre linéaire à un moment)
Je crois deviner l'argument qu'il faut utiliser : les seules parties ouvertes et fermées d'un connexe E sont E et le vide
J'ai toujours trouvé cette démonstration très jolie.
Je pense trouver le raisonnement pour $\C[A]^*=\C[A]\cap GL_n(\C)$
-L'inclusion directe est ok
-Pour l'inclusion réciproque, j'utilise le polynôme caractéristique et Cayley Hamilton
Pardonnez mon ignorance ...
Alors avec cette définition j'ai l'impression que les deux preuves que tu cite reposent sur les mêmes arguments !
> Il suffit en effet de
> montrer que l'image est un ouvert et fermé de
> $\mathbb{C}[A]^\ast$ puis utiliser un argument de
> connexité pour conclure.
Il suffit en fait de montrer que c'est ouvert : tout sous-groupe ouvert est fermé.
On peut voir ici.
Voila comment je vois les choses et qu'on me corrige en cas de délire
Soit M dans $\C[A]\cap GL_n(\C)$ et je note $P_M$ son polynome caracteristique
Par division $P_M(X)=XQ(X)+R(X)$ avec $d°R<1$ donc R est constant egale à $a$
la constante $a$ est non nul sinon X divise P_M et donc 0 est une vp de M ce qui contredit que $M\in GL_n(\C)$, d'où par Cayley-Hamilton $0=MQ(M)+a$ et $M^{-1}\in \C[M]\subset \C[A]$
edit j'ai remplacé ( ) par [ ]
Si $B$ est une sous-algèbre unitaire de dimension finie d'une algèbre $A$ sur un corps $K$, alors $B^\times=A^\times\cap B$.
Cela évite d'utiliser le théorème de Cayley-Hamilton qui n'est pas une trivialité.
Démonstration :
- L'inclusion $B^\times\subset B\cap A^\times$ est évidente.
- Si $b\in B\cap A^\times$, on note $b^{-1}$ son inverse dans $A$. Il suffit de montrer que $b^{-1}\in B$. L'application linéaire $f_b:B\to B$ donnée par $c\mapsto bc$ est injective car $b$ est inversible dans $A$. Comme $B$ est de dimension finie, l'application $f_b$ est un isomorphisme. Ainsi, il existe $b'\in B$ tel que $b b'=1=bb^{-1}$, donc $b'=b^{-1}\in B$.
En général, on utilise ce petit raisonnement pour les sous-algèbres de $M_n(\mathbb{C})$.
L’égalité $\C[A]^×=\C[A]\cap GL_n(\C)$ est très utile pour moi, car il me permet de montrer que $\C[A]^×$ est un ouvert de $\C[A]$
Je regarde le lien de Gabu pour comprendre comment démontrer l'ouverture de $exp(\C[A])$ en utilisant le théorème d'inversion locale
Soit $ \displaystyle P_{n}(X)=\underset{k=0}{\overset{n}{\sum }}\frac{1}{k!}X^{k}$ et $ \displaystyle Q_{n}(X)=\overset{n}{\underset{k=1}{\sum }}\frac{(-1)^{k-1}}{k}X^{k}$.
Il existe un polynôme $R_n(X)$ (à coefficients rationnels) tel que : $P_{n}(Q_{n}(X))=1+X+X^{n+1}R_{n}(X)$.
Soit une matrice $A\in \mathcal{M}_n (\mathbb{C})$ n'ayant que la valeur propre 1. Alors, $A=I_n+N$, avec $N^n=0_n$.
Soit $Q_{n-1}(N)=B$, alors $B^n=0_n$, et par suite :
$\exp B=P_{n-1}(B)=P_{n-1}(Q_{n-1}(N))=I_{n}+N+N^{n}R_{n-1}(N)=I_{n}+N=A$.
On étend ceci d'abord à une matrice qui a une seule valeur propre $\lambda $ , avec $\lambda \neq 0$, puis aux blocs de la décomposition de Dunford.
Qu'en pensez-vous ?
Bonne soirée.
F. Ch.
NB. Le polynôme $Q_n$ a été corrigé suite à une remarque de gebrane0, voir plus bas.
Soient $\lambda_1$, $\lambda_2$, ..., $\lambda_p$ les valeurs propres de la matrice $A$, distinctes, et soit $m_k$ l'ordre de multiplicité de $\lambda_k$.
La matrice $A$ est semblable à une matrice constituée de blocs diagonaux qui sont des matrices carrées triangulaires supérieures, le $k$-ème de taille $m_k$ avec $\lambda_k$ sur la diagonale, répété $m_k$ fois.
La diagonale fournit le $D$ de Dunford et les sur-diagonales fournissent le $N$ de Dunford, par la similitude.
On applique ce que j'ai dit à chacun des blocs. Il me semble que ça marche ?
@Chaurien sauf si j'ai rien compris,
Dans l'egalité$P_{n}(Q_{n}(X))=1+X+X^{n+1}R_{n}(X)$, il manque des termes, prendre n=3, on ne peut pas ecrire $P_{3}(Q_{3}(X))=1+X+X^{4}R_{3}(X)$ il manque a droite les termes $X^2$ et $X^3$
Un argument complet, utilisant la décomposition de Dunford, sans passer par des blocs, se trouve à la section 2.3 du document déjà mis en lien.
Mille excuses. Il est bien clair que $P_n(X)$ et $Q_n(X)$ sont les troncatures des séries entières formelles $\exp X$ et $\ln (1+X)$, et oups ! j'ai oublié le facteur $(-1)^{n-1}$. Je le restaure.
@GaBuZoMeu
Peut-être mais je démontre le caractère surjectif demandé. Mais effectivement, ta démonstration est meilleure.
Bonne fin de 2015
F. Ch.
1) $\exp(\C [A]) \subseteq \C [A]$ (parce que $\C [A]$ est fermé et que $\exp(A)$ est une série...)
2) $\C[A]$ est une algèbre commutative. Donc $\exp(P+Q)=\exp(P) \exp (Q)$. $\exp$ est donc un morphisme continu de groupes entre $(\C [A],+)$ et $(\C[A] \cap GL_n(\C), \times)$.
3) la dérivée en $0$ de ce morphisme de groupes est l'identité. Ainsi $\exp | _ {\C[A]}$ est une application ouverte (on exploite le caractère $C^1$ de $\exp$ et le théorème d'inversion locale). Donc l'image de $\C [A]$ est la composante connexe de l'identité dans $\C[A] \cap GL_n(\C)$.
4) Montrons que $\C[A] \cap GL_n(\C)$ est connexe par arcs (fastidieux mais intuitif).
Soit $d$ le degré du polynôme minimal de $A$, $L$ l'ensemble de ses valeurs propres. Pour tout $P \in \C[X]$ il existe $Q \in \C[X]$, de degré inférieur à $d$, tel que $P(A)=Q(A)$. Si $Q(X)=\lambda \prod_{k=1}^p(X-t_k)$ alors $Q(A)$ est inversible si et seulement si aucun $t_k$ n'appartient à $L$ (et si bien sûr $\lambda \neq 0$).
Soit $a \in \C^* \backslash L$. Soit $g:[0,1] \to \C^*$ continu tel que $g(0) = \lambda$ et $g(1) = \frac {(-1)^p}{a^p}$.
Le complémentaire d'un ensemble fini dans $\C$ étant connexe par arcs, soient $h_1,...,h_k \in C^0 ([0,1], \C \backslash L)$, tels que $h_i(0)=t_i$ et $h_i(1)=a$. Alors $x \in [0,1] \mapsto g(x) \prod_{k=1}^p (A-h_k(x)) \in \C[A] \cap GL_n(\C)$ est continu et relie $Q(A)$ à $(I_n-\frac{1}{a}A)^p$. L'ensemble des $u\in \C$ tel que $I_n - u A$ n'est pas inversible est fini (inverses de valeurs propres non nulles de $A$) doonc son complémentaire est connexe par arcs. D'où un chemin continu $g_1$ reliant $\frac{1}{a}$ à $0$ puis on considère $x \mapsto (I_n - g_1 (x) A)^p$.
J'ai une autre question sur la surjection de l'application
comme indication; Utiliser un argument de calcul differentiel
Toute idée sera la bienvenue
Merci et bonne année à tous
Ta démonstration pour la connexité me semble bien lourde !
Merci GaBuZoMeu.
@gebrane0: ton application est $\R$-linéaire et a le même rang que $X \in M_n(\C) \mapsto AX+XB \in M_n(\C)$ qui est $\C$-linéaire (elles ont même expression dans les bases canoniques de $M_n(\R)$ et $M_n(\C)$ vus respectivement comme $\R$-ev et $\C$-ev). Soient $L_A: X \mapsto AX$ et $R_B: X \mapsto XB$. Alors les endomorphismes de $M_n (\C)$: $R_A$ et $L_B$ commutent, de plus si $A$ (resp. $B$) est diagonalisable alors $L_A$ (resp. $R_B$) l'est aussi.
Après on peut s'en sortir en traitant d'abord le cas où $A$ et $B$ sont diagonalisables puis en raisonnant par densité (si $r>0$, si $S \in M_N(\C)$, $(S_n)_{n \in \N} \in M_N( \C)^{\N}$ converge vers $S$ et si toutes les valeurs propres de tous les $S_n$ sont de module au moins $r >0$ alors $S$ est inversible-en minorant $|\text{det}(S_n)|$).
Je ne sais pas si on peut faire plus court cette fois.
Je crois trouver un raisonnement utilisant le calcul différentiel en s'inspirant de P dans le fil http://www.les-mathematiques.net/phorum/read.php?4,1188967,1189027#msg-1189027
Soit $M\in M_n(\R)$ et considerant l'equation $$X'(t)=AX(t)+BX(t)\; et\, X(0)=M$$ alors $$X(t)=e^{tA}X(0)e^{tB}=e^{tA}Me^{tB}$$
donc en integrant $X'(t)=AX(t)+BX(t)$, on trouve $$X(t)=M+A\int_0^t X(s)ds+\int_0^t X(s)ds)B$$
Apres je ne sais pas comment passer à la limite:-(
Dans le cas $e^{tA}$ je soupçonne aussi que sa limite est nulle si $Re(v.p(A))<0$ avec une bonne majoration
Bonne année a tous
J'ai envie avoir plus de la nullité de la limite, une majoration de type
$$||e^{tA}||<\alpha e^{-t\beta}$$ avec $\alpha,\; \beta>0$
Pour demontrer la convergence de l'integrale $$\int_0^{+\infty}X(s)ds$$
et la surjection en decoule;-)
Plus précisément, qui est mangé par un bout de l'exponentielle et tu peux t'en garder un autre bout de côté pour majorer le tout par une autre exponentielle qui tend vers $0$.
Une autre façon pour démontrer la surjection est de prouver l'injection car l'application est linéaire entre le même espace de dimension finie
1-Pour les algébristes cela revient à démonter que le noyau est nul
2- Pour les analystes cela revient à démontrer l’unicité de l’équation AX+XB=0
Pour les algébristes chevronnés comment prouver le 1
Pour les analystes chevronnés comment démontrer de 2
Si on demontre cette unicité, alors l'application X--->AX+BX est injective donc surjective , c'est une autre facon de demontrer la surjection de X--->AX+BX dans M_n sans passer par le theoreme de Cauchy
( je pensais a tort qu'il y a un lien avec la theorie spectrale des Operateurs en considérant l'operateur $P(X)=AX+XB$)
Il y est admis que dans un groupe topologique , un sous-groupe ouvert est aussi forcément fermé (avec renvoi à une référence).
Soit donc $G$ un groupe topologique et $H$ un sous-groupe ouvert de $G$. Je tape en italique un raisonnement ANS suivi d'un raisonnement classique. Je note $x'$ l'inverse de $x$ dans $G$.
ANS: soit $a$ std et $x$ superproche de $a$ tel que $x\in H$. Alors $x'a$ est superproche de $1_G$ l'élément neutre de $G$, donc appartient à $H$. Donc $a=x(x'a)\in H$
CLASSIQUE: soit $U$ un ouvert avec $1_G\in U\subset H$. Soit $a\in adh(H)$. Soit $V$ ouvert avec $a\in V$ et $\forall y\in V: y'a\in U$. Soit $x\in H\cap V$. Alors $x'a\in H$ et $x\in H$ donc $a=xx'a\in H$.
Tout sous groupe H ouvert d'un groupe G topologique est fermé car G est la reunion des classes à gauche (ou a droite) modulo H et chaque classe est ouverte or H est le complementaire de la reunion des classes autre que celle de l'identité, cette reunion d'ouvert est ouvert donc le complementaire est fermé
Si G est ouvert, son complémentaire est la réunion de classes (à gauche disons) qui sont des translatées de G, donc des ouverts.
amicalement,
e.v.
[À mi-chemin entre l’algèbre et l'analyse se trouve la massue cloutée.
extrait de "les cadavres ne font pas d'analyse" auteur inconnu.]
amicalement,
e.v.
C'est parce que tu empaquettes le fait que le translaté d'un ouvert est un ouvert.
J'ai une question sur la surjectivité de
$X:E\to E$ définie par $X\mapsto X^p$ avec $p\in\N,\ p>1$, dans les cas suivants
1-$E=GL_n(\C)$
2-$E=M^d_n(\C)$
3- $E=M^d_n(\R)$
4-$E=M_n(\C)$
Le symbole $d$ désigne diagonalisable
Pour 1 la surjectivité est claire
Pour 2 la surjectivité est claire
pour 3 moins claire
Pour 4 je ne sais pas
4: Non (considérer une matrice nilpotente bien choisie.)
Pour le cas 3,
le cas ou p est impair est claire
mais le cas pair me chagrine pour la dimension 2
car on peut tjs resoudre dans$ M_n(\R)$ l'equation $Y²=D$ avec D diagonale meme si D contient des coefficient negatifs , car on peut utliser les matrices de rotations
-1&0\\0&-1\end{pmatrix}$ dans $M_2(\R)$.