Cas simple de Galois

Bonjour,

j'ai trouvé sur internet plusieurs preuves que si le groupe de Galois de $L/K$ est cyclique alors les éléments de $L$ peuvent s'obtenir par radicaux à partie de $K$, mais aucune ne me semble agréable à utiliser.

Est-ce que quelqu'un aurait une preuve élégante de ce point sous la main, ou un lien?

On peut supposer que $K$ contient toutes les racines de l'unité, ce n'est pas ça qui m'embête.

Merci

Talal

Réponses

  • C'est un résultat dû à Kummer.
    Voir [ici] p.65.
  • Sans un grand attirail de ``Théorie de Galois'' : résolvante de Lagrange-Hilbert et matrice de Vandermonde. Si $\sigma$ est un générateur de $\text{Gal}(L/K)$ d'ordre $n$, pour $x \in L$, la résolvante numéro $i$ pour $i = 0, \cdots, n-1$, associée à $x$ est :
    $$
    y_i = x + \xi_i^{-1} \sigma^1(x) + \xi_i^{-2} \sigma^2(x) + \cdots + \xi_i^{-(n-1)} \sigma^{n-1}(x) , \qquad
    \xi_i = \zeta_n^i, \qquad
    \hbox {$\zeta_n$ racine primitive d'ordre $n$ supposée dans $K$}
    $$
    Avec cela, on ``fait tout''. Plus ?
  • It looks good !

    Grâce à une matrice de Vandermonde bien choisie, on obtient $$K(x)=K(y_0,\ldots,y_{n-1}).$$
    Donc "il suffit" de prouver le résultat pour les $y_i$.
    Pour $y_0$, c'est facile puisque $y_0\in K$. ;-)
  • $\sigma(y_i) = ? \times y_i$ et donc $\sigma(y_i^n) = ??$.
  • Bonjour Gai requin et Claude et merci.

    J'ai croisé cette preuve dans un document je crois pas sur wiki. J'ai un peu du mal avec. Mais puisque c'est la deuxième fois qu'elle se voit vantée par des gens, je vais prendre le temps de la regarder de près, c'est à dire mettre $y_1$ par exemple à la puissance $n$ et essayer de trouver que n'importe quel iso le fixe.

    L'argument de wiki est imparable mais peu constructif.

    Bonne soirée,
    Talal
  • $\sigma(y_i)=\zeta_i^{-(n-1)}y_i$ donc $\sigma(y_i^n)=y_i^n$ et $y_i^n\in K$.

    Super méthode ! (tu)
  • @gai requin
    $\xi_i^{-(n-1)}$, en principe, cela fait $\xi_i$. Quand je dis en principe, c'est une manière de parler. Disons que tout est fait pour que $\sigma(y_i) = \xi_i y_i$, sauf erreur de ma part.

    Et maintenant, il faut aller au bout des choses. On devrait (sic) pouvoir expliciter une matrice $V$ telle que :
    $$
    \pmatrix {y_0 \cr y_1 \cr \vdots \cr y_{n-1}} = V \pmatrix {x \cr \sigma(x) \cr \vdots \cr \sigma^{n-1}(x)} \qquad\qquad (\heartsuit)
    $$
    Précision : j'impose mes notations en désignant par $V_\omega$ la matrice dont le terme $(i,j)$ est $\omega^{ij}$ pour $0 \le i, j \le n-1$. Inverse de $V_\omega$ ? Et la matrice $V$ c'est une $V_?$. Je souhaite des choses explicites.

    Et si on inverse $(\heartsuit)$, on obtient quoi ? Faire un PREMIER bilan : qu'est ce que l'on a montré ? Que s'agissait-il de démontrer ? Est ce que c'est fini ? ...etc..

    Je n'ai pas compris ton premier post (qui n'était pas très explicite) mais c'est pas grave.

    @Lalal : je ne comprends pas ton histoire de ``pas constructif''. Personnellement, je ne lis pas wiki. Bien sûr que le coup de la résolvante de Lagrange-Hilbert, c'est tout ce qu'il y a de plus concret. Quand je disais ``plus ?'', cela pouvait vouloir dire un exo corrigé de mézigue.
  • Comme $K\subset K(x)$ est galoisienne, il est clair que $K(y_0,\ldots,y_{n-1})\subset K(x)$.
    De plus, comme $V$ est inversible, $x$ est combinaison linéaire des $y_i$.
    D'où $K(x)=K(y_0,\ldots,y_{n-1})$.
  • @gai requin
    Comme souvent, tu en dis le moins possible. On a montré quoi ? On est parti de quoi ?
  • C'est vraiment utile de dire $K(x)/K$ galoisienne ? Il faut avoir fait de la théorie de Galois pour comprendre et faire des calculs avec la résolvante de Lagrange ?
  • On part de $L/K$ cyclique avec $\zeta_n\in K$ racine primitive $n$-ième de l'unité et $x\in L$, à partir duquel on définit tes $y_i$.
    On peut montrer que :
    1) $K(x)=K(y_0,\ldots,y_{n-1})$.
    2) Pour tout $0\leq i\leq n-1$, $y_i^n\in K$.
  • @gai requin
    C'est juste pour clarifier les pré-requis, pour bien cerner ce que l'on a utilisé ...etc.. Oui, on est parti d'un $x \in L$ quelconque, construit des $y_i \in L$ vérifiant $y_i^n \in K$, disons de manière symbolique (et un tantinet abusive) $y_i = \root n \of {a_i}$ avec $a_i \in K$. Et on montré l'égalité de $K$-espaces vectoriels :
    $$
    K.x + K .\sigma(x) + \cdots + K.\sigma^{n-1}(x) = K.y_0 + K.y_1 +\cdots + K.y_{n-1}
    $$
    On peut pas dire que l'on a vraiment utilisé de la théorie de Galois très compliquée (en tout cas, on n'a pas utilisé de cohomologie galoisienne).

    Je n'ai pas trop vu l'expression de $x$, disons des $\sigma^i (x)$ en fonction de $y_0, \cdots, y_{n-1}$. Et toi ? Quid de l'inverse de $V$ ?

    Et tu as utilisé le qualificatif de ``super méthode". Et si ce n'était pas une super méthode mais ce qui figure un peu près partout ?
  • Je suis loin de tout connaître !
  • Résumons.

    1) On a fait quelque chose.

    2) On a vu passer (merci Lagrange) le constructeur, pour $\xi \in \mathbb U_n \subset K$, $x \in L$, et $\sigma \in \text{Gal}(L/K)$ d'ordre $n$
    $$
    y_{\xi, \sigma, x} = x + \xi^{-1} \sigma(x) + \cdots + \xi^{-(n-1)} \sigma^{n-1}(x)
    $$

    3) Supposons maintenant $L/K$ galoisienne cyclique avec $\sigma$ générateur de $\text{Gal}(L/K)$ d'ordre $n$ et $K$ contenant $\mathbb U_n$. Montrer qu'il existe $x \in L$ tel que $y_{\zeta_n, \sigma, x} \ne 0$ (là, il faut vraiment plus de théorie de Galois). On note $y = y_{\zeta_n, \sigma, x}$. Montrer que $L = K(y)$. Et ici, on aura fait une autre chose.

    4) Si on voulait, on pourrait aller plus loin. En partant de $L/K$ est galoisienne avec $G = \text{Gal}(L/K)$ résoluble d'ordre $n$ et $\mathbb U_n \subset K$. Etages cycliques radicaux et tout le truc.
  • Bonjour Claude,

    Pour le 3), supposons $n\geq 2$ et soit $x\in L/\K$.
    On a vu que $K(x)=K(y_0,\ldots,y_{n-1})$ donc il existe $i$ tel que $y:=y_i\neq 0$.
    De plus, les conjugués de $y$ sont $y,\zeta_iy,\ldots \zeta_i^{n-1}y$ tous distincts. Pas sûr du tout !
    Donc $L=K(y)$.
    Mieux, il existe $a\in K$ tel que $y^n=a$ donc $L=K(\sqrt[n]{a})$.
  • @gai requin
    Je ne comprends pas. Le $x$ que tu prends n'est pas quelconque, je suppose. Est ce que cela ne serait pas un élément primitif de $L/K$ ?
    Et pourquoi $K(x) = K(y_0 + \cdots + y_n)$ ? D'abord, il n'y a pas de $y_n$, cela s'arrête à $y_{n-1}$
    Grosso modo (sic), est ce que tu pourrais détailler en étant plus précis ?
  • @gai requin
    Autre chose (mais lié quand même). Avec les notations de mon post-untel que j'ai la flemme de pointer, soit $\zeta_n$ une racine de l'unité d'ordre $n$ et $V_{\zeta_n}$ la matrice de Vandermonde associée (cf le post-untel). Cela fait combien $V_{\zeta_n} \times V_{\zeta_n^{-1}}$ ?
  • @Claude : J'ai modifié mon post précédent mais ça ne marche pas donc je sors l'artillerie lourde.

    Soit $(x,\sigma(x),\ldots,\sigma^{n-1}(x))$ une base normale de $L/K$ et $\xi$ une racine primitive $n$-ième de l'unité, de sorte que $y:=y_{\xi, \sigma, x}\neq 0$.
    On a vu que les conjugués de $y$ sont $y,\xi y,\ldots,\xi^{n-1}y$ tous distincts et qu'il existe $a\in K$ tel que $y^n=a$. D'où $$L=K(y)=K(\sqrt[n]{a}).$$
  • @gai requin
    Artillerie : on pourrait peut-être en sortir une moins lourde en considérant le $K$-endomorphisme $\text{Id}_L + \sigma + \cdots + \sigma^{n-1}$ ? Pourquoi n'est-il pas identiquement nul ? ARG Je voulais dire $\text{Id}_L + \zeta_n^{-1} \sigma + \zeta_n^{-2} \sigma^2 + \cdots + \zeta_n^{-(n-1)} \sigma^{n-1}$. Merci gai requin.

    Cela nous donne donc un $x \in L$ tel que $y = y_{\zeta_n, \sigma, x} \ne 0$. On pourrait continuer à vouloir montrer que $L = K(y)$ à la main ? En ressortant, non pas l'artillerie lourde (je n'ai pas d'inquiétude, de l'artillerie lourde, on en trouve partout) mais en restant dans l'esprit Lagrange-Vandermonde i.e. résolvantes de Lagrange ?

    C'est-à-dire que je prends $x' \in L$ et je m'engage à montrer que $x' \in K(y)$, de manière la plus explicite possible. On introduit alors :
    $$
    y' = y_{\xi', \sigma, x'}, \qquad \xi' \in \mathbb U_n
    $$
    Je dis qu'il existe un $i$ tel que $y' y^{-i}$ soit fixé par $\sigma$, si bien que $y' \in K(y)$.

    Indication (pour l'existence du $i$ qui dépend de $\xi'$) : $y$ et $y'$ sont des $\sigma$-résolvantes et ici une $\sigma$-résolvante vérifie :
    $$
    \sigma(\text{résolvante}) = \text{racine de l'unité sur laquelle est montée la résolvante } \times \text{résolvante}
    $$
    ..etc..
  • @gai requin
    Faut imaginer que l'on va peut-être faire du vrai, sur un exemple et tout le truc. Il nous faut donc une certaine précision, n'est ce pas?

    > V := func < z, n | Matrix(n,n, [[z^(i*j) : j in [0..n-1]] : i in [0..n-1]]) > ;
    > 
    > n := 12 ;
    > K<z> := CyclotomicField(n) ;
    > 
    > Vz := V(z,n) ;
    > Vz ;
    [       1        1        1        1        1        1        1        1        1        1        1        1]
    [       1        z      z^2      z^3  z^2 - 1  z^3 - z       -1       -z     -z^2     -z^3 -z^2 + 1 -z^3 + z]
    [       1      z^2  z^2 - 1       -1     -z^2 -z^2 + 1        1      z^2  z^2 - 1       -1     -z^2 -z^2 + 1]
    [       1      z^3       -1     -z^3        1      z^3       -1     -z^3        1      z^3       -1     -z^3]
    [       1  z^2 - 1     -z^2        1  z^2 - 1     -z^2        1  z^2 - 1     -z^2        1  z^2 - 1     -z^2]
    [       1  z^3 - z -z^2 + 1      z^3     -z^2        z       -1 -z^3 + z  z^2 - 1     -z^3      z^2       -z]
    [       1       -1        1       -1        1       -1        1       -1        1       -1        1       -1]
    [       1       -z      z^2     -z^3  z^2 - 1 -z^3 + z       -1        z     -z^2      z^3 -z^2 + 1  z^3 - z]
    [       1     -z^2  z^2 - 1        1     -z^2  z^2 - 1        1     -z^2  z^2 - 1        1     -z^2  z^2 - 1]
    [       1     -z^3       -1      z^3        1     -z^3       -1      z^3        1     -z^3       -1      z^3]
    [       1 -z^2 + 1     -z^2       -1  z^2 - 1      z^2        1 -z^2 + 1     -z^2       -1  z^2 - 1      z^2]
    [       1 -z^3 + z -z^2 + 1     -z^3     -z^2       -z       -1  z^3 - z  z^2 - 1      z^3      z^2        z]
    > V1surz := V(z^-1,n) ;   
    > Vz*V1surz ;
    [12  0  0  0  0  0  0  0  0  0  0  0]
    [ 0 12  0  0  0  0  0  0  0  0  0  0]
    [ 0  0 12  0  0  0  0  0  0  0  0  0]
    [ 0  0  0 12  0  0  0  0  0  0  0  0]
    [ 0  0  0  0 12  0  0  0  0  0  0  0]
    [ 0  0  0  0  0 12  0  0  0  0  0  0]
    [ 0  0  0  0  0  0 12  0  0  0  0  0]
    [ 0  0  0  0  0  0  0 12  0  0  0  0]
    [ 0  0  0  0  0  0  0  0 12  0  0  0]
    [ 0  0  0  0  0  0  0  0  0 12  0  0]
    [ 0  0  0  0  0  0  0  0  0  0 12  0]
    [ 0  0  0  0  0  0  0  0  0  0  0 12]
    
  • Bonjour Claude,

    j'avais mis un mot "pas" que tu n'as pas dû voir, mais c'est un détail. Je disais que ton argument m'est parvenu sous forme de fichier pdf alors que wiki en propose un autre, un argument, qui est moins constructif mais imparable et "facile" à lire. Ton argument est effectif, même si je ne l'ai pas encore étudié, par manque de temps.

    L'argument de wiki, si je me rappelle bien, c'est que les endomorphismes que sont les isomorphismes de corps qui fixent K sur le K espace vectoriel L sont simultanément diagonalisables ce qui est bien connu en premier cycle d'étude, donc admis, puis de remarquer que

    $$ s(e^n) = (s(e)^n) = \lambda^n e^n = e^n$$

    pour tout morphisme $s$, vecteur propre $e$ et valeur propre associée $\lambda$.

    Le côté "peu effectif" en tout cas pour moi est de faire agir cet argument sur la résolution d'une équation de degré 3 ou 4 par exemple, même si je suis convaincu par lui. Mais je manque de temps, peut-être est-ce tout simple! Auquel cas, je vous adresse mes excuses pour vous avoir fait écrire.

    Bonne journée
    Talal
  • @Claude :
    Pour $a\in K^*$, $$(\text{Id}_L + \sigma + \cdots + \sigma^{n-1})(a)=na$$
    qui est non nul quand la caractéristique de $K$ ne divise pas $n$.

    Mais comment trouver $x$ tel que $y_{\zeta_n, \sigma, x} \ne 0$ ?
  • @gai requin POUF-POUF. Je voulais dire $\text{Id}_L + \zeta_n^{-1} \sigma + \zeta_n^{-2} \sigma^2 + \cdots + \zeta_n^{-(n-1)} \sigma^{n-1}$, et pas la somme. J'ai corrigé.
  • @gai-requin
    Peut-être même que l'on pourra traiter un petit exemple, voire plusieurs. Je vais réfléchir si on peut pas monter un petit truc avec l'algèbre d'un groupe cyclique (même si ce n'est pas un corps), pour l'instant, je suis pas clair.

    En attendant, on peut prendre :
    $$
    K = \Q(j,a), \qquad F_a(X) = X^3 - aX^2 - (a+3)X - 1, \qquad L = K(x_0) = K[X]/\langle F_a\rangle
    $$
    Ci-dessus, $a$ est une indéterminée sur $\Q(j)$ où $j$ est ``la'' racine cubique de l'unité habituelle de sorte que $K$ est un corps de fractions rationnelles en $a$ à coefficients dans $\Q(j)$. Et $L/K$ est l'extension que tu vois. Et elle est 3-cyclique car le discriminant de $F_a$ est un carré :
    $$
    \text{Disc}(F_a) = (a^2 + 3a + 9)^2
    $$
    On avait déjà vu ce polynôme $F_a$ (the simplest cubic field).

    Tu noteras le nom $x_0$ que j'ai donné (et pas $x$) : c'est pour faire de la place à $x_1, x_2$.

    Le but du jeu, en suivant les résolvantes de Lagrange, serait de faire apparaître des radicaux cubiques. Par exemple, présenter $L$ sous la forme $L = K(\root 3 \of b)$ avec $b \in K$ explicite ...etc..
  • Bonsoir Claude.

    J'ai essayé d'étudier l'endomorphisme $u=\text{Id}_L + \zeta_n^{-1} \sigma + \zeta_n^{-2} \sigma^2 + \cdots + \zeta_n^{-(n-1)} \sigma^{n-1}$.

    Soit $v=\zeta_n^{-1}\sigma$.
    Comme $X^n-1$ annule $v$, il existe $\alpha\in\mathbb U_n$ et $y\neq 0$ tel que $v(y)=\alpha y$.
    Donc, si $x=y^n$, $v(x)=x$ puis $\sigma(x)=\zeta_n x$.
    D'où $u(x)=nx\neq 0$.
  • @gai requin
    Un truc que je ne comprends pas. Tu obtiens $v(y) = \alpha y$ c.a.d. $\sigma(y) = \zeta_n\alpha y$ ; en élevant à la puissance $n$, cela donne $\sigma(y^n) = y^n$ i.e. $\sigma(x) = x$ avec tes notations. Ce qui ne colle pas avec ce que tu as écrit. J'ai l'impression que tu as utilisé le fait que $v$ est un morphisme multiplicatif, ce qui n'est pas vrai.

    Ma solution (il y en a peut-être d'autres) : $\text{Id}_L + \zeta_n^{-1} \sigma + \zeta_n^{-2} \sigma^2 + \cdots + \zeta_n^{-(n-1)} \sigma^{n-1}$ n'est pas nul car les morphismes
    $\text{Id}_L, \sigma, \sigma^2, \cdots, \sigma^{n-1}$ sont distincts donc $K$-linéairement indépendants (théorème d'indépendance linéaire des morphismes de Dedekind).
  • Exact !

    Je voulais faire une démo "à la main" qui se passe du théorème d'indépendance...
    A coup de lemme des noyaux, on obtient ce qu'on veut si, et seulement si, $\zeta_n$ est valeur propre de $\sigma$.
  • Je réessaie !

    $X^n-1$ (scindé à racines simples) annule $\sigma$ qui est donc diagonalisable avec ses valeurs propres dans $\mathbb U_n$.
    Soit $x,y$ deux vecteurs propres associés à la même valeur propre $\lambda$.
    On a $\sigma(xy^{-1})=xy^{-1}$ donc il existe $a\in K$ tel que $x=ay$.
    Donc les valeurs propres de $\sigma$ sont de multiplicité $1$ et $\zeta_n$ est valeur propre.
    Enfin, pour tout $x$ vecteur propre associé à $\zeta_n$,$$(\text{Id}_L + \zeta_n^{-1} \sigma + \zeta_n^{-2} \sigma^2 + \cdots + \zeta_n^{-(n-1)} \sigma^{n-1})(x)=nx\neq 0.$$
  • @gai requin
    Pas d'accord. En dimension $n$, avec un corps de base contenant $\zeta_n$, on peut trouver des endomorphismes $u$ annulés par $X^n - 1$, tel que $\zeta_n$ ne soit pas valeur propre de $u$. N'est ce pas ?

    Mais ICI, le polynôme minimal de $\sigma$ est $X^n - 1$ grâce à l'indépendance des morphismes ! Et donc $\zeta_n$ est valeur propre, ...etc...
  • Bonjour Claude.

    Je n'ai pas supposé a priori que $\zeta_n$ était valeur propre de $\sigma$ mais je l'ai prouvé (enfin je crois) en montrant d'abord que $\sigma$ possède $n$ valeurs propres distinctes.
  • @gai requin
    Très juste et j'ai lu trop vite. Sorry. Mais veillons au grain en regardant bien les ingrédients que tu utilises

    1) $\sigma(z) = z \Rightarrow z \in K$

    2) $\sigma$ est multiplicatif (i.e. ton petit coup de $\sigma(xy^{-1}) = \cdots$)

    3) $\sigma^n = \text{Id}_L$

    4) Autres ???

    Car après tout, $\sigma$ vérifie aussi $\sigma^{2n} = \text{Id}_L$ ou $\sigma^{3n} = \text{Id}_L$ ...etc.. Et on ne va pas pour autant montrer que $\zeta_{2n}$ ou $\zeta_{3n}$ sont valeurs propres de $\sigma$.

    Je pense dans 4) qu'il faut mentionner que nous sommes en dimension $n$.

    Bilan : je pense que c'est tout bon (en laissant bien visible l'analyse de la chose).
  • Effectivement, en dimension $n$, il y a au plus $n$ valeurs propres donc si on en trouve $n$ distinctes, pas besoin d'en chercher d'autres.

    Une petite remarque :
    Soit $\zeta\in \mathbb U_n$ et $x$ une valeur propre de $\sigma$ associée à $\zeta$.
    Soit $y=x+\zeta^{-1}\sigma(x)+\cdots +\zeta^{-(n-1)}\sigma^{n-1}(x)$.
    Alors $y\neq 0$ et $\sigma(y)=\zeta y$ donc il existe $a\in K$ tel que $x=ay$.

    Ok, je digresse...
  • @Claude :

    Je regarderai [ce polynôme cyclique] de degré $3$ ce soir.
    Si j'ai bien compris, on cherche d'abord $y_{j,\sigma,x}\neq 0$ puis on calcule $y^3$ pour la cerise sur le gâteau...
  • @gai requin
    Oui, mais avant, je pense qu'il faut préparer le terrain pour ne pas se perdre. Ne pas se perdre dans les diverses résolvantes. On a besoin de toutes mais l'une d'entre elles est ``principale'' (celle montée sur $\zeta_n$). Et terminer http://www.les-mathematiques.net/phorum/read.php?3,1557610,1558338#msg-1558338 en faisant plutôt de l'algèbre linéaire et en évitant des constructions comme $K(y)$. Je veux dire par là que dans le post pointé, j'ai écrit $y' \in K(y)$ ; eh bien, cela serait bien plus mieux d'écrire $y' \in K.y^i$ (cf le post pour comprendre). Même pour $n=3$, c'est préférable de ``préparer le terrain'' (bis). Disons qu'avec des notations qui me semblent claires, on considère (en degré 3, guide général) :
    $$
    \cases {
    y_0 = x_0 + x_1 + x_2 \cr
    y_1 = x_0 + j^{-1} x_1 + j^{-2} x_2 \cr
    y_2 = x_0 + j^{-2} x_1 + j^{-1} x_2 \cr
    }
    \qquad \qquad
    x_i = \sigma^i(x_0)
    $$
    Claires les notations ?
    L'étape 0, c'est que ce système s'inverse i.e. on a une expression des $x_i$ en fonction des $y_j$.
    Ensuite, on est ok sur le fait que chaque $y_i^3$ est invariant par $\sigma$. C'est une première chose. Et la deuxième chose (non terminée justement), c'est, sous couvert de la non nullité de $y_1$ (résolvante que j'affuble du qualificatif principal), il y a $k_0, k_1, k_2 \in K$ i.e. invariants par $\sigma$ tels que :
    $$
    y_0 = k_0 y_1^0, \qquad y_1= k_1 y_1^1, \qquad y_2 = k_2 y_1^2
    $$
    Of course, c'est $k_2$ qui se mérite. Et on voit ainsi que l'on sait écrire chaque $y_i$ sur ce qui sera la base des puissances de $y_1$ i.e. on a de quoi écrire :
    $$
    y_i \in K.1 + K.y_1 + K.y_1^2, \qquad \quad \hbox {puis} \qquad x_i \in K.1 + K.y_1 + K.y_1^2
    $$
    Non seulement, on aura montré que $y_1$ est un élément primitif de $L/K$, mais on s'est donné les moyens de ...etc... On comprend vraiment cela lorsque l'on traite pour de vrai un exemple !


    Digression (il n'y a pas de raison). J'ai cru à un moment donné que la glace était mince mais je suis bête, elle ne peut pas être mince. Je veux dire par là que maintenant c'est acquis que
    $$
    s := \text{Id}_L + \zeta_n^{-1} \sigma + \zeta_n^{-2} \sigma^2 + \cdots + \zeta_n^{-(n-1)} \sigma^{n-1}
    $$
    n'est pas l'endomorphisme nul. Et donc $L \setminus \ker(s)$ est gros. Cela ne veut rien dire certes mais les $x$ tels que $s(x) \ne 0$, ce n'est pas ce qui manque. Ici, je fais une vague simulation de la combinaison des puissances de $\sigma$ en utilisant que les valeurs propres de $\sigma$ sont distinctes i.e. en considérant la matrice diagonale $D$ de diagonale $(1, \zeta_n, \zeta_n^2, \cdots, \zeta_n^{n-1})$. C'est un peu ollé-ollé mais c'est une digression.

    > n := 5 ;
    > K<z> := CyclotomicField(n) ;
    > D := DiagonalMatrix([z^i : i in [0..n-1]]) ;
    > D ;
    [                 1                  0                  0                  0                  0]
    [                 0                  z                  0                  0                  0]
    [                 0                  0                z^2                  0                  0]
    [                 0                  0                  0                z^3                  0]
    [                 0                  0                  0                  0 -z^3 - z^2 - z - 1]
    > S := &+[z^-i * D^i : i in [0..n-1]] ;
    > S ;
    [0 0 0 0 0]
    [0 5 0 0 0]
    [0 0 0 0 0]
    [0 0 0 0 0]
    [0 0 0 0 0]
    

    Au début, cela pourrait faire peur parce que $S$ est presque nulle. Mais si je note les coordonnées par $x_1, \cdots, x_5$ et que je prends $x$ au hasard (cela ne veut rien dire) alors $S(x) \ne 0$ ; sauf si c'est de la faute à pas de chance et que l'on est tombé sur un $x$ tel $x_2 = 0$. Mais c'est vraiment pas de chance d'être tombé sur cet hyperplan.
  • Je finis de répondre à [ce message].

    Soit donc $y=x+\zeta_n^{-1}\sigma(x)+\cdots+\zeta_n^{-(n-1)}\sigma^{n-1}(x)\neq 0$.
    Soit $x'\in L$ et $\zeta'\in \mathbb U_n$.
    Notons $y'=y_{\zeta',\sigma,x'}$.
    Soit également $i\in \N$ tel que $\zeta'=\zeta_n^i$.
    On a $\sigma(y')=\zeta' y'$ et $\sigma(y^{-i})=\zeta'^{-1}y^{-i}$.
    Donc $\sigma(y'y^{-i})=y'y^{-i}$ et $y'\in K(y)$. $(\star)$

    Notons maintenant $y'_0=y_{1,\sigma,x'},\ldots, y'_{n-1}=y_{\zeta_n^{n-1},\sigma,x'}$.
    On a vu que $x'$ est combinaison linéaire des $y'_i$.
    En utilisant $(\star)$, il vient $x'\in K(y)$.

    Bilan : $L=K(y)$ et ça sent la coquille à plein nez !
  • @gai requin
    C'est tout bon. Non seulement, tu as montré, prenant $x' \in L$, que $x' \in K(y)$, mais tu t'es donné les moyens d'écrire $x' \in K.1 + K.y + \cdots + K.y^{n-1}$ i.e. comme une combinaison $K$-linéaire explicite (en principe) des puissances de $y$ que l'on voit.

    Et la suite consiste à mettre cela en service sur des exemples, par exemple sur ``The simplest cubic field''. Tu auras probablement besoin d'une calculette mais la calculette ne fera que ce que tu lui demandes de faire.
  • On pourrait peut-être s'en passer pour le degré $3$ mais, pour $n$ quelconque, il reste aussi à montrer que $$V_{\zeta_n} \times V_{\zeta_n^{-1}}=n\mathrm{I}_n.$$
    Enfin, je conjecture ce résultat à partir de ton résultat numérique avec $n=12$, qui ne peut pas être le fruit du hasard.
  • Je n'arrive pas à lire vos messages. C'est quoi en deux lignes l'argument pour dire que si $L/K$ est cyclique de degré $n$ et $\zeta_n \in K$ alors $f : L \to L, f(x) = \sum_{j=1}^n \zeta_n^{-j} \sigma^j(x)$ n'est pas identiquement nul ?
  • @reuns
    Mon argument : l'indépendance $K$-linéaire de $\text{Id}_L, \sigma, \sigma^2, \cdots, \sigma^{n-1}$ (théorème de Dedekind).

    Précision : soient $M$ un monoïde (disons multiplicatif) et $L$ un corps commutatif. Alors l'ensemble des morphismes (multiplicatifs) de $M$ dans $L^*$ est une partie libre du $L$-espace vectoriel $L^M$. C'est cela le théorème d'indépendance linéaire des morphismes de Dedekind.
  • Je n'ai pas compris :) Je tente un truc :

    En voyant le générateur $\sigma \in Gal(L/K)$ comme $\sigma \in End_K(L)$ alors je peux regarder $K[\sigma] \cong K[\lambda]/(\lambda^n-1)$ où $\sum_{j=0}^{n-1} \zeta_n^{-j} \lambda^j \not \in (\lambda^n-1)$

    $(\lambda^n-1)$ car : il existe une $K$-base $e_1,\ldots,e_n$ de $L$ telle que $\sigma(e_j) = e_{j+1}$ (le théorème de la base normale) donc $\det(\sigma-\lambda I) = \lambda^n-1$ polynôme qui n'a aucune racine double donc $\lambda^n-1$ est aussi le polynôme minimal de $\sigma$.
  • Le théorème de la base normale est une conséquence du théorème d'indépendance de Dedekind. L'indépendance des $\sigma^i$ fournit immédiatement la non nullité de l'application $f$ (il n'y a pas de combinaison linéaire nulle des $\sigma^i$ non triviale).
  • @Reuns (et Poirot)
    Ok avec vous deux !

    Ce qui est délicat dans le fait ``d'agiter des choses galoisiennes'' d'une manière qui se veut élémentaire, c'est de préciser les règles du jeu (elles ne sont pas toujours claires, j'en conviens), de faire attention à oeuf-poule ...etc...

    On a fait quoi ? Entre autres, on a ``montré'' l'existence d'un $x \in L$ tel que $y := y_{\zeta_n, \sigma, x} \ne 0$. Et un tel $y$ vérifie assez explicitement $L = K.1 + K.y + \cdots + K.y^{n-1}$ et on peut mettre $\oplus$ à la place de $+$. Comme dit l'autre, $y$ est un élément primitif de $L/K$. Et la vocation de $y$, c'est aussi de vérifier $y^n \in K$ donc une présentation de $L/K$ de la forme $L = K(\root n \of a)$ avec $a \in K$.

    Et on peut se poser des questions :

    1) Est ce que $y$ engendre une base normale de $L/K$ ? Pas du tout car $\sigma(y) = \zeta_n y$ justement i.e. $y, \sigma(y)$ sont $K$-liés.

    2) Est ce que le $x$ qui a servi d'appui dans $y_{\zeta_n, \sigma, x}$ engendre une base normale ? Non car on POURRAIT avoir, pour $n = 3$ par exemple, $x + \sigma(x) + \sigma^2(x) = 0$.

    3) Est ce que $x$ est un élément primitif de $L/K$ ?

    4) Est ce que quelque part dans ce m.rdi.r, on a débusqué une base normale de $L/K$ ?

    5) ...etc...

    6) Et petit frère passe par là. A un moment donné, dans un certain post, on voit, dans le contexte $L/K$ galoisienne cyclique de générateur $\sigma$, que l'on a considéré un $z \in L$ quelconque et il a été dit que $\sigma(K(z)) = K(z)$. Et petit frère demande pourquoi. On peut lui dire ``par la théorie de Galois'' parce ce que $L/K$ est abélienne, donc $K(z)/K$ est galoisienne. Et si petit frère insiste, on peut lui balancer ``Tu peux pas comprendre car tu n'as pas fait de la Théorie de Galois''. Vraiment ?
  • 3) On peut prendre $x$ dans une base normale donc primitif.
    Mais on peut aussi prendre $x$ vecteur propre associé à $\zeta_n$...
    Peu importe j'ai envie de dire, tant que $y\neq 0$.

    4) Je ne crois pas mais on a une belle base $(1,y,\ldots,y^{n-1})$ qui devrait permettre de faire des calculs après avoir certifié que $V_{\zeta_n} \times V_{\zeta_n^{-1}}=n\mathrm{I}_n$.

    6) Je conseille à petit frère de se lancer. C'est quand même sympa la théorie de Galois. :-)
  • @gai requin
    A propos de petit frère, je n'ai pas la même attitude. D'abord, je lui fournirai quelques dates, disons celles qui nous concernent directement ici : Vandermonde (1735-1796), Galois (1811-1832), Artin (1898-1962). Et bien sûr, dans NOTRE tête, être le plus clair possible en citant correctement les résultats. Prenons par exemple celui d'Artin : si $G$ est un groupe fini d'automorphismes d'un corps commutatif $L$, et si $K = L^G$, le sous-corps des points fixes, alors $L/K$ est une extension de degré $n = \#G$. Bien sûr, cet énoncé est totalement affaibli ! Car, en notant $G = \{\sigma_1, \cdots, \sigma_n\}$, Artin SORT (de la fenêtre carrée d'indépendance linéaire) $n$ éléments $x_1, \cdots, x_n \in L$ vérifiant $\det\big(\sigma_i(x_j)\big) \ne 0$, auquel cas $(x_1, \cdots, x_n)$ est une base de $L/K$.

    Et si $G$ est cyclique, Vandermonde (les matrices de) trivialise ce résultat (comme on va le voir).

    Venons en aux faits. Contexte : $L/K$ galoisienne cyclique de degré $n$, avec $\text{Gal}(L/K) = \langle \sigma\rangle$. Petit-frère pose la question de $\sigma(K(x)) = K(x)$ pour $x \in L$. La tentation est grande de lui dire : si $x$ est algébrique de degré $d$ sur $K$, tu verras (et tu comprendras) quand tu seras grand, le schéma suivant intégrant en particulier $\sigma^d(x) = x$ :
    $$
    \xymatrix {
    L\ar@{-}[d]^{\langle \sigma^d\rangle}_{n/d} \\
    K(x)\ar@{-}[d]^{\langle \overline\sigma^{n/d}\rangle}_{d} \\
    K \\
    }
    $$
    Et si on renversait la vapeur ? En lui montrant dans le cas cyclique ``comment opérer de manière galoisienne'' en le faisant réellement ? Pour cela, on définit $d$ comme étant le plus petit entier $\ge 1$ tel que $\sigma^d(x) = x$. Mieux : $d$ est défini par l'idéal :
    $$
    \{ k \in \Z \mid \sigma^k(x) = x \} = d\Z
    $$
    On va montrer que $\sigma(x) \in K.1 + K.x + \cdots + K.x^{d-1}$ et bien plus. On va même montrer que si $y \in L$ vérifie $\sigma^d(y) = y$, alors $y \in K.1 + K.x + \cdots + K.x^{d-1}$. On pourra appliquer cela à $y = \sigma(x)$ et aux puissances de $x$ !! Du coup, on obtiendra aussi $x^d \in K.1 + K.x + \cdots + K.x^{d-1}$

    Allons-y pour $d=3$ (ici, c'est un entier quelconque). On a donc $\sigma^3(y) = y$ et on veut écrire $y = a_0 + a_1x + a_2x^2$ avec $a_i \in K$. On ouvre le brouillon en faisant comme si c'était acquis et on donne un coup de $\sigma$ puis $\sigma^2$ :
    $$
    \begin {array} {rcl}
    y &=& a_0 + a_1x + a_2x^2 \\
    \sigma(y) &=& a_0 + a_1 \sigma(x) + a_2\sigma(x)^2 \\
    \sigma^2(y) &=& a_0 + a_1 \sigma^2(x) + a_2\sigma^2(x)^2 \\
    \end {array}
    \qquad\qquad
    \pmatrix {y\cr \sigma(y) \cr \sigma^2(y)} =
    \pmatrix {1 & x & x^2\cr 1 & \sigma(x) & \sigma(x)^2 \cr 1 & \sigma^2(x) & \sigma^2(x)^2}
    \pmatrix {a_0\cr a_1\cr a_2}
    $$
    Tiens à droite une matrice de Vandermonde dont la colonne définissante (la deuxième) est consituée d'éléments DISTINCTS. Pourquoi ? (choix de $d$). Donc matrice inversible. Donc unicité d'une solution $(a_0, a_1, a_2)$ $\fbox {dans $L$}$. Mais les $a_i$ sont dans $K$. Pourquoi ? Car ils sont invariants par $\sigma$ comme il faut le vérifier en utilisant $\sigma^3(y) = y$ i.e. de quel système $(\sigma(a_0), \sigma(a_1), \sigma(a_2))$ est solution ? .Légère prise de tête avec des changements de lignes ..etc...

    Et on va également obtenir le fait que $1, x, \cdots, x^{d-1}$ sont $K$-linéairement indépendants ; en prenant $a_0 + a_1x + \cdots + a_{d-1}x^{d-1} = 0$ avec les $a_i \in K$ et en donnant un coup de $\sigma, \sigma^2, \cdots, \sigma^{d-1}$ ...etc...

    Mais on a fait quoi ? Eh bien, on a repris les ingrédients de la preuve du théorème d'Artin (merci à lui) dans le cas particulier d'un groupe cyclique en constatant que les matrices de Vandermonde (merci à lui) nous donnent un sacré coup de main.

    Voilà ce que l'on pourrait raconter à petit-frère dans le cas cyclique en lui disant : quand tu seras grand, tu verras que certains ingrédients fonctionnent pour un groupe fini quelconque d'automorphismes.
  • Bonjour Claude.

    Je ne savais pas tout ça.
    J'ai appris la théorie de Galois avec son gros théorème fondamental exhibé le plus rapidement possible puis roule Marcel...
  • @Claude : je n'ai pas bien saisi la fin de ta démo, tu dis que tu cherches à exprimer $y$ dans la base $(1, x, x^2)$. Pour ça tu poses $y = a_0 + a_1x + a_2x^2$ avec les $a_i$ a priori dans $L$. Puis quand tu appliques $\sigma$, les $a_i$ restent inchangés...? Je suis d'accord que s'ils restent in changés, on obtient le système de Vandermonde que tu écris, et ça prouve qu'on peut trouver de tels $a_i$, mais le fait est qu'à ce stade tu ne sais pas que les $a_i$ sont dans $K$.
  • @Poirot
    Non, les $a_i$ ne restent pas (encore) inchangés. Il faut prendre un bout de papier et donner un coup de $\sigma$ aux 3 équations. Alors, le 3-uplet $(\sigma(a_0), \sigma(a_1), \sigma(a_2)\big)$ vérifie quel système ? Réponse : le même que le premier système. Et donc d'après l'unicité ..etc...

    Note : il est important de comprendre :

    1) Que je recopie TEXTUELLEMENT la preuve du théorème d'Artin en théorie de Galois. Je ne fais absolument rien de nouveau.

    2) Que les deux systèmes ci-dessous sont les mêmes :
    $$
    \begin {array} {lcr}
    \hbox {membre gauche de l'équation 1} &=& b_1 \\
    \hbox {membre gauche de l'équation 2} &=& b_2 \\
    \end {array}
    \qquad\qquad\qquad
    \begin {array} {lcr}
    \hbox {membre gauche de l'équation 2} &=& b_2 \\
    \hbox {membre gauche de l'équation 1} &=& b_1 \\
    \end {array}
    $$

    3) Qu'il faut savoir fournir à petit frère une preuve DIRECTE ELEMENTAIRE du fait suivant. Je remplace $n=3$ par $n=2$. Soit $\sigma \in \text{Aut}(L)$ d'ordre $2$ et $K = L^\sigma$ le sous corps des points fixes. Alors $[L : K] = 2$. Pourquoi ? D'abord $K \ne L$. Why ? Soit $x \in L \setminus K$ i.e. $\sigma(x) \ne x$. Alors $(1,x)$ est une $K$-base de $L$. Preuve (dans l'esprit galoisien) : pour $y \in L$ , vouloir écrire $y = a + bx$ avec $a, b \in K$. Je dis bien vouloir. Donner un coup de $\sigma$ comme si on y croyait. Obtenir un système linéaire $2 \times 2$ de matrice inversible. Puis vérifier que l'unique solution $(a,b)$ est bien dans $K$.

    Comment je ressens les choses ? Artin a trivialisé la théorie de Galois. Mais avant Artin ..etc...
  • Oui ok, en utilisant que $\sigma^3(y)=y$ (et même $\sigma^3(a_i)=a_i$), on obtient des systèmes permutés du même style. Mais dans ton texte je trouve que ce que tu faisais n'était pas très clair ;-)
  • @Talal
    Je suis désolé. J'ai l'impression et plus que l'impression que je t'ai volé ton fil

    @Poirot
    Bien sûr que ce que j'ai écrit n'est pas clair parce que je n'ai pas détaillé (il y avait des questions bien visibles avec des ?). Et je n'aurais pas dû vous montrer le ``brouillon'' (faire comme si ...etc..) Et j'essayais de raconter un aperçu de ce je POURRAIS dire à petit frère (pour qui je détaillerais). Mais à vous qui connaissez bien la Théorie de Galois (en particulier les gros résultats qui font rouler Marcel et tout le truc), j'ai simplement donné la trame.

    NON je n'utilise SURTOUT PAS que $\sigma^3(a_i) = a_i$. Je me sens obligé de le faire. Attention, il va falloir faire un truc vachement dur en théorie de Galois : constater que les COEFFICIENTS de la ligne 1 de droite sont les COEFFICIENTS de la ligne 2 de gauche ...etc.. Allons-y Marcel.
    $$
    \hbox {Sys$_{(a_0,a_1,a_2)}$}
    \ \left\{
    \begin {array} {rcl}
    y &=& a_0 + a_1x + a_2x^2 \\
    \sigma(y) &=& a_0 + a_1 \sigma(x) + a_2\sigma(x^2) \\
    \sigma^2(y) &=& a_0 + a_1 \sigma^2(x) + a_2\sigma^2(x^2) \\
    \end {array}
    \right.
    \qquad
    \hbox {Sys$_{(\sigma(a_0),\sigma(a_1),\sigma(a_2))}$}
    \ \left\{
    \begin {array} {rcl}
    \sigma(y) &=& \sigma(a_0) + \sigma(a_1)\sigma(x) + \sigma(a_2)\sigma(x^2) \\
    \sigma^2(y) &=& \sigma(a_0) + \sigma(a_1) \sigma^2(x) + \sigma(a_2)\sigma^2(x^2) \\
    \sigma^3(y) &=& \sigma(a_0) + \sigma(a_1) \sigma^3(x) + \sigma(a_2)\sigma^3(x^2) \\
    \end {array}
    \right.
    $$
    A gauche, j'ai un système dont les INCONNUES sont $a_0, a_1, a_2$ et les coefficients (y compris le second membre, celui à gauche de =), sont ceux que l'on voit. Et on a dit qu'il y a une unique solution que je note $(a_0, a_1, a_2)$. Et en donnant un coup de $\sigma$ partout, on voit que $(\sigma(a_0), \sigma(a_1), \sigma(a_2))$ vérifie le système de droite.

    Et maintenant, en utilisant $\sigma^3(x) = x$ (de sorte que $\sigma^3(x^2) = x^2$, faut-il détailler ?) et $\sigma^3(y) = y$, on VOIT, en évitant de confondre inconnues et coefficients, que :
    $$
    \begin {array} {c}
    \hbox {coeffs de l'équation 1 de droite} = \hbox {coeffs de l'équation 2 de gauche} \\
    \hbox {coeffs de l'équation 2 de droite} = \hbox {coeffs de l'équation 3 de gauche} \\
    \hbox {coeffs de l'équation 3 de droite} = \hbox {coeffs de l'équation 1 de gauche} \\
    \end {array}
    $$
    Et je précise même que :
    $$
    \hbox {coeffs de l'équation 1 de droite :: second membre (à gauche de =) est $\sigma(y)$, et les autres coefficients sont : $1, \sigma(x), \sigma(x^2)$}
    $$
    Bref, il s'agit du MEME système (je parle des coefficients y compris second membre). Et l'unicité fait que $\sigma(a_i) = a_i$.

    Peut-être qu'il aurait fallu commencer par $n=2$ ? C'est bien ce que je fais avec les petits mais avec les grands, je n'ai pas osé.
  • @Claude :
    Je crois que tu as mal compris mon message [ici], où j'apportais un simple témoignage de mon apprentissage de la théorie de Galois (en autodidacte, on fait avec ce que l'on a).
    Je crois aussi avoir fourni un gros effort pour laisser Bourbaki et consorts de côté en essayant de montrer que $y\neq 0$ [là] avec des outils niveau L2 (valeurs propres...).
    Mais c'est peut-être moi qui interprète mal ton dernier message...
Connectez-vous ou Inscrivez-vous pour répondre.