Math news 2
Bonjour,
$\bullet$ $\textbf{New Scientist}$-$\textbf{The shape of numbers-The perfectoid geometry}$.
Un article de la revue "New Scientist" revient sur les récentes tentatives d’unification de la géométrie et de l’arithmétique.
Les travaux d’un mathématicien trentenaire de l’université de Bonn, Peter Schölze, prolongent ceux de Grothendieck pour tenter d'assigner une géométrie à un ensemble nommé Spec($\textbf{Z}$).
Le spectre Spec($\textbf{A}$) est l’ensemble des idéaux premiers d’un anneau $A$ quelconque. Quand $A=\textbf{Z}$, les ouverts de Spec($\textbf{Z}$) sont la partie vide et les complémentaires des ensembles formés d’un nombre fini de nombres premiers.
Schölze étudie l’ensemble Spec($\textbf{Z}$) dans un nouveau formalisme: les « espaces perfectoïdes ».
Les nombres premiers y trouvent leur représentation $p$-adic et se comportent comme la variable d'une équation.
Je ne vais pas bêtement paraphraser des « ABSTRACT » de travaux souvent jugés incompréhensibles par les spécialistes eux-mêmes. Il existe des pdf et des vidéos sur ces recherches dont le but est la quête d’une géométrie capable de s’incarner dans des espaces de caractéristiques différentes: égales à $0$, à un $p$ positif ou mixte.
Selon son auteur, la théorie des espaces perfectoïdes a pour objet le transport des informations disponibles sur $\mathbb{F}_p((t))$ vers le corps des nombres $p$-adics $\mathbb{Q}_p$ avec:
\begin{equation}
\displaystyle \mathbb{Q}_p= \{\sum_{n \gg -\infty} a_np^n \quad \vert \quad a_n \in \{0,1,…,p-1\}\} \\
\displaystyle \mathbb{F}_p((t))=\{\sum_{n \gg -\infty} a_nt^n \quad \vert \quad a_n \in \{0,1,…,p-1\}=\mathbb{F}_p\}.
\end{equation}
Seules les opérations définies sur ces ensembles les distinguent...
A la conférence de Rio 2018, Laurent Fargues pourrait annoncer une construction fondée sur les travaux de Schölze afin d’éclairer certains aspects $p$-adics du programme de Langlands et apporter des solutions partielles.
$\bullet$ $\textbf{New Scientist-Turing machines test foundations of maths}$.
Turing a montré qu’il existe des machines de Turing dont le comportement n'est pas prédit par les axiomes standards de $\textbf{ZFC}$.
On sait que tous les systèmes axiomatiques encodant l'arithmétique sont contraints par les deux théorèmes d'incomplétude de Gödel.
Si $\textbf{ZFC}$ est consistant alors il ne peut-être complet: il ne peut prouver tous les énoncés vrais.
Si $\textbf{ZFC}$ est consistant alors il ne peut prouver sa propre consistance.
Dans la lignée de ces enseignements, Adam Yedidia et Scott Aarronson du MIT ont crée une machine de Turing à $7910$ états et deux symboles d'alphabet, baptisée $Z$ et qui énumère les unes après les autres les propositions prouvables de $\textbf{ZFC}$.
La machine parcours en boucle son ensemble de $k$ états via les règles d'inférence de $\textbf{ZFC}$ qu'elle applique à chaque conclusion.
Si la machine ne s'arrête jamais alors $\textbf{ZFC}$ est consistant.
Si la machine "prouve" une contradiction telle que $0=1$, alors elle interrompt sa longue dérive axiomatique. Les logiciens n’auront plus qu’à rajouter des axiomes pour renforcer un système dont la consistance se dérobe en permanence.
Les chercheurs ont également conçu deux autres machines de Turing: l'une à $4888$ états qui doit s'arrêter si la conjecture de Goldbach est fausse. L'autre comporte $5372$ états et s'arrête si l'hypothèse de Riemann est fausse.
La traduction de problèmes mathématiques en termes de machines de Turing permet une approche concrète des problèmes de complexité.
La "machine $\textbf{ZFC}$" comporte $7910$ états alors que la "machine Riemann" n'en a que $5372$.
Les chercheurs veulent maintenant réduire le nombre d'instructions nécessaires au fonctionnement de la machine $\textbf{Z}$.
On espère que l’arrêt de la machine $\textbf{Z}$ ne signera pas l’inconsistance des mathématiques modernes !
$\bullet$ $\textbf{New Scientist-Google plans quantum supremacy}$.
Google s’est lancé dans la construction d’un ordinateur quantique destiné à dépasser les limites des meilleurs ordinateurs classiques.
Dans leur quête d'une épreuve insurmontable pour un ordinateur classique, les ingénieurs de Google se sont orientés vers la simulation d’un arrangement aléatoire de circuits quantiques.
La simulation d’un réseau de $6x4$ bits quantiques (qubits) n’exige pas plus de mémoire que n’en contient un i-phone 6.
Pour un réseau de $6x7 = 42$ qubits, elle doit être $10 000$ fois supérieure à celle du meilleur PC actuel.
En 2016 la revue New Scientist écrivait que Google avait stoppé l’expérimentation à ce stade puisqu’un réseau de $48$ qubits nécessitait une capacité de stockage égale à deux fois celle des plus puissants super-ordinateurs du moment.
Or, un an plus tard, les ingénieurs d’IBM parvenaient à simuler des circuits quantiques de $49$ qubits par des moyens classiques.
Cette prouesse étant nécessaire pour vérifier le succès d’une expérience quantique car comment le faire autrement que par des moyens conventionnels destinés à l'obsolescence ? C’est bien là toute l’ironie de l’histoire !
Les systèmes classiques doivent suivre de prés les systèmes quantiques afin de valider les éventuels succès de ces derniers.
La simulation classique de circuits quantiques à $50$ qubits est mille fois plus difficile que pour des circuits à $40$ qubits. Il y a peu de temps on pensait la chose impossible, une petite poignée d’unités quantiques supplémentaires entraînant une augmentation exponentielle des capacités de calcul.
Mais les chercheurs Scott Aaronson (encore lui !) et Lijie Chen (Université de Beijing) se sont intéressés à la meilleure façon de simuler un circuit de $n$ bits quantiques et $m$ portes. Cela est supposé avoir un « coût » de $exp(n)$ en mémoire et $exp(m)$ en temps ! Le recours à des puissances de calcul exceptionnelles et des tours de passe-passe via les "sommes de Feynman" ont permis d’obtenir une croissance linéaire en mémoire pour une durée qui demeure irréaliste même pour Google ou IBM.
La suite des travaux a donc consisté à se ramener à une durée en $exp(n)$. Un algorithme a finalement donné une mémoire linéaire et un temps en $d^{O(n)}$ où $d$ est la taille du circuit.
Avec un peu d’ingéniosité, la simulation à $60$ ou $70$ bits quantiques est "classiquement" envisageable.
Autre problème enfin: plus le système quantique est élaboré plus il est sujet au « bruit » et à la décohérence.
La fiabilité de ces nouvelles technologies passera par le développement de codes correcteurs "robustes".
Pour bien des informaticiens, l'utilisation qui est faite des méthodes quantiques revient à affréter un Airbus pour traverser la rue.
$\bullet$ $\textbf{Intégration}$.
Un journaliste demande à Cédric Villani pourquoi tel projet a été reporté. Réponse de l'intéressé:
"Il n'a pas été reporté. Il a été intégré à un nouveau calendrier..."
Il apprend vite !
...
$\bullet$ $\textbf{New Scientist}$-$\textbf{The shape of numbers-The perfectoid geometry}$.
Un article de la revue "New Scientist" revient sur les récentes tentatives d’unification de la géométrie et de l’arithmétique.
Les travaux d’un mathématicien trentenaire de l’université de Bonn, Peter Schölze, prolongent ceux de Grothendieck pour tenter d'assigner une géométrie à un ensemble nommé Spec($\textbf{Z}$).
Le spectre Spec($\textbf{A}$) est l’ensemble des idéaux premiers d’un anneau $A$ quelconque. Quand $A=\textbf{Z}$, les ouverts de Spec($\textbf{Z}$) sont la partie vide et les complémentaires des ensembles formés d’un nombre fini de nombres premiers.
Schölze étudie l’ensemble Spec($\textbf{Z}$) dans un nouveau formalisme: les « espaces perfectoïdes ».
Les nombres premiers y trouvent leur représentation $p$-adic et se comportent comme la variable d'une équation.
Je ne vais pas bêtement paraphraser des « ABSTRACT » de travaux souvent jugés incompréhensibles par les spécialistes eux-mêmes. Il existe des pdf et des vidéos sur ces recherches dont le but est la quête d’une géométrie capable de s’incarner dans des espaces de caractéristiques différentes: égales à $0$, à un $p$ positif ou mixte.
Selon son auteur, la théorie des espaces perfectoïdes a pour objet le transport des informations disponibles sur $\mathbb{F}_p((t))$ vers le corps des nombres $p$-adics $\mathbb{Q}_p$ avec:
\begin{equation}
\displaystyle \mathbb{Q}_p= \{\sum_{n \gg -\infty} a_np^n \quad \vert \quad a_n \in \{0,1,…,p-1\}\} \\
\displaystyle \mathbb{F}_p((t))=\{\sum_{n \gg -\infty} a_nt^n \quad \vert \quad a_n \in \{0,1,…,p-1\}=\mathbb{F}_p\}.
\end{equation}
Seules les opérations définies sur ces ensembles les distinguent...
A la conférence de Rio 2018, Laurent Fargues pourrait annoncer une construction fondée sur les travaux de Schölze afin d’éclairer certains aspects $p$-adics du programme de Langlands et apporter des solutions partielles.
$\bullet$ $\textbf{New Scientist-Turing machines test foundations of maths}$.
Turing a montré qu’il existe des machines de Turing dont le comportement n'est pas prédit par les axiomes standards de $\textbf{ZFC}$.
On sait que tous les systèmes axiomatiques encodant l'arithmétique sont contraints par les deux théorèmes d'incomplétude de Gödel.
Si $\textbf{ZFC}$ est consistant alors il ne peut-être complet: il ne peut prouver tous les énoncés vrais.
Si $\textbf{ZFC}$ est consistant alors il ne peut prouver sa propre consistance.
Dans la lignée de ces enseignements, Adam Yedidia et Scott Aarronson du MIT ont crée une machine de Turing à $7910$ états et deux symboles d'alphabet, baptisée $Z$ et qui énumère les unes après les autres les propositions prouvables de $\textbf{ZFC}$.
La machine parcours en boucle son ensemble de $k$ états via les règles d'inférence de $\textbf{ZFC}$ qu'elle applique à chaque conclusion.
Si la machine ne s'arrête jamais alors $\textbf{ZFC}$ est consistant.
Si la machine "prouve" une contradiction telle que $0=1$, alors elle interrompt sa longue dérive axiomatique. Les logiciens n’auront plus qu’à rajouter des axiomes pour renforcer un système dont la consistance se dérobe en permanence.
Les chercheurs ont également conçu deux autres machines de Turing: l'une à $4888$ états qui doit s'arrêter si la conjecture de Goldbach est fausse. L'autre comporte $5372$ états et s'arrête si l'hypothèse de Riemann est fausse.
La traduction de problèmes mathématiques en termes de machines de Turing permet une approche concrète des problèmes de complexité.
La "machine $\textbf{ZFC}$" comporte $7910$ états alors que la "machine Riemann" n'en a que $5372$.
Les chercheurs veulent maintenant réduire le nombre d'instructions nécessaires au fonctionnement de la machine $\textbf{Z}$.
On espère que l’arrêt de la machine $\textbf{Z}$ ne signera pas l’inconsistance des mathématiques modernes !
$\bullet$ $\textbf{New Scientist-Google plans quantum supremacy}$.
Google s’est lancé dans la construction d’un ordinateur quantique destiné à dépasser les limites des meilleurs ordinateurs classiques.
Dans leur quête d'une épreuve insurmontable pour un ordinateur classique, les ingénieurs de Google se sont orientés vers la simulation d’un arrangement aléatoire de circuits quantiques.
La simulation d’un réseau de $6x4$ bits quantiques (qubits) n’exige pas plus de mémoire que n’en contient un i-phone 6.
Pour un réseau de $6x7 = 42$ qubits, elle doit être $10 000$ fois supérieure à celle du meilleur PC actuel.
En 2016 la revue New Scientist écrivait que Google avait stoppé l’expérimentation à ce stade puisqu’un réseau de $48$ qubits nécessitait une capacité de stockage égale à deux fois celle des plus puissants super-ordinateurs du moment.
Or, un an plus tard, les ingénieurs d’IBM parvenaient à simuler des circuits quantiques de $49$ qubits par des moyens classiques.
Cette prouesse étant nécessaire pour vérifier le succès d’une expérience quantique car comment le faire autrement que par des moyens conventionnels destinés à l'obsolescence ? C’est bien là toute l’ironie de l’histoire !
Les systèmes classiques doivent suivre de prés les systèmes quantiques afin de valider les éventuels succès de ces derniers.
La simulation classique de circuits quantiques à $50$ qubits est mille fois plus difficile que pour des circuits à $40$ qubits. Il y a peu de temps on pensait la chose impossible, une petite poignée d’unités quantiques supplémentaires entraînant une augmentation exponentielle des capacités de calcul.
Mais les chercheurs Scott Aaronson (encore lui !) et Lijie Chen (Université de Beijing) se sont intéressés à la meilleure façon de simuler un circuit de $n$ bits quantiques et $m$ portes. Cela est supposé avoir un « coût » de $exp(n)$ en mémoire et $exp(m)$ en temps ! Le recours à des puissances de calcul exceptionnelles et des tours de passe-passe via les "sommes de Feynman" ont permis d’obtenir une croissance linéaire en mémoire pour une durée qui demeure irréaliste même pour Google ou IBM.
La suite des travaux a donc consisté à se ramener à une durée en $exp(n)$. Un algorithme a finalement donné une mémoire linéaire et un temps en $d^{O(n)}$ où $d$ est la taille du circuit.
Avec un peu d’ingéniosité, la simulation à $60$ ou $70$ bits quantiques est "classiquement" envisageable.
Autre problème enfin: plus le système quantique est élaboré plus il est sujet au « bruit » et à la décohérence.
La fiabilité de ces nouvelles technologies passera par le développement de codes correcteurs "robustes".
Pour bien des informaticiens, l'utilisation qui est faite des méthodes quantiques revient à affréter un Airbus pour traverser la rue.
$\bullet$ $\textbf{Intégration}$.
Un journaliste demande à Cédric Villani pourquoi tel projet a été reporté. Réponse de l'intéressé:
"Il n'a pas été reporté. Il a été intégré à un nouveau calendrier..."
Il apprend vite !
...
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses