Can an integer pretend to be a square and yet not be a square? So let n be an integer which is not a square – can it be a quadratic residue modulo every prime? No. Indeed, suppose n is squarefree (square factors don’t alter the property of being a square or quadratic residue) and write n=p_1\cdots p_k. Suppose none of the p_i is 2 first. We want to find a prime q such that (\frac{n}{q})=\prod (\frac{p_i}{q})=-1. If k=1 (n is prime), it’s easy because of the quadratic reciprocity law: if n=1 [4], (\frac{n}{q})=(\frac{q}{n}) so we just have to find q which is not a square modulo n, which is the case of about the half of the residues so it shouldn’t be too hard. In general, we can even find q=1[4] with (\frac{p_1}{q})=-1 and the Legendre symbol equal to +1 for the other primes: indeed, (\frac{p_i}{q})=(\frac{q}{p_i}) then and it will be +1 if q=1[p_i]. By Chinese remainder theorem, imposing a condition modulo each p_i (q=1[p_i] for i>1 here, and q=a_{p_1}[p_1] for a fixed non-quadratic residue a_{p_1}) and modulo 4 amount to imposing a condition q=b[4n] with b\leq 4n.
And by Dirichlet’s theorem, there exists a prime number in this progression. If n is even (p_1=2, say), we argue similarly except that we must replace the quadratic reciprocity law by
the formula (\frac{2}{q})=(-1)^{\frac{q^2-1}{8}}. Thus we can for instance decide that q=5[8], thus for the odd factors (\frac{p_i}{q})=(\frac{q}{p_i}) and we can ensure these symbols are all 1 by taking a number belonging to suitable classes.

It is not too easy to bound such a q. In the case where n is prime, there is the terribly difficult Vinogradov’s conjecture which states that there should exist a q\leq\sqrt{n} non quadratic residue modulo n. But then you have to find a prime number in the congruence classe q \text{ mod } n. Linnik’s theorem ensures the existence of a prime number \ll n^L for some constant L (5.5 would do but it’s quite big, 2 is conjectured to work as well).

However, it’s a classical question in sieve theory (see an exercise in Tenenbaum’s book, chapter 4 or in Luca-de Koninck chapter 12) to ask how many n\leq x there are such that n is a quadratic residue modulo every prime p\leq\sqrt{x}. The answer is: between \lfloor\sqrt{x}\rfloor (the number of squares) and C\sqrt{x} for some constant C. The necessary restriction to p\leq\sqrt{x} is a feature of the large sieve. So there are certainly numbers who « pretend to be squares » but which are not.

This post comes directly from a talk of Elisa Covato at the seminar of the the PhD students of Bristol.

Definition of the prime graph of a group
Let G be a finite group. Let \pi (G) be the set of prime factors of \lvert G\rvert. The prime graph \Gamma(G) has \Pi(G) as vertex set and two primes r,s are neighbours if there exists g\in G whose order is multiple of rs.

Note that Lagrange’s theorem implies that every order of an element of G is a divisor of \lvert G\rvert, hence is a product of elements of \Pi(G) ; and that thanks to Cauchy, we know that every element of \Pi(G) is the order of somebody. But a product rs of elements of this set is not always the order of somebody, not even a divisor of the order of somebody.

In the case of the unique abelian group of order p_1\cdots p_k where the p_i are pairwise distinct primes, the prime graph is the complete graph.

In the case of \mathcal{A}_{10}, we have \Pi(G)=\{2,3,5,7\}. And there’s somebody of order 6, for instance (123)(45)(67) ; of order 10, for instance (12345)(67)(89). There’s also somebody of order 15, for example (12345)(678). There’s somebody of order 21, (1234567)(89A) (où A=10). But no one has order 14 nor 35. Indeed, recall that the order of a permutation is the ppcm of the orders of the cycles in its decomposition in a product of disjoint cycles ; and if 14 is the ppcm of some numbers, then 2 and 7 ; and in order to make an even permutation with at least one cycle of length 2 and at least one of length 7, you need 11 elements. For 5\times 7, you need 12 elements.

A lot of information about G is encoded in the prime graph but not every thing.

Recognition problem
Can a group G be uniquely determined by its prime graph (at least among a more or less restricted class of groups) ? So if \Gamma (G_1)=\Gamma(G_2) are the groups isomorphic ? Be careful, when I say that the graphs are equal, I mean it ! Not only isomorphic ! Otherwise for instance all the \mathbb{Z}_P have the same graph, a single vertex.

The answer is rather no in general.

Theorem (Lucchini, Morigi, Shumyatski)
Let G be a finit group. Then there exists H\leq G which is 3-generated and has the same prime graph.

Of course, the theorem doesn’t claim that H\neq G so it’s only interesting when G is not himself 3-generated (generated by a set of at most 3 elements). Moreover, if G is simple, it is even 2-generated (if you believe in the classification of finite simple groups).

Problem : let G be finite and simple. Determine (H,H) with H\leq G,\Gamma(H)=\Gamma(G).

Theorem (Burness, Covato)
Let G be finite, simple and H be a maximal subgroup. Then \Gamma (H)=\Gamma (G) implies that one of the following holds:
a) (G,H) belongs to a quite short table of exceptions.
b) G=\mathcal{A}_n,H=(\mathcal{S}_k\times\mathcal{S}_{n-k})\cap\mathcal{A}_n
Moreover, \Gamma(H)=\Gamma (G) whenever they are in the table.

I didn’t really get how the proof goes but apparently it uses a former result of Liebeck, Prager & Saxl who determined in which case the set of prime factors is the same. And then it uses an old result of Zsygmondi (1892) : for all prime power q, e integer, q^e has a prime divisor which divides no other q^i-1 with i\leq e.

When b) holds, it is not always true that the prime graphs are equal.

Conjecture : Suppose G=\mathcal{A}_n,H=(\mathcal{S}_k\times\mathcal{S}_{n-k})\cap\mathcal{A}_n with 1< k< n and p\leq n\implies p\leq k for every prime p.
Then \Gamma(H)=\Gamma (G)\Longleftrightarrow either
i)n\geq 25 is odd,k=n-1, n-4 is composite
ii)(n,k) is (6,5) or (10,7)

Goldbach's conjecture implies this conjecture. In fact
Lemma : suppose G=\mathcal{A}_{p+1}, H=\mathcal{A}_{p},p\geq 7. Then
\Gamma(H)=\Gamma (G)\Longleftrightarrow p+1=r+s.

We have restricted ourselves in all this to maximal subgroups H. Can we go further?
Theorem : let G be finite simple and H a proper subgroup. Let’s even suppose that G=\mathcal{A}_n and H is transitive (so we forbid the situation of b)). Then they have same prime graphs if and only if either
i) H is maximal and (G,H) are in the table.
ii) H is a second maximal group (maximal subgroup of maximal subgroup M).

Manjul Bhargava s’est vu décerner la médaille Fields cet été. En 2004, il publia des travaux succulents directement inspirés du maître, Gauss, et de la fontaine de toute mathématique, les Disquisitiones arithmeticae. Ce billet est un résumé d’un exposé d’Adam au séminaire des doctorants de Bristol. On peut lire ceci pour en savoir plus.

Formes quadratiques binaires
Nous allons considérer ici des applications de la forme f(x,y)=ax^2+bxy+cy^2a,b,c sont des entiers premiers entre eux (on dira alors que f est primitive). Un tel objet vient d’une matrice symétrique évidente, que nous noterons encore f, de sorte que f(v)=v^tfv. Nous introduisons le discriminant de f : \Delta (f)=-4\text{det }f=b^2-4ac. Et on supposera \Delta < 0 ; on supposera encore que b est pair, de sorte que la matrice symétrique est à coefficients entiers et non demi-entiers et \Delta=-4D Enfin nous présumons que -D un entier sans facteur carré congru à 2 ou 3 mod 4. Le fait que \Delta est négatif assure que f(x,y)=a\mid x-\tau y\mid ^2\tau est racine d'un brave trinôme x^2+b/a x+c/a=0.

L'ensemble de ces formes quadratiques sera noté BQF (binary quadratic forms).

Action de SL_2(\mathbb{Z}).
Ce groupe célèbre agit naturellement sur les matrices symétriques entières par f\mapsto \gamma^t f \gamma. Bien sûr le déterminant et donc le discriminant sont préservés.

Gauss savait déjà bien que
Théorème : BQF/SL_2(\mathbb{Z}) est naturellement muni d’une structure de groupe abélien. En fait il va même beaucoup ressembler au groupe des classes de \mathbb{Q}[\sqrt{\Delta '}].
Le génie de Bhargava a été de décrire une correspondance intuitive entre ce groupe des classes et cet ensemble de classes d’équivalence.

Une introduction iconoclaste au groupe des classes
Notons à présent R_D=\mathbb{Z}[\sqrt{-D}]=\{a+b\sqrt{-D}\mid a,b\in \mathbb{Z}\}. Vu l’hypothèse sur D, c’est l’anneau des entiers d’un corps quadratiques, et donc en particulier il est factoriel. On peut le voir comme un réseau \Lambda=\mathbb{Z}+i\sqrt{D}\mathbb{Z} de \mathbb{C}.
On dit qu’un réseau \Lambda de \mathbb{C} est un idéal fractionnaire si
R_D\Lambda=\Lambda. C’est par exemple le cas de R_D. Nous introduisons aussi une relation d’équivalence sur les réseaux : \Lambda_1\sim \Lambda_2\Longleftrightarrow \exists z\in\mathbb{C}\setminus \{0\} : \Lambda_1=z\Lambda_2. On note cl(R_D) l’ensemble des classes d’équivalences des idéaux fractionnaires de R_D. Notons que cet ensemble est naturellement muni d’une multiplication. De plus chaque élément a un inverse : en effet il suffit de poser \Lambda^{-1}=\{\alpha\in\mathbb{C}\mid \alpha\Lambda\subset R_D\}. Ainsi nous sommes en présence d’un groupe.
Théorème : cl(R_D) est un groupe fini.
Preuve : pour \Lambda\in cl(R_D), on peut écrire \Lambda=\mathbb{Z}+\tau\mathbb{Z} avec \tau\in\mathbb{H}, le demi-plan supérieur. Notons que pour \gamma\in SL_2(\mathbb{Z}), on a \gamma \cdot \Lambda_{\tau}=\Lambda_{\gamma\tau}. Oui mais SL_2 laisse globalement invariant les réseaux ; ainsi cette action nous permet de choisir \tau dans le domaine fondamental bien connu (cf dessin).
domaineFonda
Or, R_D\Lambda=\Lambda implique que \sqrt{-D}=m+n\tau pour certains m,n entiers. Mais alors \tau=-m/n+\sqrt{D}/ni et seul un nombre fini de choix d’entiers m,n fait que cette expression est dans le domaine fondamental. Donc seul un nombre fini de \tau donnent des réseaux différents et donc cl(R_D) est fini.

La bijection BQF cl(R_D)
Revenons à f(x,y)=ax^2+bxy+cy^2=a\lvert x-\tau y\rvert ^2. On lui associe le réseau \Lambda_f=\mathbb{Z}+(-\tau)\mathbb{Z}. L’action de SL_2 sur f ne change pas le réseau associé, car deux \tau différant par un élément de SL_2 produisent le même réseau (à équivalence près). Voici donc la bijection, qui munit automatiquement BQF d’une structure de groupe abélien fini.

Les cubes de Bhargava
C’est apparemment en jouant avec un Rubik’s cube 2x2x2 que Bhargava a eu sa vision. Il part en effet d’un cube 2x2x2 d’entiers, autrement dit une application \{0,1\}^3\rightarrow \mathbb{Z}.
cubes Bhargava
Un tel cube donne lieu naturellement à 3 paires de matrices 2×2 : les paires devant-derrière, haut-bas, droite-gauche. Ces trois paires sont notées (M_1,N_1),(M_2,N_2),(M_3,N_3). Elles donnent lieu à trois BQF en posant f_i(x,y)=-\text{det}(M_ix+N_iy). Exemple :
cube2
On a notamment M_1=\begin{pmatrix}  0 & 1 \\   1 & 0  \end{pmatrix} , M_2=\begin{pmatrix}  1 & 0 \\   0 & -D/4  \end{pmatrix}
et donc f_1=x^2+Dy^2/4 qui est de discriminant -D.
Fait général : les trois BQF ainsi produites ont le même discriminant.
Mettons maintenant en évidence une action de \Gamma=SL_2(\mathbb{Z})\times SL_2(\mathbb{Z})\times SL_2(\mathbb{Z}) sur les cubes. Pour \gamma\in SL_2(\mathbb{Z}),
l’action de (\gamma, I,I)\gamma =\begin{pmatrix}  r & s \\   t & u  \end{pmatrix} sur \binom{M_1}{N_1} le transforme en \binom{rM_1+sN_1}{tM_1+uN_1}. Ainsi, SL_2\times\{1\}\times\{1\} agit comme SL_2 sur f_1 et trivialement sur les deux autres. Le coup de génie de Bhargava est le suivant :
Théorème :
i) Les trois formes issues d’un même cube définissent trois classes d’équivalence unies par la relation [f_1]+[f_2]+[f_3]=0 (pour la loi de groupe définie par Gauss, issue de la bijection décrite plus tôt).
ii) Soient trois BQF f_1,f_2,f_3 de même discriminant et dont les classes ont pour somme 0. Alors il existe un cube dont elles proviennent, et ce cube est unique à action de \Gamma près.

Loi de compositions sur les cubes
Etant donné deux cubes ou classes de cubes C,C' et deux triplets de BQF uniquement associés (f_1,f_2,f_3),(f'_1,f'_2,f'_3), on peut logiquement former un triplet de BQF composé (f_1+f'_1,f_2+f'_2,f_3+f'_3). Puisque les deux triplets initiaux se somment à 0, le triplet somme lui aussi se somme à 0. Ce triplet vient donc d’un unique cube. Mais quel cube ? Quelle est loi de composition sur les cubes qui correspond à cette loi de composition des triplets de BQF ? Pas facile à voir…

Formes cubiques
Soit une forme cubique homogène (ou projective) C(x,y)=px^3+3qx^2y+3rxy^2+sy^3. Elle vient naturellement d’un cube d’entiers triplement symétrique.
cubique
Les formes cubiques ont elles aussi un discriminant, à savoir
D=p^2s^2-3q^2r^2+4q^3s+4p^3r-6pqrs. Et SL_2 agit inlassablement sur elles. Maintenant observons que ce cube hautement symétrique donne lieu à trois BQF identiques qui se somment à 0, autrement dit à un élément d’ordre 3 dans cl(R_D). En fait
Théorème : {formes binaires cubiques projectives de discriminant D}/SL_2 \sim cl(R_D)[3].

Si vous me passez cet anglo-germanisme si inhabituel de la part d’un patriote comme moi, j’aimerais vous parler un petit peu du combinatorial nullstellensatz (CNst) d’Alon, déjà évoqué brièvement sur ce blog. Hendrik Lenstra et un de ses élèves ont trouvé une application de ce théorème en théorie de Galois : ils ont mis au point un nouveau cheminement vers le théorème de la base normale.

Ce qu’on appelle habituellement CNst est l’énoncé suivant :
Soit F un corps, et P\in F[X_1,\cdots,X_n] non-nul ; supposons que cX_1^{i_1}\cdots X_n^{i_n} soit un terme (non-nul) de degré maximal dans P. Soit S_1,\cdots,S_n des parties de F vérifiant \text{card } S_k>i_k pour tout k. Alors il existe (s_1,\cdots,s_n)\in\prod S_i tel que P(s_1,\cdots,s_n)\neq 0.

Pour mémoire, le Nullstellensatz historique de Hilbert est le suivant :
Soit F un corps algébriquement clos, et g_1,\cdots, g_m des éléments de F[X_1,\cdots,X_n]. Soit f\in F[X_1,\cdots,X_n] qui s’annule en tout n-uplet où tous les g_i s’annule. Alors il existe des polynômes h_1,\cdots,h_m et un entier k tel que f^k=\sum h_ig_i.

Une reformulation plaisante passe par la notion de variété définie par un idéal. Soit I\subset F[X_1,\cdots,X_n] un idéal ; notons
V(I)=\{ x=(x_1,\cdots,x_n)\in F^n\mid \forall f\in I,\quad f(x)=0\}.
Réciproquement, si S\subset F^n, notons Z(S)=\{f\in F[X_1,\cdots,X_n]\mid \forall x\in S,f(x)=0\}. C’est bien sûr un idéal. La grande question est alors : est-ce que par hasard Z(V(I))=I ? Et la réponse est non… la vérité, dit le Nullstellensatz est que Z(V(I))=\text{Rad }I.

Cependant, il est dur de voir le rapport entre le vrai Nst et le CNst ; on se demande bien pourquoi Alon a choisi ce nom. Surtout que dans les applications, très nombreuses, et essentiellement combinatoires, du théorème d’Alon, F est presque toujours un corps fini, et les S_i sont d’ailleurs généralement égales à F : la fonction polynomiale associée n’est pas entièrement nulle.

En fait le rapport apparaît lorsque l’on déduit le CNst du lemme suivant, cousin du théorème de Hilbert : avec les notations précédentes, si m=n et chaque g_i dépend de la seule variable x_i et est scindé, unitaire (on écrit alors g_i=\prod_{s\in S_i}(X_i-s), et alors le lieu des zéros communs des g_i est \prod S_i), alors Z(V(I))=I, et ce même si le corps n’est pas algébriquement clos. Plus précisément, il existe des polynômes h_i tels que f=\sum h_ig_i avec \text{deg }h_i\leq \text{deg }f-\text{deg }g_i. Cerise sur le gâteau : si les g_i sont tous dans un même sous-anneau, les h_i peuvent être pris dans ce sous-anneau.

La preuve de ce lemme et du CNst est facile et courte, cf l’article original de Noga Alon, qui multiplie les applications convaincantes.

Une application qui lui a échappé est le théorème de la base normale. Il dit que si k\subset L est une extension galoisienne de corps de groupe de Galois G=\{g_1,\cdots,g_n\}, il existe \alpha\in L tel que g_i(\alpha) forme une base du k-ev qu’est L.

Le lemme qui permet au CNst de faire sa besogne ici est le suivant : soit k un corps algébriquement clos et A une k-algèbre de dimension finie, de dimension n. Alors il existe une base b_1,\cdots,b_n de A et un polynôme f\in k[X_1,\cdots,X_n] de degré au plus 1 en chaque variable, tel que pour tout x_1,\cdots,x_n, on ait
\sum x_ib_i \in A^{\ast} \longleftrightarrow f(x_1,\cdots,x_n)\neq 0.

Un autre lemme important est le suivant : soit S_k l’ensemble des polynômes en n variables dont le combinatorial nullstellensatz assure qu’ils ne sont pas entièrement nuls sur k^n. Si le corps est infini, c’est k[X_1,\cdots,X_n]\setminus\{0\}. S’il est fini de cardinal q=p^m, ce sont les polynômes qui ont un terme T de plus haut degré tel que pour tout i, deg_{X_i} T\leq q-1. Soit \phi\in GL_n(k). Alors \phi (S_k)=S_k.

Une fois ces lemme démontrés, on n’a pas de difficulté à conclure.

Dans un commentaire au post précédent, 2pac signalait un problème apparenté et fort classique : montrer que si k vecteurs e_1,\cdots,e_k existent dans \mathbb{R}^n avec \forall i\neq j\quad e_i\cdot e_j \prec 0 alors k\leq n+1. On dit qu’une telle famille est strictement obtusangle ; on peut reformuler ce qui précède en disant que le rang d’une famille strictement obtusangle est d’au moins son cardinal moins un. C’est classique pour un sup ou un spé et un corrigé se trouve ici : http://exo7.emath.fr/ficpdf/fic00130.pdf (c’est l’exercice 3).

Dans le même ordre idée, considérons une famille obtusangle, mais pas forcément strictement, i.e. e_1,\cdots,e_k dans \mathbb{R}^n tous non-nuls avec \forall i\neq j e_i\cdots e_j \leq 0. Quelle peut être la taille d’une telle famille ? On a déjà des exemples strictement obtusangles de taille n+1 mais peut-on faire mieux ? Oui facilement en fixant une BON e_1,\cdots,e_n et en prenant les \pm e_i, ce qui fait déjà 2n vecteurs.

Je prétends que k\leq 2n, et je le prouve. Je raisonne par récurrence sur n ; pour n=1 c’est évident. Supposons le résultat acquis pour toutes les dimensions jusqu’à n\succ 1 et fixons une famille obstusangle e_1,\cdots,e_k dans \mathbb{R}^{n+1}. Discutons selon la taille maximale \ell d’une sous-famille strictement obtusangle dans cette famille ; sans perte de généralité admettons que e_1,\ldots,e_{\ell} est strictement obtusangle. Si \ell=1, alors les produits scalaires sont deux à deux nuls ; autrement dit famille est forcément une BON donc ça taille ne dépasse pas n, qui est lui-même plus petit que 2n. En général, si \ell\geq 2, une telle sous-famille est de rang au moins \ell -1 ; soit E le SEV qu’elle engendre et F son orthogonal. Projetons orthogonalement les autres vecteurs de la famille obtusangle sur E : soit e'_i le projeté de e_i. Pour j\leq\ell, on a e'_i\cdot e_j=e_i\cdot e_j\leq 0.

Euh là j’ai cru que c’était forcément 0… en fait c’est certain quand le rang est \ell -1 et non l. Mais quand c’est \ell que dire…
On pourrait essayer de raisonner sur la taille maximale d’une famille strictement obtusangle de rang son cardinal moins un… mais c’est fumeux. Ce serait intéressant pour prouver que la taille d’une famille obtusangle sachant qu’elle contient une famille strictement obtusangle de taille k, rang k-1, est au plus 2(n+1)-k.

Une méthode plus sûre est la deuxième du lien indiqué, un peu adaptée. Donc encore par récurrence. C’est vrai en dimension un ; supposons acquis le résultat jusqu’à la dimension n et soit x_1,\cdots, x_p en dimension n+1. On prend les projetés orthogonaux sur l’orthogonal de x_p, qui forment à leur tour une famille obtus angle en dimension n. Donc y en a au plus 2n, donc p\leq 2n+1. Bizarre ! L’erreur, c’est qu’en fait il pourrait bien y avoir un projeté orthogonal nul… Mais seulement un, car il ne peut y avoir outre x_p qu’un seul vecteur x_i colinéaire à x_p, non-nul et ayant un ps négatif avec lui.

Au passage on voit, par récurrence, que les familles de taille maximale (2n) sont faites d’une base orthogonale et de n vecteurs négativement colinéaires.

Si un atome central avait n+1 voisins identiques dans \mathbb{R}^n, à quoi devrait ressembler la configuration et quels devraient être les angles entre deux doublets liants ? On voit bien que dans le plan il suffit de diviser les 2\pi de manière équitable en 3 angles, soit un angle de 120°. De même un chimiste sait bien que dans CH_4, les quatre liaisons CH forment deux à deux des angles de 109° (en fait arccos(-1/3)). Comment généraliser ?

Analyse

Soient e_1,\ldots, e_{n+1} des vecteurs de norme 1 avec \forall i\neq j,\quad e_i\cdot e_j=a. Quel doit alors être ce a ?

Formons la matrice de Gram de cette famille de vecteurs G=(e_i\cdot e_j)_{i,j=1,\ldots,n+1}. Elle s’écrit
formule3

Or, on sait bien que le rang de la matrice de Gram est le rang de la famille des vecteurs ; vu qu’ils sont dans \mathbb{R}^n, c’est donc une matrice non-inversible et elle est bien obligée d’avoir 0 comme valeur propre. Mais ses valeurs propres sont (1-a) avec multiplicité géométrique n et 1-a+na=1-(n-1)a avec multiplicité 1. On veut donc a=-\frac{1}{n-1} (il ne faut pas demander a=1, qui revient à dire que tous les vecteurs sont égaux).

Synthèse

Pour construire une telle configuration en dimension n, on procède par récurrence. On suppose la construction réalisée au rang n-1 (on sait faire trivialement pour n=1 et on pose a=-\frac{1}{n-1}. Soit v un vecteur unitaire quelconque de \mathbb{R}^n. Soit H l’hyperplan affine passant par av des vecteurs x tels que x\cdot v =a. Pour u dans cet hyperplan on pose u'=u-av\in v^{\bot}. Alors pour u_1,u_2\in H on voit que :

u_1\cdot u_1=u_2\cdot u_2=1\text{ et } u_1\cdot u_2=a

si et seulement si

u'_1\cdot u'_1=u'_2\cdot u'_2=1-a^2=\frac{n(n-2)}{(n-1)^2}\text{ et } u'_1\cdot u'_2=a(1-a)=-\frac{n}{(n-1)^2}

ce qui, à renormalisation près, est justement le problème en dimension n-1. Donc le problème est résolu par récurrence.

On peut voir que les vecteurs e_1,\cdots,e_{n+1} sont uniques à permutation et rotation près.

L’objet de ce billet est de faire sentir le lien très fort entre les propriétés « avoir beaucoup de racines alignées sur une droite passant par 0 » (par exemple réelles) et « avoir de grands coefficients ». Evidemment vu que multiplier un polynôme par une constante ne modifie pas ses racines, il va falloir clarifier ça.

Une première indication est que si P=(X-\alpha_1)\cdots (X-\alpha_k) où les racines complexes ont des arguments très variables, les coefficients seront des déterminées par des sommes et produits symétriques de ses racines, et donc ont tendance à être des sommes de nombres complexes pointant dans toutes les directions, ce qui a tendance à être petit (cf l’entrée « au-delà de l’inégalité triangulaire »).

Polynômes cyclotomiques

Une première indication est que les polynômes cyclotomiques, qui ont des racines un peu dans toutes les directions, ont tendance à avoir de très petits coefficients, à savoir -1, 0 et 1. C’est effectivement le cas pour tous les polynômes cyclotomiques jusqu’au numéro 105 (et en général c’est le cas de tous ceux qui n’ont que deux facteurs premiers impairs).

Polynômes aléatoires

On peut démontrer (cf agreg externe 2006) que le nombre moyen de racines réelles d’un polynôme de degré au plus n P=a_0+\cdots+a_n X^n dont les coefficients sont des variables aléatoires gaussiennes indépendantes centrées réduites est de l’ordre de \log n, soit très peu. Pour comparer, si l’on prend à présent a_k selon une gaussienne centrée de variance \binom{n}{k} (les coeff centraux sont autorisés à varier beaucoup plus), le nombre moyen de racines réelles est de l’ordre de \sqrt{n}, soit beaucoup plus !

Moralité : si on laisse le polynôme avoir des coeffs de tailles très variables (grandes au milieu, petites au bout), on lui permet d’avoir beaucoup de racines réelles.

Majoration du nombre de racines réelles

Introduisons la longueur d’un polynôme : c’est la somme des valeurs absolues des coefficients.

Alors le nombre r de racines réelles d’un polynôme P=a_nX^n+\cdots +a_0 avec a_0a_n\neq 0 vérifie

r^2\leq 4n\log\frac{L(P)}{\sqrt{\lvert a_0a_n\rvert}}

Répartition des arguments des racines

On reprend les hypothèses et notations précédentes et on note \phi_1,\cdots,\phi_n les arguments dans [0,2π[ des n racines de P (0 n’est pas racine). On note N(\alpha,\beta) le nombre de ces arguments qui se trouvent dans (\alpha,\beta). Alors

formule

Ceci peut s’interpréter en termes d’équirépartition des arguments dans le cercle.

On vient de voir que le paramètre intervenant de manière cruciale concernant la taille des coefficients est

formule2. Ce paramètre est toujours positif(encore heureux) et particulièrement petit quand les coefficients du milieu sont petits et que les deux extrêmes sont en gros de la même taille.

 

Le théorème de Cantor-Bernstein stipule que si un ensemble A s’injecte dans B et que B s’injecte dans A, alors A et B sont en bijection. Ce théorème est évident dans le cas fini. Il est intéressant dans le cas général. Une méthode particulièrement intelligente est une méthode de point fixe, voir les raisonnements divins.

Il est naturel de se demander si ce théorème fonctionne dans d’autres catégories. Si A et B sont des structures et qu’il existe un morphisme injectif de A dans B et un morphisme injectif de B dans A, A et B sont-ils isomorphes ?

Par exemple, examinons la catégorie des espaces vectoriels de dimension finie. La réponse est alors trivialement oui.

Catégorie des espaces topologiques

Il n’y a pas de théorème de Cantor-Bernstein topologique. Pour le voir considérer l’exemple suivant :

A=]0,1[\cup\{2\}\cup ]3,4[\cup \{5\} \cup ]6,7[ \cdots et

B=]0,1] U ]3,4[ U \{5\} U ]6,7[

A injecte dans B avec f(x)=x pour x\neq 2 et f(2)=1. B injecte dans A en mettant le premier intervalle de B dans la première moitié du ]0,1[ du A, le deuxième segment dans la deuxième moitié, puis avec x\mapsto x-3.

Mais ils ne sont pas homéomorphes puisqu’aucune des composantes connexes ne ressemble à ]0,1], qui est un intervalle semi-ouvert…

Catégorie des espaces topologiques compacts

En revanche ça marche bien pour les espaces compacts ! Rien d’étonnant car les compacts fonctionnent approximativement comme des ensembles finis, pour lesquels le théorème est particulièrement vrai.

En fait la méthode de point fixe fonctionne à merveille dans le cadre des compacts à cause de la propriété remarquable dont jouissent les morphismes de cette catégorie :

Un morphisme bijectif est un isomorphisme. En particulier un morphisme injectif est un isomorphisme sur son image.

Zut il y a un bug, j’obtiens que \phi est continue sur A_0 et son complémentaire mais pas moyen de passer à l’ensemble total avec ça ! Malheur !

Catégorie des espaces de Banach

On trouve dans Analyse mathématique – grands théorèmes du XXè siècle une discussion d’un théorème de Cantor-Bernstei pour les Banach. Ce problème est intimement lié à celui de la complémentation : on dit qu’un sous-espace fermé F d’un Banach E est complémenté s’il admet un supplémentaire stable.

Théorème de Pelczynski : soient X,Y deux Banach. On suppose que :

i) X est isomorphe à un sous-espace complémenté de Y

ii) Y est isomorphe à un sous-espace complémenté de X

iii) X et Y sont isomorphes à leur carré

Alors X est isomorphe à Y.

Ces hypothèses sont nécessaires.

Cet article est une piètre interprétation personnelle d’une communication privée de Ben, thésard à Dijon.

La théorie des nœuds est une théorie mathématique exemplaire à au moins deux titres ; premièrement car elle est une théorie classifiante, illustrant l’une des grandes missions des mathématiques : mettre de l’ordre, regrouper ce qui est semblable, distinguer ce qui est distinguable ; deuxièmement car elle est le théâtre du combat mentionné à travers la citation de René Thom de l’article précédent entre « la rigueur et le sens ».

En effet, son objet tente beaucoup l’intuition ; la méfiance du mathématicien envers l’intuition le conduit à emprisonner le nœud qui lui fait de l’œil dans une cage axiomatique. Son ennui profond devant sa créature apprivoisée devenue insignifiante lui donne envie de libérer clandestinement le nœud… C’est ainsi que se met en place un va-et-vient typique entre l’intuitif et le formel.

Prenez un lacet de chaussure, faites un nœud standard, et collez de manière indissoluble les deux extrémités. Vous pouvez alors promener votre nœud dans l’espace à votre guise, avec interdiction de prendre des ciseaux pour l’ouvrir, le renouer et recoller les bouts.  On a bien envie de dire que c’est le même nœud.  Mais comment exclure la possibilité qu’un prestidigitateur particulièrement habile parvienne sans tricher à dénouer le nœud ? Il nous faut donner un sens mathématique sérieux à ces considérations pour pouvoir les traiter sérieusement.

Pour nous donner du courage, jetons un œil à cette belle classification des nœuds :

 

Table des nœuds à au plus 7 croisements

 

Régalons-nous aussi de ces véritables sacs de nœuds dont les moines du Moyen-Âge nous gratifiaient régulièrement, pour orner agréablement leurs évangéliaires, en particulier en Irlande.

Une page du livre de Kells (IXè siècle)

On appellera donc nœud tout plongement disons C^1 de \mathbb{S^1} dans \mathbb{R}^3. On déclarera équivalents deux nœuds si les plongements sont isotopes.

Ce nécessaire travail de fondation étant fait, nous n’avons qu’une envie, c’est de refaire un pas vers l’intuition en considérant les diagrammes de nœud, c’est-à-dire les projections sur le plan horizontal passant par l’origine munis d’une information « dessus-dessous », comme sur la table de classification des nœuds ci-dessus. On admettra au passage qu’il y a moyen d’arranger le nœud dans l’espace de manière à ce que la verticale de tout point du plan de projection se trouvent au plus deux points du nœud et que s’il y a deux points, leurs tangentes ne soient pas parallèles, afin d’obtenir ces belles projections où au plus deux brins se rencontrent à chaque croisement, et où les croisements sont « francs » (pas de tangence ignoble).

Au fond les diagrammes de nœud ne sont que de braves graphes plans où chaque sommet est de degré 4, et est muni d’une information supplémentaire pour le « dessus-dessous ». A partir du diagramme on peut reconstruire un nœud dans l’espace.

A présent on ne considèrera que ces diagrammes.  Malheureusement, deux nœuds équivalents peuvent avoir un diagramme assez différent. Ainsi, le « non-nœud » (bête cercle dans l’espace) peut recouvrir les apparences suivantes.

Des diagrammes du nœud trivial

Comment donc confondre l’imposture de ces vains croisements ? Qui va nous dire la différence essentielle entre le schéma ci-dessus et le schéma ci-dessous, où l’on sent bien qu’il y a des vrais nœuds ?

Un faux nœud et de vrais nœuds

Il est donc crucial à présent de comprendre comment un mouvement légal du nœud dans l’espace se répercute sur son diagramme. Dans la plupart des cas, ces mouvements se font sans provoquer sur le diagramme de nouveaux croisements ni en annihiler. Mais parfois, si ; et alors quels genre de mouvements peuvent se produire ?

En d’autres termes, on veut trouver une liste (si possible courte) de « mouvements » (quel que soit le sens de ce terme) sur l’ensemble des diagrammes tels que si K et K’ sont des nœuds de diagramme D et D’ :

K est équivalent à K’ si et seulement si D’ s’obtient à partir de D par des isotopies planes et des mouvements de la liste.

Cette liste, c’est la liste de Reidemeister qui contient trois mouvements.

Maintenant nous ne sommes pas très avancés, car qui peut garantir qu’aucun mouvement de Reidemeister ne peut conduire du diagramme ci-dessous du nœud de trèfle au cercle ? Il nous faut introduire une propriété de ce diagramme, qui se conserve par isotopies planes et mouvements de Reidemeister, que ne partage pas le cercle. Cette propriété, c’est la tricolorabilité.

On appelle brin toute portion du diagramme joignant deux croisements. On dit qu’un diagramme est tricolorable s’il existe une coloration en trois couleurs du diagramme telle que :

1) Au moins deux couleurs sont utilisées ;

2) à chaque croisement, soit les trois brins ont la même couleur, soit ils utilisent les trois couleurs, cf figure :

Un croisement ; soit une unique couleur, soit trois.

Or, il est évident que :

-le diagramme du nœud de trèfle est tricolorable (donner une couleur spécifique à chacun des trois brins) :

Trois couleurs pour le nœud de trèfle

-le diagramme du nœud trivial ne l’est pas (il n’y a qu’un brin, donc une seule couleur alors qu’il en faut deux au moins) ;

-la tricolorabilité est conservée par mouvements de Reidemeister : en effet, si une coloration d’un diagramme vérifie les conditions prescrites et qu’on applique un mouvement de Reidemeister en conservant les couleurs, la coloration du nouveau diagramme vérifie encore les conditions. Là où on introduit de nouveaux croisements (type I et II), ce sont des croisements à une seule couleur. Pour le type III, il faut réfléchir un peu et distinguer des cas mais ça marche. De plus, les isotopies planes (mouvements sans toucher aux croisements) conservent la tricolorabilité évidemment.

Ainsi, le nœud de trèfle est tricolorable (tous ses diagrammes le sont) et pas le nœud trivial (aucun de ses diagrammes ne l’est). Voici donc une distinction entre les deux, et un exemple emblématique et particulièrement intuitif de l’idée de classification en mathématiques.

Aujourd’hui, plus que jamais, les mathématiques méritent leur nom : pour les collégiens et lycéens d’aujourd’hui, ainsi que pour leurs parents anxieux, les mathématiques constituent la discipline, la connaissance, l’enseignement par excellence. Elles dominent le marché du parascolaire et de l’aide aux devoirs. Elles fournissent un mode de sélection pratique, dont usent et abusent les grandes écoles.

 Survolons rapidement les évolutions de l’enseignement des 1 500 dernières années pour arriver à 1900 : la discipline mathématique européenne est l’héritière lointaine du quadrivium ou quadruple voie, constitué de l’arithmétique, de la musique, de l’astronomie et de la géométrie. Le quadrivium, à côté du trivium, qui regroupait les futures disciplines littéraires, la grammaire, la rhétorique et la dialectique, faisait partie des sept arts libéraux, par oppositions aux arts serviles et aux beaux-arts, consacrés à la contemplation intellectuelle du vrai. Le fait que trivium ait donné naissance au mot trivial, synonyme de banal pour les mathématiciens, témoigne bien de la suprématie actuelle du quadrivium.

Ces sept arts libéraux ont été définis par les latins Cassiodore et Boèce au VIè siècle, puis revivifiés par Alcuin le précepteur de Charlemagne et mis au fondement de la Renaissance carolingienne. Le quadrivium, presque abandonné dans les monastères jusqu’à l’an mil, prend vraiment son essor pendant la Renaissance du XIIè siècle, stimulé par la rencontre avec la science arabe.

Passons sur le XVIè siècle, qui voit le quadrivium prendre une importance croissante dans la formation de l’élite, et sur le XVIIè siècle, où Galilée affirme la doctrine selon laquelle le langage de la nature est la géométrie et où les premières Académies des sciences sont fondées (Académie des Lynx à Rome en 1603, Royal society en 1660, Académie des sciences de Colbert et Louis XIV en 1666).

 Au XVIIIè siècle, la France invente les écoles d’ingénieurs. La doyenne, l’Ecole Royale des ponts et chaussées, est fondée en 1747. D’emblée, la géométrie et l’algèbre y jouent un rôle prépondérant. En 1783, Louis XVI fonde l’Ecole Royale des mines. En 1794 apparaît l’Ecole Polytechnique, fondée par Gaspard Monge et Lazare Carnot ; elle devient rapidement un lieu de passage obligatoire pour les futurs élèves des autres écoles d’ingénieurs, qui deviennent des écoles d’application. L’éphémère Ecole normale de l’an III accorde également une grande importance (un tiers des leçons) aux mathématiques (enseignées par Laplace, Monge et Lagrange), et témoigne du rôle crucial que doit jouer, selon l’idéal révolutionnaire, la formation mathématique dans la préparation des futurs maîtres. A partir de ce moment-là, l’enseignement des mathématiques est considérée par les grandes puissances comme un enjeu majeur. En Allemagne, le succès de Napoléon est imputé à la solide formation mathématique reçue par les ingénieurs et les cadres militaires, ce qui contribue à la propagation du modèle français. Réciproquement, le triomphe de la Prusse en 1870 est perçu en France comme le signal que la France est en retard dans l’enseignement des mathématiques et suscite un désir d’amélioration.

 I-La réforme de 1902

1)L’enseignement secondaire en France en 1900

En 1900, l’enseignement secondaire, dispensé par les lycées, vénérable institution impériale, ne succède pas à l’enseignement primaire mais lui est parallèle. Il se caractérise par un enseignement à caractère volontairement culturel et non utilitaire, fondé sur les humanités classiques, et par un élitisme extrêmement marqué : le lycée concerne seulement 2 à 3% d’une classe d’âge, exclusivement les garçons. Il est payant, à l’inverse de l’enseignement primaire (et de son extension, le primaire supérieur). Des amendements ont certes été apportés tout au long du XIXè siècle. En 1865, Victor Duruy crée l’enseignement secondaire spécial, où pénètrent les « humanités modernes » et notamment les langues vivantes au détriment des langues spéciales ; cette filière reste perçue comme inférieure. De plus, elle se « classicise » rapidement, au point d’être presque indiscernable de la filière classique en 1890. En 1880 sont crées les lycée de jeunes filles (Camille Sée). Comment résister au plaisir de citer le député Sée : « Il ne s’agit ni de détourner les femmes de leur véritable vocation, qui est d’élever leurs enfants et de tenir leurs ménages, ni de les transformer en savants, en bas-bleus, en ergoteuses. Il s’agit de cultiver les dons heureux que la nature leur a prodigués, pour les mettre en état de mieux remplir les devoirs sérieux que la nature leur a imposés. » 

2)La philosophie de la réforme

Mais autour de 1900, le modèle des humanités classiques est en crise. La question fondamentale d’alors est de de décider quelle culture on souhaite inculquer à la future élite à l’ère industrielle. A l’heure où le positivisme règne en maître, la place accordée aux sciences et notamment à la méthode inductive paraît insuffisante. On loue hautement les bienfaits des mathématiques dans la formation de jeunes esprits ; en bons disciples d’Auguste Comte, on trouve que « l’apprentissage des mathématiques constitue la base normale de toute saine éducation logique ». Puisqu’il faut nécessairement que peu ou prou, l’esprit humain individuel suive l’évolution historique de l’esprit humain universel, et que la géométrie a été « le berceau de la positivité rationnelle », il faudra s’appuyer sur cette science pour former la future élite de l’âge positif. Mentionnons toutefois la méfiance du positivisme pur à l’égard de l’hégémonie mathématique ; Comte dit bien que la géométrie est le berceau, et non le trône de la positivité rationnelle. Il faut être capable de dépasser la géométrie, l’idéal de Comte étant de « positiviser » la sociologie. De manière générale, un idéal d’humanités scientifiques commence à prendre forme à la fin du XIXè siècle et débouche sur la réforme de 1902. L’idée d’une « science éducatrice » chère à Marcellin Berthelot s’impose, sinon dans l’opinion, au moins dans le monde universitaire.

C’est Alexandre Ribot, ancien président du Conseil, qui formule, dans la plus pure doctrine posiviste, ce nouvel idéal éducatif : « si l »on considère les sciences, non les lettres, comme l’ossature intérieure des études, le noyau, le centre, je constate que tout devient intelligible et qu’il n’est plus besoin d’autant d’orbes et d’épicycles pédagogiques. »

Préparée par une consultation nationale de grande ampleur à partir de 1899, qui voit défiler à l’Assemblée nationale des centaines d’experts d’horizon divers (universitaires, enseignants, acteurs de la vie politique et économique…), cette ambitieuse réforme, pilotée depuis l’intérieur de l’Université (notamment par le mathématicien Gaston Darboux) modifie à la fois la structure de l’enseignement secondaire et ses contenus. Le lycée s’organise à présent en un tronc commun de quatre ans (de la 6è à la 3è), avec latin et grec encore obligatoires, puis se subdivise en quatre sections, avec un baccalauréat unique. Elles sont appelées A (latin-grec), B (latin-langues vivantes), C (latin-sciences) et D (langues-sciences).

3)L’enseignement des mathématiques

Après avoir ausculté les aspects philosophiques et institutionnels de la réforme, concentrons-nous sur les contenus des enseignements mathématiques qui en résultent.

D’abord, notons qu’un mouvement international de recherche sur la didactique des mathématiques se développe dès la fin du XIXè siècle. La revue L’enseignement mathématique est lancée en 1899. Lors du congrès international des mathématiciens de Rome en 1908, une Commission internationale pour l’enseignement des mathématiques est créée, et L’enseignement mathématique en devient l’organe officiel. C’est l’éminent mathématicien Felix Klein qui en prend les commandes. Elle devient un lieu efficace et dynamique d’échanges et de collaborations internationaux. On débat à ce niveau aussi de la prééminence du caractère culturel ou du caractère pratique et utile des mathématiques. En fait, par cette Commission, les changements mis en place en France vont trouver un écho et faire des émules dans les autres pays industrialisés. La principale nouveauté des programmes de 1902 est l’introduction du calcul différentiel et intégral dans le secondaire. Dans son discours au congrès du CIEM de 1914 à Paris, Guido Castelnuovo rappelle que la France a « introduit d’une manière systématique, avant les autres pays, les notions de dérivées et de fonctions primitives dans les programmes de lycées ». Il faut bien voir que l’enseignement secondaires des mathématiques d’avant 1902 se cantonnait à la géométrie antique et à l’algèbre de la Renaissance (résolution des équations). Lorsque Gaston Darboux fait le bilan, à ce même Congrès, de la réforme française, il souligne les quatre acquis, à présent internationaux :

1)l’introduction dans l’enseignement élémentaire du calcul des dérivées et même de notions de calcul intégral ;

2) l’emploi systématique en géométrie des méthodes de transformation qui simplifie l’étude et apporte un principe de classification (NDLR : ce le fameux « programme d’Erlangen » annoncé en 1872 par Felix Klein).

3) le développement donné aux applications qui sont posées par la pratique, à l’exclusion de ces problèmes qui n’ont aucune racine dans la réalité (NDLR : positivisme pur);

4) le développement aussi complet que possible de l’initiative personnelle chez tous les élèves qui prennent part à l’enseignement et une préoccupation incessante d’une bonne formation de l’esprit.

Trois grands débats traversent les communautés impliquées dans l’enseignement mathématique au début du XXè siècle. Premièrement, on réfléchit à l’organisation des savoirs, à leurs relations, d’un point de vue à la fois purement logique, internaliste, et d’un point de vue pédagogique. Faut-il par exemple fusionner la géométrie plane et la géométrie dans l’espace ? Faut-il enseigner d’abord la dérivation puis l’intégration ou l’inverse ? Comment articuler géométrie analytique et géométrie synthétique ? Ces vastes réflexions annoncent déjà la grande entreprise bourbakiste de structuration des mathématiques. D’autre part, on se demande comment articuler la rigueur et l’intuition. Enfin on discute de l’intégration des nouvelles données de la psychologie de l’enfance et de leurs conséquences.

4) Critiques négatives

Les tenants d’une éducation classique, en premier lieu les professeurs de latin-grec, sont sur la défensive. Charles Péguy, dans ses Cahiers de la quinzaine, à l’occasion de la rentrée de 1904, dénonce une perte de sens de l’enseignement, un affaissement moral, avec l’incroyable virulence dont il est coutumier : « Les parasites politiques parlementaires de tout le travail humain, les politiciens de la politique et de l’enseignement ont beau célébrer la science et le monde moderne et la société contemporaine en des ripailles cérémonielles ; ni la chaleur communicative des banquets, ni les décorations et les discours programmes et les toasts et les manifestations et les distributions d’eau bénite laïque ne font une humanité, un enseignement, une culture. »

Léon Blum, homonyme du célèbre homme d’Etat, professeur de lettres au Lycée Janson de Sailly, déplore la montée en puissance de l’enseignement mathématique et scientifique au détriment des humanités en ces termes : Ainsi disparaît l’incomparable éducation qui permettait aux jeunes esprits de suivre dans les grandes œuvres l’évolution des idées, de la morale et des formes que prend la pensée à travers les siècles.

 5) Postérité de la réforme

Après la guerre, vue comme « le conflit de deux cultures inconciliables » par le ministre de l’Instruction Sarraut en 1915, la volonté de liquider la réforme de 1902 s’affirme. Sur fond de germanophobie idéologique, on affirme avec passion la supériorité de la culture française fondée sur les humanités gréco-latines contre l’utilitarisme scientifique germanique. C’est ainsi qu’en 1923 puis en 1925 sont adoptées des réformes suivant le slogan de l’ « égalité scientifique », qui consiste concrètement en une certaine réuniformisation des quatre sections du lycée, afin d’assurer l’assimilation d’un fonds commun d’humanité à tous les élèves et de mettre fin au désarmement scientifique des littéraires.

Le mouvement de flux et de reflux des humanités scientifiques peut bien sûr s’observer jusqu’à nos jours, et l’enseignement des lettres classiques continue à agoniser…

 II-La réforme des mathématiques modernes (1966-1973)

1)Le contexte philosophique et culturel

Si l’on peut dire que la réforme de 1902 marque le triomphe du positivisme, celle des années 1965 est le triomphe du structuralisme, et de sa filiale mathématique, le bourbakisme. La méthode inductive et positive, qui a permis au XIXè siècle le succès de la thermodynamique et de la « mécanique rationnelle », est remise en cause par les développements de la physique du XXè siècle, avec la relativité et la mécanique quantique. Leur incontestable succès n’a pu se faire que grâce à des mathématiques abstraites et déjà structuralistes (algèbre linéaire, groupes de transformations). Les mathématiques ne sont plus un outil, un langage commode ; elles sont l’essence même de la nature. Alors que la physique du XIXè siècle ne voulait plus entendre parler de causes premières et de fins dernières, celle du XXè siècle prétend accéder à la structure des lois intrinsèques de la nature. C’est ainsi que Pierre Duhem et Marcellin Berthelot, pourtant farouches adversaires, se trouvent réunis pour dénoncer l’hypothèse atomique, superflue et située hors du champ de la science positive. Les succès scientifiques et industriels des atomistes scellent le sort du positivisme.

Le mouvement bourbaki naît dans les années 1930 de la dissonance croissante et de plus en plus handicapante entre l’enseignement universitaire des mathématiques et le rapide progrès de la recherche. Choqués par la redécouverte de la tradition mathématique allemande (bloquée par des années de véritable germanophobie), magistralement synthétisée par le néerlandais Bartel Leandert van der Waerden dans Moderne Algebra, de jeunes mathématiciens dynamiques issus de l’Ecole Normale Supérieure décident de rédiger de nouveaux manuels de mathématiques. Ils feront beaucoup plus ; les Eléments de mathématiques refondent, réorganisent, façonnent de manière durable le champ mathématique. La notion de structure est le centre de tout ; la première structure dans l’ordre logique, la structure presque « nue », est l’ensemble. Sur un ensemble peuvent se greffer diverses structures spécialisées, algébrique (groupe, anneau, corps, espace vectoriel), topologique (norme, distance, topologie brute, espace uniforme), combinatoire (ordre partiel, graphe), probabiliste, qui peuvent se combiner agréablement. L’axiomatisation de toute chose rêvée par Hilbert est enfin réalisée. Dans tous les champs de la pensée, la rénovation bourbakiste est louée à pleine gorge. Le structuralisme, né de la recherche en linguistique, trouve son porte-étendard. Claude Lévi-Strauss veut collaborer avec André Weil pour enfin formaliser l’anthropologie. « On peut être dès aujourd’hui certain que les jeunes spécialistes des sciences sociales devront désormais posséder une solide et moderne formation mathématique, sans quoi ils seront balayés de la scène scientifique. »

 L’élément déclencheur de la réforme est peut-être le succès de Spoutnik en 1957, vécu comme un traumatisme en Amérique et dans tout le bloc occidental. Comme les diverses fortunes militaires des grandes puissances aux XIXè et XXè siècle, il est attribué à une meilleure formation scientifique et notamment mathématique en URSS. En Amérique, l’heure des New Math a sonné. En France, l’avènement des maths modernes est inéluctable. Avant que le débat ne s’étende à toute l’éducation nationale, la question des maths modernes se pose par exemple à l’Ecole Polytechnique. « Entre les petits chapitres très variés de l’analyse et de la géométrie, accessibles à tous et proches des applications de l’enseignement classique, et les grandes théories généralisatrices fort abstraites, accessibles aux meilleurs, éloignées des applications et très philosophiques, mais formatrices de l’esprit de synthèse que réclame la réforme, le choix n’est pas évident », admet Raymond Cheradame, directeur des études de la prestigieuse école d’ingénieurs, modérément convaincu par l’apport des nouveautés promues par André Lichnerowicz et compagnie. Mais ceux-ci, agitant notamment le spectre de Spoutnik, alors que l’école russe brille par son axiomatisation des probabilités (Kolmogorov) menacent : « Veut-on que dans peu d’années nos mathématiciens apparaissent comme sous-développés sur le marché international ? » demande Lichnerowicz à l’Académie des Sciences en 1972.

 2) L’exécution de la réforme

Le désir de réformer l’enseignement des mathématiques dans les années 1960 naît donc de l’engouement pour les structures, du fossé abyssal entre les révolutions scientifiques récentes et l’enseignement ringard, et de la crainte de devenir un pays sous-développé dans les décennies à venir. Une première réforme se fait discrètement et en douceur entre 1960 et 1967. Ce n’est pas du tout le souci de l’adaptation à l’industrie qui s’y exprime, mais bien plutôt le désir d’abstraction bourbakiste. C’est ainsi que, pour la première fois, la notion de limite apparaît dans toute sa perfection (avec les quantificateurs, les epsilon et les delta) dès la classe de première.

Mais la révolution survient vraiment avec le programme de 1968. Dès 1959, la croisade contre les mathématiques ringardes est lancée par Jean Dieudonné avec le fameux cri de guerre : « A bas le triangle ! A bas Euclide ! ». Les éléments d’Euclide devaient donc s’effacer devant les éléments de Bourbaki ; idéalement, il faudrait que les élèves apprennent dans l’ordre l’édifice Bourbakiste (tome 0 : théorie des ensembles ; tome 1 : algèbre générale ; etc.). Comme si l’ordre chronologique devait coïncider avec l’ordre logique… La géométrie, thème privilégie par l’enseignement primaire, puisqu’il se prête particulièrement à la démarche d’observation, de conjecture et de démonstration, n’est qu’un cas particulier de l’algèbre linéaire ; pourquoi donc s’y éterniser ? En 1966, André Lichnerowicz, grand mathématicien, proche de Bourbaki, est chargé d’une commission ministérielle pour l’élaboration des programmes modernes. L’opération vire au désastre. Contrairement à la réforme de 1902, elle se fait dans la précipitation. Elle est l’œuvre d’universitaires bien plus que de praticiens de l’enseignement. De plus, les mathématiciens y travaillent seuls, abandonnant tous leurs liens avec leurs collègues physiciens, qui ne réagissent qu’en 1972. Bourbaki n’était pas un grand amoureux de la physique… L’axiomatisation à outrance, cautionnée par les psychologues structuralistes comme Jean Piaget, fait des ravages. C’est ainsi qu’un manuel de 4è fournit une définition axiomatique de la droite réelle.

Un ensemble D d’élements appelés points est une droite réelle s’il existe une famille de bijections de D sur l’ensemble des nombres réels, appelés graduations de D, vérifiant l’axiome suivant : pour deux graduations quelconques g et g’ de D, il existe deux nombres réels a et b, tels que pour tout point M de D, g'(M)=ag(M)+b.

Bien sûr, ceci présuppose que les notions d’ensembles, en particulier les ensembles numériques, étaient introduites dès le plus jeune âge.

Un autre exemple instructif est la notion de vecteurs. En 1947, on apprenait en seconde qu’un « vecteur est un segment de droite orienté, c’est-à-dire un segment sur lequel on a fixé un sens de parcours ». En 1960, on fournit les curieuses définitions suivantes : un vecteur libre est un vecteur défini par sa direction, son sens et sa grandeur. Un vecteur glissant est défini par son support, son sens et sa grandeur. Un vecteur lié est un vecteur dont l’origine, la direction, le sens et la grandeur sont parfaitement définis. En 1971, dans le manuel de 4è déjà dénoncé, on proclame : dans l’ensemble des bipoints d’une droite, la relation d’équipollence est une relation d’équivalence ; on appelle alors vecteur directeur de la droite la classe d’équivalence d’un de ces bipoints, et on note AB le vecteur dont un représentant est le bipoint (A ; B).

 Le facteur qui précipita l’échec et la chute de la Commission Lichnerowicz dès 1973 est le processus de démocratisation de l’enseignement secondaire. Le nombre d’élèves n’avait jamais été aussi grand, et le recrutement d’enseignants aussi problématique. Bon nombre d’enseignants n’avaient d’autre parchemin que le baccalauréat et n’avait jamais entendu parler de structures. L’opposition venait même des rangs universitaires, puisque le grand René Thom, qui n’a jamais été Bourbakiste, mais médaille Fields 1958, affirme qu’à insister sur la rigueur on perd le sens. Il est profondément vrai que la mathématique n’est parfaitement rigoureuse que quand elle ne veut plus rien dire. C’est bien ce que disait Hilbert quand il exigeait que l’on soit capable de remplacer mentalement point, droite et plan par chaise, table et Bierkrug (verre de bière ?). René Thom, lui, a toujours privilégié le sens à la rigueur.

III-Nouvelles tendances

Une « contre-réforme » notable paraît en 1985. Son trait caractéristique est le retour en force de la bonne vieille géométrie euclidienne. Le rêve de la mathématisation des sciences humaines et de la généralisation à toute l’humanité du langage mathématique a vécu. L’ « impéralisme » mathématique a essuyé quelques critiques virulentes depuis quarante ans. Fait remarquable, et souligné par Lévy-Leblond, même les gauchistes, adversaires déclarés de l’obscurantisme anti-scientifique, c’est-à-dire, au fond, de la religion, s’érigent contre le « scientisme ». L’extraordinaire article La nouvelle Eglise universelle d’Alexandre Grothendieck, mathématicien anarchiste, dans Survivre, en 1971, le prouve. « La science est enseignée dogmatiquement, comme une vérité révélée », assène-t-il. La dérive dogmatique de la science est un danger bien connu ; elle culmine peut-être en 1970, année où un Prix Nobel comme Jacques Monod, auréolé de son prestige de savant, se permet un essai extrêmement ascientifique, avec une conclusion à l’antipode du principe même de la science : « L’homme sait enfin qu’il est seul dans l’immensité indifférente de l’Univers, d’où il a émergé par hasard. Non plus que son destin, son devoir n’est écrit nulle part. A lui de choisir entre le Royaume et les ténèbres ». Ce genre d’incartades, d’hybridation malsaine du scientifique et du guide spirituel, se rencontre encore aujourd’hui, avec des biologistes comme Richard Dawkins. Péguy, dans un article déjà cité, dès 1904, dénonçait déjà ce véritable péché d’orgueil du scientifique :

« Les exagérations mêmes des nouveaux prédicateurs trahissent une sourde inquiétude ; un véritable savant, qui travaille dans son laboratoire, n’écrit point Science avec une grande S ; un véritable artiste, qui travaille dans son atelier, n’écrit point Art avec un grand A, et un véritable philosophe, qui travaille avec sa tête, n’écrit point Philosophie ; la plupart du temps même ils ne prononcent point et n’écrivent point ces mots : science, art, philosophie ; on peut affirmer qu’ils n’usent de ces mots que le moins qu’ils peuvent et pour ainsi dire à leur corps défendant ; celui qui dit Science, Art, Philosophie et Société moderne aux lueurs des illusions civiques est un qui ne sait pas ce que c’est qu’un laboratoire, un atelier, une pensée personnelle, une humanité ; et quand un démagogue scientiste met une grande S à Science, ne nous y laissons pas tromper ; c’est que cette S, dans les remords de son arrière-conscience, fait un remplacement ; elle remplace tout ce qui, dans l’esprit du démagogue, ou du pédagogue, c’est tout un, manque à la science pour exercer la fonction sociale de mystique laïque à elle attribuée par les politiciens ; comme si ce n’était pas ce manque même, cette prétendue insuffisance qui garantit la science au regard du véritable savant, comme si cette impuissance impolitique de la science n’était pas, aux yeux du véritable savant, sa marque même, la cause de sa grandeur éminente, la condition de sa dignité. »

Concernant les programmes actuels des mathématiques, ils prennent nettement le contre-pied de l’enseignement Bourbakiste, avec une prédilection de plus en plus marquée pour les mathématiques réputées utiles. L’idée d’expliquer le monde physique ou humain par les mathématiques étant morte, et l’idéal de l’honnête homme muni d’un enseignement mathématique culturel également, la mode est aujourd’hui à l’algorithmique, car c’est en écrivant des programmes que l’on peut agir sur le monde au XXIè siècle. L’ingénieur rompu au dessin technique et à ses fondements géométriques n’est plus ce que l’enseignement mathématique vise à former. C’est ainsi que la géométrie est constamment sur le reculoir à tous les niveaux. La géométrie projective n’est plus qu’un misérable vestige à l’agrégation. Les coniques ont purement et simplement disparu du programme de mathématiques supérieures. On met l’accent, du brevet à l’agrégation, sur la modélisation assistée par ordinateur. L’autre vedette des programmes actuels est la théorie des probabilités, dont la première apparition dans le secondaire remonte à 1970, et qui à partir de 2013 pour la première fois de l’histoire, est enseignée en mathématiques supérieures. Elle est aussi, depuis peu, au programme de l’agrégation.

On reproche aujourd’hui souvent aux mathématiques, à tort ou à raison, d’être le critère ultime de sélection scolaire à tous les niveaux. La filière S est aujourd’hui massivement choisie par les meilleurs élèves quels que soient leurs goûts. La proportion des anciens S parmi les heureux élus du concours A/L de l’ENS est importante, et les S sont aussi favorisés pour le concours d’HEC. Dans l’imaginaire collectif, les mathématiques sont généralement vues comme la discipline la plus exigeante ; il est évident que les mathématiques sont une source de traumatisme pour beaucoup d’élèves et d’ex-élèves. Quoiqu’il en soit, il existe un déficit grave de culture scientifique au sein de l’élite littéraire de nos sociétés, ce qui est paradoxal pour une société qui se réclame de l’héritage scientifique des Lumières. Charles Percy Snow, chimiste et écrivain anglais, dans un discours célèbre tenu en 1959 intitulé The two cultures, déplore le fossé croissant entre la culture littéraire et la culture scientifique. Citons-le (je traduis) : « de nombreuses fois, en présence d’une assemblée de personnes considérées comme très cultivées selon les stanrdards de la cutlure traditionnel, je les ai vu exprimer leur incrédulité devant l’illétrisme des scientifiques. Une ou deux fois, j’ai été provoqué et j’ai demandé à la compagnie qui pouvait énoncer le deuxième principe de la thermodynamique. La réponse fut froide ; elle fut aussi négative. Pourtant, ma question était l’équivalent scientifique de « Avez-vous déjà lu une œuvre de Shakespeare ? » Je crois aujourd’hui que si j’avais posé une question encore plus simple, comme Qu’est-ce que la masse ou l’accélération ?, ce qui est l’équivalent scientifique de la question Savez-vous lire ?, pas plus qu’une personne qui a fait des études sur dix aurait eu le sentiment de parler la même langue que moi. Ainsi, le grand édifice de la physique moderne s’élève, et la majorité personnes intelligentes du monde occidental en ont la même connaissance que leurs ancêtres du néolithique. » Malgré les efforts des autorités publiques pour renforcer l’enseignement scientifique et inculquer une culture minimale à tous, l’illettrisme scientifique semble être la norme.

 Bibliographie

Les sciences au lycée – un siècle de réformes des mathématiques et de la physique en France et à l’étranger -sous la direction de Bruno Belhoste, Hélène Gispert et Nicole Hulin

Science et enseignement – l’exemple de la grande réforme des programmes du lycée au début du XXè siècle – sous la direction d’Hélène Gispert, Nicole Hulin et Marie-Claire Robic – Vuibert

L’enseignement et les sciences : les politiques de l’éducation en France au début du XXè siècle. Nicole Hulin