“Moi, monsieur, je crois en la science”. Cette parole d’un journaliste sur un plateau télévision rapprochant l’univers de la croyance et celui de la science est troublant et tient de l’oxymore, c’est-à-dire de l’auto-contradiction.
Le verbe « croire » est peu employé dans le domaine scientifique. Pour donner un exemple, en 1742, Christian Goldbach a affirmé : « tout nombre pair est somme de deux nombres premiers ». Il y croyait mais, à ce jour, personne n’a réussi à prouver ni que cette assertion de Goldbach était vraie, ni qu’elle était fausse. J’oserai par exemple dire : « je crois la conjecture de Goldbach vraie » mais cette croyance sort des mathématiques. En fait, « croire » fait partie du vocabulaire de la religion, pas de la science et encore moins des mathématiques. Dire « je crois en la science » est quasiment un oxymore car la science n’est pas affaire de croyance mais de faits prouvés, ce qui n’exclut pas la possibilité d’erreurs.
Les « fake news » et l’esprit religieux
On retrouve la structure du religieux dans la lutte contre les « fake news » où certains, journalistes ou hommes politiques, s’arrogent le droit de dire la vérité au nom de la science sans la moindre habilitation à le faire. L’Eglise catholique est au moins plus honnête quand elle le fait puisqu’elle cite ses sources : le livre (qu’elle considère comme) sacré. Donner le droit à des hommes politiques de dire « la vérité » dans des domaines hors de leurs compétences n’est pas raisonnable. C’est faire un procès sans débat contradictoire où le juge remplit tous les rôles, celui de bourreau compris.
Science et pseudo-science
Les astrologues utilisent des données scientifiques ce qui donne à l’astrologie une allure de science, mais ce n’est en rien une science ! Si deux personnes partagent les mêmes données, elles ont le même horoscope mais sans doute pas le même avenir. Quand l’astronomie est une science, l’astrologie est une pseudo-science. De même, la chimie est une science et l’alchimie une pseudo-science. Dans chaque cas particulier, on peut distinguer science et pseudo-science mais quel est le critère général permettant de distinguer les deux ?
Pour Karl Popper (1902-1994), la distinction est la réfutabilité. Une science est réfutable, une pseudo-science ne l’est pas car repose sur des dogmes.
Popper est frappé par le fait que la théorie d’Einstein serait intenable si certaines conditions n’étaient pas remplies, en particulier le décalage vers le rouge des lignes spectrales dû au potentiel de gravitation devait ne pas exister, la théorie générale de la relativité serait insoutenable.
Les poèmes de Nostradamus
Quand on parle d’astrologie, difficile de ne pas citer Nostradamus, toujours lu cinq siècles après sa mort. En effet, il a écrit un livre mystérieux qu’il a nommé Prophéties. Il se présente comme une série de quatrains dont la plupart n’ont pas de sens évident et certains ressemblent à des prévisions. Voici le plus célèbre dans lequel on peut lire des allusions à la mort tragique du roi Henry II :
Les Grecs anciens refusaient de considérer l’unité comme un nombre, comme on peut le lire dans La Métaphysique d’Aristote :
Il est, d’ailleurs, de toute évidence que c’est l’unité qui exprime la mesure ; […] le nombre est une pluralité mesurée […] Aussi, n’a-t-on pas moins raison de dire que l’unité n’est pas un nombre.
Un ne fait pas nombre
Ce refus de considérer « un » comme un nombre vient de l’assimilation du concept de nombre à ceux de pluralité ou de multiplicité. Cette confusion se retrouve en français ou « nombreux » ne peut signifier « un ».
Une reconnaissance tardive
En 1585, Simon Stevin écrit dans les premières pages de La pratique d’arithmétique :
Comme l’unité est nombre par lequel la quantité d’une chose expliquée se dit un.
Alors que cela nous semble aujourd’hui naturel, Simon Stevin se sent obligé de défendre cette position dans un long raisonnement de plusieurs pages, preuve que cette notion n’est pas admise comme naturelle à son époque. Pourquoi ? Tout simplement parce qu’elle s’oppose à la tradition philosophique du Moyen-Âge pour qui il n’est point de vérité en dehors d’Aristote, d’où le discours étonnant :
Il est notoire que l’on dit vulgairement que l’unité n’est pas nombre, mais seulement son principe […] ce que nous nions. Nous pouvons argumenter de la sorte : La partie est de même matière qu’est son entier, unité est partie de multitude d’unités, donc l’unité est de même matière qu’est la multitude d’unités. Mais la matière de multitude d’unités est nombre donc la matière d’unité est nombre.
Le « un » est donc devenu nombre à l’époque de Simon Stevin même si certains, comme Diophante, un célèbre mathématicien grec du IIIe siècle après Jésus-Christ, l’utilisaient déjà comme tel… mais après avoir donné les définitions usuelles à l’époque, comme en sorte d’hommage à la tradition.
Zéro est un symbole utile pour écrire les nombres mais est-il lui-même un nombre ? Si nous restons sur l’idée des nombres naturels, la réponse est « non ». Ils sont faits pour compter, et que signifie dénombrer l’absence ? Zéro est un être troublant. Il n’a été accueilli que tardivement dans la communauté des nombres. À son introduction, zéro était plus la marque d’une absence, pour faciliter la notation positionnelle des nombres, qu’un nombre véritable.
Naissance de zéro comme nombre
Nous devons son apparition en tant que nombre au mathématicien indien Brahmagupta (598 – 668). Dans le Brahmasphutasiddhanta, ce qui signifie « l’ouverture de l’Univers », écrit entièrement en vers, il donne les règles régissant zéro, ainsi que les nombres positifs ou négatifs, en termes de dettes et de fortunes :
Une dette moins zéro est une dette. Une fortune moins zéro est une fortune. Zéro moins zéro est zéro. Une dette soustraite de zéro est une fortune. Une fortune soustraite de zéro est une dette. Le produit de zéro par une dette ou une fortune est zéro. Le produit de zéro par zéro est zéro. Le produit ou le quotient de deux fortunes est une fortune. Le produit ou le quotient de deux dettes est une fortune. Le produit ou le quotient d’une dette et d’une fortune est une dette. Le produit ou le quotient d’une fortune et d’une dette est une dette.
Chacun reconnaîtra dans ces lignes une version ancienne de la règle des signes, dont un extrait de La vie de Henry Brulard, le roman autobiographique de Stendhal (1783 – 1842) semble un écho humoristique :
Supposons que les quantités négatives sont des dettes d’un homme, comment en multipliant 10 000 francs de dette par 500 francs, cet homme aurait-il ou parviendra-t-il à avoir une fortune de 5 000 000, cinq millions ?
L’usage des termes mathématiques hors contexte peut donner des résultats amusants, cependant la question n’est pas là. L’important est que les règles de calcul habituelles sur les nombres soient respectées, mais revenons à Brahmagupta. Pour lui, zéro n’est pas seulement la notation d’une absence d’unité, de dizaine ou de centaine, etc., comme dans la numération de position, mais aussi un vrai nombre, sur lequel on peut compter. Il le définit d’ailleurs comme le résultat de la soustraction d’un nombre par lui-même. Il donne les bons résultats l’impliquant dans les opérations licites (addition, soustraction et multiplication) mais se trompe en estimant que 0 divisé par 0 est égal à lui-même. On peut le comprendre, la question n’est pas simple. Elle est restée obscure, même pour un grand nombre de mathématiciens jusqu’au XIXe siècle puisque, dans ses Éléments d’algèbre, Alexis Clairaut (1713 – 1765), après avoir donné les règles de calcul, est obligé d’insister sur la nuance entre le signe d’un nombre et celui d’une opération :
On demandera peut-être si on peut ajouter du négatif avec du positif, ou plutôt si on peut dire qu’on ajoute du négatif. À quoi je réponds que cette expression est exacte quand on ne confond point ajouter avec augmenter. Que deux personnes par exemple joignent leurs fortunes, quelles qu’elles soient, je dirai que c’est là ajouter leurs biens, que l’un ait des dettes et des effets réels, si les dettes surpassent les effets, il ne possédera que du négatif, et la jonction de la fortune à celle du premier diminuera le bien de celui-ci, en sorte que la somme se trouvera, ou moindre que ce que possédait le premier, ou même entièrement négative.
Ces questions de fortunes et de dettes, de Brahmagupta à Clairaut font penser que le zéro serait venu d’un problème de comptabilité patrimoniale. Au-delà des termes utilisés, rien ne permet cependant de l’affirmer.
Zéro dans les opérations
La règle d’extension des résultats à zéro n’est pas d’origine philosophique, mais calculatoire. Par exemple, à partir de la définition que donne Brahmagupta de zéro : 2 – 2 = 0, on déduit des règles habituelles de l’arithmétique :
2 + 0 = 2 + (2 – 2) = 4 – 2 = 2
ce qui peut sembler une évidence par ailleurs : quand on ajoute rien, on conserve ce que l’on a… La question est beaucoup moins évidente quand on veut multiplier par zéro. Quel sens cela a-t-il dans l’absolu ? Pour le voir, l’important est de se focaliser sur les règles de calcul, sans y chercher d’autre philosophie. La question se traite de la même manière que la précédente :
3 x 0 = 3 x (2 – 2) = 3 x 2 – 3 x 2 = 6 – 6 = 0.
Bien entendu, dans les raisonnements précédents, les nombres 2 et 3 peuvent être remplacés par n’importe quels autres, le résultat n’est pas modifié. Un nombre multiplié par zéro est donc égal à zéro. Ce résultat, qui peut sembler étrange de prime abord, est nécessaire pour la généralité des règles opératoires.
La méthode permet de trouver des résultats plus étonnants. Par exemple, que vaut un nombre à la puissance zéro ? Pour répondre à cette question, se demander ce que signifie de porter un nombre à la puissance zéro est inutile, voire nuisible. A priori, 2 à la puissance 4 (par exemple) est égal à 2 multiplié 4 fois par lui-même, soit 24 = 2 x 2 x 2 x 2. De même, en remplaçant 4 par n’importe quel nombre entier supérieur à 1, donc 21 = 2. Mais que peut bien vouloir dire un nombre multiplié 0 fois par lui-même ? Se poser la question ainsi, c’est se condamner à ne pas pouvoir y répondre puisqu’elle est absurde. En fait, il faut trouver un principe d’extension. La propriété essentielle est la formule : 24+1 = 24 x 2, valable en remplaçant 4 par n’importe quel nombre. En le remplaçant par 0, nous obtenons : 20+1 = 20 x 21, ce qui donne : 2 = 20 x 2. En simplifiant par 2, nous obtenons : 20 = 1. Ce résultat est encore vrai si nous remplaçons 2 par tout nombre non nul. Ainsi, un nombre non nul porté à la puissance 0 est égal à 1, ou du moins il faut le poser comme définition si on veut que la propriété des puissances vue plus haut (24+1 = 24 x 2) soit générale.
Cette égalité (20 = 1) correspond à une idée subtile : celle de la généralité des calculs. On définit la puissance 0 pour que les règles de calcul connues sur les puissances restent vraies dans ce cas particulier. Il reste malgré tout l’ambiguïté de 0 à la puissance 0.
Les nombres fascinent tellement qu’ils arrivent à pénétrer des domaines purement qualitatifs, comme l’évaluation de l’intelligence. Les tests de Quotient Intellectuel ont été créés, dans le cadre de l’instruction obligatoire, pour détecter les enfants susceptibles de rencontrer des difficultés scolaires. En 1904, le ministère de l’Instruction publique chargea Alfred Binet (1857 – 1911) d’imaginer un outil pour ce faire. Son échelle psychométrique visait à un diagnostic rapide d’arriération en comparant les performances de l’enfant à celles de sa classe d’âge. À l’époque, ce n’était pas un test destiné à la sélection, mais au contraire à aider les enfants en difficulté. Binet lui-même notait d’ailleurs l’influence de la culture familiale sur les résultats des tests et, quand on lui demandait ce qu’était l’intelligence, il répondait : l’intelligence est ce que mesure mes tests.
Le quotient intellectuel des enfants
La notion de quotient intellectuel découle des études de Binet, mais a été fixée par Wilhelm Stern (1871 – 1938) comme le rapport entre l’âge mental d’un enfant et son âge physique… d’où le terme de « quotient ». Un QI de 100 correspond donc à un enfant normal… et le QI d’un même enfant varie avec l’âge. Il est mesuré par des tests qui dépendent également de l’âge. Ces tests portent souvent sur des reconnaissances de structures, ce qui est relativement naturel si on veut mesurer l’aptitude à suivre les cours de l’école élémentaire, pas forcément si on s’intéresse à celle de survivre dans une nature hostile… ce qui pourtant demande aussi de l’intelligence.
Vu le but, ces tests sont légitimes et doivent permettre de venir en aide à des élèves en difficulté en évaluant où se situe leur problème : émotivité exacerbée ou arriération mentale ? Le QI peut discriminer entre ces deux hypothèses.
Extension aux adultes
Jusqu’en 1939, le QI est resté cantonné à la mesure de l’âge mental des enfants. David Wechsler (1896 – 1981) eut l’idée d’un test s’appliquant aux adultes. La définition donnée ci-dessus n’ayant aucun sens dans ce cadre, il eut recours à un subterfuge.
La répartition du QI des enfants suivant une courbe en cloche de moyenne 100 et d’écart-type 15, il supposa qu’il en était de même pour les adultes et étalonna ses tests pour qu’il en soit effectivement ainsi ! Les tests utilisés actuellement descendent de ces tests de Wechsler.
Changement d’utilisation
À la différence de ceux imaginés par Binet, les tests de QI actuels sont plutôt destinés à détecter des personnes à haut potentiel intellectuel, ou que l’on croît tels. Ces tests ont plus d’un effet pervers. S’ils peuvent aider à corriger l’orientation scolaire de certains enfants, supposés inadaptés du fait de leur précocité ou de leur émotivité exagérée, ils peuvent aussi fabriquer des aigris si la réussite ultérieure ne correspond pas à l’intelligence supposée.
L’intelligence est-elle unidimensionnelle ?
Quelle que soit la sophistication de ces tests, on peut douter que l’intelligence puisse être classée selon une seule dimension. Pour commencer, qu’est-ce que l’intelligence ? Bien entendu, on peut répondre comme Binet : l’intelligence est ce que mesurent les tests de QI. Une telle réponse a l’avantage d’être simple et opératoire… et le défaut de ne servir à rien. La question n’est pas aisée car, sans même savoir de quoi il s’agit, il faut être intelligent aussi bien pour définir l’intelligence, que pour en comprendre l’éventuelle définition. De même, il faut ne pas l’être pour croire qu’elle peut se résumer à un nombre fourni par un test. Une définition doit apporter une certaine compréhension du phénomène, et répondre à la question : à quoi sert-il d’être intelligent ? Dans ce sens utilitaire, la définition la plus courante est : l’intelligence est la faculté de s’adapter. Même si des qualités communes sont nécessaires pour cela, il est clair que cela dépend des circonstances. Prenons l’exemple de situations conflictuelles. Une qualité essentielle est de reconnaître qui est votre adversaire, et qui est votre allié potentiel. Cette forme d’intelligence relationnelle est utile dans le commerce, dans l’enseignement comme en politique. Une fois votre adversaire potentiel détecté, il est bon de savoir prévoir l’action qu’il va mener. Nous retrouvons ici la forme d’intelligence privilégiée en mathématiques et dans les tests de QI. Ces deux formes d’intelligence ne sont pas les seules, même si elles sont peut-être les principales. Notre but n’est pas ici d’en faire la liste, le lecteur intéressé pourra consulter les formes d’intelligence de Howard Gardner. En admettant que nous soyons capables de noter exactement chaque être humain sur ces deux formes d’intelligence, pour obtenir une note globale, il est ensuite nécessaire d’attribuer un pourcentage à chacune, ce qui est loin d’être évident. Les tests de QI ont sans aucun doute une utilité mais il est vain d’en faire une mesure de l’intelligence, surtout si on s’entraîne à les passer !
Comme Platon, les mathématiciens sont des créateurs de mondes, tels celui du mythe de la caverne. Doit-on pour autant considérer les mathématiciens comme platoniciens ?
Qu’elle fut ou non gravée à l’entrée de son académie, la phrase Que nul n’entre ici s’il n’est géomètre est conforme à la pensée de Platon : il est bon que le philosophe apprenne la géométrie. Au livre VII de La république, il mentionne d’ailleurs son étude comme un pré requis à celle de la philosophie, et une matière indispensable dans le cursus du futur citoyen. Les mathématiques forgent la pensée de Platon, comme on le voit dans Le Ménon. Inversement, tout mathématicien est-il platonicien ?
Un créateur de mythes
Avant d’essayer de répondre à cette question, examinons le mode de pensée de Platon. Sa méthode fondamentale est la création de mythes. Le procédé est classique dans l’Antiquité où l’usage de métaphores permettait d’introduire des concepts abstraits à travers des expériences quotidiennes. Le mythe le plus célèbre inventé par Platon est celui de la caverne, où il introduit le concept de « monde des idées ». En voici un résumé rapide. Des hommes, enfermés dans une caverne, ne voient l’extérieur qu’à travers des ombres. Ils n’ont pas accès à la réalité mais seulement à son image. Ce mythe est une métaphore où la caverne est notre monde, et l’extérieur, le monde des idées. Une transposition est nécessaire pour comprendre le message de Platon, même si celle-ci est claire.
Le monde des idées
Ce monde des idées, existe-t-il ? Platon l’a postulé, ce qui l’a mené à adopter la thèse de l’immortalité de l’âme. Elle lui permet d’affirmer qu’elle vient de ce monde et, pour cette raison, en garde une vague mémoire. La philosophie grecque a parfois ce côté jusqu’au boutiste, que l’on retrouve facilement chez les mathématiciens. Pas question pour eux que 2 + 2 fasse 3,99. C’est 4 sans discussion possible. Cette démarche, correcte quand elle reste dans son cadre, peut aboutir parfois à des extravagances inutiles, comme l’idée d’une âme immortelle, même dans le passé. Platon en avait besoin pour expliquer notre accès instinctif à son monde des idées. Pour lui, on n’apprend pas, on se souvient. Cette remarque explique la pédagogie de Socrate dans Le Ménon, quand il fait démontrer le théorème de Pythagore à un esclave. Celui-ci est censé retrouver des connaissances lointaines, du temps où son âme n’était pas prisonnière de son corps. Socrate aide son interlocuteur à « accoucher » de ce qui existe déjà en lui. Dans ce sens, l’invention est impossible, seul « trouver » l’est. Ce vocabulaire correspond à celui utilisé en général en mathématiques. L’expression « il invente des théorèmes » est souvent péjorative, car elle sous entend qu’ils sont faux.
Le monde des idées mathématiques
De même, les mathématiciens inventent des mondes, semblables au monde des idées de Platon. Aucun point du monde réel n’est jamais le point idéal que nous imaginons. Il a forcément une certaine épaisseur. Il en est de même de la droite et du cercle. Nous en avons des idées que nous visualisons et même matérialisons, mais c’est sur les idées que nous raisonnons. Pour rendre ses résultats plus solides, depuis l’Antiquité, le monde de la géométrie est régi par un certain nombre d’axiomes, c’est-à-dire de résultats considérés comme vrais sans démonstration. Cette méthode a été généralisée et approfondie par David Hilbert au début du XXe siècle. De nos jours, chaque théorie (arithmétique, géométrie, etc.) a ses axiomes, qui la structurent.
L’ombre des idées
Ces théories ont un rapport complexe avec la réalité. Officiellement, pour les mathématiciens, les axiomes résultent du libre arbitre des créateurs de ces théories. Est-il raisonnable de le prétendre, ou est-ce un moyen de se libérer de la réalité ? Restons dans le domaine de la géométrie pour donner un exemple. On y démontre une propriété de la parabole, liée à son foyer (appelée propriété focale pour cela), que nous résumons par un dessin.
Cette propriété a des conséquences visibles dans notre univers quotidien : paraboles sur les toits des immeubles, fours solaires petits et grands, phares des voitures ou des bords de mer. La propriété des paraboles existant dans le monde de la géométrie s’applique dans notre monde.
Peu de mathématiciens doutent réellement de cette efficacité, même si certains scientifiques l’estiment « déraisonnable ».
Vérité des axiomes
La raison de cette « estimation » est l’opinion exprimée par les mathématiciens contemporains eux-mêmes. Si vous les questionnez sur ce que sont les axiomes, il est probable qu’ils répondront comme nous l’avons exposé plus haut. Ce sont des règles que l’on se donne de manière arbitraire, et sur lesquelles on développe une théorie cohérente, en suivant les règles de la logique. De ce point de vue, cette théorie n’est pas plus « réelle » ou « vraie » que les axiomes qui la fondent. Cependant, les résultats acquis sont extrêmement solides. Si on admet la « vérité » des axiomes, celle des théorèmes suit.
Les théories mathématiques : des modèles
Si cette vérité est conditionnelle, pourquoi les résultats des mathématiques sont-ils utiles dans le monde réel ? La réponse est simple. Les axiomes ne sont pas choisis arbitrairement ! Plutôt que de le prétendre, il serait préférable de dire que, s’ils l’étaient, on pourrait encore parler de mathématiques. Mais ils ne le sont pas ! Le fait est que l’on ne s’intéresse pas à ces mathématiques du bon plaisir. Ils sont choisis pour que les théories mathématiques qui en découlent soient de bons modèles de la réalité. Pour cela, ils s’en inspirent. Comme Platon, les mathématiciens inventent des mondes idéaux, dont la réalité est un reflet. En ce sens, ils sont platoniciens mais des platoniciens rarement dupes de leurs modèles. Ils ont conscience que leur monde des idées est une abstraction dont ils sont l’origine. Ce n’est pas un monde préexistant de toute éternité, comme le monde des idées de Platon.
Pourquoi les Grecs n’ont-ils découvert ni les réels, ni le zéro et n’admettaient même pas le « un » dans la confrérie des nombres ? La raison tient à la philosophie, voire la mystique, dont ils encombraient ces notions. Le même schéma se retrouve à l’œuvre dans les temps modernes.
Idée pythagoricienne des nombres
Les nombres sont nés englués de mystique. Pour Pythagore, le « un » représente le divin. Plus précisément, voici comment il parle du nombre triangulaire : 1 + 2 + 3 + 4 = 10.
Pour lui, le « un » est le divin, le principe de toute chose … Le « deux » est le couple masculin, féminin, la dualité … Le « trois », les trois niveaux du monde, l’enfer, la terre et le ciel … Le « quatre », les quatre éléments, l’eau, l’air, la terre et le feu … Enfin, le tout fait « dix », la totalité de l’univers, le divin compris ! On peut trouver ces idées poétiques mais, avec de telles prémisses, on peut aussi craindre le pire ! C’est pour de telles raisons mystiques que Pythagore proclama : « tout est nombre » ce qui, dans son esprit, signifie « nombre entier naturel ». L’idée venait de la « raison ». Elle était rationnelle.
Les grandeurs commensurables
Pourtant, pour être égaux aux rapports entre nombres entiers, il est nécessaire que les longueurs (ou les quantités de façon générale) aient une commune mesure, soient commensurables en d’autres termes. Cela signifie que si AB et BC sont deux segments contigus, on peut placer un point U tel que AB et AC soient multiples de AU (AU est la commune mesure).
L’échec des fractions
Malheureusement pour sa doctrine, Pythagore prouva lui-même qu’il existe des grandeurs incommensurables, le côté et la diagonale d’un carré par exemple. Son raisonnement est fondé sur la figure suivante.
En factorisant l’égalité : AB . AB = 2 CD . CD, Pythagore obtint une absurdité. Son idée s’écroule : il existe des longueurs incommensurables. Son dogme « tout est nombre » ne retrouvera vie que dans les temps modernes, quand d’autres « objets » seront admis dans le champ des nombres, en particulier, le rapport de la diagonale au côté du carré, racine de 2 que nous disons toujours irrationnelle.
Le “un” est-il un nombre ?
Que les idées mystiques aboutissent à des erreurs semble normal. Plus étrangement, le « bon sens » peut faire de même. Les anciens Grecs ne considéraient pas l’unité comme un nombre, car elle ne représente pas une multiplicité. On ne dénombre qu’à partir de deux ! Selon Euclide, un nombre est un assemblage composé d’unités. Autrement dit, l’unité est la source et l’origine de tout nombre. Avant de compter, il est nécessaire de distinguer l’unité qui, de ce fait, a un statut à part. Qu’est-ce qu’un sommet en montagne ? Cette question peut sembler simpliste, elle demande pourtant de savoir distinguer une antécime d’un sommet. Il en est de même si on veut compter des plantes. Dans chaque cas, il est nécessaire de distinguer l’unité.
Une fois cette étape accomplie, nous pouvons dénombrer, ce qui correspond à une suite d’opérations : 2 = 1 + 1, 3 = 1 + 1 + 1, etc. L’idée qu’une seule unité serait un nombre est rejetée car « 1 » est singulier et les nombres, pluriels. L’assemblage commence à deux. La question peut sembler factice, mais elle est plus embarrassante qu’il n’y paraît. Quand faut-il utiliser un pluriel ? Du fait de ce type de questions, il fallut plusieurs millénaires pour voir dans le « un » rien d’autre qu’un nombre ordinaire. Le problème s’est alors reporté sur le zéro.
“Zéro” est-il un nombre ?
Pendant longtemps, zéro a été exclu de l’univers des nombres car il ne représente ni un dénombrement, ni une mesure. Nous devons son apparition en tant que nombre au mathématicien indien Brahmagupta (VIIe siècle après Jésus-Christ). Pour lui, il ne s’agit pas seulement de la notation d’une absence d’unité, de dizaine ou de centaine, etc. comme dans la numération de position mais aussi d’un vrai nombre, sur lequel on peut calculer. Il le définit d’ailleurs comme le résultat de la soustraction d’un nombre par lui-même. Il donne les bons résultats l’impliquant dans les opérations licites (addition, soustraction et multiplication) mais se trompe en estimant que 0 divisé par 0 est égal à lui-même. On peut le comprendre, la question n’est pas simple.
Règle d’extension à zéro
La règle d’extension des résultats à zéro n’est pas d’origine philosophique, mais calculatoire. Par exemple, que vaut un nombre à la puissance zéro ? Pour répondre à cette question, se demander ce que signifie de porter un nombre à la puissance zéro est inutile, voire nuisible. A priori, 2 à la puissance 4 (par exemple) est égal à 2 multiplié 4 fois par lui-même, soit 24 = 2 . 2 . 2 . 2. De même, en remplaçant 4 par n’importe quel nombre entier supérieur à 1, donc 21 = 2. Mais que peut bien vouloir dire un nombre multiplié 0 fois par lui-même ? Se poser la question ainsi, c’est se condamner à ne pas pouvoir y répondre. En fait, il faut trouver un principe d’extension. La propriété essentielle est la formule 24+1 = 24 . 2, valable en remplaçant 4 par n’importe quel nombre. En le remplaçant par 0, nous obtenons 20+1 = 20 . 21, ce qui donne 2 = 20 . 2. En simplifiant par 2, nous obtenons 20 = 1. Ce résultat est encore vrai si nous remplaçons 2 par tout nombre non nul. Ainsi, un nombre non nul porté à la puissance 0 est égal à 1.
Cette égalité correspond à une idée subtile : celle de la généralité des calculs. On définit la puissance 0 pour que les règles de calcul connues sur les puissances restent vraies dans ce cas particulier. Il reste l’ambiguïté de 0 à la puissance 0. Suivant les cas, on peut retenir la valeur 1 par souci de généralité ou considérer cette quantité comme non définie.
Pour la même raison, il est possible d’étendre la définition de la factorielle. A priori, 4 ! (lire factorielle 4) est le produit des entiers naturels de 1 à 4, de même 5 ! La factorielle de 0 n’a donc aucun sens. Cependant, comme précédemment, 5 ! = 5 . 4 ! et ceci en remplaçant 4 par n’importe quel nombre. Si nous voulons définir 0 !, il est donc nécessaire que 1 ! = 1 . 0 ! ce qui fournit 0 ! = 1. Pour les mêmes raisons, le produit et la somme d’une liste de zéro nombre entier sont égaux à 1 et 0.
Les nombres négatifs
Les mêmes phénomènes de méfiance se sont produits pour les nombres négatifs même si, de nos jours, ils ont pris un sens concret avec les températures, qui peuvent être négatives, et les étages en sous-sol des immeubles. À l’époque de Brahmagupta, cette notion était très abstraite. Les nombres négatifs n’ont d’ailleurs été admis en Occident que bien plus tard. Descartes les évitait encore ! Dans ses Pensées, Pascal, pourtant grand mathématicien, écrit d’ailleurs cette phrase surprenante : « Trop de vérité nous étonne ; j’en sais qui ne peuvent comprendre que, qui de zéro ôte 4, reste zéro ». Sans le vouloir, Pascal pointe ici l’une des difficultés à considérer zéro comme nombre véritable : l’idée du zéro absolu, celui en dessous duquel on ne peut descendre. Il n’aurait sans doute pas admis nos températures négatives, et aurait donc préféré les degrés Fahrenheit aux Celsius. Fahrenheit fixa l’origine des températures (0° Fahrenheit) à la plus basse qu’il ait observée. C’était durant l’hiver 1709 dans la ville de Dantzig, où il habitait. Pour 100° Fahrenheit, il choisit la température corporelle d’un cheval sain ! Dans son système, l’eau gèle à 32° (Celsius) et elle bout à 212° environ.
Ces choix étranges de Fahrenheit s’expliquent par la réticence de l’époque devant les nombres négatifs. On préférait d’ailleurs parler de quantités plutôt que de nombres. Il s’agissait d’artifices de calcul pour résoudre des équations, dont on écartait ensuite les solutions négatives. Tout en étant une origine, zéro véhicule une idée d’absolu, en dessous duquel on ne peut aller, comme on le voit chez Pascal. Cette idée a perduré jusqu’au XIXe siècle, Lazare Carnot disait encore : « Pour obtenir réellement une quantité négative isolée, il faudrait retrancher une quantité effective de zéro, ôter quelque chose de rien : opération impossible. Comment donc concevoir une quantité négative isolée ? »
L’erreur de sens
La question ne doit pas être examinée d’un point de vue philosophique en se demandant, par exemple, ce que signifie de multiplier les dettes entre elles, ou de plaisanter sur les possibilités de faire un bénéfice en les multipliant comme le fait Stendhal dans La vie de Henry Brulard, son roman autobiographique : « Supposons que les quantités négatives sont des dettes d’un homme, comment en multipliant 10 000 francs de dette par 500 francs, cet homme aurait-il ou parviendra-t-il à avoir une fortune de 5 000 000, cinq millions ? »
L’usage des termes mathématiques hors contexte peut donner des résultats amusants, mais la question n’est pas là. L’important est que les règles de calcul habituelles sur les nombres soient respectées. Ces idées ont débouché sur la notion de corps de nombres au XIXe siècle.
La réalité des réels
L’expérience du calcul suggère que l’écriture décimale permet d’atteindre les mesures avec toute précision désirée, quelle qu’elle soit. Celle-ci n’a pas de limite et on peut, par exemple, parler du milliardième chiffre après la virgule du nombre pi. Jusqu’à la fin du XXe siècle, ce genre d’affirmation avait un côté gratuit car personne ne pouvait le connaître. Aujourd’hui, nous savons qu’il s’agit du chiffre 2. Bien sûr, il existera toujours une limite indépassable, tout simplement parce que notre temps est fini, et notre énergie comptée. Aussi infime que soit le coût de l’impression d’un chiffre sur du papier, un écran d’ordinateur ou un emplacement mémoire d’un DVD, on se ruinerait à vouloir en écrire trop. Cependant, il est facile d’imaginer que tout nombre possède un nième chiffre après la virgule, et cela pour tout entier n, aussi grand soit-il.
De façon générale, nous appelons développement décimal une suite de chiffres telle que 65, 692 873 451 etc. à l’infini avec la condition suivante : les chiffres ne sont pas tous égaux à 9 à partir d’un certain rang. Le résultat est ce que l’on appelle un nombre réel. Ces nombres permettent de représenter la notion intuitive de mesure (longueur, aire, volume, temps, etc.). Pourquoi ? Pour l’expliquer, imaginez vouloir mesurer un segment OA. Comment faites-vous ? Sans doute prenez-vous une règle graduée.
Vous faites correspondre le point O et la graduation 0 de la règle puis placez celle-ci le long du segment OA. Le point A se situe alors entre deux graduations, disons entre 2 et 3. La longueur vaut donc 2, augmenté de quelque chose. Comment l’évaluer plus précisément ? Tout simplement en utilisant les graduations directement inférieures (les dixièmes). La longueur se situe entre deux de ces graduations, disons entre 6 et 7. On peut imaginer continuer ainsi à l’infini même si, en réalité, nous ne pouvons dépasser une certaine précision. La longueur OA est donc représentée par un développement décimal, éventuellement illimité. De plus, une suite infinie de 9, comme 2, 999 … par exemple, est impossible car correspond au nombre directement supérieur (ici 3). La notion de nombre réel est donc un bon modèle mathématique pour étudier celle de longueur et, de façon plus générale, de toute mesure de même nature.
Les nombres aujourd’hui
Le mot « réel » ne doit pas leurrer. Ces nombres n’existent pas plus dans la réalité que les autres. Ce sont des abstractions utiles pour modéliser le monde réel. Leur efficacité se mesure à l’aune des résultats qu’ils permettent d’obtenir. Autrement dit, le contrôle philosophique sur les nombres ne se fait pas a priori pour satisfaire à quelques conceptions plus ou moins dogmatiques. Ce contrôle se fait aposteriori sur les résultats qu’ils permettent d’obtenir. Cette idée peut troubler certains car elles impliquent que la vérité se mesure à son efficacité. Il en est de même des axiomes des mathématiciens. Il n’existe pas d’axiomes « vrais », il existe des axiomes utiles.
Dans ses Méditations métaphysiques, René Descartes utilise l’exemple des chiliogones, c’est-à-dire des polygones à 1000 côtés, pour montrer qu’il existe des choses faciles à concevoir sans pour autant qu’il soit possible de les représenter. Essayons de le faire dans le cas du chiliogone régulier convexe !
Les polygones réguliers convexes
Si nous nous limitons aux polygones réguliers convexes, les premiers sont le triangle équilatéral, le carré, le pentagone régulier convexe et l’hexagone régulier convexe.
Le chiliogone régulier convexe
À partir de là, il est facile d’imaginer le chiliogone régulier convexe : en pratique, il est indiscernable du cercle.
Si on supprime la condition de régularité et si les longueurs des côtés restent de même ordre de grandeur, on obtient une courbe fermée convexe. Si la condition de convexité est supprimée et les longueurs des côtés restent de même ordre de grandeur, on obtient une courbe fermée … qui peut ressembler à un infâme gribouillis.
Un célèbre philosophe contemporain aurait affirmé : “les mathématiques ne servent à rien dans la vie quotidienne”. Pourtant, je me souviens parfaitement de ma mère me demandant : “quatre tiers de 200 grammes, ça fait combien Hervé ?”.
Des maths à la cuisine
Pourquoi cette question ? Pas pour tester ma capacités en calcul mental. Tout simplement parce que nous étions 8 à table et que ma mère utilisait une recette de cuisine donnée pour 6. Les ingrédients devaient donc être multipliés par 8/6, soit 4/3. Vue la précision des balances, une réponse précise était 270 grammes, répondre 266,666… aurait été ridicule.
Des notions subtiles
Autrement dit, nous avons affaire ici, dans la vie quotidienne, à deux notions mathématiques subtiles : la multiplication par une fraction et la notion d’approximation. Pour répondre à la question avec toute la rigueur mathématique qu’elle exige, nous dirons donc : “certains philosophes ne font pas la cuisine”.
Comment comprendre le monde moderne sans culture mathématique ? Accéder à celle-ci n’exige cependant pas d’apprendre à résoudre la moindre équation.