Pour monter sur un sommet à 3712 mètres d’altitude, comme la Grande Ruine dans le massif de Ecrins (image mise en avant @Hervé Lehning), en partant d’un refuge situé à 3169 mètres d’altitude (le refuge Adèle Planchard), il est nécessaire de passer par toutes les altitudes intermédiaires.
Le Théorème des Valeurs Intermédiaires (ou TVI)
Ce résultat de bon sens correspond à un théorème de mathématiques concernant les fonctions continues sur un intervalle réel à valeurs réelles. La plupart des fonctions qu’on rencontre en mathématiques sont continues sauf, éventuellement, en quelques points exceptionnels, appelés pour cela points de discontinuité. Physiquement, dans la pratique, ces points correspondent souvent à des sauts.
Le théorème des valeurs intermédiaires peut s’illustrer ainsi :
Ce théorème est donc un théorème existentiel: il affirme l’existence d’un nombre sans permettre pour autant de le calculer.
Utilité
L’utilité pratique essentielle de ce théorème est de montrer l’existence de racines d’équations : si une fonction continue change de signe entre deux points a et b, elle s’annule entre ces deux points.
On en déduit, par exemple, qu’une fonction continue sur un segment [a, b] à valeurs dans lui-même admet au moins un point fixe, c’est-à-dire un point x tel que f (x) = x. Pour le démontrer, il suffit de remarquer que la fonction g définie par g (x) = f (x) – x change de signe entre a et b.
Ce n’est pas un hasard si l’auteur du premier chapitre de la Genèse a placé la création de la lumière en tête, car elle est la condition de toute vie mais aussi de toute perception, des formes comme des couleurs. Elle est à la source des ombres et son étude établit des ponts entre mathématiques et art.
Sous des lumières différentes, le même paysage donne des impressions différentes, comme le montrent ces deux photographies de la rade de Toulon sous les nuages. La différence essentielle est que, dans la seconde photographie, un rayon de lumière vient illuminer les bâtiments en premier plan et créer des ombres. Les couleurs en sont également modifiées. Certains bâtiments passent du rose au jaune ou même au noir !
Sans lumière, pas de couleurs
La couleur n’existe pas en elle-même, elle correspond à notre perception des ondes lumineuses qui, mathématiquement parlant, sont analogues aux ondes acoustiques. L’ensemble des longueurs d’onde de la lumière visible constitue le spectre de la lumière. Il s’étend du violet, dont la longueur d’onde est de 400 nanomètres, au rouge, dont la longueur d’onde est de 700 nanomètres. Au-delà de ces longueurs d’onde, la lumière devient invisible et on entre dans le domaine de l’ultraviolet, dont les rayons sont responsables du bronzage de la peau et dans l’infrarouge ou rayonnement calorique. On retrouve ces diverses couleurs dans les arcs-en-ciel.
La même théorie mathématique, inventée par Joseph Fourier (1768 – 1830), permet de décomposer les ondes sonores et les ondes lumineuses en sommes d’ondes élémentaires, dites harmoniques en acoustique et ondes monochromatiques en optique. Dans ce dernier cas, celles qui correspondent au spectre visible sont appelées couleurs pures.
Les couleurs telles que nous les voyons dépendent de trois types de récepteurs compris dans nos yeux. Dans chaque onde, chacun capte la part à laquelle il est sensible, notre cerveau réalise la synthèse. Le système RVB, utilisé en photographie, imite ce principe naturel : on ajoute du rouge, du vert et du bleu pour obtenir toutes les couleurs. On retrouve le principe de la décomposition précédente, en la limitant à trois couleurs pures. Le système CMJN, utilisé en imprimerie, est fondé sur un principe soustractif mais aboutit à un résultat identique.
Sans lumière, pas d’ombres
De même, la lumière crée l’ombre. Le photographe, le dessinateur comme le peintre jouent avec cette propriété. L’ombre accentue les formes des objets ou en crée d’étranges.
Les dessins d’architecture comportent des ombres portées d’un objet sur un autre, ce qui peut donner des courbes étonnantes. On peut les photographier ou les prévoir d’avance ce qui autrefois prêtait à des constructions de géométrie descriptive intéressantes. Elles sont aujourd’hui réalisées automatiquement à travers des logiciels de géométrie.
Il arrive de plus que les ombres prennent des formes étranges ne semblant plus rien à voir avec l’original, comme sur la photographie suivante qui constitue une anamorphose d’un taureau chargeant un toréador.
Le clair-obscur
La lumière permet enfin de mettre l’accent sur un personnage et de le modeler, comme sur la photographie suivante où il met en valeur le mouvement des bras du personnage. Certains studios sont réputés pour ce type de photographies qui sculptent les personnages.
Avant que cette technique ne soit exploitée en photographie, elle a été particulièrement utilisée par des peintres comme Georges de la Tour (1593 – 1652) à l’époque classique. Dans le nouveau-né, l’accent est mis sur celui-ci grâce au rayon de lumière envoyé par la bougie cachée par la main de la femme à gauche.
De même, la lumière est au centre de la révolution impressionniste. D’une manière presque mathématique quand on pense à l’analyse de Fourier, les impressionnistes n’utilisent que des couleurs primaires et c’est leur reconstitution dans l’œil, ou plutôt le cerveau, du spectateur qui crée l’impression générale. L’aboutissement de ce courant se trouve sans doute dans les œuvres de Vincent Van Gogh (1853 – 1890).
La lumière et ses reflets
C’est de même la lumière qui crée les reflets sur l’eau comme dans cette photographie prise un jour d’orage où les jeux de lumière sont visibles. On y voit également son influence sur les couleurs. La scène originale pouvait ainsi être vue de plusieurs manières.
Nous retrouvons ces effets dans nombres d’œuvres figuratives mais aussi dans les fameux noir-lumière de Pierre Soulages (né en 1919).
Conclusion
Comme nous l’avons vu, seule la lumière donne un sens aux œuvres plastiques, que ce soit en photographie, en dessin ou en peinture. Les mathématiques ne sont bien entendu pas nécessaires pour les concevoir mais elles les structurent que ce soit dans l’analyse spectrale de la lumière ou dans ses jeux. Les logiciels de dessin utilisent d’ailleurs un grand nombre de techniques mathématiques, même si elles restent invisibles à l’utilisateur.
Les nombres fascinent tellement qu’ils arrivent à pénétrer des domaines purement qualitatifs, comme l’évaluation de l’intelligence. Les tests de Quotient Intellectuel ont été créés, dans le cadre de l’instruction obligatoire, pour détecter les enfants susceptibles de rencontrer des difficultés scolaires. En 1904, le ministère de l’Instruction publique chargea Alfred Binet (1857 – 1911) d’imaginer un outil pour ce faire. Son échelle psychométrique visait à un diagnostic rapide d’arriération en comparant les performances de l’enfant à celles de sa classe d’âge. À l’époque, ce n’était pas un test destiné à la sélection, mais au contraire à aider les enfants en difficulté. Binet lui-même notait d’ailleurs l’influence de la culture familiale sur les résultats des tests et, quand on lui demandait ce qu’était l’intelligence, il répondait : l’intelligence est ce que mesure mes tests.
Le quotient intellectuel des enfants
La notion de quotient intellectuel découle des études de Binet, mais a été fixée par Wilhelm Stern (1871 – 1938) comme le rapport entre l’âge mental d’un enfant et son âge physique… d’où le terme de « quotient ». Un QI de 100 correspond donc à un enfant normal… et le QI d’un même enfant varie avec l’âge. Il est mesuré par des tests qui dépendent également de l’âge. Ces tests portent souvent sur des reconnaissances de structures, ce qui est relativement naturel si on veut mesurer l’aptitude à suivre les cours de l’école élémentaire, pas forcément si on s’intéresse à celle de survivre dans une nature hostile… ce qui pourtant demande aussi de l’intelligence.
Vu le but, ces tests sont légitimes et doivent permettre de venir en aide à des élèves en difficulté en évaluant où se situe leur problème : émotivité exacerbée ou arriération mentale ? Le QI peut discriminer entre ces deux hypothèses.
Extension aux adultes
Jusqu’en 1939, le QI est resté cantonné à la mesure de l’âge mental des enfants. David Wechsler (1896 – 1981) eut l’idée d’un test s’appliquant aux adultes. La définition donnée ci-dessus n’ayant aucun sens dans ce cadre, il eut recours à un subterfuge.
La répartition du QI des enfants suivant une courbe en cloche de moyenne 100 et d’écart-type 15, il supposa qu’il en était de même pour les adultes et étalonna ses tests pour qu’il en soit effectivement ainsi ! Les tests utilisés actuellement descendent de ces tests de Wechsler.
Changement d’utilisation
À la différence de ceux imaginés par Binet, les tests de QI actuels sont plutôt destinés à détecter des personnes à haut potentiel intellectuel, ou que l’on croît tels. Ces tests ont plus d’un effet pervers. S’ils peuvent aider à corriger l’orientation scolaire de certains enfants, supposés inadaptés du fait de leur précocité ou de leur émotivité exagérée, ils peuvent aussi fabriquer des aigris si la réussite ultérieure ne correspond pas à l’intelligence supposée.
L’intelligence est-elle unidimensionnelle ?
Quelle que soit la sophistication de ces tests, on peut douter que l’intelligence puisse être classée selon une seule dimension. Pour commencer, qu’est-ce que l’intelligence ? Bien entendu, on peut répondre comme Binet : l’intelligence est ce que mesurent les tests de QI. Une telle réponse a l’avantage d’être simple et opératoire… et le défaut de ne servir à rien. La question n’est pas aisée car, sans même savoir de quoi il s’agit, il faut être intelligent aussi bien pour définir l’intelligence, que pour en comprendre l’éventuelle définition. De même, il faut ne pas l’être pour croire qu’elle peut se résumer à un nombre fourni par un test. Une définition doit apporter une certaine compréhension du phénomène, et répondre à la question : à quoi sert-il d’être intelligent ? Dans ce sens utilitaire, la définition la plus courante est : l’intelligence est la faculté de s’adapter. Même si des qualités communes sont nécessaires pour cela, il est clair que cela dépend des circonstances. Prenons l’exemple de situations conflictuelles. Une qualité essentielle est de reconnaître qui est votre adversaire, et qui est votre allié potentiel. Cette forme d’intelligence relationnelle est utile dans le commerce, dans l’enseignement comme en politique. Une fois votre adversaire potentiel détecté, il est bon de savoir prévoir l’action qu’il va mener. Nous retrouvons ici la forme d’intelligence privilégiée en mathématiques et dans les tests de QI. Ces deux formes d’intelligence ne sont pas les seules, même si elles sont peut-être les principales. Notre but n’est pas ici d’en faire la liste, le lecteur intéressé pourra consulter les formes d’intelligence de Howard Gardner. En admettant que nous soyons capables de noter exactement chaque être humain sur ces deux formes d’intelligence, pour obtenir une note globale, il est ensuite nécessaire d’attribuer un pourcentage à chacune, ce qui est loin d’être évident. Les tests de QI ont sans aucun doute une utilité mais il est vain d’en faire une mesure de l’intelligence, surtout si on s’entraîne à les passer !
La logique publicitaire de certains sites de rencontre est simple : l’harmonie dans un couple est question d’affinités ! Certes mais comment la mesurer ? Les sites en question le font au moyen de tests psychologiques où il faut répondre à des questions sur une échelle de 7 ou de 10, l’étalonnement étant laissé à la discrétion de chacun. Les résultats sont surprenants, et n’ont vraiment de valeur que pour les questions matérielles comme l’âge, le niveau d’étude, la consommation de tabac ou d’alcool.
La plus grande difficulté de ces tests est qu’ils sont fondés sur la déclaration de l’individu. Il est ainsi peu probable qu’une personne cherchant une rencontre se dise infidèle, orgueilleux, querelleur, jaloux, etc. De même, il sera bien difficile de connaître son affectivité réelle.
La mathématique des émotions
L’affectivité et le côté émotionnel ont une grande importance dans les choix des personnes, par exemple pour l’achat. La publicité en tient compte, et ne cherche pas à utiliser des arguments rationnels. Les émotions y prennent leur place, et un constructeur automobile n’a pas craint ce slogan : soyez raisonnable, faites-vous plaisir.
C’est pour cela que les études marketing essayent d’en tenir compte, mais comment les mesurer ? On peut le faire par des enquêtes où les personnes remplissent des questionnaires. Elles évaluent alors elles-mêmes leur degré de plaisir ou de déplaisir, de gêne, d’enthousiasme, etc. en face de tel ou tel produit, ou de telle ou telle expérience. Le résultat n’est pas toujours fiable. On peut aussi essayer de prendre des mesures du pouls, ou autres, des consommateurs devant chaque situation. Cependant, les contraintes physiques, qu’une telle méthode implique, faussent les résultats. En général, on décompose les émotions possibles en positives et négatives, par exemple la joie, le plaisir et le bien-être d’un côté, l’inquiétude, la colère et la déception de l’autre. On demande alors à l’individu interrogé de noter chacune de ces émotions de 1 à 7 (ou 10). Les résultats d’une telle enquête demandent à être interprétés, ils ne peuvent fournir directement une note. Ils sont en fait destinés à trouver la cible d’une publicité. Dans ce cadre, ces mesures ont un sens. En déduire une note, comme le font les sites de rencontre, est abusif. Le charme des émotions comme des sentiments est de ne pouvoir être notés.
Le nombre 13 est surchargé de superstitions. Quoi de pire qu’être 13 à table ? L’origine de cette idée est assez claire : elle fait référence à la Cène (voir ci-dessus sa représentation dans l’église de Curahuara de Carangas en Bolivie), c’est-à-dire au dernier repas de Jésus-Christ où il désigne celui qui devait le trahir et qui se pendra plus tard. Même si les évangiles font plutôt penser au 14 ou au 15, certains affirment que Jésus fut crucifié le vendredi 13 du mois de Nisan… qui serait ainsi un jour de malheur. Pourtant, pour d’autres, il est censé porter chance. Cependant, les statistiques sont terribles. S’il y a trois fois plus de joueurs au Loto les vendredis 13, leur chance de gagner reste rigoureusement la même. Seule la Française des Jeux profite réellement des vendredis 13.
13 mois chez les Mayas
Un raisonnement rapide pourrait faire penser qu’il existe autant de vendredis 13 que de dimanches 13 ou de lundis 13, etc. C’est une erreur. Une étude mathématique précise du calendrier grégorien permet de montrer qu’il y en a légèrement plus… ce qui réjouira sans doute les superstitieux. Le calcul est un peu laborieux, nous le reportons plus loin pour les amateurs. Pour finir sur le nombre 13, on peut remarquer que, curieusement, le calendrier sacré maya comportait 13 mois de 20 jours chacun. Cette période est à rapprocher du mode de numération maya fondé sur la base 20. L’année comportait ainsi 260 jours, ce qui ne signifie pas grand-chose d’un point de vue astronomique mais que certains rapprochent de la durée de la grossesse, qui est de 266 jours en moyenne. Parmi les nombres porte-malheur, nous citerons 17 qui l’est en Italie car XVII est l’anagramme de vixi qui signifie « j’ai vécu » en latin et donc sous-entend « je suis mort ».
Nombre de vendredis 13
Depuis la réforme grégorienne du calendrier, de 1582, les années se reproduisent identiques tous les 400 ans et non tous les 28 ans comme auparavant dans le calendrier julien. En effet, si les années ordinaires ont toujours 365 jours et les années bissextiles 366, la règle pour déterminer si une année est bissextile a été modifiée : une année l’est si son millésime est divisible par 4 sauf s’il est divisible par 100 mais pas par 400. Le nombre d’années bissextiles d’une période de 400 ans est donc de 97 (et non de 100) ce qui donne 97 x 366 + 303 x 365 = 146 097 jours… qui se trouve divisible par 7. Ainsi, le premier janvier 1600 fut un samedi, et de même 400 ans plus tard, le premier janvier 2000. L’année 2000 fut identique à l’année 1600. Il y eut un seul vendredi 13 en 1600 (en octobre) et donc de même en 2000.
En comptant le nombre de treizième du mois sur 400 ans (ce qui peut se faire à la main mais plus rapidement par ordinateur), on trouve : 687 dimanches, 685 lundis, 685 mardis, 687 mercredis, 684 jeudis, 688 vendredis et 684 samedis. Le treize du mois a donc plus de chance d’être un vendredi que tout autre jour de la semaine ! Est-ce une bonne nouvelle ?
En 1999, une jeune femme, Sally Clark, fut condamnée pour le meurtre de ses deux fils, à un an d’écart. Ceux-ci semblaient être décédés de mort subite du nourrisson. L’accusation mit en avant le rapport d’un pédiatre, qui mérite d’être nommé ici, sir Roy Meadow. Selon lui, la probabilité que deux enfants d’un même couple meurent de mort subite du nourrisson était égale à 1 sur 73 millions. D’où vient ce nombre ? Des statistiques, bien sûr. Selon elles, le risque de mort subite d’un nourrisson dans un couple aisé et non-fumeur tel celui de Sally est de 1 sur 8543. On imagine facilement d’où vient ce chiffre : on a fait le rapport entre le nombre de nourrissons morts ainsi et le nombre total de nourrissons dans ce type de couple. Le raisonnement de Roy Meadow est alors similaire à celui qui permet d’affirmer que la probabilité d’obtenir deux 6 en jetant des dés est égale à 1 sur 36. Il affirme donc que, si le risque d’un mort dans un couple est de 1 sur 8543, le risque de deux morts est de 1 sur 85432… ce qui fait bien 1 sur 73 millions environ. Le pédiatre souligna que, comme il y avait 700 000 naissances par an au Royaume-Uni, cette coïncidence ne devait arriver qu’une fois par siècle. Les jurés furent convaincus et condamnèrent Sally Clark à la prison à perpétuité.
L’art de se tromper
Pourtant, les calculs du pédiatre sont grossièrement faux. La première erreur est de ne garder chez le couple Clark que les caractéristiques diminuant le risque : couple aisé et non-fumeur. En revanche, il néglige un facteur aggravant : les enfants étaient des garçons, pour lesquels le risque est double. Enfin, quand un premier enfant est décédé de la mort subite du nourrisson, le risque qu’un second meure de même est dix fois plus élevé. Autrement dit, le calcul correct aurait dû partir de la moyenne nationale, qui est de 1 / 1300 et de le multiplier par 1 / 130. Le calcul donne maintenant un risque de 1 sur 169 000, ce qui est très différent. Le pédiatre aurait dû le savoir puisqu’un ou deux cas de morts de deux enfants d’un même couple de la mort subite du nourrisson se produit chaque année au Royaume-Uni ! Ces erreurs du pédiatre sont doublées d’une erreur fondamentale du système judiciaire : s’il est normal de confier les expertises médicales à des médecins, il devrait être aussi normal de confier les expertises statistiques à des statisticiens. Le plus humble d’entre eux aurait su montrer les erreurs grossières du pédiatre.
Les gagnants du Loto ont-ils tous triché ?
Le risque estimé de morts de deux enfants d’un même couple aisé et non-fumeur de 1 sur 73 millions fait penser à la chance qu’un joueur du Loto a de remporter le gros lot, que l’on estime à 1 sur 14 millions. Prenez le dernier gagnant, disons Candide Toutlemonde. Elle avait 1 chance sur 14 millions de gagner, doit-on en déduire qu’elle a triché ? Fait a posteriori, ce raisonnement n’a aucun sens. Il en aurait eu si, une semaine avant le tirage, vous aviez dit : « Candide va remporter le gros lot ».
Le cas de Sally Clark est similaire puisque les calculs de probabilités sont faits a posteriori. Par ailleurs, le procureur et les jurés semblent avoir interprété les calculs du pédiatre en : la probabilité d’innocence de l’accusé est de 1 sur 73 millions. Pour conclure de cette façon, il aurait fallu comparer toutes les probabilités. Au Royaume-Uni, est-il plus vraisemblable qu’une femme tue son enfant que celui-ci soit victime de la mort subite du nourrisson ? Sur les 700 000 naissances annuelles, 30 sont victimes d’un homicide, soit 1 sur 23 000 contre 1 sur 1300 pour la mort subite. La probabilité d’un double homicide est donc de 1 sur 529 millions, en suivant la logique du pédiatre, celle d’une double mort subite, de 1 sur 169 000, comme nous l’avons vu plus haut. Ce simple calcul montre à quel point l’utilisation des statistiques dans cette affaire fut erronée. Sally Clark fut acquittée en appel, en 2003, mais ne se remit jamais de ses épreuves et décéda en 2007. Plusieurs autres erreurs judiciaires sont liées à une utilisation inappropriée des statistiques. Ainsi, en 1997, Shirley McKie, une enquêtrice de la police écossaise, fut accusée d’un meurtre parce que ses empreintes digitales avaient été « identifiées » sur la scène d’un crime. Les probabilités étaient contre elle en dehors de toute autre preuve. En fait, elles n’étaient que quasiment identiques à celles du véritable meurtrier, ce qui fut prouvé ultérieurement. Ici encore, la vie d’une personne fut brisée par des chiffres.
Dans tous ces cas, le biais dans les calculs précédents est d’évaluer une probabilité par un calcul valable pour un événement qui ne s’est pas encore produit, et de l’appliquer à un événement qui s’est déjà produit. Nous pouvons rapprocher cet argument à l’existence de la vie sur Terre. L’apparition de la vie était un événement de probabilité quasi nulle, pourtant il s’est bel et bien produit puisque vous lisez ce texte écrit par un Terrien, et que vous l’êtes vous-même sans doute. Faut-il en déduire que notre existence est le résultat d’un miracle ?
Comment mesurer la richesse ou la pauvreté ? En général, on fixe des seuils. Par exemple, en France, certains économistes estiment qu’un ménage sans enfant est riche à partir de 4000 € de revenu mensuel et 400 000 € de patrimoine. D’où vient un tel calcul ? Comme pour le calcul du QI, il vient de la courbe en cloche. Ces chiffres correspondent aux 8 % les plus fortunés. Dans ce cadre, on ne peut les contester. Cependant, ils ne correspondent en rien à ce que l’on nomme réellement « les riches ». Au plus pourrait-on qualifier ces personnes d’aisées. D’autre part, faut-il comprendre qu’un euro seulement sépare le riche du non riche ? Sans doute non. Toutes les tentatives de définition de ce type se heurteront à cette absurdité. La richesse dépend sans doute de bien plus de paramètres et se laisse mal emprisonner dans un seul nombre. Il en est de même de la pauvreté. Dans ce cas, les chiffres utilisés correspondent au côté gauche de la courbe en cloche.
Le Produit Intérieur Brut
Mesurer la richesse individuelle est donc un exercice périlleux. Il semble plus simple pour un pays. On dispose alors d’un indice solide : le Produit Intérieur Brut ou PIB. Il s’agit de la mesure du revenu provenant de la production dans un pays donné. Son calcul est donc purement comptable. En divisant le PIB par le nombre d’habitants, on obtient le PIB par habitant, que l’on utilise souvent comme mesure du niveau de vie d’un pays. Cet indice est critiqué par un grand nombre d’économistes car il est exclusivement monétaire. Il ne tient pas compte notamment que, dans certains pays, on mange très bien pour quelques euros. Il ne tient pas compte non plus du travail bénévole, qui contribue pourtant au niveau de vie. Il ne tient pas compte de tout ce qui fait le sel de la vie comme le disait Robert Kennedy en mars 1968, alors qu’il était candidat à la présidence des États-Unis :
Le PIB ne tient pas compte de la santé de nos enfants, de la qualité de leur instruction, ni de la gaieté de leurs jeux. Il ne mesure pas la beauté de notre poésie ou la solidité de nos mariages. Il ne songe pas à évaluer la qualité de nos débats politiques ou l’intégrité de nos représentants. Il ne prend pas en considération notre courage, notre sagesse ou notre culture. Il ne dit rien de notre sens de la compassion ou du dévouement envers notre pays. En un mot, le PIB mesure tout, sauf ce qui fait que la vie vaut la peine d’être vécue.
Le Bonheur National Brut
Comme le sous-entend ce texte, l’exercice de quantification devient vraiment périlleux quand on veut mesurer le bonheur, et le résumer en un seul chiffre. Une telle évaluation est-elle possible ? C’est ce que veulent croire les dirigeants du Bhoutan, qui ont créé un indice ad hoc, le Bonheur National Brut. Il repose sur quatre principes fondamentaux : croissance et développement économiques, conservation et promotion de la culture bhoutanaise, sauvegarde de l’environnement et utilisation durable des ressources et bonne gouvernance responsable. Ces quatre axes sont évalués à travers 72 mesures. Les résultats sont pondérés pour obtenir un seul nombre, ce qui prête à la même critique que tous les systèmes de notation. D’autre part, certains critères peuvent sembler bien loin du bonheur de tous. Ainsi, la conservation de la culture bhoutanaise pousse à l’exclusion de l’étranger, ce qui s’est effectivement passé avec les résidents d’origine népalaise. Que dirait-on de l’application d’un tel critère en France ? D’autres calculs ont été proposés, ils mélangent, avec une pondération compliquée, économie, environnement, santé physique, santé mentale, bien-être au travail, bien-être social et santé politique. Même si certains critères peuvent être évalués de manière qui semble objective en comptant le nombre de plaintes au travail, le nombre de divorces, la quantité d’antidépresseurs consommés, etc. on peut douter du bien fondé de tels calculs. Vouloir résumer le bonheur en un seul nombre montre plutôt la fascination qu’exercent les nombres sur l’esprit de nos contemporains.
En 1973, Berkeley, l’université américaine, fut poursuivie pour discrimination envers les filles. L’affaire semblait claire. Parmi les candidates, seule 35 % étaient retenues alors que 44 % des candidatures masculines l’étaient. L’étude a été précisée sur les six départements les plus importants, que nous notons ici de A à F.
Ce tableau ne montre aucune discrimination envers les femmes. Au contraire, le taux d’admission des filles dans le principal département (A) est nettement supérieur à celui des garçons. L’explication vient quand on regarde le nombre de candidatures dans ces départements. Les femmes semblent avoir tendance à postuler en masse à des départements très sélectifs. Dans ceux-ci, leur taux d’admission est à peine plus faible que celui des hommes. Dans les autres, elles sont plus largement sélectionnées que les hommes. Quand on fait la moyenne globale, ce sont les départements sélectifs qui ont plus de poids, puisqu’elles y postulent en masse. Ce paradoxe a été étudié par Edward Simpson (né en 1922). On le retrouve dans de nombreux cas.
Les médecins de Molière asseyaient leur prestige et leur pouvoir sur quelques mots vaguement, très vaguement, latin. À l’époque, cette langue déjà morte depuis longtemps était la marque des savants et des puissants. C’était celle aussi qui expliquait le monde, aussi bien par la religion que par la science. Même si elle s’est affaiblie progressivement depuis, elle a gardé un pouvoir extraordinaire jusqu’au milieu du XXe siècle.
Puissants mais ignorants
Pourtant, feu le pouvoir du latin ne venait pas d’une connaissance de cette langue, ni des élites, ni du peuple. Tous l’ignoraient à des degrés divers mais cela faisait savant et le peuple envoûté ne pouvait répondre à un argument s’il était énoncé dans cette langue. La religion est mystère et quoi de mieux qu’une langue venue de la nuit des temps pour l’évoquer ? Le pouvoir du latin venait d’ailleurs de là. D’autres religions fonctionnent de même. Aux yeux du peuple, les caractéristiques essentielles du latin étaient d’être une langue partagée par les savants et les puissants, qui explique le monde, tout en étant incompréhensible donc incontestable par le commun des mortels.
Les chiffres, le latin de notre époque ?
Il suffit de lire ces trois caractéristiques pour voir que, dans notre monde occidental, la langue des chiffres a aujourd’hui remplacé le latin. Même envoûtement sans compréhension ni possibilité de contestation. Si Molière vivait de nos jours, il s’amuserait sans doute de certains débats autour de pourcentages où nul ne semble rien comprendre… et personne n’ose le dire. Prenons un exemple. Dans un pays imaginaire, un homme politique affirme : Monsieur, vous avez augmenté les impôts de 20 %, nous les rétablirons en les baissant de 20 % ! Son adversaire passera sans doute pour un extraterrestre s’il fait remarquer que cela ne correspond pas à un rétablissement mais finalement à une baisse. En effet, si on multiplie les impôts par 1,2, ce qui correspond à l’augmentation de 20 %, pour les multiplier ensuite par 0,8, ce qui correspond à la baisse de 20 %, nous les avons finalement multipliés par 1,2 x 0,8, soit 0,96… ce qui correspond à une baisse finale de 4 %. Dans un autre style, voici un discours a priori très convaincant : La part de la richesse produite détenue par les 1 % les plus riches est passée de 7 à 9 % entre 1982 et 2006. À l’inverse les bas salaires ont eux stagné et, sur 25 ans, la hausse du SMIC net réel demeure bien inférieure à celle des gains de productivité moyens. À la première lecture, il semble très précis, tout est chiffré : 1 %, 7 à 9 %, etc. À la seconde lecture, on s’aperçoit que tout est flou. Par exemple, le rédacteur a mis en parallèle, les 1 % plus riches et les bas salaires. Ces plus riches sont-ils « les plus haut salaires » ou « les plus grosses fortunes » ? Sur le fond, cela n’a guère d’importance, l’idée véhiculée est claire mais que viennent faire ces chiffres dans l’affaire ? La réponse est la même que pour les médecins de Molière. Le rédacteur de ce texte a voulu s’auréoler du prestige d’une science qui lui semble étrangère. Nous voyons sur cet exemple, que nous aimerions imaginaire, que les chiffres ont bien pris la place autrefois occupée par le latin chez ceux qui briguent le pouvoir…
La preuve par les chiffres
Certains chiffres ne font que sous-entendre. Par exemple, que penser de l’affirmation : La fortune de Bill Gates équivaut au Produit Intérieur Brut du Portugal ? Elle sous-entend que certains individus, dont Bill Gates, sont plus puissants que certains états, et non des moindres. Pourtant, que compare-t-on ici ? D’un côté, tout le patrimoine de Bill Gates, de l’autre, la richesse produite en une année au Portugal. La même confusion que la précédente ! Si l’on voulait prouver que Bill Gates est plus puissant que le Portugal, il faudrait comparer les deux patrimoines. En fait, la fortune de Bill Gates a beau être colossale pour un seul individu, c’est une goutte d’eau par rapport à celle du Portugal. On retrouve la même utilisation des chiffres dans des affirmations du style : Pour les États-Unis, la valeur des actifs des fonds de pension était en 1996 de 4 752 milliards de dollars, soit 62 % du PIB américain, celle de fonds de placement collectif de 3 539 milliards de dollars, soit 46 % du PIB, et celle des compagnies d’assurance s’établissait 3 052 milliards soit 30 % du PIB. Au total, ces fonds de pension détiennent l’équivalent de 138 % du PIB américain. Autrement dit, on confond sciemment ou non, un revenu et un patrimoine… Il est facile de produire à l’envi ce genre de preuve.
Sans doute pour éviter les nombres négatifs, Daniel Gabriel Fahrenheit (1686 – 1736) fixa l’origine des températures (0° Fahrenheit) à la plus basse qu’il ait observée. C’était durant l’hiver 1709 dans la ville de Dantzig, où il habitait. Pour 100° Fahrenheit, il choisit la température corporelle d’un cheval sain ! Dans son système, l’eau gèle à 32° et elle bout à 212° environ.
L’absolu du zéro
Ces choix étranges de Fahrenheit s’expliquent par la réticence de l’époque devant les nombres négatifs. On préférait d’ailleurs parler de quantités plutôt que de nombres. Il s’agissait d’artifices de calcul pour résoudre des équations, dont on écartait ensuite les solutions négatives. Tout en étant une origine, zéro véhicule une idée d’absolu, en dessous duquel on ne peut aller, comme on le voit chez Blaise Pascal (1623 – 1662) qui, dans ses Pensées, écrit cette phrase surprenante :
Trop de vérité nous étonne ; j’en sais qui ne peuvent comprendre que, qui de zéro ôte 4, reste zéro.
Cette idée a perduré jusqu’au XIXe siècle, Lazare Carnot (1753 – 1823) écrivait encore :
Pour obtenir réellement une quantité négative isolée, il faudrait retrancher une quantité effective de zéro, ôter quelque chose de rien : opération impossible. Comment donc concevoir une quantité négative isolée ?
La solution de Cauchy
La question semble cependant résolue avec Augustin Louis Cauchy (1789 – 1857) qui, dans son Cours d’analyse de l’Ecole royale polytechnique définit les nombres relatifs comme une partie numérique précédée d’un signe + ou – :
Le signe + ou – placé devant un nombre en modifiera la signification, à-peu-près comme un adjectif modifie celle du substantif.
Conversion entre degrés Celsius et degrés Fahrenheit
Les variations étant linéaires dans les deux cas, la relation est affine, c’est-à-dire de la forme : TF = a TC + b. Les deux coïncidences donnent les relations : b = 32 et 100 a + b = 212 d’où : a = 1,8 et b = 32. Nous en déduisons la formule : TF = 1,8 TC + 32. Ainsi la température de 37° Celsius donne : 1,8 x 37 + 32 = 98,6° Fahrenheit.
Comment comprendre le monde moderne sans culture mathématique ? Accéder à celle-ci n’exige cependant pas d’apprendre à résoudre la moindre équation.