Tous nuls : catastrophisme ou réalité ?

 

xplus5egalezero

Une étude à grande échelle sur plus d’une quarantaine de pays est conduite régulièrement depuis une vingtaine d’années afin d’évaluer le niveau en mathématiques et en sciences des élèves à différents stades de leur apprentissage. Depuis presque toujours, les pays asiatiques font cavaliers seuls en tête, Singapour étant le leader du groupe, et le peloton étant nettement distancé par un gap à peu près constant au fil du temps. Les résultats 2015 de cette étude TIMSS (Trends in International Mathematics and Science Study) viennent d’être publiés et sont disponibles à l’adresse https://nces.ed.gov/timss/timss15.asp . Ils portent sur le CM1 (ou équivalent) et la terminale scientifique. Dire que les conclusions sont inquiétantes est un euphémisme.

montagnetimss

C’est la première fois que les petits français de CM1 ont pu y participer, de sorte qu’aucune évolution franco-française dans le temps n’est possible. En revanche, resitués dans le contexte international, les résultats sont indiscutablement catastrophiques pour la France, puisqu’elle est dernière ou avant-dernière en Europe selon que l’on considère les mathématiques ou plus généralement les sciences. Quant au classement mondial, il est dominé par les pays d’Asie, les petits français se retrouvant à la trente-cinquième place.

Ces résultats ont été commentés ici et là. Sans surprise, les explications officielles s’appuient sur le fait que la situation d’aujourd’hui est, par construction, la conséquence de mesures et/ou de réformes mises en œuvre il y a plusieurs années et donc ne peuvent rendre compte des efforts récents en la matière. Autrement dit, nous qui sommes en charge depuis moins longtemps, nous n’y sommes pour rien. Ne changeons pas de cap puisqu’une nouvelle voie a été ouverte par nos soins, et continuons à faire évoluer les programmes en conformité avec la modernité que suggère la révolution numérique supposée, notamment en introduisant l’informatique et l’algorithmique dans les programmes de maths. Nul ne saurait en douter, là se tient le salut.

Si l’explication officielle relative à la simple chronologie est objectivement recevable, elle ne tient plus debout quand on s’intéresse non plus au CM1 mais à la terminale S, aboutissement d’une éducation sur plus d’une dizaine d’années et de ce fait globalement moins vulnérable aux modes pédagogiques, aux changements d’humeur et aux révolutions de palais (encore que des décisions malheureuses peuvent casser la chaîne des apprentissages). En tout cas, délaissant des comparaisons internationales fort délicates à ce stade de l’éducation et restant dans le cadre hexagonal, force est malheureusement de constater la chute indiscutable entre 1996 et 2015 : globalement -20% en maths, et à peu près autant en physique.

On laissera aux spécialistes le soin de discuter en détail des nombres et de la méthodologie, certainement sujets à débats ou polémiques à n’en plus finir. Mais, sauf à faire du déni de réalité un principe d’action, de non-action plutôt, on ne peut laisser de côté les témoignages des cohortes d’enseignants qui, depuis des décennies, du CP à l’université et aux grandes écoles, argumentent en s’appuyant sur leur pratique pour dénoncer l’affirmation pseudo-moderne selon laquelle « ils ne savent plus faire cela mais ils savent faire autre chose » : un élève de Terminale n’a ainsi plus aucune connaissance réelle de l’équation différentielle la plus simple, mais il aura appris à remplir des cases dans Excel. La belle affaire ! Et si les neurones ainsi ne risquent plus l’épuisement, ils progressent aussi dans l’avachissement.

N’a-t-on pas vu naguère, dans la rubrique Formulaire d’une épreuve de Bac scientifique, l’expression du développement de cos(a+b) puisque exiger de le connaître serait traumatiser l’apprenant-acteur ? Et, bien pire, une fois ce rappel énoncé, le rédacteur avait jugé indispensable de donner aussi le même développement pour… cos(a-b) ! A ce niveau du degré zéro de l’exigence, plus rien ne doit surprendre.

Surtout, de telles constatations permettent de réaliser que, si les moyens sont sans doute parfois insuffisants, la question de fond est : que doit-on apprendre aux élèves et surtout, que peut-on exiger d’eux ? Point besoin d’avoir passé plus de quatre décennies à  enseigner dans les cadres les plus variés pour savoir que moins on demande, moins on obtient : c’est le propre de la nature humaine !

Le point d’interrogation dans le titre de ce billet n’a bien sûr aucune raison d’être. Quel que soit l’instrument d’appréciation, technocratique et quantifiant ou fondé sur l’expérience et le pragmatisme, la conclusion est sans appel. Il n’est pas question de singer ce qui se fait à Singapour dont nous séparent tant de différences politiques, sociales et culturelles. Mais n’avons-nous pas la lucidité et l’intelligence (et aussi le courage) permettant de croire que ce qui s’y pratique pourrait être une source d’inspiration pour rendre plus glorieux un bilan aussi désastreux ?

VIèmes rencontres de physique de l’infiniment grand à l’infiniment petit

Comme depuis plusieurs années, j’ai participé aux « Rencontres de physique de l’infiniment grand à l’infiniment petit », destinées principalement aux étudiants entre L3 et M1 pour leur proposer des conférences, des cours, des visites de laboratoires, des observations astronomiques et des discussions-débats.

Traditionnellement, chaque promotion porte le nom d’une personnalité scientifique qui, cette année fut celui de Bruno Pontecorvo, physicien dont l’existence contient des parts d’ombre (espion ou non ?). Surtout, ce grand physicien imagina les oscillations des neutrinos, seulement possibles si ces particules fantômatiques ont une masse non nulle, oscillations dont l’observation assez récente a valu à Arthur McDonald et Takaaki Kajita d’être les lauréats Nobel en 2015.

Cette année, le débat avec Etienne Klein porta sur la notion de réductionnisme, question qui n’est pas seulement d’ordre philosophique, comme l’a souligné Phil Anderson dans son célèbre article « More is different » publié dans Science en 1972 où il développe des arguments montrant comment cette notion et une autre qu’il appelle constructivisme sont au cœur de la pratique du physicien ; c’est leur complémentarité qui a permis des avancées considérables de la connaissance, notamment en ce qui concerne l’épineux problème des phénomènes critiques.

Des documents rassemblant diverses contributions à cette école d’été sont disponibles sur le site https://indico.in2p3.fr/event/12114/page/3, onglet « Talks ». En particulier, ma contribution au débat sur le réductionnisme est disponible à https://indico.in2p3.fr/event/12114/material/slides/51

Le code de la route est-il quantique ?

Depuis quelque temps, l’adjectif quantique est accolé à des pratiques  ou des activités dont la variété semble inépuisable : il y a d’abord la révolutionnaire (?) « médecine quantique » dont le développement prétendu sert de prétexte à l’organisation de congrès réunissant paraît-il « les plus grands experts internationaux ». Puis viennent les déclamations incantatoires des sites de développement personnel (sic) où on vous explique comment, grâce à la physique quantique, on « met en évidence à grands pas, le lien plus qu’évident désormais entre l’infiniment petit et l’infiniment grand, c’est-à-dire nous-mêmes », ceci juste avant de vous proposer d’acheter un (des) appareil(s) permettant, moyennant plusieurs milliers d’euros, de valider par la pratique l’affirmation suivant laquelle « les biophysiciens rejoignent l’Aum’ du Yoga millénaire ». Si la liste pourrait être fort longue (et en fait infinie : pourquoi pas le code de la route ?) et donc lasser le/a lecteur/trice, il est impossible de résister à la tentation de passer sous silence l’astrologie quantique, pseudo-science qui réalise l’exploit indépassable d’associer une croyance s’appuyant sur des faits (la position des astres) mais dénuée de tout fondement scientifique, à une théorie (la théorie quantique) dont Roger Penrose affirme qu’elle est « la plus exacte de toutes les théories physiques ».

Comble du grotesque : sur un site d’astrologie quantique (dont il est précisé que cette appellation est une marque déposée !), il est fait un vigoureux appel à la vigilance contre les dérives où veulent nous entraîner les « gogopathes » de tout poil.

Devant un tel déferlement d’inepties, on est tenté par le désir de voir tous ces grands esprits se livrer à une dernière bataille, celle où dans une empoignade titanesque les combattants se seront mutuellement annihilés.

Si l’on ne peut interdire à personne de délirer dans son coin, de traverser le Pont des Arts en proclamant être Napoléon ou de chanter à tue-tête Carmen en japonais, il est en revanche nécessaire de dénoncer des entreprises qui, affichant leur objectif de santé individuelle ou collective, s’emparent de certains termes d’un langage scientifique avéré pour construire des élucubrations et des divagations plaçant leurs auteurs en situation d’imposteurs au sens strict. La liberté de penser n’est pas la liberté d’escroquer.

Convoquer Heisenberg et Schrödinger pour « démontrer » que tout est quantique y compris la dynamique des cellules de l’organisme humain dans leur mouvement au sein des tissus vivants, manipuler sans vergogne et n’importe comment la relation de de Broglie dans un invraisemblable salmigondis pour en arriver à « l’intrication des oligo-éléments dans l’intestin », entendre que « peu importe la valeur de la constante de Planck » (ben si, justement !) ou que « les mathématiques ne servent à rien » : voilà quelques exemples de charlatanisme intellectuel dont on souhaiterait que leur seul bienfait (?) soit l’auto-satisfaction de leurs auteurs fiers d’avoir pu se gargariser avec des mots empruntés à une science dont visiblement ils ignorent tout ou presque.

Malheureusement, ce souhait est loin d’être exaucé, à lire les commentaires enthousiastes (!) que de telles insanités font venir à l’esprit d’internautes dont la seule excuse est d’avoir été écartés des voies de la raison, où l’objectif poursuivi est la diffusion des  connaissances établies pour avoir été validées par l’expérience. L’absence d’esprit critique chez de tels admirateurs est pour le moins surprenante mais révèle le seul succès indéniable d’entreprises coupables pour ne pas dire indignes : leur propagation insensée dans le grand public, totalement débridée et décomplexée grâce aux moyens de diffusion massive désormais à la portée de tous.

Mais il y a pire quand ce sont des professionnels de la santé qui entrent dans le jeu en prônant les mérites de la « médecine quantique », une pseudo-discipline dont on cherche d’ailleurs vainement la définition à travers les déclarations prétentieuses, confuses, contradictoires mais toujours obscures de tous ceux qui s’en réclament, sans vergogne, les pères fondateurs. C’est pire car cette fois c’est de santé publique dont il est question .

Sachez que si l’homéopathie et les « médecines énergétiques », dont on vous affirme qu’elles font des miracles, « ont tant de mal à s’imposer, c’est parce que leurs fondements théoriques font appel à ce que la science a de plus sophistiqué : la mécanique quantique relativiste et la topologie des formes différentielles de Cartan ». En attendant que ces spécialités soient inscrites dans les cursus médicaux, peut-être faudrait-il  conseiller aux futurs médecins de prêter l’oreille aux affirmations d’un « chercheur indépendant » (sic, mais qu’est-ce donc ?) qui proclame notamment :  » La thérapie quantique rajoute aux conceptions classiques une couche d’information suprale ». Ne me demandez pas ce que suprale signifie, je n’ai pas compris malgré mes efforts.

Phénomène d’illuminés ou de marginaux ? Marginaux, non, à voir la succession des congrès de « médecine quantique » où les sujets des conférences par « les plus grands experts internationaux » vous laisse béat d’admiration et vous plonge dans une irrépressible impatience : à propos de biologie quantique (qu’est-ce donc ?), on vous parlera du « grand rêve d’unifier la gravitation et la physique quantique », vous saurez tout sur « La fusion froide et les transmutations biologiques » (la fusion froide, vous vous souvenez ?), vous découvrirez la relation transcendantale entre « Épreuve personnelle et saut quantique – Une maladie grave, une séparation… » et vous aurez enfin la réponse à la question que vous vous êtes mille fois posée : « Comment la physique quantique nous aide-t-elle à devenir co-créateurs de notre destin relationnel ».

Je n’invente rien : toutes les sentences entre guillemets sont des citations… que l’on retrouve aisément en entrant un extrait dans un moteur de recherche. Au lecteur de s’amuser…

Comment de telles dérives sont-elles possibles ? Je laisse au sociologue, au psychologue et au psychiatre  le soin d’en déterminer et d’en préciser les causes mais une chose est sûre : derrière ces tentatives de récupération se trouve évidemment une industrie florissante et généreuse qui avait cru que la prétendue mémoire  de l’eau allait (enfin) lui apporter la crédibilité dont elle rêvait. Car, oui, l’histoire de l’eau et de sa mémoire supposée est revenue récemment à l’ordre du jour à cause des affirmations péremptoires d’un prix Nobel dont on attend toujours que ses recherches révolutionnaires soient publiées dans une revue à comité de lecture afin de lui valoir, in fine et à juste titre,  un nouveau Nobel, triple cette fois : physique, chimie et médecine !

La mémoire de l’eau, la fusion froide : deux sans doute des plus grandes erreurs scientifiques du XXe siècle, pour laisser aux accusés le bénéfice du doute en évitant de parler de falsifications. Personne aujourd’hui ne devrait oser ressortir ces extravagances : non au motif que la science ne les comprendrait pas mais simplement parce qu’elles ne sont validées par aucune  expérience et que, en physique, en chimie, en médecine et ailleurs, seule une expérience au protocole exigeant, non ambigu et reproductible peut servir de support à une supputation, qu’elle soit ou non compréhensible au regard des théories en vigueur. La revendication de la démarche scientifique est à ce prix.

Au lieu de rappeler ces exigences méthodologiques auxquelles nul ne peut se soustraire, on nous fait le coup de la pensée unique, de la science officielle qui martyrise ses contradicteurs : l’instruction du cas Benveniste (la « mémoire de l’eau ») n’a t-elle pas été comparée au procès de Galilée ?!

Fort justement, Penrose ajoute que la théorie quantique est « la plus mystérieuse » de toutes les théories physiques. C’est bien là son seul défaut, son talon d’Achille plutôt : si elle explique tout ce qui est aujourd’hui observable jusqu’aux échelles de Planck, elle est aussi tellement mystérieuse et subtile qu’elle prête le flanc aux récupérations les plus farfelues quand elles ne sont pas saugrenues, devenant carrément indignes voire scandaleuses quand, dans un objectif de santé, elles s’adressent à un public ne possédant pas les connaissances permettant de rejeter –  ou de combattre – les inepties, les absurdités et les contre-vérités.

P.S.: pour plus de détails sur les dérives New Age de certains gogopathes, voir l’article « Théorie quantique et médecine : le point de vue d’un physicien », Hegel 6(2), 132 (2016), disponible à http://documents.irevues.inist.fr/bitstream/handle/2042/60007/HEGEL_2016_2_6.pdf

 

Werner et Evariste

Deux prénoms qui sonnent comme deux légendes, deux personnages aux destins fort différents mais que rapproche un génie leur ayant permis de poser des jalons décisifs et ainsi permettre une prodigieuse avancée de la connaissance.

Evariste et Werner, plutôt, pour respecter la chronologie.

WernerEtEvariste

Le premier, mort dans des conditions qui demeurent en partie mystérieuses, foudroyé en pleine jeunesse lors d’un combat imbécile et ayant tout juste eu le temps, la veille, de rédiger à nouveau un mémoire fondamental malencontreusement égaré quand il ne fut pas tout simplement jugé indigne d’intérêt. A moins que sa lumineuse intelligence n’ait été considérée comme un risque pour l’aura de certains.

Le second, décédé juste avant d’avoir atteint les trois-quarts de siècle, a écrit  24 ans un article contenant presque tout de la théorie qui aujourd’hui explique le monde, des quarks aux étoiles à neutrons,  pour reprendre les mots de Tomonaga. De ce travail d’une audace intellectuelle sans précédent, l’un des plus grands physiciens du 20ème siècle, Max Born, rationaliste parmi les rationalistes, a dit qu’il était « mystique mais sûrement exact »

Si Jérôme Ferrari est un écrivain reconnu et distingué — il reçut le  Goncourt en 2012— que sa fascination pour Werner Heisenberg a conduit à écrire Le Principe (Actes Sud, 2015), François-Henri Désérable a dû délaisser un temps sa  crosse de hockeyeur professionnel pour reprendre une plume lui ayant déjà valu des distinctions et faire réellement son entrée dans le monde des livres avec Evariste (Gallimard, 2015), que l’on peut prendre pour un vibrant hommage à Evariste Galois, génial mathématicien fauché dans la fleur de l’âge.

Dans leurs récits aux allures de biographie, ces deux auteurs ont néanmoins en commun la volonté de percer les zones d’ombre qui, sans doute, ne cesseront de planer sur les deux destins exceptionnels qu’ils nous invitent à découvrir.

Deux récits et deux styles fort différents : si Ferrari donne parfois dans un lyrisme quelque peu excessif — mais nul doute que le dramatique contexte historique l’autorise —, Désérable n’hésite pas à ne jamais abandonner le terrain de l’humour et de la drôlerie : que l’on se rende par exemple à page 22 afin de sourire devant la description imaginaire de l’effusion entre Adélaïde et Gabriel qui, on en jurerait, n’avaient pas l’esprit encombré par la question de savoir si oui ou non le fruit de leur étreinte allait quelque vingt ans plus tard écrire un traité sur la résolubilité des équations par radicaux…

Au-delà de leurs mérites propres et complémentaires, ces deux ouvrages sont comme deux portes ouvertes ne demandant qu’à être franchies pour en savoir beaucoup plus sur les multiples facettes de deux génies engagés dans leur siècle. Le lecteur trouvera sans peine de nombreux livres et documents pour satisfaire sa curiosité mais je crois cependant utile d’en citer deux : L’opération Epsilon, les transcriptions de Farm Hall (Flammarion, 1993), qui retranscrit les  bandes magnétiques enregistrées à Farm Hall, et les œuvres complètes d’Evariste Galois, numérisées et disponibles à l’adresse  https://ia802707.us.archive.org/31/items/uvresmathmatiqu00frangoog/uvresmathmatiqu00frangoog.pdf

 

 

 

 

Feynman se serait-il trompé ?

JokingFeynman

Dans la leçon 22-3 de ses fameuses Feynman Lectures on Physics (http://www.feynmanlectures.caltech.edu/), le grand physicien obtient l’impédance d’un réseau infini de composants où alternent condensateurs et inductances purs. A sa manière inimitable, avec très peu de calculs comme toujours, Feynman obtient un résultat qui, à basse fréquence, exhibe de façon surprenante une impédance donnant lieu à des effets dissipatifs alors que le circuit ne comporte aucune résistance électrique.

N’en restant pas là, évidemment, Feynman donne toutefois une interprétation physique à ce résultat d’apparence paradoxale, et passe à la leçon suivante.

Quelque peu intrigué mais loin de tout esprit iconoclaste, juste pour comprendre, j’ai repris ce petit problème d’une autre manière, en fait de la façon assez naturelle consistant à établir une relation de récurrence entre l’impédance du réseau fini à N+1 mailles et celle du réseau à N mailles, relation qui est simple mais non-linéaire et qui, dans le cas considéré (inductances et condensateurs), peut s’écrire comme une itération entre des variables adimensionnées qui sont toutes réelles. Retranscrit dans les variables physiques, ceci signifie que l’impédance globale est imaginaire pure à tout stade de l’itération, de sorte que si la limite du réseau infini existe, elle est forcément elle aussi imaginaire pure à toute fréquence, donc n’engendrant jamais aucune dissipation. Formulée de façon plus abrupte, la question que l’on aurait aimé poser à Feynman est : comment une suite de nombres réels peut-elle avoir une limite (supposée exister) ayant une partie imaginaire non-nulle ? Vous plaisantez Mr Feynman ?!

Où est donc le faux-pas de Feynman ?

La réponse repose sur l’analyse de l’existence de la limite, une question que les physiciens ont trop souvent tendance à négliger. Ici les choses se présentent comme suit. L’impédance du réseau infini correspond au(x) point(s) fixe(s) de l’itération ainsi obtenue que, comme d’habitude, l’on peut obtenir de façon purement géométrique en cherchant les intersections de la première bissectrice avec le graphe de la fonction définissant l’itération. Un petit dessin montre alors immédiatement que, à haute fréquence, il existe deux points fixes, l’un stable, l’autre instable, le premier donnant bien l’impédance non-dissipative également trouvée par Feynman.

En revanche, à basse fréquence, au-dessous d’une fréquence critique où les deux points fixes se confondent, il n’y a plus du tout de point fixe, signifiant tout simplement que, dans cette gamme de fréquence, la limite n’existe pas ! Dès lors, le calcul de Feynman s’effondre, tout comme disparaît le paradoxe d’un circuit dissipatif sans résistances…

Si la limite n’existe pas, on peut toutefois pousser l’analyse en considérant la composée de l’itération avec elle-même (son « carré »),  voire les compositions de « puissance » plus élevée, découvrant que celles-ci ont exactement les mêmes points-fixes. La réponse mathématique au problème posé est donc que, dans cette gamme de fréquence, l’impédance du réseau dépend de la valeur du nombre de mailles, la limite n’existant pas, tout simplement.

On aurait pu s’attendre à ce que les composées successives de l’application possèdent de nouveaux points-fixes. D’une façon très générale, la stabilité de certains d’entre eux est à l’origine de  l’existence d’oscillations, fréquentes pour des récurrences non-linéaires et donnant lieu à ce que l’on appelle des cycles-limites. Ce phénomène courant n’est pas le moindre exploit de ces itérations : que l’on se souvienne de la logistic map et de la cascade de Feigenbaum fournissant l’un des scénarios classiques de route vers le chaos (voir par exemple le chapitre 16 de mon livre de Mathématiques) !

Feynman se serait donc trompé ?

Eh bien non, pas vraiment, car son intuition physique, prenant le dessus,  lui a permis d’imaginer la bonne réponse physique au problème posé, qui est en fait mal posé : un module électrique de résistance nulle, cela n’existe pas, une inductance par exemple a forcément une résistance électrique, qu’elle soit petite est une chose mais la déclarer nulle est une vue de l’esprit, tout comme un oscillateur harmonique non-amorti est situé en Utopie. Autrement dit, ce qui est ici vraiment en cause, c’est une modélisation abusive considérant des éléments physiques qui eux, c’est sûr, n’existent pas.

Dès lors, que fait la récurrence si l’on donne une résistance finie à chacune des mailles du réseau ? Elle converge ! Les cycles-limites disparaissent, les trajectoires s’enroulant autour d’un unique point-fixe stable et l’impédance globale admet effectivement une limite —  celle annoncée sans preuve par Feynman.

Ainsi, à la question Feynman s’est-il trompé ?  la réponse est oui et non.

Oui, car son argument mathématique est entaché d’une erreur liée à une hypothèse plausible… mais malheureusement non vérifiée à basse fréquence. Non, car son intuition géniale de physicien a subrepticement repris la barre au moment où, à cause d’une modélisation abusive, l’argument mathématique produit dans toute son exigence une réponse d’une incontestable exactitude mais non pertinente pour tout système physique réel.

Ce qui n’est certes pas abusif, c’est d’affirmer qu’une telle rectification implicite est la signature du génie. Tout au plus, peut-on faire à Feynman le reproche de n’en avoir pas soufflé mot à ses innombrables lecteurs… Sans doute l’a-t-il fait oralement aux  étudiants qui ont eu la chance de suivre son admirable enseignement. Heureux privilégiés !

Le paradoxe de Fermi revisité

EnricoFermiAi

Même si les détails anecdotiques n’en sont pas tous avérés, il semble que ce soit Enrico Fermi qui ait initié le paradoxe portant désormais son nom. De quoi s’agit-il ?

Lors d’une discussion informelle vers 1950, Fermi s’est étonné que compte tenu de la très probable existence de civilisations extraterrestres, nous ne retrouvions sur Terre aucune trace de leur passage.

La question de l’existence de civilisations extraterrestres est évidemment un préalable qu’il est en toute rigueur impossible de trancher mais au sujet de laquelle une opinion peut être forgée sur la base d’un raisonnement probabiliste. Sachant qu’il y a environ 200 milliards d’étoiles dans notre galaxie, et que près de 2000 exoplanètes ont été découvertes depuis l’interrogation de Fermi, il n’est pas illégitime d’admettre que de telles civilisations existent et même qu’elles sont en très grand nombre.

Cette hypothèse étant retenue, et compte tenu de l’âge de l’univers (environ 14 milliards d’années) et de la (petite !) taille de notre galaxie (quelques dizaines de milliers d’années-lumière), la Terre aurait due en effet être déjà visitée, et même de fort nombreuses fois. Pourtant, aucune trace de ces extraterrestres, d’où l’interrogation apocryphe de Fermi : « Où sont-ils ? »

Ce paradoxe de Fermi, ainsi que Carl Sagan a proposé de l’appeler, a donné lieu à de très nombreuses discussions (on l’imagine aisément !), et même à des modélisations s’inspirant de concepts familiers dans l’étude du mouvement brownien ou des systèmes désordonnés ; l’une d’entre elles s’appuie sur la notion de seuil de percolation — concentration critique de liens établis au hasard entre deux points voisins, et permettant finalement d’explorer un grand système d’un bout à l’autre (voir http://www.geoffreylandis.com/percolation).

Une nouvelle explication vient d’être proposée par Gabriel Chardin (https://lejournal.cnrs.fr/billets/le-paradoxe-de-fermi-et-les-extraterrestres-invisibles), cosmologiste et spécialiste de la matière sombre, fondée sur le fait que toute civilisation se développant sur la croissance (même faible) épuise toutes ses ressources en un temps relativement court, que Gabriel Chardin estime à quelques milliers d’années. Allant un cran plus loin, il affirme que la survie d’une civilisation est ainsi trop brève pour lui permettre de développer la technologie donnant au voyage interstellaire la banalité d’un vol transatlantique à la découverte de nouvelles Amériques situées à des centaines d’années-lumière.

Au-delà des disputes sur les chiffres et les estimations — forcément hasardeuses —, le fait est que quiconque ayant précisément tracé un morceau d’exponentielle comprend vite que, dans un système clos comme la Terre ou ses lointaines cousines, la survie à (très) long terme n’est possible que si le taux de croissance est proche de zéro… la limite de la croissance nulle étant une condition nécessaire (mais pas suffisante !) pour une durée de vie éternelle.

On pourrait bien sûr objecter que ce sont les progrès scientifiques et techniques qui nous ont permis d’atteindre le stade de développement actuel en dépit des prévisions des Cassandre de tout poil et de tous horizons, et qu’il en ira toujours ainsi. Sauf que, pour ne parler que d’énergie, le rendement d’une machine ou d’un dispositif ne peut croître exponentiellement, lui ! Et que jusqu’à preuve du contraire, l’énergie se conserve… Des exemples montrent que dans certains domaines (Gabriel Chardin cite le cas des LED, dont l’efficacité et presque égale à 1), nous savons déjà être près de la perfection (!?), tout progrès encore envisageable étant ainsi destiné à n’avoir qu’une conséquence très marginale.

Cette nouvelle explication, venant après beaucoup d’autres, a manifestement des implications économiques, et c’est pourquoi le lecteur est invité à consulter un débat entre Gabriel Chardin et l’économiste Alexandre Delaigne, disponible à l’adresse http://rue89.nouvelobs.com/2015/02/28/croissance-a-quelle-distance-est-limites-257868

L’interrogation de Fermi n’a pas que des présupposés relevant des sciences naturelles ou humaines, elle soulève des questions d’une tout autre nature.  Philosophiques d’abord, car teintée d’anthropocentrisme, idéologiques aussi (l’expansionisme est-il la règle ?) et enfin religieuses. C’est dire que, ayant déjà été l’objet d’une vaste littérature, elle continuera d’alimenter des réflexions forcément spéculatives tout en sollicitant l’imagination débordante et débridée des auteurs de science-fiction.

 

 

 

 

Vérité ou contre-vérités ?

Une succession de hasards, petits et grands, m’a permis de prendre connaissance d’un article du journal Le Monde daté du 30 octobre 2013 (« Les contre-vérités  du dernier pamphlet climatosceptique ») où le climatologue François-Marie Bréon réagit vigoureusement au livre du physicien François Gervais intitulé « L’innocence du carbone, l’effet de serre remis en question » (Albin Michel, 2013). On aura deviné que ce dernier peut être rangé dans la catégorie des climato-sceptiques, contestant notamment l’importance des activités humaines sur le réchauffement climatique dont il est souhaité que personne, aujourd’hui, ne doute plus.

Ne connaissant que quelques rudiments de ce problème, je me garderai bien de prendre parti et me bornerai à vouloir être dans la peau du vulgum pecus, tentant d’imaginer quels peuvent être les sentiments d’un lecteur béotien découvrant une telle controverse entre deux hommes de science ayant, en un sens, pignon sur rue.

Une première chose est frappante : autant le réquisitoire de F. B. Bréon est d’une implacable précision où transparaît une irréprochable méthodologie scientifique (citation explicite des sources, pointage de contre-vérités preuves à l’appui), autant la réponse de F. Gervais se  borne à des commentaires pour le moins évasifs et, surtout, ne reprend aucun des points mentionnés dans la charge. On aurait au contraire attendu que quand F. M. Bréon rappelle quelques connaissances  de physique élémentaire contredisant les affirmations de F. Gervais, ce dernier réponde sur le même terrain par des arguments invoquant, par exemple, une abusive simplification du problème ou l’oubli fautif dans la modélisation d’autres facteurs dont la pertinence pourrait éventuellement faire débat.

Il est également frappant de voir que l’un des protagonistes (le procureur) reproduit  des courbes extraites de la littérature et portant sur une longue période, les mettant en regard de résultats analogues figurant dans le livre de l’accusé, ces derniers étant relatifs à une durée nettement plus courte. Si on regarde le Dow Jones entre 13h05 et 13h07, il est peu probable que l’on puisse y déceler une évolution et il serait encore plus aventureux d’en conclure une tendance journalière…

Mais il y a plus surprenant encore quand F. M. Bréon reprend les propos écrits de F. Gervais puis cite l’une des conclusions d’un article publié par des chercheurs de l’Institut  Max Planck – article invoqué par les deux « parties » –, pour conclure « les auteurs disent donc exactement le contraire de ce que leur fait dire M. Gervais » . Comment est-ce possible ?!

Et enfin, qui a raison ? Et là, ce n’est plus une discussion de spécialistes (!), mais d’éléments purement factuels :  F. Gervais qui prétend avoir réfléchi à cette question à la demande du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) — ce que souligne complaisamment l’éditeur en quatrième de couverture en y mentionnant que l’auteur a été « choisi comme rapporteur critique par le GIEC » —,  ou bien F. M. Bréon qui affirme que « le GIEC n’a jamais invité M. Gervais à faire partie des relecteurs critiques puisque ceux-ci se déclarent volontairement ». On aimerait demander à l’éditeur, comme à tout journaliste ou responsable de presse, s’il a pris soin de vérifier l’information. « Les mots sont des menteurs » écrivait Victor Hugo : seulement les mots ?

Une brève recherche sur le Web permet d’ailleurs de découvrir que la controverse ne s’est pas limitée aux colonnes du Monde : on peut trouver une multitude d’avis, les uns enthousiastes sur l’ouvrage, les autres dénonçant une authentique manipulation systématique de données expérimentales conduisant à une succession de contre-vérités flagrantes.

Que peut retenir le lecteur de cette virulente controverse publique ? D’abord un profond sentiment de malaise devant la confrontation de deux personnes se revendiquant toutes deux de la science mais qui, chacune affirmant s’appuyer sur des données disponibles dans la littérature, parviennent à tirer des conclusions diamétralement opposées.

Ce n’est certes pas la première fois : le passé récent regorge d’exemples où le sensationnel, parfois complice du profit à tout prix,  a imposé sa loi et a conduit à une surenchère médiatique évanouie aussi vite que la mousse était montée. Et à chaque fois, qu’y gagne donc la nécessaire information du grand public sur des questions qui nous concernent tous ? Rien évidemment. Dans tout cela, la grande perdante est la crédibilité de la science dont toute altération, délibérée ou non, est un crime contre l’intelligence : constatant un désaccord entre deux « experts », la tentation est grande de les renvoyer dos à dos, se précipitant ainsi dans la voie d’une négation de la connaissance dont l’ultime perversion s’appelle l’obscurantisme.

 

 

 

 

 

« L’amour et les forêts »

Dans la noirceur des temps présents (et la grise froidure parisienne), il est des nouvelles quelque peu roboratives. J’ai ainsi appris avec grand plaisir que le livre d’Eric Reinhardt « L’amour et les forêts » (Gallimard, 2014), déjà  récompensé par un prix littéraire qui s’il ne fait pas la fortune de son auteur salue néanmoins un ouvrage exceptionnel, venait de recevoir une nouvelle distinction, le Prix Roman France Télévisions.

L'amourEtLesForets

L’unicité de ce roman vient d’abord de son histoire, celle d’une rencontre improbable entre un écrivain et une lectrice bouleversée par la lecture de son précédent ouvrage. On imagine aisément le flot de messages que reçoit un auteur déjà reconnu : pourquoi E. Reinhardt a-t-il donc réagi à la sollicitation de cette femme qu’il nomme Bénédicte Ombredanne ? Le romancier s’en explique dès le début en rendant hommage au style remarquable de la longue lettre qu’elle lui avait envoyée.

Ce français admirable qui a séduit E. Reinhardt se révèle être seulement l’impetus qui déclenche un processus : on comprend très vite que les toutes premières mais pudiques confidences de Bénédicte ont profondément troublé l’écrivain, celle-ci lui révélant par petites touches une vie que l’on croit d’abord faite d’anicroches quotidiennes avant de découvrir peu à peu que Bénédicte subit en fait le harcèlement impitoyable et permanent d’un mari dont le comportement hystérique est symptomatique d’une lourde pathologie psychiatrique.

Il  est difficile de faire la part entre le vrai et le faux, entre la fiction et la réalité, tant le traitement subi par Bénédicte et admirablement décrit par Reinhardt ne peut être que l’œuvre d’un monstre auquel on peut (veut ?) refuser de croire qu’il puisse exister (tout comme le personnage interprété par Isabelle Huppert dans le film « La pianiste »). Cette incertitude n’enlève rien à l’emprise qu’exerce à son tour sur le lecteur ce récit halluciné dont le style flamboyant ne s’autorise des écarts que pour introduire ici quelques notes scabreuses, là des images baroques et anachroniques, et ailleurs quelques rares bouffées d’espoir faisant penser à des îles perdues à la dérive.

On ne sort pas indemne de ce livre déchirant, tant s’y dévoile le spectacle sans fard ni artifice d’une autre forme de barbarie ne pouvant connaître qu’une seule issue, souhaitée peut-être, délibérée parfois, providentielle de toute façon. Les dernières pages, que chacun comprendra avec sa sensibilité propre, sont comme le point d’orgue sur une partition inédite, exprimant tout à la fois l’intensité du récit et l’amertume du souvenir lumineux d’un moment de grâce où le temps a refusé de se suspendre.

Temps physique, temps des média

La diffusion vers le grand public des résultats de certaines expériences  de Physique est d’autant plus délicate que celles-ci portent sur des questions concernant les fondements des théories en vigueur ou impliquant des enjeux industriels de première importance.

On se souvient notamment de l’effervescence autour des supraconducteurs à « haute » température critique dans le milieu des années quatre-vingt où les média, pour annoncer des records présentés comme sensationnels, étaient plus prompts que les revues spécialisées dont le processus de publication est forcément moins rapide — cette (relative) lenteur étant le prix à payer afin d’apporter le sérieux critique indispensable. Vérification faite, certains des matériaux-miracles ayant fait la une des plus grands journaux se sont révélés instables et donc inutilisables pour les fins auxquelles ils étaient conçus. La même époque a connu la triste histoire de la mémoire de l’eau, qui n’a fait du bien à personne (même pas aux laboratoires fabriquant des remèdes homéopathiques) et aussi celle de la fusion froide dont on attend toujours les preuves malgré les montagnes de dollars subitement investis…

Plus récemment, cette fois à propos des neutrinos de l’expérience OPERA,  on a vu des gros titres annonçant qu’Einstein s’était trompé et que la Physique tout entière vacillait sur ses bases. La vérification minutieuse du protocole expérimental a pris des mois, débouchant finalement sur la conclusion qu’une erreur d’appareillage était responsable de l’apparente supraluminicité de ces particules fantomatiques. Einstein peut encore dormir en paix du sommeil du juste. A ce sujet, laissons de côté les énormités que permet l’ignorance la plus stupéfiante : il s’est même trouvé des « experts »  pour parler avec autorité du tunnel de 732 kilomètres de long que les neutrinos avaient emprunté pour aller de Genève à Gran Sasso !!!

Encore plus récemment (mars 2014), un battage médiatique a fait la part belle au sujet des ondes gravitationnelles primordiales, que l’équipe de BICEP2 proclamait avoir détectées. La nouvelle était d’importance puisqu’elle apportait de l’eau au moulin de la théorie  cosmologique d’Andreï Linde, poétiquement désignée sous le nom de mousse d’univers. On peut même trouver une vidéo de l’université de Stanford où, tel Moïse descendant du Sinaï, un étudiant se déplace au domicile d’A. Linde pour lui annoncer le résultat crucial, avant d’être convié à déboucher une bouteille (de Champagne made in California ?).

Las ! Les résultats de cette expérience viennent d’être publiés dans une revue à comité de lecture (« Detection of B-Mode Polarization at Degree Angular Scales by BICEP2 », Phys. Rev. Lett., 112, 241101 (2014)) ; leurs auteurs affichent une prudence de bon aloi que l’on peut attribuer autant à leur rigueur scientifique qu’à l’analyse très récente de l’équipe travaillant sur le projet PLANCK  tendant à montrer (arXiv:1409.5738) que les « anomalies » vues par BICEP2 pourraient bien être imputées à d’autres causes.

On pourrait multiplier les exemples des ratés de l’information grand public, dont des institutions pourtant respectables se font parfois les complices quand elles n’en sont pas les initiatrices. Pour ma part, je préfère renvoyer à la belle analyse que Richard Taillet expose dans son blog (http://www.scilogs.fr/signal-sur-bruit/communication-scientifique-et-diffusion-mediatique-le-temps-de-la-relaxation/ ). Si la multiplication des exemples ne change rien au fond, plus grave est le discrédit que de vraies fausses nouvelles colportées à la hâte peuvent jeter sur la communauté scientifique, redonnant hélas au passage un semblant de respectabilité aux théories hétérodoxes les plus farfelues ayant pourtant l’outrecuidance de se poser en malheureuses victimes de la science officielle.

Le nouvel auditorium de Radio – France

AuditoriumInauguré récemment, le nouvel auditorium de la Maison de la Radio est une grande salle de concert (près de 1500 places) à l’architecture surprenante puisque le public est réparti dans un vaste espace circulaire autour de la scène. La décoration intérieure est très belle, réalisée dans divers bois précieux et l’on note les irrégularités aléatoires des parois, destinées à maîtriser les réflexions parasites résonnantes, sans doute un peu à la manière d’un billard de Sinaï.

Les premiers concerts auxquels j’ai assisté ont toutefois confirmé les craintes que le bon sens peut susciter : sauf à se trouver dans les gradins face à l’orchestre, permettant une perception auditive à la fois naturelle et traditionnelle, les places latérales n’offrent qu’une audition assez décevante pour des raisons évidentes, les différents pupitres de l’orchestre étant fortement déséquilibrés malgré la présence en hauteur d’un diffuseur acoustique sensé rétablir, avec plus ou moins de bonheur, ce que la morphologie de la salle inévitablement dénature. A ce déséquilibre au niveau des masses orchestrales s’ajoute le fait que le soliste est parfois quelque peu inaudible, comme ce fut le cas le 19 décembre dans le concerto pour violoncelle de Dvorak, alors que la partition du compositeur tchèque est un modèle d’œuvre concertante où l’instrument et l’orchestre dialoguent dans une splendide harmonie mélodique où l’équilibre sonore est à tout instant maîtrisé.

Déception ? Oui, au moins jusqu’à présent, mais avec l’espoir que ces défauts seront vite corrigés si c’est possible. Sinon, un conseil s’impose : quitte à choisir les places  les plus onéreuses ou à s’éloigner un peu de la scène, s’assurer impérativement que l’on se trouve face à l’orchestre et non exilé en hauteur dans l’une des loges latérales !