Archives pour la catégorie Sciences

Werner et Evariste

Deux prénoms qui sonnent comme deux légendes, deux personnages aux destins fort différents mais que rapproche un génie leur ayant permis de poser des jalons décisifs et ainsi permettre une prodigieuse avancée de la connaissance.

Evariste et Werner, plutôt, pour respecter la chronologie.

WernerEtEvariste

Le premier, mort dans des conditions qui demeurent en partie mystérieuses, foudroyé en pleine jeunesse lors d’un combat imbécile et ayant tout juste eu le temps, la veille, de rédiger à nouveau un mémoire fondamental malencontreusement égaré quand il ne fut pas tout simplement jugé indigne d’intérêt. A moins que sa lumineuse intelligence n’ait été considérée comme un risque pour l’aura de certains.

Le second, décédé juste avant d’avoir atteint les trois-quarts de siècle, a écrit  24 ans un article contenant presque tout de la théorie qui aujourd’hui explique le monde, des quarks aux étoiles à neutrons,  pour reprendre les mots de Tomonaga. De ce travail d’une audace intellectuelle sans précédent, l’un des plus grands physiciens du 20ème siècle, Max Born, rationaliste parmi les rationalistes, a dit qu’il était « mystique mais sûrement exact »

Si Jérôme Ferrari est un écrivain reconnu et distingué — il reçut le  Goncourt en 2012— que sa fascination pour Werner Heisenberg a conduit à écrire Le Principe (Actes Sud, 2015), François-Henri Désérable a dû délaisser un temps sa  crosse de hockeyeur professionnel pour reprendre une plume lui ayant déjà valu des distinctions et faire réellement son entrée dans le monde des livres avec Evariste (Gallimard, 2015), que l’on peut prendre pour un vibrant hommage à Evariste Galois, génial mathématicien fauché dans la fleur de l’âge.

Dans leurs récits aux allures de biographie, ces deux auteurs ont néanmoins en commun la volonté de percer les zones d’ombre qui, sans doute, ne cesseront de planer sur les deux destins exceptionnels qu’ils nous invitent à découvrir.

Deux récits et deux styles fort différents : si Ferrari donne parfois dans un lyrisme quelque peu excessif — mais nul doute que le dramatique contexte historique l’autorise —, Désérable n’hésite pas à ne jamais abandonner le terrain de l’humour et de la drôlerie : que l’on se rende par exemple à page 22 afin de sourire devant la description imaginaire de l’effusion entre Adélaïde et Gabriel qui, on en jurerait, n’avaient pas l’esprit encombré par la question de savoir si oui ou non le fruit de leur étreinte allait quelque vingt ans plus tard écrire un traité sur la résolubilité des équations par radicaux…

Au-delà de leurs mérites propres et complémentaires, ces deux ouvrages sont comme deux portes ouvertes ne demandant qu’à être franchies pour en savoir beaucoup plus sur les multiples facettes de deux génies engagés dans leur siècle. Le lecteur trouvera sans peine de nombreux livres et documents pour satisfaire sa curiosité mais je crois cependant utile d’en citer deux : L’opération Epsilon, les transcriptions de Farm Hall (Flammarion, 1993), qui retranscrit les  bandes magnétiques enregistrées à Farm Hall, et les œuvres complètes d’Evariste Galois, numérisées et disponibles à l’adresse  https://ia802707.us.archive.org/31/items/uvresmathmatiqu00frangoog/uvresmathmatiqu00frangoog.pdf

 

 

 

 

Feynman se serait-il trompé ?

JokingFeynman

Dans la leçon 22-3 de ses fameuses Feynman Lectures on Physics (http://www.feynmanlectures.caltech.edu/), le grand physicien obtient l’impédance d’un réseau infini de composants où alternent condensateurs et inductances purs. A sa manière inimitable, avec très peu de calculs comme toujours, Feynman obtient un résultat qui, à basse fréquence, exhibe de façon surprenante une impédance donnant lieu à des effets dissipatifs alors que le circuit ne comporte aucune résistance électrique.

N’en restant pas là, évidemment, Feynman donne toutefois une interprétation physique à ce résultat d’apparence paradoxale, et passe à la leçon suivante.

Quelque peu intrigué mais loin de tout esprit iconoclaste, juste pour comprendre, j’ai repris ce petit problème d’une autre manière, en fait de la façon assez naturelle consistant à établir une relation de récurrence entre l’impédance du réseau fini à N+1 mailles et celle du réseau à N mailles, relation qui est simple mais non-linéaire et qui, dans le cas considéré (inductances et condensateurs), peut s’écrire comme une itération entre des variables adimensionnées qui sont toutes réelles. Retranscrit dans les variables physiques, ceci signifie que l’impédance globale est imaginaire pure à tout stade de l’itération, de sorte que si la limite du réseau infini existe, elle est forcément elle aussi imaginaire pure à toute fréquence, donc n’engendrant jamais aucune dissipation. Formulée de façon plus abrupte, la question que l’on aurait aimé poser à Feynman est : comment une suite de nombres réels peut-elle avoir une limite (supposée exister) ayant une partie imaginaire non-nulle ? Vous plaisantez Mr Feynman ?!

Où est donc le faux-pas de Feynman ?

La réponse repose sur l’analyse de l’existence de la limite, une question que les physiciens ont trop souvent tendance à négliger. Ici les choses se présentent comme suit. L’impédance du réseau infini correspond au(x) point(s) fixe(s) de l’itération ainsi obtenue que, comme d’habitude, l’on peut obtenir de façon purement géométrique en cherchant les intersections de la première bissectrice avec le graphe de la fonction définissant l’itération. Un petit dessin montre alors immédiatement que, à haute fréquence, il existe deux points fixes, l’un stable, l’autre instable, le premier donnant bien l’impédance non-dissipative également trouvée par Feynman.

En revanche, à basse fréquence, au-dessous d’une fréquence critique où les deux points fixes se confondent, il n’y a plus du tout de point fixe, signifiant tout simplement que, dans cette gamme de fréquence, la limite n’existe pas ! Dès lors, le calcul de Feynman s’effondre, tout comme disparaît le paradoxe d’un circuit dissipatif sans résistances…

Si la limite n’existe pas, on peut toutefois pousser l’analyse en considérant la composée de l’itération avec elle-même (son « carré »),  voire les compositions de « puissance » plus élevée, découvrant que celles-ci ont exactement les mêmes points-fixes. La réponse mathématique au problème posé est donc que, dans cette gamme de fréquence, l’impédance du réseau dépend de la valeur du nombre de mailles, la limite n’existant pas, tout simplement.

On aurait pu s’attendre à ce que les composées successives de l’application possèdent de nouveaux points-fixes. D’une façon très générale, la stabilité de certains d’entre eux est à l’origine de  l’existence d’oscillations, fréquentes pour des récurrences non-linéaires et donnant lieu à ce que l’on appelle des cycles-limites. Ce phénomène courant n’est pas le moindre exploit de ces itérations : que l’on se souvienne de la logistic map et de la cascade de Feigenbaum fournissant l’un des scénarios classiques de route vers le chaos (voir par exemple le chapitre 16 de mon livre de Mathématiques) !

Feynman se serait donc trompé ?

Eh bien non, pas vraiment, car son intuition physique, prenant le dessus,  lui a permis d’imaginer la bonne réponse physique au problème posé, qui est en fait mal posé : un module électrique de résistance nulle, cela n’existe pas, une inductance par exemple a forcément une résistance électrique, qu’elle soit petite est une chose mais la déclarer nulle est une vue de l’esprit, tout comme un oscillateur harmonique non-amorti est situé en Utopie. Autrement dit, ce qui est ici vraiment en cause, c’est une modélisation abusive considérant des éléments physiques qui eux, c’est sûr, n’existent pas.

Dès lors, que fait la récurrence si l’on donne une résistance finie à chacune des mailles du réseau ? Elle converge ! Les cycles-limites disparaissent, les trajectoires s’enroulant autour d’un unique point-fixe stable et l’impédance globale admet effectivement une limite —  celle annoncée sans preuve par Feynman.

Ainsi, à la question Feynman s’est-il trompé ?  la réponse est oui et non.

Oui, car son argument mathématique est entaché d’une erreur liée à une hypothèse plausible… mais malheureusement non vérifiée à basse fréquence. Non, car son intuition géniale de physicien a subrepticement repris la barre au moment où, à cause d’une modélisation abusive, l’argument mathématique produit dans toute son exigence une réponse d’une incontestable exactitude mais non pertinente pour tout système physique réel.

Ce qui n’est certes pas abusif, c’est d’affirmer qu’une telle rectification implicite est la signature du génie. Tout au plus, peut-on faire à Feynman le reproche de n’en avoir pas soufflé mot à ses innombrables lecteurs… Sans doute l’a-t-il fait oralement aux  étudiants qui ont eu la chance de suivre son admirable enseignement. Heureux privilégiés !

Le paradoxe de Fermi revisité

EnricoFermiAi

Même si les détails anecdotiques n’en sont pas tous avérés, il semble que ce soit Enrico Fermi qui ait initié le paradoxe portant désormais son nom. De quoi s’agit-il ?

Lors d’une discussion informelle vers 1950, Fermi s’est étonné que compte tenu de la très probable existence de civilisations extraterrestres, nous ne retrouvions sur Terre aucune trace de leur passage.

La question de l’existence de civilisations extraterrestres est évidemment un préalable qu’il est en toute rigueur impossible de trancher mais au sujet de laquelle une opinion peut être forgée sur la base d’un raisonnement probabiliste. Sachant qu’il y a environ 200 milliards d’étoiles dans notre galaxie, et que près de 2000 exoplanètes ont été découvertes depuis l’interrogation de Fermi, il n’est pas illégitime d’admettre que de telles civilisations existent et même qu’elles sont en très grand nombre.

Cette hypothèse étant retenue, et compte tenu de l’âge de l’univers (environ 14 milliards d’années) et de la (petite !) taille de notre galaxie (quelques dizaines de milliers d’années-lumière), la Terre aurait due en effet être déjà visitée, et même de fort nombreuses fois. Pourtant, aucune trace de ces extraterrestres, d’où l’interrogation apocryphe de Fermi : « Où sont-ils ? »

Ce paradoxe de Fermi, ainsi que Carl Sagan a proposé de l’appeler, a donné lieu à de très nombreuses discussions (on l’imagine aisément !), et même à des modélisations s’inspirant de concepts familiers dans l’étude du mouvement brownien ou des systèmes désordonnés ; l’une d’entre elles s’appuie sur la notion de seuil de percolation — concentration critique de liens établis au hasard entre deux points voisins, et permettant finalement d’explorer un grand système d’un bout à l’autre (voir http://www.geoffreylandis.com/percolation).

Une nouvelle explication vient d’être proposée par Gabriel Chardin (https://lejournal.cnrs.fr/billets/le-paradoxe-de-fermi-et-les-extraterrestres-invisibles), cosmologiste et spécialiste de la matière sombre, fondée sur le fait que toute civilisation se développant sur la croissance (même faible) épuise toutes ses ressources en un temps relativement court, que Gabriel Chardin estime à quelques milliers d’années. Allant un cran plus loin, il affirme que la survie d’une civilisation est ainsi trop brève pour lui permettre de développer la technologie donnant au voyage interstellaire la banalité d’un vol transatlantique à la découverte de nouvelles Amériques situées à des centaines d’années-lumière.

Au-delà des disputes sur les chiffres et les estimations — forcément hasardeuses —, le fait est que quiconque ayant précisément tracé un morceau d’exponentielle comprend vite que, dans un système clos comme la Terre ou ses lointaines cousines, la survie à (très) long terme n’est possible que si le taux de croissance est proche de zéro… la limite de la croissance nulle étant une condition nécessaire (mais pas suffisante !) pour une durée de vie éternelle.

On pourrait bien sûr objecter que ce sont les progrès scientifiques et techniques qui nous ont permis d’atteindre le stade de développement actuel en dépit des prévisions des Cassandre de tout poil et de tous horizons, et qu’il en ira toujours ainsi. Sauf que, pour ne parler que d’énergie, le rendement d’une machine ou d’un dispositif ne peut croître exponentiellement, lui ! Et que jusqu’à preuve du contraire, l’énergie se conserve… Des exemples montrent que dans certains domaines (Gabriel Chardin cite le cas des LED, dont l’efficacité et presque égale à 1), nous savons déjà être près de la perfection (!?), tout progrès encore envisageable étant ainsi destiné à n’avoir qu’une conséquence très marginale.

Cette nouvelle explication, venant après beaucoup d’autres, a manifestement des implications économiques, et c’est pourquoi le lecteur est invité à consulter un débat entre Gabriel Chardin et l’économiste Alexandre Delaigne, disponible à l’adresse http://rue89.nouvelobs.com/2015/02/28/croissance-a-quelle-distance-est-limites-257868

L’interrogation de Fermi n’a pas que des présupposés relevant des sciences naturelles ou humaines, elle soulève des questions d’une tout autre nature.  Philosophiques d’abord, car teintée d’anthropocentrisme, idéologiques aussi (l’expansionisme est-il la règle ?) et enfin religieuses. C’est dire que, ayant déjà été l’objet d’une vaste littérature, elle continuera d’alimenter des réflexions forcément spéculatives tout en sollicitant l’imagination débordante et débridée des auteurs de science-fiction.

 

 

 

 

Temps physique, temps des média

La diffusion vers le grand public des résultats de certaines expériences  de Physique est d’autant plus délicate que celles-ci portent sur des questions concernant les fondements des théories en vigueur ou impliquant des enjeux industriels de première importance.

On se souvient notamment de l’effervescence autour des supraconducteurs à « haute » température critique dans le milieu des années quatre-vingt où les média, pour annoncer des records présentés comme sensationnels, étaient plus prompts que les revues spécialisées dont le processus de publication est forcément moins rapide — cette (relative) lenteur étant le prix à payer afin d’apporter le sérieux critique indispensable. Vérification faite, certains des matériaux-miracles ayant fait la une des plus grands journaux se sont révélés instables et donc inutilisables pour les fins auxquelles ils étaient conçus. La même époque a connu la triste histoire de la mémoire de l’eau, qui n’a fait du bien à personne (même pas aux laboratoires fabriquant des remèdes homéopathiques) et aussi celle de la fusion froide dont on attend toujours les preuves malgré les montagnes de dollars subitement investis…

Plus récemment, cette fois à propos des neutrinos de l’expérience OPERA,  on a vu des gros titres annonçant qu’Einstein s’était trompé et que la Physique tout entière vacillait sur ses bases. La vérification minutieuse du protocole expérimental a pris des mois, débouchant finalement sur la conclusion qu’une erreur d’appareillage était responsable de l’apparente supraluminicité de ces particules fantomatiques. Einstein peut encore dormir en paix du sommeil du juste. A ce sujet, laissons de côté les énormités que permet l’ignorance la plus stupéfiante : il s’est même trouvé des « experts »  pour parler avec autorité du tunnel de 732 kilomètres de long que les neutrinos avaient emprunté pour aller de Genève à Gran Sasso !!!

Encore plus récemment (mars 2014), un battage médiatique a fait la part belle au sujet des ondes gravitationnelles primordiales, que l’équipe de BICEP2 proclamait avoir détectées. La nouvelle était d’importance puisqu’elle apportait de l’eau au moulin de la théorie  cosmologique d’Andreï Linde, poétiquement désignée sous le nom de mousse d’univers. On peut même trouver une vidéo de l’université de Stanford où, tel Moïse descendant du Sinaï, un étudiant se déplace au domicile d’A. Linde pour lui annoncer le résultat crucial, avant d’être convié à déboucher une bouteille (de Champagne made in California ?).

Las ! Les résultats de cette expérience viennent d’être publiés dans une revue à comité de lecture (« Detection of B-Mode Polarization at Degree Angular Scales by BICEP2 », Phys. Rev. Lett., 112, 241101 (2014)) ; leurs auteurs affichent une prudence de bon aloi que l’on peut attribuer autant à leur rigueur scientifique qu’à l’analyse très récente de l’équipe travaillant sur le projet PLANCK  tendant à montrer (arXiv:1409.5738) que les « anomalies » vues par BICEP2 pourraient bien être imputées à d’autres causes.

On pourrait multiplier les exemples des ratés de l’information grand public, dont des institutions pourtant respectables se font parfois les complices quand elles n’en sont pas les initiatrices. Pour ma part, je préfère renvoyer à la belle analyse que Richard Taillet expose dans son blog (http://www.scilogs.fr/signal-sur-bruit/communication-scientifique-et-diffusion-mediatique-le-temps-de-la-relaxation/ ). Si la multiplication des exemples ne change rien au fond, plus grave est le discrédit que de vraies fausses nouvelles colportées à la hâte peuvent jeter sur la communauté scientifique, redonnant hélas au passage un semblant de respectabilité aux théories hétérodoxes les plus farfelues ayant pourtant l’outrecuidance de se poser en malheureuses victimes de la science officielle.

J’ai dit bizarre ? Comme c’est bizarre…

Moi j'ai dit bizarre ? Comme c'est bizarre...
Moi j’ai dit bizarre ? Comme c’est bizarre…

L’illustre réplique de Louis Jouvet dans Drôle de drame vient à l’esprit à chaque fois qu’il s’agit de commenter une question pointant l’une des nombreuses étrangetés quantiques. Roger Penrose, parlant de la théorie construite par Heisenberg et Schrödinger, écrit « …that most exact and mysterious of  physical theories » (The emperor’s new mind}, p. 292 (Oxford University Press, 1989).

L’intrication ou l’art d’être inséparables

L’intrication de deux objets figure au top ten des bizarreries quantiques ; si cette propriété n’est pas aisée à décrire avec les mots du langage commun, sa conséquence la plus spectaculaire est aisément perceptible : à condition de bien s’y prendre, deux systèmes qui ont interagi l’un avec l’autre à un instant donné ne sont plus jamais séparables et individualisables, et ce même s’ils sont éloignés l’un de l’autre autant que l’on veut. Autrement dit, deux objets qui ont eu une vie commune, aussi éphémère soit-elle, ne peuvent plus jamais exister indépendamment l’un de l’autre, aucun d’entre eux n’a d’état indépendamment de l’autre, ils deviennent inséparables comme les partenaires de ce couple d’oiseaux que Rod Taylor offre à Tippi Hedren dans le célèbre film d’Albert Hitchcock. Dans son livre Conversations avec le Sphinx (Albin Michel, Paris, 1991, page 199), Etienne Klein utilise d’ailleurs une fort jolie comparaison humaine pour donner une image pénétrante de ce surprenant phénomène.

De EPR à Alain Aspect

Einstein, Podolsky et Rosen l’avaient bien compris lorsqu’il écrivirent leur célèbre article de 1935, dont la principale conclusion était que la théorie quantique, pour satisfaisante qu’elle soit, est une théorie incomplète dans la mesure où elle ne considère pas des variables qui, selon ces auteurs, doivent nécessairement apparaître dans toute théorie physique dont l’objectif est la description des phénomènes naturels.

C’était en 1935, à une époque où l’expérience de pensée décrite n’était pas réalisable. Il aura fallu le travail théorique de John Bell en 1962 (ses fameuses inégalités, dont on peut trouver les prémices chez Jean Bass) puis la prouesse expérimentale accomplie par Alain Aspect et son équipe pour avoir la preuve, près d’un demi-siècle plus tard, que si l’on met face à face le trio EPR et la théorie quantique et qu’il faut désigner un vainqueur, c’est la théorie qui l’emporte par KO. La confirmation éclatante de ce qu’affirme la théorie contre tout bon sens est un pavé dans la mare du réalisme traditionnel et de la croyance en la localité, deux axiomes implicites qui sont les clés de voûte de la Physique classique. C’est en s’appuyant sur eux que l’on peut,  à tout instant, attribuer à toute grandeur physique une certaine valeur bien définie, que cette grandeur fasse l’objet une mesure ou non.

Le temps aussi

En fait, l’intrication n’a pas que des conséquences portant sur l’espace, c’est-à-dire la position de deux systèmes. Legett et Garg ont établi en 1985 des inégalités de même nature que celles de Bell mais portant sur la variable temps et concernant cette fois l’évolution temporelle d’un système unique. Il n’est plus question de deux systèmes situés ici et là mais d’un seul système à un instant et à un autre. Selon Leggett et Garg, et sous l’hypothèse du réalisme local tel que le pose la Physique classique, une certaine fonction de corrélation temporelle est inévitablement plus petite que 1.

Assez récemment, l’équipe de Daniel Estève au CEA a mis en évidence une violation de cette inégalité (« Experimental violation of a Bell’s inequality in time with weak measurement », A. Palacios-Laloy, F. Mallet, F Nguyen, P. Bertet, D. Vion, D. Estève et A. N. Korotkov, Nature Physics, 6, 447 (2010)). Cette violation est d’autant plus spectaculaire que l’objet quantique au cœur de l’expérience est un circuit supraconducteur de taille micrométrique, donc macroscopique : les particules élémentaires n’ont pas l’exclusif privilège de devoir obéir à la théorie quantique !

D’ailleurs, comme le dit Sin-itiro Tomonaga, sans la théorie quantique, c’est l’univers tout entier qui n’existerait pas : on peut difficilement trouver un système plus macroscopique

 

 

 

Réseau de Bethe (arbre de Cayley)

Le réseau de Bethe, ou encore arbre de Cayley, est une arborescence sans boucle dont chaque nœud possède un nombre fixe (coordinance) de premiers voisins ; la figure montre à gauche un arbre de coordinance 3. Cet objet a priori purement géométrique est la base d’un grand nombre de modèles allant de la biophysique (réactivité des protéines) aux sciences bibliométriques (« rayonnement » (!) d’un chercheur selon la nature et le nombre de ses collaborations).

Une question importante, valant d’ailleurs pour tout type de réseau, est la pertinence du désordre : lorsque des liens sont brisés aléatoirement, quelle est la concentration faisant perdre au système sa connectivité à grande échelle ? Pour le chercheur, à en croire les « experts », ce serait sa mort intellectuelle et sociale.

ArbreDeBetheAI

 

Il est intéressant de constater que cette structure géométrique se retrouve presque à l’identique dans la nature, comme en témoigne la photo ci-dessus à droite d’une euphorbia tirucalli, prise à l’exposition ELK qui s’est tenue en septembre à Blankenberge (Belgique). Cette manifestation annuelle rassemble des centaines d’exposants proposant aux passionnés de cactus, plantes à caudex,… des exemplaires rares dont chacun est un émerveillement et donne raison à Buffon s’extasiant devant l’infinie variété des spectacles de la Nature.

Questions d’experts

Les Editions De Boeck ont organisé une vaste consultation sur Internet, destinée à rassembler des questions d’internautes. Avec d’autres auteurs, j’ai répondu à une sélection d’entre elles sous la forme de vidéos disponibles à l’adresse :

http://www.youtube.com/

et en entrant Aslangul dans le champ de recherche.

La version écrite de ces contributions est consultable à :

http://superieur.deboeck.com/resource/newsletters/Questions_d_experts_Aslangul_web.pdf

Drôle de mousse

Juliette Pierre, Benjamin Dollet et Valentin Leroy, de l’Université Diderot – Paris 7, viennent d’observer (Phys. Rev. Lett. 112, 148307) que des mousses ont la propriété d’empêcher la propagation de certaines fréquences ultrasoniques, suggérant de pouvoir les utiliser comme atténuateurs acoustiques.

Une mousse comme écran anti-bruit ?
Une mousse comme écran anti-bruit ?

 

Le mathématicien Yakov Sinai reçoit le Prix Abel

Le grand mathématicien Yakov Sinai, principalement connu pour ses travaux sur les systèmes dynamiques, vient de recevoir le prestigieux Prix Abel pour l’ensemble de son œuvre. Selon le Comité Abel,  « ses travaux ont eu et continuent d’avoir une grande portée et un profond retentissement sur les mathématiques et la physique, ainsi que sur l’interaction toujours fructueuse de ces deux domaines. »

Yakov Sinai, lauréat du prix Abel 2014
Yakov Sinai, lauréat du prix Abel 2014