Archives pour l'étiquette théorie des cordes

L’univers holographique (6) : Black Holism

Suite du billet précédent : L’univers holographique (5) : la quête des dualités ET FIN

Dans son livre, le brillant physicien canadien Lee Smolin s'élève contre l'hégémonie de la théorie des cordes et analyse les aspects sociologiques de la recherche fondamentale.
Dans son livre, le brillant physicien américain Lee Smolin s’élève contre l’hégémonie de la théorie des cordes et analyse les aspects sociologiques de la recherche fondamentale.

La correspondance AdS/CFT, et plus généralement les dualités holographiques, ont soulevé énormément d’enthousiasme dans la communauté des cordistes, suscité des milliers de publications et des centaines de thèses de doctorat – ce qui après tout constitue l’activité courante et « normale » de la recherche scientifique. On peut cependant rester perplexe devant un tel phénomène qui, au-delà de l’intérêt technique certain qu’il peut représenter, relève surtout d’une certaine dérive sociologique pointée du doigt par d’éminents chercheurs de la discipline[1].

Au crédit de la correspondance, il faut reconnaître qu’elle permet de troquer certains calculs difficiles, voire impossibles, contre des calculs plus faciles. A minima, la dualité holographique apparaît comme un intéressant outil de calcul en physique fondamentale. Le « dictionnaire » qu’elle propose entre le monde en espace-temps plat et le monde courbe où se trouve la gravitation fonctionne dans les deux sens. Certains calculs sont plus simples avec la supergravité que dans la théorie de jauge duale, de sorte qu’aucun de ces mondes n’est plus fondamental que l’autre. Mais ce n’est pas parce que l’on peut considérer des calculs plus simplement dans un espace-temps plat, sans gravitation et de plus basse dimension que celui de la théorie des cordes, qu’il en découle que la réalité cosmique est un hologramme ! On peut entièrement encoder la topographie 3D d’un terrain dans une carte 2D sur laquelle le relief est indiqué par des courbes de niveau (un encodage bien utile aux randonneurs), mais, selon le célèbre aphorisme d’Alfred Korzybski, il ne faut jamais perdre de vue que « la carte n’est pas le territoire »[2].

Une vue bien naïve de l'holographie appliquée à l'univers dans son ensemble, ce qu'on appelle en anglais du "wishful thinking"...
Une vue bien naïve de l’holographie appliquée à l’univers dans son ensemble, ce qu’on appelle en anglais du « wishful thinking »…

A son crédit également, et là je parle en ardent pratiquant de la théorie de la relativité générale classique dont nous célébrons cette année le centenaire[3], la dualité jauge/gravité a conféré à la théorie d’Einstein un statut beaucoup plus large. L’édifice intellectuel de la relativité générale a certes connu de remarquables succès au cours du siècle dernier, et fourni un édifice crucial pour toute la partie de la physique théorique traitant de la gravitation. La révolution conceptuelle qu’elle a entraînée sur la nature de l’espace et du temps a rendu la théorie populaire, au point qu’il serait difficile de trouver aujourd’hui une personne possédant un minimum de culture scientifique mais n’ayant jamais entendu parler de la théorie d’Einstein.

Continuer la lecture

L’univers holographique (5) : La quête des dualités

Suite du billet précédent : L’univers holographique (4) : la conjecture de Maldacena

Des centaines de chercheurs ont exploré les conséquences de la conjecture de Maldacena, avec l’espoir que la dualité jauge/gravité, sous sa forme la plus générale, puisse établir une sorte de dictionnaire pratique entre les propriétés d’un système physique en gravitation quantique, décrit par la théorie des cordes dans un espace courbe de dimensionnalité élevée (la Matrice), et un autre système physique, plus simple celui-là, décrit quantiquement par une théorie de jauge sur l’enveloppe de la Matrice – espace plat de dimensionnalité moindre. Il existe notamment une approche en théorie M développée en 1997 et baptisée BFSS[1], destinée à fournir une formulation numériquement calculable, qui a en outre le mérite d’établir un lien avec l’approche a priori différente de la géométrie non-commutative d’Alain Connes – pour plus de détails voir l’excellent billet de L. Sacco sur Futura Sciences.

L’avantage serait évident : certains calculs très complexes – voire impossibles – en gravité quantique pourraient être menés de façon plus simple dans le cadre de la théorie de jauge, comme on l’a vu dans le billet précédent  pour l’évaporation quantique d’un trou noir dans AdS5. Inversement, quand les champs de la théorie quantique sont fortement couplés (comme dans le plasma quark-gluon, voir ci-dessous), ceux de la théorie gravitationnelle interagissent faiblement et pourraient être plus facilement appréhendés mathématiquement. Cette dualité forte/faible permet ainsi d’explorer des aspects complexes de la physique nucléaire et de la physique de la matière condensée, en les traduisant en termes de théorie des cordes à haut degré de symétrie, plus aisément traitable.

Les possibles réalisations de la dualité jauge-gravité font aujourd’hui l’objet d’ambitieux programmes théoriques, rattachés à trois vastes domaines de la physique :

  • physique nucléaire, avec notamment l’étude du plasma quark-gluon (programme AdS/QCD)
  • physique de la matière condensée, avec l’étude des états exotiques de la matière (programme AdS/CMT)
  • relativité générale et cosmologie, avec les programmes Kerr/CFT et dS/CFT.

Développons brièvement chacun de ces programmes, en mentionnant leurs succès et leurs échecs. Continuer la lecture

L’univers holographique (3) : De l’entropie à l’hypothèse holographique

Suite du billet précédent L’univers holographique (2) : la gravité quantique façon théorie des cordes

Dans le cadre de la théorie des cordes, il s’agissait dans un premier temps de retrouver les lois de la thermodynamique classique des trous noirs, c’est-à-dire savoir calculer, en termes de mécanique statistique quantique, leur entropie et leur température en fonction de leur aire et de leur gravité de surface. La tâche n’est pas aisée. Comme en thermodynamique, l’entropie mesure le nombre total d’états microscopiques internes correspondant à un état externe donné du trou noir, défini par ses trois paramètres (M, J, Q). Encore faut-il comptabiliser les « vrais » états microscopiques, c’est-à-dire les degrés de liberté ultimes sur lesquels il faut calculer l’entropie. Pour évaluer le contenu ultime en informations d’un élément de matière, c’est-à-dire son entropie thermodynamique, il faut en toute rigueur connaître ses constituants fondamentaux au niveau le plus profond de structuration. Dans le modèle standard de la physique des particules, les quarks et les leptons semblent suffisants pour coder toute l’information. Mais dans la théorie des cordes et sa théorie-mère (M-theory), les quarks et les leptons sont des états excités de supercordes, qui deviennent alors les constituants les plus élémentaires du monde physique.

Gerard 't Hooft, né en 1946 aux Pays-Bas, est professeur à l'Institut de physique théorique de l'université d'Utrecht depuis 1977.
Gerard ‘t Hooft, né en 1946 aux Pays-Bas, est professeur à l’Institut de physique théorique de l’université d’Utrecht depuis 1977.

En 1993, Gerard t’Hooft (futur lauréat du prix de Nobel de physique 1999 pour ses travaux sur l’interaction électrofaible)  fut le premier à revisiter le travail de Hawking sur la thermodynamique des trous noirs dans le cadre de la théorie des cordes. Il calcula que le nombre total de degrés de liberté dans le volume d’espace-temps intérieur au trou noir était proportionnel à la superficie de son horizon[1]. La surface bidimensionnelle du trou noir peut être divisée en unités quantiques fondamentales appelées aires de Planck (10–66 cm2). Du point de vue de l’information, chaque bit sous forme de 0 ou de 1 correspond à quatre aires de Planck, ce qui permet de retrouver la formule de Bekenstein-Hawking S = A/4 pour l’entropie. Tout se passe comme si l’information perdue pour un observateur extérieur – l’entropie du trou noir – portée initialement par la structure 3D des objets ayant traversé l’horizon des événements, était codée sur sa surface 2D à la façon d’un hologramme, et t’Hooft en conclut que l’information avalée par un trou noir devait être intégralement restituée lors du processus d’évaporation quantique.

L’entropie d’un trou noir est proportionnelle à la surface de son horizon. Un trou noir dont l’horizon est constitué de A aires de Planck a une entropie de A/4 unités. Une aire de Planck (10–66 cm2) est l’unité quantique fondamentale de surface. Du point de vue de l’information, tout se passe comme si l’entropie était inscrite sur l’horizon du trou noir et que chaque bit d’information, sous forme de 0 ou de 1, correspondait à quatre aires de Planck.
L’entropie d’un trou noir est proportionnelle à la surface de son horizon. Un trou noir dont l’horizon est constitué de A aires de Planck a une entropie de A/4 unités. Une aire de Planck  est l’unité quantique fondamentale de surface. Du point de vue de l’information, tout se passe comme si l’entropie était inscrite sur l’horizon du trou noir et que chaque bit d’information, sous forme de 0 ou de 1, correspondait à quatre aires de Planck.

Continuer la lecture

L’univers holographique (2) : La gravité quantique façon théorie des cordes

Suite du billet précédent L’univers holographique (1) : le paradoxe de l’information

Le paradoxe de l’information lié aux trous noirs reflète notre incapacité actuelle à élaborer une théorie cohérente de la gravité quantique. L’approximation semi-classique de Hawking cesse d’être valide quand le trou noir devient suffisamment petit pour que le rayon de courbure à l’horizon des événements atteigne la longueur de Planck, 10-33 cm, autrement dit lorsque non seulement la matière et l’énergie, mais aussi le champ gravitationnel doivent être quantifiés. La description finale de l’évaporation et la restitution partielle ou complète de l’information exigent donc un traitement complet en gravité quantique, branche fondamentale de la physique qui cherche à décrire la gravitation en utilisant les principes de la mécanique quantique.

Richard Feynman (1918-1988), prix Nobel de physique 1965, auteur des diagrammes du même nom.
Richard Feynman (1918-1988), prix Nobel de physique 1965, auteur des diagrammes du même nom.

L’application de la mécanique quantique aux objets physiques tels que le champ électromagnétique, qui s’étendent dans l’espace et le temps, a connu un succès éclatant avec la théorie quantique des champs[1]. Celle-ci forme la base de la compréhension du modèle standard de la physique des particules élémentaires, rendant compte des interactions électromagnétiques, nucléaire forte et nucléaire faible. Elle permet de calculer les probabilités d’événements en utilisant les techniques de la théorie des perturbations. Les diagrammes de Feynman décrivent les chemins de particules ponctuelles et leurs interactions. Chaque diagramme représente une contribution à un processus d’interaction. Pour leurs calculs, les physiciens additionnent en premier lieu les contributions les plus fortes, puis les plus petites, et ainsi de suite, jusqu’à atteindre la précision désirée.

Diagramme de Feynman. Lorsque deux particules (ici deux électrons venant du bas) interagissent, elles peuvent le faire « simplement », en échangeant un seul photon (schéma du haut). Mais ce photon peut lui-même se matérialiser puis de dématérialiser en chemin. Sur le schéma du bas, par exemple, il crée une paire électron-positron qui recrée ensuite le photon. Si l’on tient compte de cette aventure, la description de l’interaction des deux électrons de départ n’est plus la même. Cela n’est en fait que la « première correction ». En effet, il peut arriver au photon des histoires beaucoup plus compliquées qui représentent des corrections d’ordre 2,3,4… La physique quantique exige de tenir compte de l’infinité de ces corrections pour le moindre calcul. Cette difficulté considérable a conduit à incorporer à la physique quantique l’idée de renormalisation.
Diagramme de Feynman. Lorsque deux particules (ici deux électrons venant du bas) interagissent, elles peuvent le faire « simplement », en échangeant un seul photon (schéma du haut). Mais ce photon peut lui-même se matérialiser puis de dématérialiser en chemin. Sur le schéma du bas, par exemple, il crée une paire électron-positron qui recrée ensuite le photon. Si l’on tient compte de cette aventure, la description de l’interaction des deux électrons de départ n’est plus la même. Cela n’est en fait que la « première correction ». En effet, il peut arriver au photon des histoires beaucoup plus compliquées qui représentent des corrections d’ordre 2,3,4… La physique quantique exige de tenir compte de l’infinité de ces corrections pour le moindre calcul. Cette difficulté considérable a conduit à incorporer à la physique quantique l’idée de renormalisation.

 

Mais ce procédé ne marche que si les contributions deviennent réellement négligeables à mesure qu’un plus grand nombre d’interactions est pris en compte. Lorsqu’il en va ainsi, la théorie est dite “faiblement couplée” et les calculs convergent vers des valeurs physiques finies. S’il en va différemment, la théorie est dite “fortement couplée” et les méthodes standard de la physique des particules échouent. C’est notamment ce qui arrive avec le graviton, supposé être la particule médiatrice du champ gravitationnel. Le graviton, créant de la masse-énergie, interagit avec lui-même, ce qui crée de nouveaux gravitons, qui à leur tour interagissent, et ainsi de suite, jusqu’à la divergence. L’échec de la technique des perturbations pour quantifier la gravité a donc conduit les physiciens à explorer d’autres voies. Continuer la lecture

La physique étrange d’Interstellar (6/6) : l’équation ultime

Suite du billet précédent La physique étrange d’Interstellar (5/6) et fin

En novembre 2014, le film de science-fiction Interstellar (réalisation Christopher Nolan, Warner Bros Pictures, 169 minutes, 2014) sortait sur nos écrans. Véritable « blockbuster » hollywoodien, il a suscité un énorme battage médiatique, comme en témoignent les innombrables forums de discussion et articles de presse ayant fleuri au cours des jours, semaines et mois qui ont suivi.  A la demande de la revue de langue anglaise Inference : International Review of Science, j’ai par la suite fait un travail d’analyse scientifique beaucoup plus développé et approfondi, publié au printemps 2015. Je vous en livre la traduction française, découpée en 6 billets. Celui-ci est le sixième et dernier. Merci de m’avoir lu jusqu’au bout!

Formules

L’équation ultime

Vers la fin d’Interstellar, on voit la scientifique Murph écrire une équation censée résoudre l’incompatibilité entre la relativité générale et la mécanique quantique. On aperçoit dans le fond une série de tableaux noirs couverts de diagrammes et d’équations supposées aboutir à l’équation ultime, celle d’une « Théorie de Tout ». Le sort de l’humanité en dépend. Mise à part la naïveté d’une telle représentation, il est intéressant de se demander si les équations fugitivement montrées dans la scène ont la moindre signification.

L'unification complète des quatre interactions fondamentales ne se ferait qu'à très haute énergie, conditions qui dans l'histoire de l'univers n'auraient été réalisées que durant l'ère très primordiale dite "de Planck".
L’unification complète des quatre interactions fondamentales ne se ferait qu’à très haute énergie, conditions qui dans l’histoire de l’univers n’auraient été réalisées que durant l’ère très primordiale dite « de Planck ».

A première vue, la longue suite de formules paraît fastidieuse. Aujourd’hui, l’unification de la relativité générale et de la mécanique quantique n’est toujours pas résolue. Diverses approches du problème, comme la gravité quantique à boucles, la théorie des cordes et la géométrie non-commutative, font l’objet d’intenses recherches en cours[1]. Continuer la lecture