READ IN English
Physics / Experiment Review

Vol. 3, NO. 1 / April 2017

Physique et naturalité

Aurélien Barrau

Letters to the Editors

In response to “Physique et naturalité


L’Organisation européenne pour la recherche nucléaire, le CERN, s’est dotée du plus puissant accélérateur de particules de l’histoire, le Grand collisionneur de hadrons (LHC). Une aventure humaine et technologique sans précédent a permis de donner naissance, après une vingtaine d’années d’efforts et des milliards d’euros investis, à une machine exceptionnelle. Des protons et des antiprotons circulent, à des vitesses extrêmement proches de celle de la lumière, dans un vaste anneau de 27 km de circonférence enfoui 175 mètres sous terre. Leur énergie est si élevée – 6.5 × 1012 électronvolts pour chaque faisceau – qu’elle correspond à environ 6 500 milliards de fois celle de la lumière visible. Un record à ce jour : des particules élémentaires dotées d’une énergie comparable à celle d’un stylo roulant sur une table. Ce gain en énergie est essentiel parce qu’il correspond précisément à la puissance du « microscope » que constitue le collisionneur : plus l’énergie est élevée, plus les tailles qui peuvent être sondées sont petites. L’accès à la structure intime de la matière requiert des énergies considérables et donc des instruments géants.

Le gigantisme n’apparaît d’ailleurs pas que dans l’anneau de collision, mais aussi dans les détecteurs à proprement parler dont la taille peut atteindre 40 mètres et le poids 12 500 tonnes. C’est le prix à payer pour mesurer avec précision les traces laissées par les particules élémentaires produites lors des collisions et accéder à leurs caractéristiques physiques. Cette production de nouvelles entités est possible conformément à la célèbre formule E = mc2 : l’énergie est égale à la masse multipliée par le carré de la vitesse de la lumière. Il est donc possible de transformer de l’énergie en masse, c’est-à-dire un « déplacement » (de l’énergie cinétique) en « existence » (en création de nouveaux objets). Et c’est effectivement ce qui est à l’œuvre au LHC : le mouvement des protons et antiprotons incidents peut être utilisé pour donner naissance à de nouvelles particules. L’adage de Lavoisier « rien ne se perd, rien ne se crée, tout se transforme » n’est pas vrai du point de vue des particules élémentaires. Il demeure correct du point de vue de l’énergie qui devient la quantité fondamentalement conservée1.

La physique des particules est sous-tendue par deux principes fondamentaux. Le premier est le principe de jauge. Il accorde une importance spécifique aux symétries, c’est-à-dire, aux invariances qui laissent les systèmes invariants. Ce principe de jauge joue un rôle essentiel dans la démarche d’unification du réel qui est la clé de la physique des hautes énergies : tenter de rendre compte d’une diversité de phénomènes à partir d’un petit nombre de lois. Mieux, montrer que des lois, apparemment distinctes, peuvent en fait être pensées comme relevant d’une unique interaction. C’est à la fois le guide et le régulateur de toute l’approche et l’un des grands succès de la science du XXè siècle. C’est ce qui a permis l’unification de l’électricité et du magnétisme, puis l’unification de l’électromagnétisme avec la force nucléaire faible. Les bosons médiateurs des forces fondamentales (le photon pour l’électromagnétisme, les gluons pour l’interaction nucléaire forte, les W et Z0 pour l’interaction nucléaire faible) sont associés à la « localisation » de ces symétries globales.

En contrepoint du principe de jauge, la physique des particules se fonde également sur le principe de brisure spontanée de symétrie. Celui-ci stipule que les symétries des systèmes, leurs invariances donc, peuvent évoluer naturellement de façon à « disparaître ». C’est par exemple ce qui advient quand un verre d’eau est refroidi et gèle. Initialement les dipôles électriques associés aux molécules d’eau pointent dans des directions spatiales aléatoires et aucune direction spécifique n’est donc globalement privilégiée. Le système est invariant par rotation (au détail près de la forme du verre). Mais lorsque la température tombe sous O°C les dipôles des molécules d’eau vont spontanément s’aligner les uns avec les autres. Une unique direction privilégiée va émerger et briser la symétrie initiale. Le phénomène est aléatoire : un autre verre placé au voisinage du premier peut s’aligner suivant une direction arbitrairement éloignée de la précédente. Ce processus de brisure spontanée de symétrie permet de comprendre pourquoi le monde des particules peut être effectivement unifié à haute énergie et diversifié à basse énergie.

L’ensemble de cet édifice est très cohérent. Il décrit la matière sous la forme de trois familles, composée chacune de deux quarks et de deux leptons. Quand on y adjoint les bosons responsables des interactions, il ne manque plus que le fameux « champ de Higgs » pour parfaire l’ensemble de la description. Il est souvent argué que celui-ci est à l’origine de la masse, ce qui n’est que partiellement vrai au sens où la majeure partie de la masse des objets est associée à l’énergie de liaison de la force nucléaire forte davantage qu’au champ de Higgs. Le rôle essentiel de ce dernier est plutôt dévolu aux brisures spontanées de symétries précédemment évoquées.

La mise en évidence du boson de Higgs avec le LHC, au CERN, est certainement une réussite remarquable. Elle témoigne de la puissance d’anticipation de la physique théorique autant que de la dextérité de la physique expérimentale. Une remarquable prédiction a été vérifiée quarante années après la mise au point du modèle. L’effort collectif extraordinaire qu’a nécessité cet exploit montre la vitalité de la physique des particules à l’échelle planétaire. C’est une très belle réussite scientifique qui doit être saluée.

Pourtant, un goût d’amertume demeure dans cette situation qui n’est idyllique qu’en apparence. Comme le souligne un article de Nathalie Wolchover publié dans « Quanta »2, c’est aussi une déception qui semble ici se révéler : « l’absence de nouvelle physique rend plus profonde la crise née en 2012 au démarrage du premier ‘run’ du LHC ». Si la confirmation de ce qui était attendu est évidemment importante et signifiante du point de vue de l’avancée des sciences, le rôle d’une expérience majeure ne s’achève certainement pas ici. Le grand collisionneur LHC fut également conçu pour devenir un révélateur de « nouvelle physique ». Son exploitation est loin d’être interrompue et l’espoir de déceler des signes de phénomènes inconnus demeure vif. Mais, à ce stade, au-delà du Higgs, rien de nouveau n’a été observé.

En 2016, pendant quelques mois, une ferveur s’est emparée de la communauté des physiciens des particules. Un signal « inattendu » s’est imposé. À environ 750 GeV (c’est-à-dire 750 milliards de fois l’énergie de la lumière usuelle) on pouvait observer un petit excès de rayons gammas émis par paires. Le signal était plus important que ce que prévoyait le modèle standard de la physique des particules élémentaires. Cette anomalie a provoqué une vive réaction. Dès le lendemain de l’annonce – prudente – de cette étrangeté par les collaborations expérimentales, plusieurs articles d’interprétations théoriques possibles étaient postés sur le site internet de référence (arXiv). Dans les mois qui suivirent plusieurs centaines de travaux tentant d’interpréter cette petite bosse observée dans les mesures ont été rendues publics. Certains se fondaient sur des modifications a minima des théories en vigueur, d’autres sur des hypothèses audacieuses, voire révolutionnaires.

Pendant ce temps les données se sont accumulées. Elles ont été analysées. La quantité bien supérieure de résultats alors recueillie a autorisé une meilleure évaluation statistique. Si par exemple, on tire 4 fois à « pile ou face », obtenir 75 % du temps « pile » (c’est-à-dire 3 fois sur 4) n’est pas étrange. Mais si on tire 1 000 fois à « pile ou face », obtenir 750 tirages « pile » et seulement 250 tirages « face » devient évidemment révélateur d’une anomalie. Or, ce que les nouvelles mesures ont révélé, c’est précisément que l’excès observé n’était qu’une fluctuation aléatoire. Elle ne s’est pas confirmée dans l’analyse plus exhaustive qui a suivi. Aucune trace de « nouvelle physique » n’apparaissait donc en réalité ici.

En parallèle de l’éventualité d’une telle découverte radicalement inattendue, un certain nombre de pistes « au-delà » du modèle standard ont été envisagées comme des voies qui pourraient être, par ailleurs, sondées au LHC.

Par exemple l’idée de « leptoquarks » a été abondamment mise en avant. Il s’agirait de particules qui transporteraient de l’information entre les quarks (ce qui forme le noyau des atomes) et les leptons (par exemple les électrons). Ils apparaissent dans plusieurs extensions du modèle standard. Notamment ce qu’on nomme les approches de technicouleur ou de grande unification. Pourtant ils manquent à l’appel et le LHC n’en a révélé aucune trace.

Une autre piste essentielle concerne la recherche de dimensions supplémentaires. L’idée que le monde pourrait être composé de davantage de dimensions spatiales que les 3 dimensions dont nous faisons l’expérience usuelle n’est pas récente. Elle a été explorée initialement – et infructueusement – pour tenter d’unifier la théorie électromagnétique de Maxwell et la relativité générale d’Einstein3. Puis elle est revenue au goût du jour quand la théorie des cordes, qui tente d’unifier toutes les particules et toutes les interactions en les comprenant comme différents modes de vibration de cordes fondamentales, a prédit que l’espace devait comporter 9 dimensions. Suivant leur taille et leur structure ces éventuelles dimensions supplémentaires peuvent engendrer des phénomènes possiblement observables auprès des accélérateurs. Le LHC n’en a mis aucun en évidence.

Parmi les conséquences éventuelles de l’existence de dimensions supplémentaires, fut évoquée la possible création de mini trous noirs (qui est aussi envisageable dans d’autres circonstances). Ceci requiert que l’énergie de Planck, à laquelle la gravitation devient quantique, soit bien inférieure à ce qui est usuellement attendu. Un tel phénomène serait aisé à détecter parce que les trous noirs formés s’évaporeraient presque immédiatement suivant le processus d’évaporation découvert par Stephen Hawking. Les particules générées par le trou noir sont alors aisément identifiables, de par leurs natures et leurs directions d’émission caractéristiques de ce processus. Une certaine inquiétude essentiellement irrationnelle, mais sociologiquement intéressante a d’ailleurs accompagné cette hypothèse : la Terre ne risquait-elle pas d’être détruite si la prédiction de Hawking s’avérait inexacte et que les trous noirs ne s’évaporaient pas ? Cette crainte était injustifiée puisque nos accélérateurs ne font rien que la Nature ne fasse déjà et des collisions à des énergies plus grandes que celles du LHC ont lieu à chaque instant dans l’atmosphère terrestre suite à son bombardement par des rayons cosmiques de haute énergie. Si donc des trous noirs ayant vocation à engloutir la Terre devaient être produits, cela aurait eu lieu depuis longtemps ! Toujours est-il que, dangereux ou non, le LHC n’a pas observé ces mini trous-noirs qui avaient généré une abondante littérature scientifique.

Mais une autre absente se fait particulièrement remarquer : la supersymétrie. Depuis plusieurs décennies, une théorie domine les tentatives de dépasser le modèle standard. Elle se nomme supersymétrie et c’est en elle que l’immense majorité des physiciens des particules ont placé leurs espoirs. Ses vertus sont en effet remarquables :

  • d’un point de vue mathématique, c’est l’une des seules symétries pouvant étendre le modèle standard des particules élémentaires sans violer quelques principes fondamentaux de la physique. Une propriété remarquable.
  • d’un point de vue esthétique, la supersymétrie est attirante parce qu’elle prédit que chaque particule doit être associée à une autre particule partenaire : un partenaire supersymétrique. Mais celui-ci n’est pas de même nature. Si l’on s’intéresse à une particule « de matière », le partenaire est de type « interaction » et, réciproquement, si l’on considère un quantum de force le partenaire est de type objet. Autrement dit, la supersymétrie établit une sorte de pont entre le monde des interactions et celui des particules alors même que ceux-ci sont essentiellement indépendants dans le modèle standard.
  • d’un point de vue pragmatique, la supersymétrie présente un avantage immense. Elle permet d’expliquer la masse du boson de Higgs. En l’absence de supersymétrie, la masse de ce boson devrait être immense. Techniquement cela tient à ce qu’il est un scalaire (ce qui signe ses propriétés de transformation) et qu’il est donc sensible aux corrections venant des fluctuations quantiques. Ces corrections sont très grandes, typiquement 100 000 milliards de fois plus grandes que la masse qui est observée ! En principe, il est possible d’ajouter des termes de correction et de rendre la prédiction égale à la mesure. Mais cela demande un ajustement incroyablement fin : il faut choisir de façon arbitraire un nombre dans le « lagrangien » mathématique qui décrit le système de façon à ce qu’il soit presque égal à un autre – de manière à le compenser – sur 15 chiffres mais qu’ensuite il diffère (puisque la masse du boson de Higgs n’est pas nulle). C’est une démarche artificielle. Du point de vue de la théorie quantique des champs, les termes permettant cette compensation ne sont pas illicites, ils sont même banals. Mais ce qui ici pose problème est que la valeur qu’il faut leur conférer est en l’occurrence arbitraire. Rien de connu n’impose ce redoutable ajustement numérique. Voilà qui est hautement étrange. Pour qu’un modèle soit convaincant, il ne suffit pas qu’il puisse rendre compte de ce qui est observé, encore faut-il que cela puisse se faire sans requérir de le pousser dans une zone d’artificialité trop critique. Le modèle standard est donc en difficulté avec la masse du Higgs. Mais, en revanche, si l’on tient compte de la supersymétrie, les choses deviennent toutes autres. Chaque particule doit alors être associée à un partenaire supersymétrique dont la contribution est opposée à celle de son partenaire usuel. Il s’ensuit une compensation automatique qui permet d’expliquer la faible masse observée pour le boson de Higgs. Faible mais non nulle car la supersymétrie n’est pas une symétrie exacte de la nature, elle est « brisée » en dessous d’une certaine échelle d’énergie.
  • d’un point de vue théorique, la supersymétrie est prédite par le modèle de gravitation quantique le plus étudié : la théorie des cordes. Cette dernière ne peut fonctionner que sous sa forme supersymétrique. Elle jouit donc d’une motivation extrêmement fondamentale.
  • d’un point de vue physique, la supersymétrie apporte un élément de réponse substantiel à la question centrale de l’unification qui est véritablement essentielle en physique des particules élémentaires. Les différentes interactions sont, en effet, caractérisées par des constantes de couplages qui mesurent, en quelque sorte, leurs intensités. Ces constantes de couplages varient avec l’énergie. Dans le cadre du modèle usuel de la physique des particules élémentaires, il n’existe aucune énergie à laquelle ces constantes ont toutes la même valeur. Il est donc impossible d’espérer « unifier » les différentes interactions. Au contraire, quand il est tenu compte de la supersymétrie, les constantes se recoupent autour de l’énergie de grande unification et il est donc possible d’espérer décrire toutes les forces à partir d’une unique « théorie ».
  • enfin, d’un point de vue astrophysique, la supersymétrie présente un avantage considérable. On sait en effet que l’essentiel de la masse de l’Univers est de nature inconnue. Elle n’est non seulement pas constituée d’objets visibles (disons d’étoiles), mais on a même pu montrer qu’elle n’était pas formée des particules identifiées actuellement auprès des accélérateurs. Autrement dit, cet immense paradoxe de cosmologie est aussi un paradoxe de physique des constituants élémentaires. Or, la supersymétrie prédit précisément l’existence de particules lourdes, stables et interagissant faiblement : le candidat idéal pour expliquer la matière noire.

La situation est donc particulièrement intéressante. À ce stade, la supersymétrie n’est pas rigoureusement exclue mais sa version la plus simple et la plus attendue est d’ores et déjà réfutée par les résultats du LHC. Il existe en effet un modèle supersymétrique « minimal », le MSSM. C’est celui qui permet d’annuler les divergences (dites quadratiques) du modèle standard avec le minimum de paramètres et de champs additionnels. Chaque particule admet alors un superpartenaire, sauf le Higgs, qui doit en comporter au moins deux. Mais ce MSSM, dans le cadre duquel l’immense majorité des études phénoménologiques étaient menées, n’a pas résisté aux données du LHC. La Nature semble dire : « vos idées sont belles, cohérentes, attirantes mais … elles sont fausses ! ». Que faut-il en penser ?

D’abord que la dimension hautement non-contractuelle de la science se révèle ici avec magnificence. Au sens où « quelque chose » s’impose à nous : il ne suffit pas de construire une élégante théorie qui suscite l’intérêt et l’admiration des chercheurs. Ce qui est scientifiquement juste ne l’est pas que par convention ou contrat intellectuel. Certains physiciens s’étaient habitués à l’idée que seul l’assentiment des pairs ait valeur de vérité : ils pensaient qu’un modèle était correct dès lors qu’il était considéré comme tel par ceux ayant la légitimité de le juger. Or cela ne suffit pas et une expérience majeure vient le rappeler. L’absence de mesure à très haute énergie avait laissé libre cours à l’imagination et à la créativité. On en avait presque oublié que la physique n’est pas qu’une construction sociale et que l’entente de ceux qui la pratique n’est pas le critère ultime. Qu’une proposition nous semble attrayante ou qu’elle soit mathématiquement élégante n’est pas l’unique motivation pour l’adopter : il faut que les observations s’accordent avec elle. La physique des particules au-delà du modèle standard avait, dans une certaine mesure, pris peut-être trop de distance avec la contrainte observationnelle. Le laps de temps considérable qui sépare deux générations d’expériences est tel que certains physiciens n’avaient jamais connu la confrontation directe de leurs travaux avec de nouvelles données.

Sans doute la leçon essentielle de cette situation tient à ce que les arguments usuels dits de « naturalité » sont à prendre avec davantage de pincettes que ce que la plupart des physiciens pensaient. La naturalité est un concept relativement flou et mal défini qui sert souvent de guide pour étayer de nouvelles théories ou jauger les théories concurrentes. On peut, suivant Sean Carroll4, distinguer la naturalité d’une configuration, qui décrit un certain état d’un système, de la naturalité des lois qui gouvernent son évolution. La première est assez claire et peut être quantifiée par le concept d’entropie. Après lui avoir laissé suffisamment de temps, il est plus « naturel » de voir une goutte de lait uniformément répartie à l’intérieur de la tasse de café où elle fut versée (état de haute entropie) que toujours concentrée et n’ayant pas diffusée (était de basse entropie). Le second type de naturalité est plus obscur. Il est usuellement considéré qu’une théorie est naturelle si tous les paramètres sans dimension (c’est-à-dire sans unité) qui y interviennent sont proches de l’unité. Il y a des raisons mathématiques pour étayer cette supposition (en particulier fondées sur le groupe de renormalisation et la théorie des champs) mais elle demeure assez arbitraire.

Les résultats du LHC, et en particulier l’exclusion (partielle) de la supersymétrie, constituent un exemple supplémentaire d’une situation que la physique théorique pourrait qualifier de « non-naturelle ». Mais il est assez paradoxal de considérer que la Nature n’est pas naturelle ! Ce sont plutôt nos attentes quant à celle-ci qu’il faudrait sans doute revoir.

Les leçons sont plus profondes encore car le problème n’est pas seulement celui de la « naturalité » et donc de l’ajustement fin apparemment curieux qu’il faut mettre en œuvre. C’est aussi celui de la corrélation de cet état de fait avec l’émergence possible de la complexité. Il semble en effet que dans un univers « naturel » au sens où l’entend la physique théorique, la vie (disons plutôt la complexité en général) serait impossible. Elle serait au moins extrêmement difficile à imaginer suivant nos connaissances actuelles. Par exemple, si la constante de gravitation était, comme on devrait l’attendre « naturellement », comparable aux autres constantes fondamentales, des effets de gravitation quantique seraient incessants et l’existence de structures stables ne serait plus assurée.

Dans ces circonstances trois voies peuvent être considérées.

La première consiste à supposer qu’il existe un mécanisme « naturel » (au sens de la physique théorique) qui n’a pas encore été découvert et qui permettra d’expliquer les observations. C’est évidemment la voie qu’il faut privilégier. Mais elle est loin d’être évidente. Il semble en effet très légitime d’imaginer une infinité d’autres valeurs possibles des constantes fondamentales de la physique, toutes aussi – voire d’avantage – acceptables que celles que nous observons. Et se pose alors la question : pourquoi la Nature a-t-elle choisi justement des valeurs spécifiquement adaptées à l’émergence de la complexité ?

La deuxième consiste à considérer que nous avons joui d’une chance phénoménale. Parmi toutes les lois possibles, nous sommes tombés sur la solution quasi unique conduisant à un univers complexe et diversifié. C’est évidemment peu convaincant.

La troisième consiste à envisager l’existence de multiples « réalisations » ou instanciations des constantes physiques. Si par exemple il ne s’agissait pas de constantes réellement fondamentales mais de paramètres dynamiques (comme on peut le penser – en particulier –dans le cadre de la théorie des cordes) ces constantes pourraient être réinterprétées comme des paramètres environnementaux. Et de même que l’environnement que nous observons autour de nous (par exemple une forêt ou une bibliothèque) n’est pas du tout représentatif de la diversité des paysages dans l’Univers observable, les lois – ou constantes dites fondamentales – dont nous faisons l’expérience ne seraient pas représentatives de l’ensemble de leurs valeurs ou formes dans un espace beaucoup plus vaste que celui que nous pouvons scruter. Il n’y a alors plus rien d’étonnant à ce que les valeurs ici observées pour les constantes soient favorables à la complexité. En tant qu’organismes complexes, nous nous trouvons naturellement dans une zone spécifique où le « tirage » est favorable à la complexité et le mystère de l’ajustement disparaît de lui-même.

Il existe chez certains physiciens et épistémologues une réticence assez forte face à cette troisième voie. Les raisons avancées pour la délaisser prennent plusieurs formes. La première consiste à y voir une construction arbitraire et donc peu convaincante. Tel n’est pas le cas. La théorie de l’inflation cosmologique (augmentation considérable des distances dans l’Univers juste après le Big Bang), par exemple, fait aujourd’hui partie du paradigme dominant et prédit dans la plupart des cas une structure d’univers-bulles qui peut aisément conduire à des lois effectives différentes s’il existe des champs dynamiques. Clairement, il est hors de question de considérer que le « multivers » est prouvé. Il n’en est rien (aucune théorie scientifique n’est de toutes façons jamais prouvée). Il s’agit néanmoins d’une prédiction claire émanant de certaines des théories utilisées couramment en cosmologie. Il y a donc une évidente légitimité à l’étudier sérieusement : il n’existe peut-être pas mais il n’est pas une construction ad hoc proposé par défi ou goût immodéré pour la multiplicité des mondes.

La seconde réserve habituelle a trait à ce que le multivers viole le rasoir d’Occam, c’est-à-dire, le principe de simplicité. À toutes choses égales par ailleurs, il faut choisir la solution la plus simple. Hélas la simplicité n’est pas … simplement définie ! Dans ce cas précis, on pourrait, suivant David Lewis, écrire : « many worlds versus many words »5. Certes, l’existence de multiples univers peut apparaître comme une complication du point de vue de la structure du réel mais c’est ce que prédit la théorie la plus simple (en particulier pour ce qui concerne l’inflation). Il faut, dans la plupart des cas, complexifier arbitrairement la théorie pour faire disparaître la structure arborescente d’univers ! De quel côté faut-il donc placer la simplicité : de celui du modèle ou de celui du monde qu’il décrit ? La réponse n’est pas évidente. Il n’est en tous cas pas clair que le multivers ne soit pas précisément du côté de la simplicité.

La troisième réserve fréquente a trait à la non-falsifiabilité du modèle. Il ne s’agirait pas de science parce que la proposition ne pourrait pas être mise à l’épreuve dans la mesure où ces autres univers sont inaccessibles. Cette assertion n’est pas tout à fait exacte dans la mesure où l’existence d’autres univers n’est pas une théorie. C’est une conséquence, parmi d’autres, de théories bien définies et testables dans cet univers-ci. Ces théories sont falsifiables au sens le plus usuel du terme. Si elles étaient falsifiées, la prédiction « multivers » disparaitrait. Si elles devenaient les modèles dominants, la prédiction multivers devrait être prise en compte pour une simple raison de cohérence. De plus, au sens statistique du terme, il est bel et bien possible de faire des prédictions dans le multivers (et toutes les prédictions physiques sont, d’une manière ou d’une autre, statistiques) : nous ne disposons que d’un seul échantillon – un seul univers – mais cela permet déjà de mettre à l’épreuve le modèle. Si la probabilité d’apparition des différents types d’univers est connue (ce qui n’est pas le cas mais n’est pas en principe incalculable) et si la fréquence d’observateurs dans chaque type d’univers est connue (ce qui n’est pas le cas mais n’est pas en principe incalculable), il est sans aucun doute envisageable de confronter le monde observé à l’architecture d’un modèle de multivers. Enfin, il convient peut-être d’être prudent dans l’application du principe de réfutabilité de Karl Popper : la pratique réelle des sciences est infiniment plus subtile que ce qu’une lecture simpliste de l’argument popperien pourrait laisser entendre. Comme le souligne le physicien théoricien Léonard Susskind, presque toutes nos meilleures théories actuelles, en biologie comme en physique, seraient initialement apparues comme infalsifiables6. Le multivers est peut-être une impasse. Mais il me semble évident qu’il est trop tôt pour en juger et que ce n’est qu’après avoir étudié en détails les conséquences de cette approche qu’il sera possible de conclure. Restons modeste.

Il est évident que, contrairement à ce qui fut écrit ici ou là, les résultats du LHC ne sont pas une indication claire en faveur de l’existence d’un multivers. Mais il est tout aussi évident qu’il est intéressant d’étudier la manière dont ils se réinterprètent dans ce cadre particulier.

Nous nous trouvons à une période assez fascinante pour la physique théorique. Les déceptions – quant à l’absence de signes clairs de « nouvelle physique » – sont aussi des indices et des stimuli pour inventer de nouveaux schèmes de pensée. Toute la difficulté consiste à articuler un « conservatisme » sain (parce que le fait est que la plupart des idées révolutionnaires sont fausses ou infructueuses) avec une « audace » nécessaire (parce que le fait est également que, depuis plus d’un siècle, il n’y a pas eu de révolution majeure en physique). Il faut être humble et modéré mais ne pas non plus camper sur des positions passéistes qui interdisent toute forme de rupture intellectuelle majeure. Ce qui est remarquable c’est que la réflexion contemporaine ne porte pas seulement sur une possible révolution quant à ce qui est dit sur le monde, mais aussi sur la manière même de dire ce qu’est le monde. Soyons prudent. Il est fort possible que toutes les pistes que nous étudions à l’heure actuelle soient insatisfaisantes. Mais il me semble indispensable de n’être pas non plus trop craintif dans notre manière d’envisager l’avenir : toutes les avancées majeures ont nécessité une remise en cause drastique de la structure de ce qu’était la pensée scientifique antérieure. Le risque de ne pas tenter l’aventure me semble bien supérieur à celui de devoir peut-être, dans quelques années, rebrousser chemin pour suivre d’autres sentes.

Endmark

  1. Antoine Lavoisier, Traité Élémentaire de Chimie, présenté dans un ordre nouveau, et d'après des découvertes modernes (Paris : Cuchet, 1789). 
  2. Natalie Wolchover, « What No New Particles Means for Physics, » Quanta, 9 août 2016. 
  3. Albert Einstein, « On the Generalized Theory of Gravitation, » Scientific American CLXXXII, no. 4 (1950) : 13–17, doi : 10.1038/scientificamerican0450-13. 
  4. Sean Carroll, « Is Our Universe Natural, » Nature 440 (2006) : 1,132-26. 
  5. David Lewis, On the Plurality of Worlds (Oxford: Blackwell, 1986). 
  6. Leonard Susskind et Lee Smolin, « Susskind vs. Smolin: The Anthropic Principle, » Edge: The Third Culture, 18 août 2014. 

Aurélien Barrau is a Professor of Astrophysics at the Université Grenoble-Alpes and Researcher at the Laboratoire de Physique Subatomique et de Cosmologie of the CNRS.


More from this Contributor

More on Physics


Endmark

Copyright © Inference 2024

ISSN #2576–4403