● Presse-Citron
📅 17/03/2026 à 20:02
Les scientifiques pensent que l’univers ralentit : faut-il s’inquiéter de cette découverte ?
Géopolitique
👤 Camille Coirault
© Paul Pastourmatzis / Unsplash 0 Il y a de nombreuses questions qui tiennent les cosmologistes éveillés la nuit, car on ne leur trouve pas de réponse définitive : on pense évidemment à la matière noire, à l’asymétrie matière-antimatière, à l’énergie noire ou à l’évolution à long terme de l’univers. Il y en a une autre, sans affirmer qu’elle soit plus importante que ces dernières, qui reste tout de même rangée dans la case « problème qui file la migraine » : pourquoi l’univers ne semble-t-il pas s’étendre à la même vitesse selon la façon dont on le regarde ? Quand les astronomes pointent leurs télescopes vers des étoiles qui explosent dans notre voisinage galactique, ils obtiennent une certaine valeur, représentante de cette vitesse. Quand d’autres remontent au tout premier rayonnement émis après le Big Bang (la lumière fossile qui imprègne encore l’espace dans toutes les directions, autrement appelée fond diffus cosmologique) et calculent depuis ce point de départ, ils tombent sur un chiffre différent. L’écart (nous y reviendrons ensuite) paraît dérisoire, mais dans la tête d’un scientifique, une constante qui n’en est pas une, c’est une grosse épine dans le pied. Ce hiatus porte un nom : la « tension de Hubble », et a toujours fait douter la communauté scientifique, puisqu’il sous-entend qu’il est probable que nous rations quelque chose de fondamental dans notre compréhension de l’univers. Deux nouvelles études proposent aujourd’hui une nouvelle méthodologie pour mesurer autrement l’expansion de l’univers : selon leurs conclusions, il s’étirerait beaucoup moins rapidement qu’on ne le croyait jusqu’alors. Elles sont toutes deux parues le 3 février, dans la revue Astronomy & Astrophysics. Hubble : la constante qui n’en fait qu’à sa tête Pour comprendre de quoi il est question ici, il est impératif de saisir ce qu’on appelle la constante de Hubble. Nommée en hommage à l’astronome Edwin Hubble, qui découvrit dans les années 1920 que l’univers est en expansion, cette constante exprime simplement la vitesse à laquelle l’espace lui-même se dilate. Elle est mesurée en kilomètres par seconde par mégaparsec, ou km/s/Mpc (un mégaparsec valant environ 3,3 millions d’années-lumière). Le problème est que, si on la mesure localement par l’observation de supernovas dans notre voisinage galactique, ou à plus grande échelle, via le fond diffus cosmologique (la lumière fossile émise quelques centaines de milliers d’années après le Big Bang) couplé au modèle standard de la cosmologie, la valeur obtenue n’est pas la même : 73 km/s/Mpc dans le premier cas, 68 km/s/Mpc dans le second. Entre les deux méthodes de mesure, il existe donc un écart de 5 km/s/Mpc. Cela signifie que si vous prenez deux galaxies séparées par 3,3 millions d’années-lumière, l’une des méthodes prédit qu’elles s’éloignent l’une de l’autre 5 km/s plus vite que ce que prédit l’autre. À cette échelle, c’est énorme. Et surtout, ça ne devrait pas arriver : la constante de Hubble est censée être, justement, une constante ; soit une valeur unique qui décrit comment l’espace se dilate, partout et pour tout le monde. Si deux méthodes rigoureuses donnent deux réponses différentes, au moins l’une des deux est biaisée, ou bien les deux ratent quelque chose. Bien que les cosmologistes aient exploré de nombreuses pistes, elle n’a jamais été résolue. Que faut-il envisager alors ? Que le modèle standard de l’univers (modèle ΛCDM), le grand livre de bord qui nous guide depuis la fin des années 1990, souffre d’une erreur de conception ? Pour expliquer pourquoi les galaxies ne s’éparpillent pas dans le vide, nous avons invoqué l’existence de la matière noire. Pour expliquer pourquoi l’univers s’étend de plus en plus vite, nous avons ajouté celle de l’énergie sombre. Ce sont nos deux béquilles : elles représenteraient environ 95 % du contenu de l’univers, mais pourtant, personne ne les a jamais détectées directement. Nous avons simplement admis leur existence parce que, sans elles, nos équations ne tiennent pas et que le modèle ΛCDM serait un portrait incomplet de l’univers. La tension de Hubble nous place devant un dilemme vertigineux : si même avec ces deux béquilles le modèle n’arrive pas à prédire la bonne constante, c’est peut-être qu’il en faudrait une troisième, ou qu’une des deux premières est mal posée. Deux équipes ont choisi de ne faire confiance ni à l’une ni à l’autre de ces méthodes, et de proposer une troisième voie théorique, totalement affranchie des biais propres aux deux premières. Erreur de mesure ou nouvelle constante physique ? La troisième hypothèse Ainsi, les deux équipes ont choisi un terrain d’observation que personne n’avait vraiment exploité pour résoudre la question de la constante : deux groupes de galaxies proches, le groupe Centaurus A et le groupe M81. Les deux sont prises en étau par deux forces opposées : la gravité de leurs voisines, qui les retient, et le flot cosmique (la combinaison de l’expansion de l’univers par l’énergie sombre et l’attraction de structures lointaines encore plus massives), qui les tire vers l’extérieur en étirant l’espace dans lequel elles sont intriquées. Par la modélisation de ce jeu d’attraction-répulsion (quelle galaxie attire quelle autre, à quelle vitesse chacune s’éloigne malgré tout) on peut remonter à la valeur de l’expansion locale qui, seule rendrait compte de ce que l’on y observe. Une mesure indépendante, qui ne devrait alors rien aux supernovas ou au fond diffus cosmologique, et qui, comme expliqué précédemment, n’hériterait donc d’aucun de leurs biais potentiels. En analysant les deux groupes, les chercheurs ont également mis en exergue quelques particularités. Au sein de Centaurus A, la galaxie géante éponyme ne domine pas son environnement comme on le croyait : elle forme un système binaire avec la galaxie M83. Au lieu d’avoir un centre de gravité unique, la masse est redistribuée entre ces deux poids lourds, ce qui remet en question les anciens calculs, qui étaient basés sur une influence gravitationnelle centralisée. Le groupe M81, lui, était déjà connu pour son duo central M81-M82, mais les nouvelles données montrent que sa région intérieure est inclinée d’environ 34 ° par rapport à son environnement, et qu’à l’échelle de dix millions d’années-lumière, il s’aligne avec une vaste structure en feuillets de matière qui rejoint le groupe Centaurus A. Deux groupes distincts, donc, mais inscrits dans une même toile de fond, ce qui n’est pas sans conséquences sur la façon dont on interprète leurs dynamiques respectives. En isolant l’influence gravitationnelle de ces groupes du mouvement général d’expansion, les chercheurs ont pu dégager une valeur propre de la vitesse à laquelle l’espace s’étire. Selon leurs calculs, il s’étend à une vitesse de 64 km/s/Mpc. Ce chiffre est non seulement plus bas que les 73 km/s/Mpc mesurés via les supernovas, mais il plonge même sous les 68 km/s/Mpc calculés à partir du rayonnement fossile du Big Bang. Si cette valeur est juste, elle représenterait une révision importante de la cosmologie contemporaine. En effet, face à l’écart entre les mesures et la tension de Hubble, les théoriciens étaient prêts à tout pour sauver leurs modèles : chercher des failles dans la relativité générale, inventer une énergie noire évolutive ou parier sur des particules fantômes. Tous cherchaient une « nouvelle physique » révolutionnaire pour expliquer une impasse théorique que l’on ne comprenait pas. Leurs conclusions suggèrent ainsi que les « ingrédients » du modèle ΛCDM (matière ordinaire, matière noire et énergie noire) suffisent à eux seuls à expliquer la vitesse de l’expansion. En réalité, s’il réside encore un écart dans la constante de Hubble, ce serait, selon eux, à cause des méthodes de mesure elles-mêmes, et plus précisément de la manière dont nous reconstruisons la distance et le mouvement des objets dans l’univers. Les approches traditionnelles reposent sur des chaînes d’inférences longues et fragiles : dans le cas des supernovas, il est nécessaire de calibrer des « étalons de distance » les uns à partir des autres, chaque maillon introduisant sa propre marge d’erreur ; dans le cas du fond diffus cosmologique, il est impératif d’extrapoler l’évolution de l’univers depuis ses premiers instants à l’aide d’un modèle théorique, en supposant que celui-ci est parfaitement correct à toutes les époques. Autrement dit, ces deux méthodes ne mesurent pas directement l’expansion de l’univers telle qu’elle se manifeste aujourd’hui : elles la reconstruisent, chacune à leur manière, en s’appuyant sur des hypothèses et des étapes intermédiaires qui peuvent biaiser le résultat final. Il n’y a donc aucune raison de s’inquiéter de voir l’univers ralentir si c’est bien le cas, puisque cela n’aura absolument aucun impact sur le Système solaire et encore moins sur notre petite planète. C’est un potentiel changement de théorie cosmologique, la transition d’un paradigme vers un autre dont le véritable apport sera de calmer une crise intellectuelle que l’on croyait insoluble sans une refonte totale de nos lois physiques fondamentales. Toutefois, pour qu’on déclare enfin la tension de Hubble pleinement résolue, il nous faudra bien plus que ces deux études. L’enjeu consiste désormais à démontrer que cette hypothèse est extrapolable à l’univers tout entier, et non seulement aux deux groupes de galaxies étudiées : ce qui est vrai dans notre voisinage galactique l’est-il à l’échelle cosmologique ? Des études récentes suggèrent que l’univers pourrait s’étendre moins rapidement que prévu, remettant en question la constante de Hubble. La tension de Hubble, un écart entre deux méthodes de mesure de l’expansion de l’univers, pourrait être due à des biais dans les méthodes plutôt qu’à une nouvelle physique. Si cette hypothèse est confirmée, elle pourrait suffire à désamorcer la crise théorique que représente la tension de Hubble. 📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp. Newsletter 🍋 Abonnez-vous, et recevez chaque matin un résumé de l’actu tech Votre email : Je m'inscris J'ai lu et accepte les termes et les conditions Laissez ce champ vide si vous êtes humain : EspaceScience [ Source ] Sur le même sujet Antibiorésistance : l’IA pourrait aider la médecine à combattre l’une des plus grandes menaces pour la santé humaine Avant le T. rex, un tyrannosaure géant régnait déjà en Amérique du Nord il y a 74 millions d’années « C’est catastrophique » : cette startup lance des miroirs dans l’espace pour illuminer la Terre Voici le classement des villes les plus pluvieuses de France : il révèle d’énormes surprises ! Les dernières actualités Les scientifiques pensent que l’univers ralentit : faut-il s’inquiéter de cette découverte ? Chelsea PSG en streaming : la vraie solution pour voir le match de ce soir en direct 🔴 Arnaques, guerre : comment l’IA diffuse une désinformation massive, avec des conséquences catastrophiques “Terminator en vrai” : les États-Unis déploient des robots soldats en Ukraine J’ai testé le Samsung Galaxy S26 Ultra et c’est une petite déception Le prix du pétrole explose à nouveau, et ce n’est pas près de s’arrêter OnePlus 15 : noté 9 sur 10 et pour la première fois à prix cassé, il met tous ses rivaux KO 🥊 Pourquoi Samsung met-il fin aux ventes du Galaxy Z Trifold après seulement 3 mois ?
🔗 Lire l'article original
👁️ 2 lectures