CEA Paris-Saclay - Bat 130, pce 52 -- 7 à table + 3 CEA Paris-Saclay
Le but de ce cours est de fournir aux physiciens non experts en science des matériaux un aperçu de la manière dont les matériaux sont adaptés (et doivent être choisis) pour une application particulière. Le plan est le suivant :
Pause
Pause
Claire signale que les transparents sont en anglais, l’exposé sera en principe en français (avec peut-être un peu de franglais )
CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers
The James Webb Space Telescope (JWST) is the most powerful space-based infrared observatory ever built. The first part of the talk will discuss the main structures of the
telescope and its assembly after launch. The talk will then highlight the extremely exciting science results in the field of star and planet formation, including the nature of protostars and planet-forming disks. A special emphasis will be placed on the accretion process and the chemical building blocks of disks and what we can learn from infrared spectroscopy regarding the inventory of material in the terrestrial planet-forming zone.
Contact local & organisation : Frédéric GALLIANO
CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers
Organisation: Frédéric GALLIANO
CEA Saclay, Orme des Merisiers - Bat 703, p 135 salle visio-conférence CEA Saclay, Orme des Merisiers
CEA Saclay, Orme des Merisiers - Bat 703, p 135 salle visio-conférence CEA Saclay, Orme des Merisiers
On behalf of the "Espace de Structure et de réactions Nucléaires Théorique" (ESNT), the workshop entitled: "Nuclear ab initio spectroscopy" will be held on 21st-24th April at CEA-Saclay, Orme-des-Merisiers site.
The main goals of the workshop are:
1. to review existing ab initio approaches to nuclear spectroscopy in light- and medium-mass nuclei,
2. to discuss limitations of current methods and possible workarounds.
For details about the updated program, see the ESNT Web pages: https://esnt.cea.fr >> Ateliers 2024
For further information and registration, please contact the organizers of the project (see the Web page of the workshop).
CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers
Les effets du changement climatique constituent une menace grandissante pour nos sociétés et nos économies; et agir face à cette menace nécessite de transformer nos façons de nous déplacer, nous loger, de produire et consommer. Autant de questions pour l'économie, pour analyser les implications économiques des trajectoires et politiques publiques d'atténuation du changement climatique. Ce séminaire proposera quelques incursions dans la recherche actuelle en économie du changement climatique, à partir d'un échantillon d'articles récents.
Le séminaire sera en français avec des slides en anglais.
Lien Zoom : https://u-paris.zoom.us/j/81695085233?pwd=SEs3RFBWUVRka29WVkpad0VESVU5dz09
ID de réunion: 816 9508 5233
Code secret: 789717
Organisé par le groupe climat du DAp
Contacts séminaires : roland.lehoucq@cea.fr, jerome.guilet@cea.fr,
CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers
Les effets du changement climatique constituent une menace grandissante pour nos sociétés et nos économies; et agir face à cette menace nécessite de transformer nos façons de nous déplacer, nous loger, de produire et consommer. Autant de questions pour l'économie, pour analyser les implications économiques des trajectoires et politiques publiques d'atténuation du changement climatique. Ce séminaire proposera quelques incursions dans la recherche actuelle en économie du changement climatique, à partir d'un échantillon d'articles récents.
Le séminaire sera en français avec des slides en anglais.
Local contact & organisation: Roland LEHOUCQ & Jérôme GUILET
CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers
What controls star formation? is a key question in astrophysics, and one very important aspect of this is the interaction of newly-formed stars with their surroundings. The radiative and mechanical feedback from young, massive stars can be dramatic. The altered composition and increased temperature that result make atomic and ionic fine structure lines ideal probes of stellar feedback. The value of such observations is dramatically increased if the spectral lines are velocity-resolved so that the momentum and energy impact on the stars’ surroundings can be determined. But such observations must be carried out from suborbital or space observatories due to absorption in the Earth’s atmosphere. The fine structure lines of ionized carbon, and atomic oxygen are the most important and have been widely observed with high spectral resolution starting with the Herschel HIFI instrument and continuing with upGREAT on SOFIA. In this talk I will discuss some recent fine structure line observations focusing on the effects of star formation on the surrounding interstellar medium and possible problems with measuring the rate of star formation. I will conclude by presenting two fine structure line spectroscopic balloon missions. GUSTO was launched on 31 December 2023, and until 27 February 2024 surveyed the 205 ?m line of [NII] and 158 ?m line of [CII] in the central portion of the Milky Way and the Large Magellanic Cloud. ASTHROS, which is to follow at the end of 2024, has a much larger 2.5m diameter telescope, and will observe both [NII] fine structure lines to derive the electron density in selected regions.
Local contact: Suzanne MADDEN
Organization: Frédéric GALLIANO
CEA Saclay, Orme des Merisiers - Bat 703, p 135 salle visio-conférence CEA Saclay, Orme des Merisiers
Concentrating on general-purpose event generators such as Pythia and Herwig, I will describe the evolution of hadronization modeling, from simple string and cluster fragmentation in the eighties to recent developments describing collective effects in hadron production in hot and dense systems.
CEA Saclay, Orme des Merisiers - Bat 703, p 135 salle visio-conférence CEA Saclay, Orme des Merisiers
The observed differences in heavy flavor hadron chemistry in e+e- machines and hadron colliders may suggest that the hadronization mechanism is not universal, particularly in high multiplicity events. This contribution will discuss the latest experimental results on heavy quark hadronization.
CEA Saclay, Orme des Merisiers - Bat 703, p 45 CEA Saclay, Orme des Merisiers
From 2022 onwards, the upgraded LHCb experiment has switched to a triggerless readout system collecting data at an event rate of 30 MHz and a data rate of 4 Terabytes/second. A software-only High-Level Trigger enables unprecedented flexibility for trigger selections. During the first stage (HLT1), track reconstruction, partial particle identification, and vertex fitting enable a broad and efficient selection process to reduce the event rate to 1 MHz. High multiplicity event reconstruction at 30 MHz represents a significant computing challenge, and LHCb utilizes the inherent parallelism of the triggering process to meet throughput requirements with commercial-grade GPUs. In this seminar, we review this system's software and hardware design, reflect on the challenges of developing and integrating heterogeneous architectures, discuss how it meets LHCb’s performance requirements, and show first commissioning results from LHC Run 3 and prospects for the future.
CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers
Le thème de la conférence portera sur l’observation de la Terre, le climat, les satellites et le NewSpace.
Le 24 janvier 2021, une fusée Falcon 9 était lancée avec succès par SpaceX depuis Cap Canaveral, en Floride. Sous la coiffe du lanceur, il y avait 143 satellites. C’est à ce jour le plus grand nombre de satellites jamais déployés en une seule mission. Uvsq-Sat, premier nanosatellite français dédié à l’observation de variables climatiques essentielles, faisait partie de cette épopée. Depuis plus de trois ans, Uvsq-Sat observe la Terre et le Soleil de manière assidue. A 550 km d’altitude, ce satellite mesure la quantité d'énergie solaire réfléchie vers l'espace et la quantité d'énergie thermique émise par la Terre vers l’espace.
Autant de questions qui seront abordées en introduction de cette conférence. Les opérations en orbite et les résultats obtenus avec la mission Uvsq-Sat seront également présentés. L’intérêt d’utiliser des constellations de satellites sera aussi expliqué. De plus, cette conférence couvrira le développement et le lancement d'un autre satellite (avril 2023), Inspire-Sat, élaboré par le LATMOS. Enfin, nous mettrons en avant le développement du troisième satellite, dénommé Uvsq-Sat NG et qui doit être mis en orbite en février 2025.
Contact local: Henri TRIOU
Organisation: Pierre-Antoine FRUGIER
Zeptometry réalisera la 1ère étude quantitative de l'évolution de l'angle de mélange faible. Le projet combine théorie et expériences innovantes et permettra de sonder la présence de nouvelle physique aux échelles de longueur d’un zeptomètre.
Maarten Boonekamp, physicien du département de physique des particules au CEA/Irfu, est lauréat d’une bourse ERC Advanced pour son projet Zeptometry, en partenariat avec l’Université Johannes Gutenberg à Mainz en Allemagne. Grâce à une combinaison d'expériences innovantes et de développements théoriques, les équipes du projet réaliseront la première étude quantitative de l'évolution de l'angle de mélange faible, sin²θW, en fonction de l’énergie, sur quatre ordres de grandeur. L’évolution de ce paramètre fondamental du modèle standard de la physique des particules (MS) est prédite de manière précise, mais cette prédiction est perturbée en présence de nouvelles particules ou interactions. Jusqu'à présent, les données dans ce domaine sont trop rares et imprécises pour tester réellement le MS et l'éventuelle présence de nouvelle physique.
CEA
Le projet s’articule en 3 parties : Conception et intégration d’un détecteur innovant pour une mesure précise de sin²θW à basse énergie avec l’expérience P2 sur l’accélérateur MESA à Mayence (démarrage de la prise de données dès 2026); Optimisation de la mesure de sin²θW à Q = mZ et pour la première fois exploration de l'échelle d’énergie Q au TeV avec les données d’ATLAS au LHC au CERN ; Développements phénoménologiques pour une interprétation cohérente des données. Au total, l'évolution de sin²θW sera précisément cartographiée pour une énergie variant entre 100 MeV et 1 TeV. L'interprétation simultanée de ces déterminations de sin²θW permettra de sonder la nouvelle physique avec une sensibilité aux échelles de masse des nouvelles particules allant de 70 MeV à une centaine de TeV, correspondant aux échelles de longueur d'un zeptomètre (10-21 m).
Le modèle standard (MS) de la physique des particules décrit les particules élémentaires et leurs interactions. Il a permis de prédire l’existence de nombreuses particules découvertes par la suite, comme les bosons W et Z au CERN, le quark top et le neutrino tau à Fermilab, et le boson de Higgs de nouveau au CERN. Le MS est complet depuis la découverte de ce dernier en 2012, mais ne décrit toutefois qu’environ 15% de la masse totale de l’Univers. Ce mystère, parmi d’autres, suggère l’existence de nouvelles particules ou interactions qui influenceraient les valeurs des paramètres du MS. Il est alors essentiel de mesurer ces paramètres avec la plus grande précision possible pour débusquer les infimes variations porteuses de nouvelle physique. L’une des pierres angulaires du MS est l’angle de mélange faible, sin²θW. Ce paramètre relie la masse des bosons W et Z, mais influence aussi les couplages du boson Z avec les fermions1. Ces dernières années, les scientifiques se sont concentrés sur les mesures de précision des bosons W et de Higgs, et du quarks top par exemple, et les résultats sur sin²θW ont été relativement rares. L’expérience CMS vient toutefois d’annoncer, à la conférence Moriond 2024, une mesure très prometteuse de ce paramètre. L’objectif de Zeptometry est d’améliorer la détermination de sin²θW au pic du Z, et surtout d’étendre ces mesures à des échelle d’énergie couvrant quatre ordres de grandeur, en combinant des informations issues du LHC avec des données de basse énergie provenant de l’accélérateur MESA, hébergé par l’Université Johannes Gutenberg à Mainz en Allemagne. La combinaison de toutes ces mesures testera la dépendance en énergie de l’angle de mélange faible, à basse énergie, au pic du Z, et pour la première fois au-dessus de la masse du Z vers des énergies de l’ordre du TeV.
Prédiction théorique (en bleu) de l’évolution de la valeur de l’angle de mélange en fonction de l’énergie (Q) selon le modèle standard (MS) et prédiction de l’influence de particules massives nouvelles. Les points de mesure actuels sont montrés en noir avec leurs barres d’erreurs associées. Les résultats attendus du projet Zeptometry sont en rouge et montrent l’apport du projet. Les expériences P2 et ATLAS sonderont l’échelle des énergies afin d’obtenir des résultats de plus grandes précisions et à de nouvelles échelles notamment pour les hautes énergies Q > 10² GeV.
L’angle de mélange faible est déduit notamment de l’asymétrie dans la distribution angulaire des produits de désintégration des bosons Z. La valeur de sin²θW est dépendante de l’énergie (Q) à laquelle il est mesuré et le MS propose une prédiction théorique pour cette dépendance. Malheureusement, en dehors de LEP qui a produit une mesure précise de l’angle de mélange faible à la masse du Z, peu d’expériences ont contribué à mesurer ce paramètre qui pourrait être influencé par des particules encore inconnues. En effet, les valeurs prédites par la théorie seraient modifiées par toute nouvelle particule ou interaction. Par exemple, un candidat matière noire d'une masse de ~100 MeV générerait une déviation d'environ 1,5 %, à des énergies Q < 10-1 GeV (courbes en pointillés orange, verts et violets) alors qu’une nouvelle interaction impliquant des particules de masses d'environ 103 GeV entraînerait des écarts de quelques % à haute énergie (courbe en pointillés rouges). Le projet Zeptometry fournira à la communauté internationale des mesures précises de sin²θW grâce à la complémentarité entre les deux expériences, ainsi qu’une interprétation globale incluant l’ensemble de données existantes.
Liens Site de l'ERC : https://erc.europa.eu/news-events/news/erc-2023-advanced-grants-results Site partenaire : https://www.hi-mainz.de/news-events/detail/erc-advanced-grant-for-the-project-zeptometry Contact M. Boonekamp
un événement transitoire unique détecté avec INTEGRAL
Le premier magnetar extragalactique découvert par INTEGRAL! Un événement transitoire unique a été détecté par le satellite INTEGRAL: jusqu’à présent le magnetars, étoiles à neutrons au champ magnétique hyper puissant, n’étaient connus que dans notre galaxie. INTEGRAL, avec l’aide de XMM et d’observatoires au sol, a découvert un magnetar dans la galaxie M82! Retour sur la détection de ce "giant flare" seulement le 4ème en 50 ans d’observations! (article publié Nature) Pendant que le satellite de l’ESA INTEGRAL était en train d’observer la région de l’amas de galaxies de la Vierge en Novembre 2023, le télescope IBIS/ISGRI a soudainement détecté un signal gamma très bref, d’une durée d’un dixième de seconde (fugure ci contre). Grâce au INTEGRAL Burst Alert Sytem (IBAS), qui analyse les données d’ISGRI en temps réel au centre de données d’INTEGRAL (ISDC), une alerte a été émise seulement 13 secondes après l’évènement et les astronomes d’astreinte, dont Diego Götz du DAp, ont rapidement réalisé que cet évènement énergétique était associé à la galaxie M82. La question qui s’est posée par la suite était : quel est la nature de l’objet à l’origine de l’impulsion gamma. Est-ce un sursaut gamma court (issu de la coalescence de deux étoiles à neutrons) ou bien un giant flare d’un magnetar (étoile à neutrons avec un champ magnétique très élevé) ?
Les courbes de lumière montrent que le GRB 231115A était clairement visible dans les deux détecteurs d’IBIS à bord d'INTEGRAL, qui fonctionnent à des énergies différentes. ISGRI (20 keV-1 MeV), et PICsIT (175 keV-15 MeV).
L’équipe en charge, qui inclut outre les chercheurs français (DAp, LAM, LESIA, Observatoire de Paris), des scientifiques italiens, suisses, danois, allemands, espagnols et irlandais, a demandé que la région soit observée par le télescope de l’ESA XMM dans les rayons X et par Telescopio Nazionale Galileo et l’Observatoire de Haute-Provence (par D. Turpin et E. Le Floc’h du DAp), dans l’optique. L’absence de signaux dans les autres bandes électro-magnétiques , ainsi que dans les ondes gravitationnelles (LIGO/VIRGO/KAGRA) a permis d’exclure l’hypothèse d’un sursaut gamma court : en fait, les sursauts gamma courts sont accompagnés par une émission rémanente détectable en rayons X et en visible, et la fusion de deux étoiles à neutrons dans une galaxie si proche (M82 se trouve à environ 4 Mpc) aurait donné un signal en ondes gravitationnelles détectable pas les interféromètres au sol (comme pour GW 170817 situé dans un galaxie à 40 Mpc).
Image composite des observations d'Integral, de XMM-Newton et du télescope Telescopio Nazionale Galileo TNG Credit: ESA/Integral, ESA/XMM-Newton, INAF/TNG, M. Rigoselli (INAF) Image de la région de l’amas de la Vierge obtenue par INTEGRAL au moment de la détection de la source transitoire. Le petit carré sur la carte d'Integral indique l'emplacement de l'explosion. Le cercle bleu sur les deux images découpées indique la boîte d’erreur estimée par IBAS. L'une des images montre les données XMM en rayons X de la galaxie et l'autre une observation en lumière visible. Sur ces deux images (en X et en visible), seule la galaxie M82 est visible, sans aucun autre signal provenant de la source transitoire.
Donc seulement l’hypothèse d’un giant flare produit par un magnetar était compatible avec les observations. Les magnétars sont des étoiles à neutrons avec un champ magnétique bien plus élevé (jusqu’à 10 000 fois) que les pulsars standard et sont le produit de Supernovae issues d’étoiles massives (au moins huit fois plus massive que le soleil). Ils émettent sporadiquement des courts sursauts de rayons gamma, et très rarement ils en émettent de très énergétiques, appelés giant flares. Une trentaine de magnetars sont connus dans notre galaxie et dans le Nuage de Magellan. Jusqu’à présent que trois giant flares ont été détectés en 50 ans d’observations.
An artist's impression of an erupting magnetar (Image credit: Carl Knox, OzGrav/Swinburne University of Technology)
M82 est une galaxie brillante a fort taux de formation stellaire. C’est donc le lieu de formation d’étoiles massives censées produire des étoiles à neutrons en fin de vie. La découverte d’un magnetar dans ce type de galaxie confirme l’hypothèse que les magnetars sont des objets jeunes et qu’il faut viser ce type de galaxies pour continuer à détecter ce type d’objets. L’évènement détecté par INTEGRAL est le premier magnetar découvert dans une galaxie proche et va paver la route pour la découverte de nouveaux magnétar extra-galactiques par les futures missions dédiées aux sursauts gamma telles que SVOM ou THESEUS. Contacts : Diego Gotz, Damien Turpin Article: A magnetar giant flare in the nearby starburst galaxy M82, Nature (2024). DOI: 10.1038/s41586-024-07285-4 https://www.nature.com/articles/s41586-024-07285-4
An image of the Cigar Galaxy, M82 as seen by the Hubble space telescope. (Image credit: NASA, ESA and the Hubble Heritage Team (STScI/AURA))
Le noyau d’hélium 6 a été proposé comme candidat possible pour explorer le modèle de la désintégration du neutron en matière noire. Grâce à la pureté et à l’intensité du faisceau d’hélium 6 (jusqu’à 300 millions de noyaux par seconde) produit par les installations de GANIL SPIRAL1, une probabilité maximale de 0.4 milliardième à l’existence d’un tel mode de décroissance dans l’hélium 6 a pu être établie. Cette limite contraint fortement le modèle théorique de la décroissance du neutron en matière noire ainsi que son origine : le problème de la durée de vie du neutron.
La durée de vie du neutron libre Le neutron libre est une particule instable qui se transforme en proton en émettant un électron et un anti-neutrino avec une durée de vie d’environ 880 secondes par le phénomène de désintégration β. La durée de vie du neutron libre étant un paramètre fondamental du Modèle Standard, il est important d’en connaître la valeur avec un bon degré de précision. Pour cette raison, de nombreuses expériences mesurant cette durée de vie ont été réalisées depuis les années 1950, passant de la valeur de 1108±216 secondes avec l’expérience de Robson en 1951, à 877.75±0.36 secondes en 2021 avec l’expérience de la collaboration UCNτ. Les expériences réalisées pour mesurer cette durée de vie sont généralement divisées en deux catégories correspondant à la méthode expérimentale utilisée : d’un côté la méthode du « faisceau » et de l’autre celle de la « bouteille ». La méthode « faisceau », utilise un faisceau de neutrons froids pour mesurer la durée de vie en comparant l’intensité initiale de ce faisceau (soit le nombre de neutrons par seconde) au nombre de protons et/ou d’électrons émis par seconde suivant la décroissance β des neutrons. La méthode dite de la « bouteille », stocke des neutrons ultra-froids dans un piège et la durée de vie est obtenue en mesurant directement la population de neutrons dans la bouteille après un temps de stockage défini. Les valeurs moyennes obtenues pour ces deux méthodes, montrées en Figure 1, sont en désaccord l’une avec l’autre avec un écart d’environ 1 %. Les barres d’erreurs incompatibles l’une avec l’autre suggèrent l’existence d’un effet systématique non pris en compte dans l’une ou l’autre des méthodes. Cet écart entre ces deux valeurs moyennes est couramment appelé le problème de la durée de vie du neutron, ou the neutron lifetime discrepancy en anglais.
Figure 1: Les différentes mesures de la durée de vie du neutron libre depuis 1996. La bande rouge correspond à la valeur moyenne pour la méthode du « faisceau » et la bande bleue à celle pour la méthode de la « bouteille ».
Décroissance en matière noire du neutron La méthode de la « bouteille » suit directement l’évolution du nombre de neutrons dans le temps et donne accès à la durée de vie totale du neutron. En revanche, la méthode du « faisceau » regarde spécifiquement les produits issus de la décroissance β. Cette méthode permet donc de ne mesurer que la durée de vie partielle propre à cette voie de désintégration. Il a été proposé en 2018, que le neutron pourrait posséder un autre mode de décroissance, incluant une ou plusieurs particules de matière noire dans l’état final avec un rapport d’embranchement de 1 %. Le fait que les expériences “faisceau” soient insensibles à ce type de décroissance pourrait expliquer la différence de temps de vie observée entre les deux méthodes. Si une telle décroissance en matière noire existe pour le neutron libre, alors elle devrait également se produire dans une sélection de noyaux radioactifs aux propriétés bien spécifiques. L’hélium 6 est un de ces noyaux. Il s’agit d’un noyau dit borroméen, composé d’un cœur d’hélium 4 et d’un halo de deux neutrons qui sont très faiblement liés au reste de la structure, des neutrons quasi-libres. Si l’un de ces deux neutrons décroît en matière noire, alors le deuxième serait automatiquement libéré et émis dans l’environnement. Une telle émission de neutron dans la désintégration de l’hélium 6 n’est normalement pas prévue par le Modèle Standard. En effet, le seuil d’émission neutron dans la décroissance de l’hélium 6 n’est pas accessible énergétiquement depuis son état fondamental. En revanche, cette émission est énergétiquement possible dans le cadre de cette nouvelle théorie, et serait alors une signature unique de création de matière noire. Ce mode de décroissance exotique a pu être investigué en couplant le faisceau radioactif d’hélium 6 de SPIRAL1 du GANIL avec le détecteur de neutrons très performant TETRA (voir figure 2), issu d’une collaboration avec IJCLab. Le faisceau était transporté à très basse énergie puis arrêté dans une feuille d'aluminium d'environ 150 um d'épaisseur au centre du setup expérimental selon un cycle bien défini. Dans un cycle typique, le faisceau était implanté dans la feuille d'aluminium pendant 3 secondes, puis coupé pendant 7 secondes. Si une décroissance en matière noire dans l'hélium 6 existe, alors le nombre de neutrons détectés avec TETRA devrait augmenter puis diminuer de manière proportionnelle avec la population d'hélium 6 implantée et se désintégrant dans un cycle.
Figure 2 : Setup expérimental avec le détecteur de neutrons TETRA situé au bout de la ligne LIRAT au GANIL. ©GANIL-CEA/CNRS
Cette expérience réalisée au GANIL a permis d’établir une valeur maximale au rapport d’embranchement de ce mode de décroissance à 4x10?10. Cette limite expérimentale a ensuite pu être traduite de manière théorique, contraignant l’espace des paramètres associé à la décroissance du neutron en matière noire comme montré en Figure 3. Ce résultat ajoute une contrainte supplémentaire à d’autres approches (Borexino et UCNτ sur la figure) pointant vers la conclusion qu’une décroissance en matière noire n’est a priori pas la cause première du problème de la durée de vie du neutron.
Figure 3 : Diagramme d’exclusion dans l’espace des paramètres. L’axe horizontal correspond à la masse de la particule de matière noire émise contrainte par deux conditions de stabilité représentées par les bandes verticales rouge et violette. La bande verticale grise représente une partie de la gamme de masse ouverte à laquelle nous sommes insensibles avec l’hélium 6. L’axe vertical représente le paramètre du modèle responsable de la décroissance en matière noire. Les lignes pointillées grises représentent 3 scénarios différents pour le problème de la durée de vie du neutron avec l’écart actuel de 1% jusqu’à 0,001%. Enfin, en vert, notre zone d’exclusion obtenue grâce à la mesure avec l’hélium 6.
Référence : https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.132.132501 Contact : Marius Lejoubioux
Une équipe de physiciens de l’Irfu, en partenariat avec le centre de physique nucléaire de Varsovie et l’université Williams & Mary aux États-Unis a mis au point une technique pour combiner efficacement données de simulations et expérimentales dans le but d’extraire la structure multidimensionnelle du nucléon en termes de quarks et gluons. Fondée sur la repondération bayésienne, cette technique permet de réduire fortement le coût de calcul par rapport aux approches standards. Les premières évaluations estiment que combiner données expérimentales et de simulation permettrait de réduire de près de 50 % [1] les incertitudes et permettent d’espérer une cartographie précise des quarks et des gluons dans le proton pour la seconde moitié de la décennie. C’est précisément l’objectif du projet CompToN financé par l’ANR qui a débuté à l’Irfu le 1 avril 2024.
La structure multidimensionnelle du nucléon en termes de quarks et de gluons est une des questions majeures de la physique hadronique moderne. Elle peut être étudiée pour des nucléons voyageant à une vitesse proche de celle de la lumière. En effet, dans ce cas très particulier, à haute énergie, on peut définir des densités 3D de quarks et de gluons à l’intérieur du nucléon. Cette information est encodée dans des fonctions mathématiques particulières appelées Distributions de Parton Généralisées (GPD). Ces GPD peuvent être extraites des données expérimentales obtenues lors de la mesure à haute énergie de processus exclusifs, c’est-à-dire de processus dans lesquels l’état final est entièrement caractérisé. Plusieurs installations expérimentales actuelles et à venir autour du globe ont des programmes de physique dédiés à l’extraction des GPD. L’Irfu est d’ailleurs fortement investi dans cette campagne expérimentale, particulièrement à travers le programme CLAS12 mené au Jefferson Laboratory aux États-Unis. Cependant, comme expliqué dans un précédent fait marquant, les processus exclusifs considérés filtrent une partie de l’information relative à la structure multidimensionnelle. En conséquence, l’extraction de la structure multidimensionnelle du nucléon est entachée de grandes incertitudes d’origine théorique.
En parallèle des développements théoriques et expérimentaux, la dernière décennie a été fructueuse du point de vue de la simulation numérique de l’interaction forte. Les progrès réalisés en termes de puissance de calculs et d’efficacité algorithmique ont rendu les simulations actuelles réalistes. De plus, de nouvelles idées ont permis de connecter les calculs issus de simulation numériques à la structure multidimensionnelle du nucléon. Cependant, le calcul direct de la structure du nucléon même unidimensionnelle reste impossible pour l’instant, du fait de verrous mathématiques et algorithmiques. Les nouvelles méthodes évoquées ici proposent un contournement de ce problème via une détermination indirecte. On parle alors d’extraire les GPD à partir d’observables de simulation, de manière très similaire à ce qui est fait en pratique avec les observables expérimentales. Et comme dans le cas expérimental, une partie de l’information multidimensionnelle est filtrée. Mais les natures des filtres dans le cadre des expériences et des simulations sont très différentes et laissent passer des informations complémentaires.
Une équipe de l’Irfu, en collaboration avec des physiciens du laboratoire national de physique nucléaire (NCBJ) de Varsovie et de l’université Williams & Mary aux États-Unis, s’est donc posé la question de savoir si ces informations pouvaient être combinées de manière à réduire les incertitudes théoriques pesant sur l’extraction de la structure multidimensionnelle du nucléon. Pour ce faire, un modèle de GPD reposant sur un réseau de neurones a été spécialement conçu [2] pour : être capable, par construction, de respecter l’ensemble des propriétés théoriques qui s’imposent aux GPD ; être capable de correctement tenir compte des incertitudes de reconstruction dues à l’information partielle obtenue via les processus expérimentaux. À l’aide de ce modèle, les physiciens ont produit une centaine de répliques, c’est-à-dire une centaine de solutions acceptables, en accord avec les données expérimentales disponibles. L’épaisseur du paquet caractérise les incertitudes théoriques d’extraction. C’est cette bande d’incertitude que l’on va chercher à réduire, en combinant données expérimentales et données de simulation.
À l’heure actuelle, il n’existe pas de données publiques de simulations liées à la structure multidimensionnelle du nucléon, mais plusieurs groupes, aux États-Unis comme en Europe se sont lancés dans la course à leur production. Pour pallier ce manque temporaire, des données factices sont générées aléatoirement autour de la valeur centrale du paquet de répliques, mimant l’extension cinématique, la précision et le niveau de corrélation attendus de données de simulation réelles. Ces caractéristiques sont construites sur la base des données de simulation unidimensionnelles déjà disponibles. Idéalement, on voudrait alors réentraîner le réseau de neurone en incluant ces données factices pour étudier l’impact potentiel des données de simulation. Cependant, une des propriétés théoriques des GPD, appelée positivité, n’a pas pu être encastrée dans l’architecture du réseau. Elle est garantie au niveau de l’entraînement, ce qui augmente très significativement le temps d’apprentissage. Une étude d’impact reposant sur de multiples entraînements successifs du modèle se révélerait trop coûteuse.
Pour pallier ce problème de coût de calcul, on fait appel à une technique de repondération bayésienne. Pour chaque réplique, on associe un poids ω compris entre 0 et 1. Plus l’accord entre la réplique et les nouvelles données est grand, plus le poids de cette réplique est important. À l’inverse, les répliques en désaccord avec les nouvelles données se verront attribuer un poids proche de 0. On définit ainsi le paquet de répliques repondérées, et on peut à nouveau calculer la valeur centrale et l’intervalle de confiance tous les deux repondérés.
Les résultats de cette procédure sont illustrés sur la figure 1, qui représente une coupe unidimensionnelle des GPD. La variable cinématique x représente la fraction d’impulsion portée par le quark sondé dans la direction de déplacement du nucléon. Les cent répliques sont réprésentées par des traits pleins verts. Des répliques atypiques (très éloignées de la valeur centrale) sont clairement visibles, justifiant le traitement spécifique évoqué précédemment. Les valeurs centrales sans (μ, trait pointillé bleu) et avec (μω, trait plein rose) repondération bayésienne sont très proches l’une de l’autre, comme attendu. En revanche, l’intervalle de confiance σω (traits pleins violets) de la distribution de répliques repondérée est bien plus étroit que celui de la distribution originale (σ, traits pointillés rouges), mettant ainsi en lumière une réduction significative des incertitudes. Cette réduction peut être quantifiée par le ratio Σ = σω/σ pour toute valeur de x, et dont la valeur moyenne est de l’ordre de 0.5 sur l’intervalle logarithmique choisi en x. Cette étude permet donc de conclure qu’en combinant données expérimentales et données de simulations, on peut espérer jusqu’à un facteur deux de réduction des incertitudes.
Figure 1: Diagramme supérieur: les cent répliques générées via le modèle de GPD. Les valeurs centrales et intervalle de confiance à 68% sont représentés selon la prise en compte des données factices de simulation (??, ??) ou non (?, ?). Diagramme inférieur : ratio ? des intervalles de confiance ??/? (trait plein violet) en fonction de x, et valeur moyenne de réduction des incertitudes sur l'intervalle cinématique (pointillé vert).
Ce résultat est important car, on s’attend à ce qu’une grande quantité de données expérimentales reliées aux GPDs soit produite, et ce, à une précision inégalée, notamment au Jefferson Laboratory (USA). Or ces données sont attendues dans la région cinématique 0.05< x < 0.5, c’est-à-dire là où l’impact de la repondération semble être maximal (figure 1). En combinant ces nouvelles données expérimentales avec les données de simulations à venir, on peut ainsi espérer réduire significativement les incertitudes théoriques sur la structure multidimensionnelle du nucléon. C’est l’objectif principal du projet ANR CompToN qui débutera à l’Irfu en avril prochain.
Contact : Cédric Mezrag et Michael Riberdy [1] M. Riberdy et al., Combining lattice QCD and phenomenological inputs on generalised parton distributions at moderate skewness , Eur. Phys. J. C 84, 201 (2024), e-Print: 2306.01647 [2] H. Dutrieux et al., Artificial neural network modelling of generalised parton distributions, Eur. Phys. J. C 82 (2022) 3, e-Print: 2112.10528
DESI vient de publier ses contraintes cosmologiques avec sa 1ère année de données avec une précision excédant celle des 20 dernières. Ces résultats affinent le modèle cosmologique et montrent des indices surprenants sur la nature de l'énergie noire.
Le grand relevé de galaxies DESI, qui utilise le télescope Mayall de 4m au Kitt Peak Observatory (Arizona), a commencé ses observations en mai 2021 et publie aujourd'hui l’analyse cosmologique de de sa première année de prise de données. DESI est un spectrographe multifibre qui, à chaque pointé, mesure le spectre de la lumière provenant de 5000 objets astrophysiques simultanément. Les données collectées permettent de dresser une carte tridimensionnelle de l’Univers. Des méthodes statistiques sont ensuite appliquées à cette carte pour en déduire comment l’expansion de l’Univers a évolué au cours des 11 derniers milliards d’années de son histoire alors que l’Univers est âgé de 13,8 milliards d’années. Pour faire cette analyse, les scientifiques s’appuient sur le phénomène physique des oscillations acoustiques baryoniques, des ondes de pression qui se sont propagées dans le plasma primordial et qui ont laissé un motif particulier dans la distribution de la matière que nous observons. Ce motif se traduit par le fait que la distance séparant deux galaxies montre un excès de probabilité à une valeur particulière. En mesurant cette distance caractéristique pour plusieurs types de galaxies différents, la collaboration DESI a ainsi mesuré l’histoire de l’expansion de l’Univers au cours de 11 derniers milliards d’années. L’analyse fine de ces données permet de préciser notre compréhension de l’Energie sombre, dont la nature est encore inconnue et qui est responsable de l’accélération de l’expansion de l’Univers. En particulier, les résultats de DESI tendent à montrer que l'Énergie sombre pourrait ne pas être décrite par une constante cosmologique mais qu’elle aurait évolué au cours du temps. lien vers les articles : https://data.desi.lbl.gov/doc/papers/
DESI - Dark Energy Spectroscopic Instrument. Depuis 2009, l’Irfu est impliqué dans le relevé spectroscopique, DESI, qui étudie l'effet de l'énergie sombre sur l'expansion de l'Univers, l'effet de la gravitation à des distances cosmologiques et qui mesure la somme des masses des neutrinos. Au cours d’un programme de 5 ans qui a débuté en mai 2021, DESI, mesure le spectre de la lumière (dans une gamme de longueur d’onde entre 360 à 980 nm, qui couvre le visible) provenant de plus de 40 millions de galaxies et de quasars. Le décalage vers le rouge de chaque spectre est déterminé et est converti en distance à l’aide du modèle cosmologique. En combinant cette distance avec les coordonnées angulaires, DESI construit une carte en 3D de l'Univers (voir figure 1) qui permet de regarder dans le passé et de dérouler l’histoire de l’expansion de l’Univers sur les 11 derniers milliards d'années, quand on estime l’âge de l’Univers à 13,8 milliards d’années. L'instrument DESI est installé sur le télescope Mayall de 4 m au Kitt Peak National Observatory (Arizona, États-Unis). Le télescope possède un correcteur optique qui augmente son champ de vue à 8 degrés carrés. Son plan focal est équipé de 5 000 fibres optiques contrôlées par des robots pour collecter la lumière de 5 000 objets astrophysiques simultanément à chaque pointé du télescope. La lumière des objets est transmise du plan focal du télescope aux 10 spectrographes via 5 000 fibres optiques. L’Irfu a réalisé la construction des 30 cryostats de ces 10 spectrographes qui mesurent le redshift de chaque objet. Pour construire la carte de l’Univers, DESI a choisi 5 types de “traceurs” de la distribution de matière de l’Univers dans le but d’accéder à des époques différentes de l'histoire de l’Univers, de maintenant jusqu’à 11 milliards d’années. L’univers proche est sondé par un échantillon de galaxies très brillantes (Bright Galaxy Sample, BGS). Ensuite DESI utilise des galaxies rouges lumineuses (Luminous Red Galaxies, LRG) qui sont des galaxies massives ayant terminé leur cycle de formation d’étoiles. Viennent après les galaxies à raies d’émissions (Emission Line Galaxies, ELG), galaxies plus légères et formant des étoiles qui permettent de sonder l’Univers entre 8 et 10 milliards d’années. Enfin, l’univers lointain est reconstruit grâce aux objets les plus lumineux de l’univers, les quasars. Ils sont utilisés de deux manières distinctes, soit directement par leur position comme dans le cas des galaxies, soit indirectement, en détectant les nuages de gaz d'hydrogène dans leurs spectres grâce à l'absorption dans la forêt Ly-alpha.
Figure 1: Carte à trois dimensions du ciel produite par DESI. Chaque point représente une galaxie ou un quasar dont le spectre et ainsi le décalage vers le rouge ont été mesurés et permettent de déterminer la distance à laquelle ils se trouvent. Credit: Claire Lamman/DESI collaboration and Jenny Nuss/Berkeley Lab
Mesure de l’échelle de distance des oscillations acoustiques des baryons En regardant la carte de l’Univers mesurée par DESI, il est facile de voir la structure sous-jacente de l'Univers : des filaments regroupant des galaxies, séparées par des régions contenant moins d'objets. L’univers primordial, bien au-delà de la portée de DESI, était très différent : une soupe chaude et dense de particules subatomiques se déplaçant trop rapidement pour former de la matière stable comme les atomes que nous connaissons aujourd'hui. Parmi ces particules se trouvaient les composants élémentaires de l’hydrogène et de l’hélium, collectivement appelés les baryons. De minuscules fluctuations dans ce plasma ionisé constitué de baryons, photons et électrons ont causé des ondes de pression qui s’y sont propagées. Alors que l'Univers s'étendait et refroidissait, à un moment appelé recombinaison, les atomes neutres se sont formés et les ondes de pression se sont figées, augmentant ainsi la densité de matière dans des zones où se formeront les futures galaxies. Des milliards d'années plus tard, nous pouvons toujours voir la trace de ce motif dans la distribution spatiale des galaxies sous la forme d’une distance caractéristique appelée l’échelle de distance des oscillations acoustiques des baryons (BAO). Les coquilles sphériques correspondant à la propagation des ondes acoustiques qui se figent à la recombinaison, ne peuvent pas être détectées directement dans la carte 3D. En pratique, on construit la fonction de corrélation entre les traceurs par tranche de redshift. Comme le montre les encadrés de la figure 2, on observe une plus grande probabilité de trouver deux traceurs qui sont séparés par une distance correspondant à l’échelle BAO (pics BAO). Les positions de ces pics BAO sont mesurées par rapport à un modèle cosmologique fiduciel ( ΛCDM, décrit au paragraphe suivant). Les points de mesure de la figure 2 montrent les écarts à ce modèle fiduciel pour chaque époque de l’évolution de d’univers. Ces mesures de la taille apparente de l’échelle BAO réalisées à plusieurs époques de l’Univers permettent de tracer l’histoire de son expansion.
figure 2: Histogrammes des “pics BAO” pour les différents types de traceurs de la matière mesurés par DESI. Les points de mesure montrent l’écart des points de mesure avec le modèle ?CDM ainsi qu’un modèle cosmologique pour lequel la quantité d’énergie sombre varie au cours du temps (ligne tiretée). Credit: DESI collaboration, A. de Mattia
Contraintes sur la nature de l’énergie sombre L’énergie sombre est un concept né dans les années 90. Un certain faisceau d'indices, notamment venant de l'étude des propriétés de la distribution des galaxies à grande échelle, semblait indiquer que le contenu énergétique de l’Univers n’était plus dominé par la matière. L’accélération de l’expansion de l’Univers fut confirmée pour de bon en 1998 par l'observation de l'évolution de la luminosité des supernovae de type 1a en fonction de leur redshift, et la constante cosmologique (originellement introduite par Einstein en 1916, puis mise de côté), semble en rendre parfaitement compte. La cause de l'accélération de l'expansion a reçu le nom "d'énergie sombre" et de nombreux programmes, comme DESI, cherchent à en préciser la nature. Depuis maintenant plus de 25 ans, le modèle ΛCDM (Λ pour la constante cosmologique, CDM pour la matière noire froide), permet d'expliquer la très grande majorité des observations cosmologiques, de natures très diverses : les fluctuations de température du fond diffus cosmologique, la luminosité des supernovae, la distribution des galaxies à grande échelle (sondée par les relevés photométriques), la distribution de masse dans l’Univers (sondée pour le cisaillement gravitationnel faible), la masse des amas de galaxies, etc. Cependant, la valeur de la constante cosmologique actuellement observée n’est pas (encore) théoriquement motivée : elle est 10120 ou 1041 fois plus faible (selon les modèles théoriques) que la valeur attendue pour l’énergie du vide de la physique des particules. Il est donc légitime d’explorer des déviations à la constante cosmologique, en modélisant l’énergie sombre comme un fluide avec une densité ρ et une pression P reliée par une équation d’état P = w ρ. En supposant un paramètre d’équation d’état w constant, les données BAO de DESI seules, et en combinaison avec les autres sondes cosmologiques que représentent les mesures du fond diffus cosmologique (Planck et ACT, résumé en CMB ci-dessous) et les mesures de luminosité des supernovae (Pantheon+, Union3, DES-Y5), préfèrent une équation d’état w = -1, la valeur correspondant à une constante cosmologique. Cependant, si l’énergie sombre devait correspondre à un nouveau champ, l’équation d’état varierait probablement dans le temps. Une paramétrisation communément adoptée, et qui reflète bien le comportement de la plupart des modèles théoriques, est w = w0 + (1 - a) wa, avec a = 1 / (1 + z) le facteur d’échelle de l’Univers, et w0 et w_a deux paramètres constants. Comme le montre la figure 3, les données BAO de DESI, en combinaison avec les mesures du fonds diffus cosmologique et pour les différents échantillons de supernovae (qui ne sont pas indépendants), préfèrent w0 > -1, wa < 0, alors que les valeurs attendues pour la constante cosmologique sont (w0, wa) = (-1, 0) (en pointillés sur la figure). Le niveau d’exclusion de (w0, wa) = (-1, 0) varie en fonction du jeu de supernovae, avec une probabilité allant de 98% à 99.99%. Il semble donc que les données préfèrent une accélération de l’expansion légèrement différente d’une constante cosmologique (comme indiqué en pointillés sur la figure 2) : plus rapide au début de la domination de l’énergie sombre, il y a 6 milliards d’années, et moins rapide aujourd’hui. Ces résultats sont intéressants, et méritent une attention particulière dans les années qui suivent : les prochaines données de DESI, les nouveaux échantillons de supernovae de ZTF, et les données de la mission Euclid apporteront un éclairage supplémentaire.
Figure 3: Contraintes apportées par DESI dans le cadre d’un modèle où l’énergie sombre peut varier au cours de l’évolution de l’Univers (les contours montrent les intervalles à 68% et 95% de confiance). Les contraintes sont faites en combinaison avec les données du fond diffus cosmologique (CMB) et de plusieurs échantillons de supernovae provenant de groupes différents (Pantheon+, Unions3 and DES-SN5YR). Une constante cosmologique serait à w0=-1 et wa=0. Credit: DESI collaboration, A. de Mattia
Constante de Hubble et somme des masses des neutrinos Contraindre l’énergie sombre est l’objectif principal de DESI. Cependant, de nombreuses questions peuvent trouver une réponse dans les données de DESI. Parmi celles-ci, deux quantités reçoivent une attention particulière : la valeur de la constante de Hubble, H0, et la somme des masses des neutrinos. DESI ne mesure pas directement la valeur du constant de Hubble, mais la quantité de matière dans l’Univers, Omega_m et la combinaison H0*rd, où rd est la taille de l’horizon acoustique au moment de la recombinaison. La vitesse de propagation des ondes acoustiques dans le plasma primordial, et ainsi la taille de l’horizon acoustique, dépend des densités de photons et de baryons dans l’Univers qui peuvent être déduites de la mesure de la température du fond diffus cosmologique et de l’abondance des éléments légers issus du processus de nucléosynthèse primordiale (BBN, Big Bang Nucleosynthesis). La figure 4 montre les contraintes apportées par DESI en combinaison avec les autres mesures évoquées ci-dessus. DESI mesure une valeur de Omega_m plus petite que celle déduite du CMB, ce qui donne une valeur de H0 un peu plus grande que celle du CMB lorsqu’on injecte la mesure de rd provenant de la BBN ainsi que l’échelle acoustique angulaire, θ*, provenant du CMB. La mesure de DESI reste en tension à plus de 99.98% avec les mesures directes locales de H0 (SNIa + Céphéides) même si elle s’en rapproche un petit peu. Enfin, grâce à cette mesure plus précise de Ωm, DESI peut améliorer indirectement les contraintes sur la somme des masses des neutrinos, ΣMν, également mesurées par le CMB. Dans le cadre du modèle ΛCDM et en utilisant les données de DESI, la contrainte sur la somme des masses des neutrinos est ΣMν<0.072 eV à 95% de confiance. Cette contrainte est la plus forte et la valeur obtenue favorise la hiérarchie de masse normale pour les états propres des neutrinos. Cependant, nous venons de voir que les mesures de DESI préfèrent un univers avec une accélération de l’expansion légèrement différente d’une constante cosmologique. Dans ce cadre-là, la contrainte sur la masse des neutrinos est ΣMν<0.195 eV à 95% de confiance. Cette contrainte est certes moins forte mais elle est posée dans le cadre d’un modèle plus général que ΛCDM. Dans le futur, DESI mesurera directement la masse des neutrinos en étudiant le forme de la fonction de corrélation des quasars et des galaxies et pas seulement la position du pic BAO. En effet, la dispersion à grande vitesse des neutrinos qui restent relativistes bien après la recombinaison, implique qu'ils se déplacent sur de grandes distances et qu’ils suppriment la formation des structures (galaxies, amas de galaxies, filaments) à petites échelles. Cet effet est directement visible dans la fonction de corrélation. Cette seconde vague d’analyses avec la première année de DESI, bien plus délicates, est attendue pour la fin de l’année 2024.
Figure 4: Mesure de la constante de Hubble provenant de différentes expériences ou combinaison d’expériences. Les contraintes apportées par DESI sont en bleu gras (voir le texte pour la description des différentes combinaisons). Credit: DESI collaboration
Remerciements : DESI est soutenu par le DOE Office of Science et par le National Energy Research Scientific Computing Center, un centre de calcul du DOE Office of Science. DESI bénéficie également du soutien de la National Science Foundation des États-Unis, du Science and Technologies Facilities Council du Royaume-Uni, de la Gordon and Betty Moore Foundation, de la Heising-Simons Foundation, du Commissariat à l'énergie atomique et aux énergies alternatives (CEA) de France, du Conseil national de la science et de la technologie du Mexique, du ministère de l'économie de l'Espagne, ainsi que des institutions membres de DESI. La collaboration DESI est honorée d'être autorisée à mener des recherches scientifiques sur l'Iolkam Du'ag (Kitt Peak), une montagne qui revêt une importance particulière pour la nation Tohono O'odham. Contact : Etienne Burtin, Arnaud de Mattia, Christophe Yèche
Les magnétars sont des étoiles à neutrons arborant les champs magnétiques les plus intenses observés dans l’Univers. Pour s’atteler à la question encore ouverte de l’origine de ces champs magnétiques extrêmes, un scénario a été proposé par une équipe du Département d’Astrophysique (DAp) du CEA Saclay faisant appel au mécanisme dynamo de Tayler-Spruit, provoqué par la matière qui retombe sur la jeune étoile à neutrons après l’explosion en supernovae. L’équipe de scientifiques avait montré en 2022 par une analyse analytique que ce type de dynamo pouvait expliquer l’intensité du champ magnétique des magnétars. Dans cette nouvelle étude, l’équipe confirme ce résultat grâce à des simulations numériques tridimensionnelles. Cela aura de grandes répercussions sur la compréhension de l’origine des champs magnétiques, non seulement pour les magnétars, mais aussi pour l’évolution stellaire où le même mécanisme dynamo pourrait être à l’œuvre. Cette nouvelle étude a été publié dans le journal Monthly Notices of the Royal Astronomical Society: Letters.
FIGURE 1 – Vue d’artiste du magnétar de l’amas d’étoiles Westerlund 1. Crédit : ESO/L. Calçada
Les scénarios de la formation des magnétars Les étoiles à neutrons sont le résultat de la contraction violente du coeur de fer d’une étoile massive pendant son explosion en supernova gravitationnelle. Elles ont un rayon d'environ 12 km et une masse de 1 à 2 fois celle du Soleil, ce qui implique une densité extrême. Les magnétars sont une classe spéciale d'étoiles à neutrons. Ils émettent principalement dans les rayons X à cause de la dissipation d'un champ magnétique extrêmement intense qui, en combinaison avec une rotation très rapide, peut provoquer des supernovae extrêmement énergétiques, comme les hypernovae et les supernovae super-lumineuses. La question de la formation des magnétars, ainsi que le scénario des explosions extrêmes associé, est encore vivement débattue mais un scénario prometteur est l’amplification du champ magnétique par un effet dynamo dans une proto-étoile à neutrons. Les effets dynamos, qui sont certainement à l’origine de la majorité des champs magnétiques astrophysiques, sont des processus d’instabilité complexe couplant les mouvements d’un fluide et de son champ magnétique pour amplifier et maintenir ce dernier de manière auto-entretenue. Deux types de dynamos ont été étudiés au sein de l’équipe supernovae du Département d’Astrophysique au CEA Saclay, l’une est entretenue par des mouvements convectifs et l’autre par une instabilité magnétohydrodynamique due à la rotation différentielle du fluide. Ces scénarios permettent de retrouver l’intensité du champ magnétique des magnétars et les explosions extrêmes. Néanmoins, ces dynamos nécessitent que le coeur de l’étoile progénitrice soit en rotation rapide, ce qui est encore incertain et probablement trop rare pour expliquer l’ensemble de la population observée. Un troisième scénario proposé par cette même équipe suggère que la rotation rapide de la proto-étoile à neutrons vient de la matière retombant sur la surface de cette dernière environ 10 secondes après le début de l’explosion. Cela déclenche une dynamo entretenue par l’instabilité de Tayler-Spruit, une instabilité du champ magnétique toroïdal lorsqu’il devient trop intense, au dépend des deux autres mécanismes dynamos. « Ce nouveau scénario se complète des deux précédents, car il n'exige pas un cœur en rotation rapide pour engendrer un magnétar. Ainsi, il s'applique davantage aux magnétars formés au sein de supernovae avec des énergies typiques, tandis que les deux autres conviennent mieux aux magnétars nés dans des explosions plus énergétiques, impliquant donc un cœur en rotation rapide. » précise Paul Barrère, chercheur principal de cette étude.
FIGURE 2 – Visualisation tridimensionnelle des lignes de champ magnétique et coupe méridionale de la composante radiale cylindrique du champ magnétique des dynamos de Tayler-Spruit hémisphérique (à gauche) et dipolaire (à droite).
L’apport des simulations numériques tridimensionnelles dans la confirmation de résultats L'existence de la dynamo de Tayler-Spruit a été longtemps débattue. Après une première étude analytique montrant que ce mécanisme peut participer à la formation des magnétars, les chercheurs de l'équipe supernovae du DAp et du Max Planck Institute for Gravitational Physics ont franchi une étape décisive en l'étudiant à travers des simulations numériques tridimensionnelles. Ces simulations ont abouti à la reproduction du dipôle magnétique, avec une intensité de 10^14 G, correspondant à l’ordre de grandeur observé dans les magnétars, confirmant ainsi l’existence de la dynamo de Tayler-Spruit. A ce résultat de premier plan, s’ajoute la découverte qu’il existe deux types de dynamo de Tayler-Spruit qui se distinguent par l’intensité et la géométrie du champ magnétique qu’elles génèrent. Dans la figure 2, on peut voir que le champ magnétique est soit concentré dans un hémisphère (à gauche), soit à symétrie dipolaire par rapport à l’équateur (à droite). Par ailleurs, ces dynamos de Tayler-Spuit sont respectivement en accord avec les prédictions théoriques de Spruit 2002 et Fuller et al. 2019 (voir la figure 3), accentuant la pertinence de ce nouveau scénario. « En plus de faire un grand pas dans la compréhension de la formation des magnétars, cette étude aura un impact plus large dans le domaine de la physique stellaire, notamment sur le problème du transport de moment cinétique à l’origine du ralentissement de la rotation du cœur des étoiles. » enchérie Paul Barrère. L’équipe poursuit actuellement ce travail en étudiant l’impact de différents paramètres physiques sur les dynamos de Tayler-Spruit, dans le but de mieux comprendre la formation des magnétars et d'approfondir notre compréhension de ces dynamos.
Figure 3 – Intensité du dipôle magnétique en fonction de la variation de la vitesse de rotation le long du rayon mesuré localement dans les simulations de dynamos dipolaires (en rouge) et hémisphériques (en vert). Ces simulations sont en accord avec les prédictions théoriques (traits en pointillé) de Fuller et al. 2019 (en rouge) et de Spruit 2002 (en vert).
Contacts : Paul Barrère, Jérôme Guilet, Raphaël Raynaud
Une équipe internationale, dont fait partie le Département d’Astrophysique du CEA-Saclay, dirigée par l'Instituto de Astrofísica e Ciências do Espaço (IA), a utilisé l'un des spectrographes les plus avancés au monde pour détecter les plus petits "tremblements stellaires" jamais enregistrés dans une étoile naine orange, ce qui en fait l'étoile la plus petite et la plus froide observée à ce jour avec des oscillations solaires confirmées. Cette étude démontre que l’astérosismologie est une technique puissante pour étudier de telles étoiles, ouvrant de nouvelles perspectives dans notre compréhension de la physique stellaire et, par la même occasion, des exoplanètes. Cette étude fait l’objet d’une publication dans le journal Astronomy & Astrophysics Letters : “Expanding the frontiers of cool-dwarf asteroseismology with ESPRESSO: Detection of solar-like oscillations in the K5 dwarf ε Indi”.
Impression d’artiste des ondes sismiques se propageant au sein de l’étoile à des couches plus ou moins profondes en fonction de leurs fréquences. L’étude de ces différents modes de vibration au niveau de la surface de l'étoile nous informe quant à la structure et la composition des différentes couches stellaires, tout comme un échogramme nous permet de voir l'intérieur de notre corps. Crédit : Tania Cunha (Planetário do Porto - Centro Ciência Viva)/Instituto de Astrofísica e Ciências do Espaço)
Des mesures incroyablement précises… Située à une distance de 11,9 années-lumière, Epsilon Indi (ε Indi) est une étoile naine orange (également connue sous le nom de naine K) dont le diamètre est de 71 % celui du Soleil. Pour observer cette petite étoile, l’équipe de scientifiques a utilisé le puissant spectrographe ESPRESSO, monté sur le Very Large Telescope (VLT) de l'Observatoire européen austral (ESO). L'équipe a ensuite utilisé une technique appelée astérosismologie permettant de mesurer les tremblements stellaires. Ces oscillations sismiques, mesurables qu’au niveau de la surface de l’étoile par photométrie ou vitesse radiale, sont riches en informations car elles se propagent dans toutes les étoiles. Elles donnent une mesure précise des paramètres fondamentaux stellaires (masse, rayon, âge) ainsi qu’un aperçu indirect de l'intérieur de l’étoile, telle que sa structure et sa composition, à l’instar des séismes terrestres qui nous renseignent sur l'intérieur de la Terre. Dans le cas de ε Indi, l'amplitude maximale des oscillations détectées est de seulement 2,6 centimètres par seconde, soit 14 % de l'amplitude des oscillations solaires, ce qui en fait l'étoile naine la plus petite et la plus froide observée à ce jour avec des oscillations solaires confirmées. Ces mesures sont si précises que la vitesse détectée est plus lente que la vitesse moyenne d'un paresseux ! « Le niveau d'extrême précision de ces observations est une réalisation technologique exceptionnelle. Il est important de noter que cette détection montre de manière concluante que l'astérosismologie précise est possible jusqu'aux naines froides avec des températures de surface aussi basses que 4200 degrés Celsius, soit environ 1000 degrés de moins que la surface du Soleil, ouvrant ainsi effectivement un nouveau domaine en astrophysique observationnelle », commente Tiago Campante, chercheur principal de l’étude et professeur adjoint au Département de physique et d'astronomie de la Faculté des sciences de l'Université de Porto (DFA-FCUP).
Infographie comparant l'étoile naine orange ? Indi au Soleil. La détection de si faibles oscillations ouvre de nombreuses perspectives, à la fois en physique stellaire et dans l'étude des exoplanètes. Crédit: Paulo Pereira (Instituto de Astrofísica e Ciências do Espaço)
… qui ouvrent bien de nouvelles perspectives ! Ce niveau de précision pourrait aider les scientifiques à résoudre un désaccord de longue date entre la théorie et les observations concernant la relation entre la masse et le diamètre de ces étoiles naines froides. « Les modèles d'évolution stellaire ont tendance à sous-estimer le diamètre des naines K de 5 à 15 % par rapport au diamètre obtenu par des méthodes empiriques. L'étude des oscillations dans les naines K, via l'astérosismologie, permettra d'identifier les lacunes des modèles stellaires actuels et, ainsi, de les améliorer afin d'éliminer cette disparité », explique la chercheuse Margarida Cunha, de l'IA. Malgré un scepticisme initial quant à la possibilité de détecter de telles oscillations au-delà des capacités instrumentales actuelles, Mário João Monteiro (IA & DFA-FCUP) explique que : « En plus de détecter la présence d'oscillations solaires dans ε Indi, nous espérons désormais utiliser les oscillations pour étudier la physique complexe des couches superficielles des naines K. Ces étoiles sont plus froides et plus actives que notre Soleil, ce qui en fait des laboratoires importants pour sonder les phénomènes clés se déroulant dans leurs couches superficielles que nous n'avons pas encore étudiés en détail dans d'autres étoiles. » Par ailleurs, étant donné que les étoiles naines oranges et leurs systèmes planétaires ont des durées de vie très longues, elles sont récemment devenues un point focal principal dans la recherche de mondes habitables et de vie extraterrestre. Ce résultat démontre que l'astérosismologie peut être mise à contribution dans la caractérisation détaillée de telles étoiles et de leurs planètes habitables, avec des implications véritablement étendues. De plus, la détermination précise des âges des naines froides proches rendue possible par l'astérosismologie peut être cruciale dans l'interprétation des biosignatures dans les exoplanètes directement imagées.
Diagramme du rayon stellaire en fonction de la température effective, mettant en évidence les détections sismiques des campagnes de photométrie Kepler et TESS (cercles bleus) et de vitesse radiale (diamants rouges). Les lignes pointillées délimitent les classes spectrales des étoiles. ? Indi est l'étoile la plus petite et la plus froide analysée en astérosismologie. Crédit : Campante et al. 2024
Enfin, ces "secousses stellaires" peuvent également être utilisées pour aider à planifier le futur télescope spatial PLATO de l'Agence spatiale européenne (ESA), une mission à laquelle le Département d’Astrophysique est fortement impliqué. Les amplitudes d'oscillation mesurées dans cette étude sont une information clé pour aider à prédire avec précision le rendement sismique de PLATO, prévu pour être lancé en 2026. Contacts : Rafael Garcia
MISE A JOUR [26/03/2024] : La procédure de dégivrage des optiques a été un succès !
MISE A JOUR [26/03/2024] : La procédure de dégivrage des optiques d'Euclid a donné des résultats bien meilleurs que prévu. Le principal suspect de la vision trouble de l’instrument VIS d’Euclid était le miroir le plus froid derrière l'optique principale du télescope. Après l’avoir réchauffé de 34 degrés seulement, passant de -147°C à -113°C, a été suffisant pour que toute l’eau glacée s’évapore. Presque immédiatement, Euclid a retrouvé la vue avec 15 % de lumière en plus en provenance de l'Univers ! Les scientifiques et les ingénieurs ont ainsi pu déterminer avec précision où la glace s'était formée et où elle était susceptible de se former à nouveau. Pour en savoir plus, lire la page ESA. Quelques couches de glace d'eau - ayant la largeur d'un brin d'ADN - commencent à affecter la vision d'Euclid ; un problème courant pour les engins spatiaux dans le froid glacial de l'espace, mais un problème potentiel pour cette mission très sensible qui nécessite une précision remarquable pour étudier la nature de l'Univers sombre. Après des mois de recherche, les équipes d'Euclid à travers l'Europe, dont fait partie le CEA-Saclay, ont élaboré une nouvelle procédure conçue pour dégivrer l'optique de la mission, qui consiste à chauffer les miroir de manière indépendante. La campagne s’est déroulée comme prévue et, s’il faut encore attendre pour établir avec certitude son efficacité, les analyses préliminaires sont encourageantes.
Impression d'artiste de la sonde Euclid de l'ESA. Crédit image : ESA/ATG medialab
Du givre sur les miroirs d’Euclid Au cours des derniers mois, durant les opérations de réglage fin et de calibration des instruments d'Euclid, les scientifiques ont géré différentes anomalies (Lumiere parasite, flashes de rayons X et problèmes de guidage). Un nouveau défi est apparu : les experts ont remarqué une diminution progressive mais significative de la quantité de lumière mesurée à partir des étoiles observées à plusieurs reprises avec l'instrument visible (VIS). Alors que son équivalent infrarouge n’avait rencontré aucune difficulté. « Nous avons comparé la lumière des étoiles entrant par l'instrument VIS avec la luminosité enregistrée des mêmes étoiles à des moments antérieurs, observées à la fois par Euclid et la mission Gaia de l'ESA », explique Mischa Schirmer, scientifique en charge de la calibration pour le consortium Euclid et l'un des principaux concepteurs du nouveau plan de dégivrage. Ce problème est courant pour les engins spatiaux : l'eau présente dans l’atmosphère et absorbée par certains composants lors de l'assemblage sur Terre est libérée progressivement lorsque l'engin spatial est exposé au vide glacial de l'espace. Ces molécules d'eau libérées ont tendance à adhérer à la première surface sur laquelle elles se posent - et lorsqu'elles atterrissent sur l'optique de cette mission très sensible, elles peuvent poser problème. Pour cette raison, il y a eu une "campagne de dégazage" peu de temps après le lancement où le télescope a été chauffé par des radiateurs embarqués et également partiellement exposé au Soleil, sublimant la plupart des molécules d'eau présentes au lancement sur ou très près des surfaces d'Euclid. Une fraction considérable, cependant, a survécu, en étant absorbée dans l'isolation multi-couches, et est maintenant lentement libérée. Il y a probablement juste quelques dizaines de nanomètres d'épaisseur d'eau gelée sur les miroirs de l'optique d'Euclid, équivalent à la largeur d'un brin d'ADN, mais suffisant à diminuer les performances de l’instrument. Cela témoigne de la sensibilité extrême de la mission.
L'instrument VIS, recouvert d'un isolant multicouche (MLI) noir, et NISP, recouvert d'un MLI doré, sur le module de charge utile d'Euclid vu dans la salle blanche. Environ 10 kg de MLI enveloppent les deux instruments, cependant, ce matériau est capable d'absorber jusqu'à 1 % de son propre poids en eau. Crédit : Airbus
Une opération risquée depuis 1,5 million de kilomètres de distance Malgré le caractère courant de ce problème de contamination pour les engins spatiaux opérant dans des conditions froides, il existe étonnamment peu de recherches publiées sur la manière précise dont la glace se forme sur les miroirs optiques et son impact sur les observations. Or, de petites quantités d'eau continueront à être libérées pendant toute la durée de la mission Euclid, mettant en péril les résultats de la mission. Alors, tandis que les observations et la science d'Euclid se poursuivent, les équipes ont élaboré un plan pour comprendre où se trouve la glace dans le système optique et atténuer son impact maintenant et à l'avenir, si elle continue à s'accumuler. L'option la plus simple serait de chauffer l'ensemble de l'engin spatial pendant plusieurs jours. Cela nettoierait les optiques mais pourrait entraîner une déformation de la structure mécanique due à la dilatation de certains matériaux, induisant ainsi un désalignement subtil des optiques nécessitant plusieurs semaines de recalibration fine. « La plupart des autres missions spatiales n'ont pas des exigences aussi strictes en matière de "stabilité thermo-optique" qu'Euclid », explique Andreas Rudolph, directeur de vol d'Euclid au centre de contrôle de mission de l'ESA. « Pour remplir les objectifs scientifiques d'Euclid consistant à réaliser une carte en 3D de l'Univers en observant des milliards de galaxies jusqu'à 10 milliards d'années-lumière, sur plus d'un tiers du ciel, nous devons maintenir la mission incroyablement stable - et cela inclut sa température. Allumer les radiateurs dans le module de charge utile doit donc être fait avec un soin extrême. » Pour limiter les changements thermiques, l’astuce consiste donc à chauffer partie par partie en fonction des résultats obtenus. L'équipe commencera par chauffer individuellement les parties optiques à faible risque, situées dans des zones où l'eau libérée a peu de chances de contaminer d'autres instruments ou optiques. Ils commenceront avec deux des miroirs d'Euclid qui peuvent être chauffés indépendamment. « L’un d’entre eux est un bon candidat pour être contaminé : il n’est que dans le chemin optique de VIS et pas de NISP » explique Hervé Aussel du CEA-Saclay, le responsable scientifique du segment sol en charge de l’analyse des données d'Euclid. « Il n’est cependant pas certain que cela soit le seul coupable: en effet, la lumière rouge, et infrarouge est bien moins sensible à la diffusion par glace que la lumière bleue. C’est peut-être cela qui explique que NISP ne voit rien. Or on a de bonnes indications qu’il s’agit de diffusion au vu de certaines de nos mesures. » Si la perte de lumière persiste, ils continueront à chauffer d'autres groupes de miroirs d'Euclid, vérifiant à chaque fois le pourcentage de photons qu'ils récupèrent. La campagne s’est déroulée comme prévue et, s’il faut encore attendre pour établir avec certitude son efficacité, les analyses préliminaires sont encourageantes.
Pour aller plus loin : Operations begin to de-ice Euclid’s vision Article de Schirmer et al. 2023 - A&A Euclid's sight restored Contacts : AUSSEL Herve FRUGIER Pierre-antoine Sauvage Marc
Après avoir été lauréate du prix Tate 2020 pour le leadership international en physique, l'astrophysicienne Dr Catherine Cesarsky se voit décerné un autre prix prestigieux : le Prix Fritz Zwicky 2024 d'Astrophysique & Cosmologie pour ses contributions exceptionnelles à la compréhension de l'évolution des galaxies grâce à des observations spatiales dans l'infrarouge, ainsi que pour son leadership dans le développement de l'infrastructure d'observation de l'astronomie contemporaine. Ce prix honore les scientifiques ayant obtenu des résultats fondamentaux et exceptionnels dans le domaine de l'astrophysique et/ou de la cosmologie. Le Prix Fritz Zwicky est décerné tous les deux ans, pour la première fois en 2020, par la Société Astronomique Européenne au nom de la Fondation Fritz Zwicky, située à Glaris, en Suisse. "Je suis très touchée de me voir attribuer ce prix, en témoignage de l’appréciation de mes collègues les astronomes européens. Fritz Zwicky était un astrophysicien remarquable. Entre autres travaux de premier plan, il est le vrai découvreur, en 1933, de la matière noire qui empêche les galaxies des amas de galaxies de se disperser. Je l’ai connu lorsque j’étais post doc à Caltech, dans les dernières années de sa vie. Il venait toujours aux séminaires, et à la fin il levait le doigt et disait : oui, d’accord, j’avais prédit ou découvert ça en…, et c’était toujours vrai" déclare Dr. Césarsky avec joie et reconnaissance.
Prix Fritz Zwicky d'astrophysique et de cosmologie Dr Catherine Cesarsky a obtenu un diplôme en physique de l'Université de Buenos Aires et un doctorat en astronomie en 1971 de l'Université Harvard. Elle a ensuite rejoint le California Institute of Technology avant de rejoindre le Commissariat à l'Énergie Atomique (CEA) en 1974, où elle est devenue Chef de l'Astrophysique (1985-1993), puis Directrice de la recherche fondamentale du CEA en physique et chimie (1994-1999). Dr Cesarsky a été le PI de l'Isocam, la caméra infrarouge à bord du satellite européen ISO (Observatoire Spatial Infrarouge). Elle est ensuite devenue Directrice Générale de l'Observatoire Européen Austral (1999 à 2007), puis Présidente de l'Union Astronomique Internationale (2006-2009). Dr Cesarsky a reçu plusieurs prix et récompenses pour ses réalisations et est membre de plusieurs académies scientifiques nationales et internationales renommées. De 2009 à 2012, elle a été Haut-Commissaire à l'Énergie Atomique en France, conseillère du gouvernement français pour les questions scientifiques et énergétiques. Elle est maintenant Présidente du Conseil de l'Observatoire SKA. Dr Cesarsky a travaillé dans plusieurs domaines centraux de l'astrophysique moderne, initialement en astrophysique des hautes énergies, puis en se concentrant sur l'astronomie infrarouge dans plusieurs domaines, de l'environnement interstellaire à l'évolution des galaxies. Dr Catherine Cesarsky a commencé sa carrière dans le domaine des hautes énergies. Elle a d'abord acquis une reconnaissance internationale grâce à ses travaux théoriques sur la propagation et l'accélération des rayons cosmiques. Ses intérêts se sont ensuite tournés vers l'astronomie infrarouge où elle a mené des recherches pionnières dans plusieurs domaines de l'astrophysique en exploitant les avancées en astronomie infrarouge. Alors au CEA, elle a dirigé le développement et la construction de la caméra infrarouge ISOCAM à bord du satellite ISO de l'ESA. Cela a conduit à de nombreuses études pionnières, en particulier sur l'évolution des galaxies. Dr Cesarsky a organisé le programme ISOCAM Central, qui a fourni de nouvelles perspectives sur l'émission infrarouge provenant du milieu interstellaire diffus et des galaxies normales, la formation d'étoiles dans les nuages moléculaires, la formation de poussières dans les supernovae et la formation d'étoiles dans les galaxies en collision. Elle a dirigé la collaboration ITGES qui a mené des survols profonds très sensibles avec ISOCAM, ce qui a permis de découvrir les galaxies individuelles responsables de la majeure partie du Fond Infrarouge Cosmique.
En tant que Directrice Générale de l'Observatoire Européen Austral, Dr Cesarsky a été la force motrice derrière la réalisation du plein potentiel du Very Large Telescope (VLT) de l'ESO et de son interféromètre associé (VLTI). Elle a également joué un rôle clé dans la facilitation des accords européano-nord-américains sur le Réseau d'Antennes Millimétrique/Submillimétrique de l'Atacama (ALMA), ultérieurement étendus au Japon, et a supervisé les premières années de construction de l'ALMA. Sous sa direction, l'Observatoire de La Silla est devenu un observatoire hautement productif et compétitif travaillant en parallèle avec le VLT. De plus, le leadership de Dr Cesarsky a été crucial pour orienter la communauté astronomique vers le développement d'un télescope extrêmement grand. Au cours de ses dernières années en tant que Directrice Générale de l'ESO, elle a supervisé le développement et la sélection du design révolutionnaire à cinq miroirs pour le Télescope Extrêmement Grand de l'ESO, ce qui a ouvert la voie à d'autres études de conception de ce télescope. Lorsque Dr Cesarsky était Présidente de l'Union Astronomique Internationale, elle a joué un rôle de premier plan dans la coordination de l'effort mondial en vue de l'Année Internationale de l'Astronomie en 2009, proclamée par les Nations Unies et soutenue par l'UNESCO. L'AIA2009 a marqué le 400e anniversaire de la première observation astronomique à travers un télescope par Galileo Galilei. L'AIA2009 a célébré l'astronomie et ses contributions à la société et à la culture, avec des événements à tous les niveaux, du national au mondial. Dr Cesarsky a également occupé plusieurs postes de haut niveau en France et à l'international. Elle a présidé le comité de haut niveau sur les infrastructures scientifiques à grande échelle pour le ministère français de la recherche et de l'enseignement supérieur de 2013 à 2018, et de 2014 à 2016, elle a été Présidente du Comité Consultatif des Sciences de l'Espace de l'ESA. De novembre 2017 à février 2021, Dr Cesarsky a présidé le Conseil d'Administration de l'Organisation SKA, et depuis lors, elle préside le Conseil du Square Kilometer Array Observatory. Ces nombreuses réalisations font du Dr Catherine Cesarsky une lauréate exceptionnelle du prix Fritz Zwicky 2024 pour l'astrophysique et la cosmologie.
Plus d'information : site EAS Contact : Catherine Césarsky
L’univers énergétique d’XMM-Newton s’associe à la vision du ciel du satellite Euclid. Mille heures d’observations en rayons X, sur une région grande comme 40 fois la lune, viendront compléter les études multi-longueur d’onde sur l’évolution cosmique des amas de galaxies. Une association déterminante pour contraindre les scénarios cosmologiques et révéler la nature de l’énergie sombre.
Illustration d'artiste du télescope spatial XMM-Newton de l'ESA, fleuron de l'astronomie européenne dans le domaine des rayons X. Crédit : ESA
Les grands relevés astronomiques depuis le ciel En deux décennies, les grands relevés multi-longueur d’onde du ciel sont devenus un des éléments constitutifs des grands observatoires actuels, que ce soit depuis le sol ou l’espace. Lancé en 1999 par l’ESA, XMM-Newton a été conçu avant tout pour l’étude détaillée du rayonnement X des astres. Grâce à son champ de vue (30’, équivalent à la taille apparente de la lune), sa bonne qualité d’image et sa grande surface collectrice, il s’est imposé comme l’instrument idéal pour cartographier le ciel entre 1 et 100 Å. A ces énergies de l’ordre du keV, on rencontre principalement deux types d’objets à haute latitude galactique : les noyaux actifs de galaxies (ponctuels) et les amas de galaxies (sources étendues), qui tracent notamment l’histoire de la structuration de l’univers. Le satellite Euclid de l’ESA, lancé avec succès le 1er juillet 2023, va réaliser une cartographie profonde du ciel extragalactique dans les domaines visibles et infra-rouges. Le relevé ‘Wide’ recensera quelques centaines de milliers d’amas répartis sur les 10 derniers milliards d’années de l’histoire de l’Univers. Des observations ‘Deep’, 50 fois plus profondes, se concentreront sur trois régions spécifiques du ciel afin de tirer profit de l’exceptionnelle qualité d’image d’Euclid jusqu’à des époques encore plus reculées. L’une d’elle, nommé EDFF (Euclid Deep Fields Fornax) s’étend sur 10 deg2 dans la constellation Fornax (la Fournaise).
Carte du ciel en coordonnées galactiques. Les régions bleues délimitent le survey Wide Euclid. Les trois taches jaunes sont les surveys Deep. XMM-Newton observera pendant 1000 heures, la région de 10 deg2 encadrée en rouge (dans la constellation de Fornax). Crédit(s) : Euclid – Projet XEDFF
Une vision multi-longueur d’onde de l’univers à la recherche de l’énergie sombre Les plus grands observatoires (ESO, Keck, Subaru, Spitzer, MeerKAT, etc) ont déjà planifié une partie de leurs moyens pour couvrir EDFF en imagerie (optique, infra-rouge, radio) et en spectroscopie afin de compléter la mission Euclid à la recherche de la matière noire. En décembre 2023, suite à l’appel triennal XMM "Heritage", 1000 heures ont été allouées pour réaliser la contrepartie en rayons X du champ EDFF. Ceci constitue en outre le plus gros programme d’XMM réalisé depuis son lancement. Cette vision de l’univers énergétique, combinée aux données Euclid et multi-longueur d’onde, apportera une vision indépendante et complémentaire des phénomènes physiques responsables de l’évolution des amas de galaxies et de l’activité des noyaux actifs de galaxies. Les observations XMM se dérouleront sur 3 ans de mai 2024 à avril 2027 Les amas de galaxies vus par Euclid et XMM portent deux signatures différentes : en optique, c’est celle des populations stellaires des galaxies d’amas, alors qu’en X c’est celle de l’émission du plasma ionisé, porté à plusieurs dizaines de millions de degrés, remplissant l’espace entre les galaxies d’amas. L’analyse statistique conjointe des deux relevés permettra de modéliser sans ambiguïté la population d’amas du Deep EDFF non détectée dans le relevé Wide et de reconstituer les comptages d’amas en fonction de leur masse et du temps. Ces comptages seront déterminants pour contraindre les scénarios cosmologiques et révéler la nature de l’énergie sombre.
Une vingtaine de chercheurs européens et japonais a participé à l’élaboration du projet Heritage XMM Fornax, dont cinq appartiennent à des instituts français : Le CEA (IRFU), l’Observatoire de la Côte d’Azur et l’Institut d’Astrophysique de Paris. L’ensemble des observations XMM Fornax et multi-longueur d'onde associées constituera une "mine de photons" d’une richesse sans égale, pour les quelque 2500 membres de la grande communauté Euclid. Contact: Maguerite Pierre