L'Irfu, Institut de Recherche sur les lois Fondamentales de l'Univers

PhoneBook

To find a person inside IRFU, please enter his name.

Events

CEA Paris-Saclay - Bat 141, salle André Berthelot (143) CEA Paris-Saclay

Superconducting magnets have been an enabling technology for particle accelerators for more than 40 years. An introduction on the specific challenges of high field accelerator dipoles with respect to other devices, such as solenoids or detector magnets, will be provided followed by a brief historical overview of the development of Nb-Ti magnets for particle colliders, up to the 8 T dipole fields achieved in the LHC at 1.9 K.

Nb3Sn was considered as an option for LHC; we will recall the development of Nb3Sn dipole short models in the 10-14 T range in the past 35 years.

The focus will then shift to the present status of Nb3Sn technology used in the quadrupoles to be installed at CERN in the High Luminosity LHC at the end of this decade, with 11.5 T operational peak field and lengths up to 7.5 m. To continue, the developments of Nb3Sn dipoles for future colliders aiming at an operational field of the order of 14 T will be discussed. High Temperature Superconductors are used as current leads in the LHC and are planned for the HL-LHC: we will give an outlook on the opportunities and challenges of making dipole magnets using HTS, to achieve fields of the order of 20 T.

CEA Saclay, Orme des Merisiers - Bat 703, p 135 salle visio-conférence CEA Saclay, Orme des Merisiers

13h45-14h Introduction - Anna Corsi

14h-15h L'instrument  - 3* (20' + 5' questions)  
         + Jean-Marc Gheller Cryogénie de la cible active 
         + Alain Delbart TPC et Micromegas
         + Denis Calvet Electronique de la TPC : Feminos
         
15h-15h30 Pause café

15h30-16h30 La physique des noyaux 
            + Valérie Lapoux - L'étude du noyau exotique d'Oxygène-28  (15'+ 5' questions)
            + Anna Corsi - Les campagnes SEASTAR- structure en couches de noyaux exotiques (35' + 5'questions) 
 

CEA Saclay, Orme des Merisiers - Bat 703, p 45 CEA Saclay, Orme des Merisiers

Production of 11C for PET imaging using a high repetition

rate laser-driven proton source.

In recent years, there has been a growing interest in laser-driven ion accelerators as a potential

alternative to conventional accelerators. A particularly promising application is the production of

radionuclides relevant for medical diagnosis, such as 11C for PET imaging. Typically, the

production of these nuclides is centralised in cyclotrons, which reduces the number of facilities

required, but limits the range of usable radionuclides to those with

longer lifetimes.

In this context, compact laser-driven accelerators appear to be an attractive option for the in situ

production of short-lived isotopes. Although the activities required for PET imaging (>MBq) are well

above those achievable by a single laser irradiation (~kBq), the advent of high power, high

repetition rate laser systems open the way to demonstrate relevant activities by continuous

irradiation, provided a suitable target system is developed. In this context, we have developed and

commissioned a target assembly based on a rotating wheel and automatic alignment procedure for

laser-driven proton acceleration at multi-Hertz rates. The assembly, which can host more than 5000

targets and ensuring continuous target replenishment with micron-level precision, has been

demonstrated to provide stable and continuous MeV proton acceleration at rates of up to 10 Hz

using the 45 TW laser system at L2A2 (Univ. of Santiago de Compostela).

The continuous production of 11C via the proton-boron reaction 11B(p,n)11C reaction has been

recently demonstrated using our target assembly on the 1 Hz, 1 PW VEGA-3 system (CLPU,

Spain). In an initial campaign, an activity of ~12 kBq/shot was measured, with a peak activity of

234 kBq achieved through accumulation of 20 consecutive shots. Furthermore, results of a more

recent campaign will be presented, where activation levels in excess of 4 MBq where achieved, as

measured through using coincidence detectors, and supported by online measurements of highflux

neutron generation. We demonstrate that the degradation of the laser-driven ion beam due to

heating of optics is currently the only bottleneck preventing the production of preclinical (~10 MBq)

PET activities with current laser systems. The scalability to next-generation laser systems and new

technologies for the continuous replenishment of the target will allow in the near future the

production of clinical (~200 MBq) activities.

CEA Paris-Saclay - Bat 141, salle André Berthelot (143) CEA Paris-Saclay

I will present the new opportunities offered by the general-purpose intensity-frontier experimental facility BDF/SHiP that was approved by CERN in 2024 for the future physics programme of the new SPS High-Intensity facility in the ECN3 experimental area. The SHiP experiment is designed to operate in beam-dump mode to generically search for Feebly Interacting Particles at the GeV-scale, and perform measurements in neutrino physics. BDF/SHiP complements the worldwide program of New Physics searches by exploring a large region of parameter space that cannot be addressed by other experiments, and which reaches several orders of magnitude below existing bounds by efficiently exploiting the currently available 4x10^19 protons per year at 400 GeV for up to 15 years. The SHiP experiment has sensitivity to both decay and scattering signatures of models with feebly interacting particles, such as dark-sector mediators and light dark matter. In neutrino physics, BDF/SHiP can perform unprecedented measurements with tau neutrinos. In this seminar I will introduce the physics motivation and programme and give an overview of the experimental and technological challenges.

zoom link: https://cern.zoom.us/j/68399739111?pwd=SGErcHBQYmVLWFZTVE9jdm5xSmdEdz09

CEA Saclay, Orme des Merisiers - Bat 703, p 135 salle visio-conférence CEA Saclay, Orme des Merisiers

On behalf of the "Espace de Structure et de réactions Nucléaires Théorique" (ESNT), the workshop entitled: "Light nuclei between single-particle and clustering features" will be held on 3-6 December at CEA-Saclay, Orme-des-Merisiers site.
The goals of the workshops are:
- to define the current state of the field;
- to bridge the spectroscopic results of phenomenological and macroscopic approaches with ones achievable by ab-initio methods;
- to weigh the role of alpha-clustering and assessing perks and limits of macroscopic approaches;
- to provide a comprehensive understanding of the subject for all participants;
- to initiate possible new collaborations.
For details about the updated program, see the ESNT Web pages: https://esnt.cea.fr >> Ateliers 2024
For further information and registration, please contact the organizers of the project (see the Web page of the workshop).

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

In my talk, I shall review the main research projects I'm involved in, which all revolve around the added value of cross-correlations between various cosmological observables, as well as among cosmological and astrophysical observables, to shed new light onto pressing open questions in cosmology. In particular, I shall touch upon the possibility of detecting relativistic effects on cosmological scales - which will allow us to deepen our understanding of dark energy and modified gravity -, novel approaches to probe primordial non-Gaussianity, and the use of cosmological data to filter out astrophysical processes in studies of indirect detection of particle dark matter signatures. All this in the view of the new generation of cosmological experiments across the electromagnetic spectrum, like the SKA Observatory in the radio band, or the Euclid satellite at optical/near-infrared wavelengths.

Local concat: Martin KILBINGER

Organization: Fabian HERVAS-PETERS

CEA Saclay, Orme des Merisiers - Bat 703, p 135 salle visio-conférence CEA Saclay, Orme des Merisiers

On behalf of the "Espace de Structure et de réactions Nucléaires Théorique" (ESNT), the workshop entitled: "Dynamics of Nuclear Fission" will be held on 16-20 December at CEA-Saclay, Orme-des-Merisiers site.


The goals of the workshops are:


- Review the advances of nuclear fission theory in the last five years.
- Examine the current stages of development of phenomenological and microscopic models and establish new connections between the two approaches.
- Compare the computational strategies adopted by various research teams and identify challenges for the new generation of fission computer codes (dependable calculation of deformation energy surfaces, collective inertia, functional optimization, time evolution, symmetry restoration).
- Discuss with experimental teams the desired levels of accuracy for the description of specific fission observables including uncertainty quantification.
- Identify new applications of nuclear fission theory, particularly in the field of nuclear astrophysics.
- Issue a set of specific recommendations for developing a unified framework for the description of spontaneous and induced fission, that will start from nuclear structure and extend to the modeling of fission observables that are relevant for applications.  

For details about the updated program, see the ESNT Web pages: https://esnt.cea.fr >> Ateliers 2024
For further information and registration, please contact the organizers of the project (see the Web page of the workshop).

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

Lancé le 10 décembre 1999, le satellite XMM-Newton d'observation en rayons X fêtera ses 25 ans d'opération et d'exploitation scientifique, et une moisson de résultats scientifiques dans de nombreux domaines. Nous vous invitons mardi 17 septembre 2024 à un séminaire d'anniversaire de la mission XMM-Newton, pierre angulaire du programme Horizon 2000 de l'Agence Spatiale Européenne. Nous retracerons à plusieurs voix l'implication du DAp-AIM dans la réalisation et l'exploitation des données de XMM-Newton, et vous présenterons une sélection de résultats scientifiques marquants.

Local contact: Anne DECOURCHELLE

Organization: Pierre-Antoine FRUGIER

CEA Paris-Saclay - Bat 141, salle André Berthelot (143) CEA Paris-Saclay

Remote visualization of X-rays and gamma rays is essential for nuclear safety and high-energy astrophysics, enabling the safe decommissioning of nuclear facilities and the detection of transient cosmological events. Indirect imaging techniques primarily rely on Compton imaging for a wide field of view and coded aperture-mask imaging for high angular resolution. My thesis advances coded aperture imaging by introducing new coded masks with 3D geometry, which expand the field of view beyond 90° while maintaining fine angular resolution within a few degrees for photon energies below 59.5 keV. We developed two prototypes: a hemispherical Tantalum mask with an Archimedean spiral pattern, achieving a 153° field of view and 2° angular resolution, and a Tungsten mask with an improved coded pattern and enhanced operational characteristics, expanding the field of view to 160°. We capture ionizing radiation using advanced Cadmium Telluride sensors: Timepix3, featuring ultra-high pixel resolution, and Caliste-HD, which provides cutting-edge spectroscopic capabilities. We also developed the "3D Projector Code" toolkit, allowing real-time system response simulation under the zero-energy approximation, facilitating rapid prototyping of 3D masks. Simulation evaluations, validated by experimental results, confirm the wide-field imaging capabilities of the new imaging systems. Future work will focus on enhancing mask designs and optimizing image reconstruction.

 

CEA Paris-Saclay - Bat 141, salle André Berthelot (143) CEA Paris-Saclay

The seminar will provide a glimpse of some elements of the rapidly evolving field of quantum sensing, specifically focusing on particle physics. Specific approaches involving quantum systems, such as low-dimensional systems or manipulations of ensembles of quantum systems, hold great promise for improving high-energy particle physics detectors, particularly in areas like calorimetry, tracking, and timing. The use of quantum sensors for high-precision measurements, as well as the development of new quantum sensors based on superconducting circuits, ion and particle traps, crystals, and nanomaterials, are equally relevant for low energy particle physics and for fundamental physics.

However, significant advances and improvements in existing or future quantum technologies will be necessary to address such topics related to the dark universe, the detection of relic neutrinos, precision tests of symmetries and of the standard model and probing general foundational issues in physics. The seminar will thus also feature discussions of the Quantum Sensing Initiatives at CERN and the ECFA R&D Roadmap on Quantum Sensing and Advanced Technologies and will discuss options for future collaborations in the context of the just approved DRD5 implementation of the rodmap.

 

indico: https://indico.in2p3.fr/event/33798/

zoom connection: https://cern.zoom.us/j/68399739111?pwd=SGErcHBQYmVLWFZTVE9jdm5xSmdEdz09

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

 

Local contact: Thierry FOGLIZZO

Organization: Frédéric GALLIANO

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

 

Local contact: Thierry FOGLIZZO

Organization: Frédéric GALLIANO

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

 

Local contact: Ugo LEBREUILLY

Organization: Frédéric GALLIANO

CEA Saclay, Orme des Merisiers - Bat 703, p 135 salle visio-conférence CEA Saclay, Orme des Merisiers

CMOS  monolithic active pixel sensors or CMOS-MAPS were proposed more than twenty years ago to match the combination of requirements set by a vertex detector at the future ee linear collider. While we are only getting close to this original challenge, an intense R&D brought CMOS-MAPS into performance range unforeseen initially: hit rates exceeding 100 MHz/cm2, time resolutions below the nanosecond or tolerance to fluence beyond 10^15 n_eq/cm2. Consequently, new applications arose, from hadronic colliders to detector in space.

This seminar will start with a reminder on the existing main monolithic pixel sensor series and their characteristics in terms of technology, collection diode, read-out architecture. We will the focus on the future trackers (and vertex detectors) from collider experiments, which have chosen CMOS-MAPS as their baseline and details their specifications: Belle II, LHCb, ALICE 3, EIC, FCCee.
These projects serve as targets for various R&D with different goals and timelines. It is often not representative of the R&D challenge to quote only a single highlight specification like 3 micrometers, 10 picoseconds, GHz/cm2 particle rate, tolerance to fluence up to 1e16 neutron equivalent/cm2 or power dissipation around 10-20 mW/cm2.

In presenting some of the main R&D projects that are proposed within the newly formed DRD3 and DRD7 ECFA/CERN collaborations, we will show that challenges stems also from the interplays between the specifications due to the monolithic nature of the sensor, but also depending on the technology. In particular we will have a closer look at the developement of intrinsic amplification in the silicon and new read-out architectures.

A perspective of developments in France and their global interconnections world-wide will conclude the presentation.

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

 

Local contact: Thierry FOGLIZZO

Organization: Frédéric GALLIANO

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

 

Local contact: Thierry FOGLIZZO

Organization: Frédéric GALLIANO

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

 

Local contact: Thierry FOGLIZZO

Organization: Frédéric GALLIANO

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

 

Local contact: Thierry FOGLIZZO

Organization: Frédéric GALLIANO

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

 

Local contact: Thierry FOGLIZZO

Organization: Frédéric GALLIANO

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

 

Local contact: Thierry FOGLIZZO

Organization: Frédéric GALLIANO

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

 

Local contact: Emanuele DADDI

Organization: Frédéric GALLIANO

News

Réécoutez l'émission CQFD de France Culture, animée le 19 novembre par Antoine Beauchamp Début 2024, des astronomes ont détecté, par un heureux hasard, une galaxie étrange dans laquelle on ne trouve quasi aucune étoile : une galaxie noire. Quelles en sont les caractéristiques ? Comment étudie-t-on ces galaxies très peu lumineuses ? Que nous apprennent-elles sur l’histoire de l’Univers ? Avec Jean-Charles Cuillandre, Astronome au département d’astrophysique de l’Irfu au CEA Paris-Saclay. Prix Euclid Consortium STAR 2024, catégorie Scientifique Senior. Wim van Driel, Astronome émérite à l’Observatoire de Paris-Meudon. Ancien responsable de l’équipe Physique des galaxies et cosmologie. David Elbaz, Astrophysicien au Commissaire de l’Énergie Atomique (CEA). www.radiofrance.fr/franceculture/podcasts/la-science-cqfd/galaxies-noires-les-voir-pour-les-croire-7420853    
Cette journée annuelle de P2I sera l’occasion de partager quelques nouvelles scientifiques et de faire le point sur nos activités et sur nos projets au sein de la Graduate School de Physique. Date : 27 novembre 2024 Lieu : Auditorium Joliot Curie, IJCLab, Bât 100, Orsay Inscriptions et programme préliminaire : https://indico.ijclab.in2p3.fr/event/11169/
  70 ans d'exploration de l'infiniment petit  Week end du 28/29 septembre à la cité des sciences avec?les partenaires du CEA Irfu, CNRS/IN2P3, SFP, et du CERN  Retrouvez les 6 scientifiques du CEA… et les 18 autres mini-conférences (20min), animées par Alice Thomas, vulgarisatrice scientifique et créatrice de contenu, et Maxime Labat, médiateur scientifique et journaliste,  sur ce lien indico (présentations et vidéo) Merci aux conférenciers pour leurs interventions passionnantes, humaines et accessibles au plus grand nombre. Sur les stands, nous avons accueilli environ 900 personnes par jour, soit un total de 1800 visiteurs et visiteuses. Merci à ceux qui ont tenu les stands avec le sourire tout au long de ses deux journées intenses face aux petits et grands.  
70 ans d'exploration de l'infiniment petit Le CERN fête ses 70 ans à la Cité des sciences et de l’industrie Samedi 28 et dimanche 29 septembre! Tout au long du week-end, aux côtés des scientifiques des laboratoires du CEA et du CNRS, de la SFP et du musée Sciences ACO, le public pourra assister gratuitement à des mini-conférences et participer à des jeux et de nombreuses animations. Un week-end entier pour mieux comprendre la physique des particules et partager le travail de chercheuses et chercheurs passionnés et passionnants ! Retrouvez les scientifiques aux conférences (des accélérateurs aux bosons en passant par les détecteurs...) et sur les 2 espaces de 100m2 fourmillant d'animations! Pour ceux qui ne pourraient pas venir sur place, les conférences seront sur le youtube de la cité des sciences et aussi diffusées en direct. Voici les liens des sessions et les horaires où vous pourrez écouter les 6 scientifiques de l'Irfu parmi les 18 mini conférences (20min). Les conférences seront animées par Alice Thomas, vulgarisatrice scientifique et créatrice de contenu, et Maxime Labat, médiateur scientifique et journaliste. session - 28 SEPT (matin) 10h:  "Plus vite, plus haut, plus fort : comment les accélérateurs repoussent les limites de la physique" avec Pierre Védrine Département des accélérateurs, de cryogénie et de magnétisme – Irfu/CEA session - 28 SEPT (après-midi) 14h : " Invisibles mais détectables : sur les traces des particules" avec Laurent Chevalier, Département de physique des particules – Irfu/CEA 14h30 : " Les yeux de la physique" avec Fabien Jeanneau, Département d'Électronique des Détecteurs et d'Informatique pour la Physique – Irfu/CEA 17h : " Défis mécaniques pour la détection de l’invisible : l’aimant géant d’ATLAS" avec Zhihong Sun, Département d'Ingénierie des Systèmes – Irfu/CEA session - 29 SEPT (matin) 11h30 " Fabriquer de l’antimatière" avec Pauline Comini, Département de physique des particules Irfu/CEA  session - 29 SEPT (après-midi) 15h : " La chasse aux bosons"  avec Nathalie Besson, Département physique des particules – IRFU/CEA
.div { background-color: rgb(238, 238, 238); text-align: justify; max-width: fit-content; margin-left: auto; margin-right: auto;} candidat boson W se désintégrant en muon et neutrino (crédit CMS collaboration)   Le boson W a été découvert au CERN en 1983. Sa masse est une des prédictions clefs du Modèle Standard de la physique des particules, notre meilleure théorie actuelle gouvernant le monde des particules. Dans ce cadre, les masses du quark top, du boson de Higgs et du boson W sont très précisément reliées. Si le lien qui les unit devait être mis en défaut, c’est tout l’édifice du Modèle Standard qui chancellerait. La collaboration CDF avait par ailleurs fait trembler le monde de la physique des particules en 2022 en publiant une mesure de la masse du boson W hautement incompatible avec le Modèle Standard. Aujourd’hui, avec la mesure la plus précise de ce type jamais obtenue, la collaboration CMS au CERN rapporte que la masse du boson W est de 80360,2 ± 9,9 MeV. Cette valeur place la masse du boson W en excellent accord avec les prédictions. Ce résultat très attendu de la collaboration CMS a été obtenu avec une précision aussi bonne que celle du résultat de CDF tout en soutenant très fortement la valeur prédite par le Modèle Standard, rétablissant les fondements du Modèle Standard. Ce succès est très prometteur pour le programme de physique de précision à long terme de CMS.   Conférence à suivre en direct (11h le 17/09/2024) mais aussi en différé: https://indico.cern.ch/event/1441575/    Résultats expérimentaux concernant la masse du boson W. La bande grise représente les valeurs en accord avec le Modèle Standard. Le résultat de CMS est mis en évidence en rouge et correspond à la masse prédite avec une très grande précision.  Vidéo pédagogique du Cern expliquant pourquoi on continue à mesurer la masse du W:
© Radio France Euclid : matière noire à élucider (radiofrance.fr)  Le 1er juillet 2023 le télescope Euclid s’envolait vers son lieu d’observation. Son objectif ? Cartographier la répartition de la matière pour en apprendre plus sur la matière et l’énergie noire. Mais avant de faire cela, il nous livre ses premiers clichés, pris en seulement 24h d'observation ! Avec Marc Sauvage, Astrophysicien au CEA Sandrine Codis, Chercheuse CNRS en astrophysique et cosmologie au laboratoire “Astrophysique, Instrument, Modélisation" (AIM) de l’université Paris-Saclay   ----- Retrouvez les actualités sur le site officiel de Euclid Si vous voulez comprendre comment Euclid va cartographier l'univers, regardez cette video: CREDIT : ESA - European Space Agency  
Le 1er juillet 2023 le télescope Euclid s’envolait vers son lieu d’observation. Son objectif ? Cartographier la répartition de la matière pour en apprendre plus sur la matière et l’énergie noire. Mais avant de faire cela, il nous livre ses premiers clichés, pris en seulement 24h d'observation ! Avec Marc Sauvage Astrophysicien au CEA Sandrine Codis Chercheuse CNRS en astrophysique et cosmologie au laboratoire “Astrophysique, Instrument, Modélisation" (AIM) de l’université Paris-Saclay https://www.radiofrance.fr/franceculture/podcasts/la-science-cqfd/euclid-2410852
Le 22 juin, le satellite SVOM a été envoyé dans l'espace avec succès à bord d'une fusée chinoise. L’observatoire SVOM (Space-based Variable Objects Monitor) va scruter les « sursauts gamma » produits par l’explosion de certaines étoiles très massives ou la fusion d’étoiles à neutrons ou de trous noirs. Il est possible de détecter une dizaine de sursauts gamma par jour, mais il faut pour ce faire développer une batterie de technologies de pointe, tant ils sont imprévisibles et aléatoires.  Pour tout savoir sur cette mission réécoutez le Twitch du CNES qui a eu liemardi 04 juin 2024. Cette emission a été animée par la journaliste scientifique Alice Thomas avec 3 experts de la mission: Bertrand Cordier (responsable scientifique de la contribution française à SVOM, CEA/IRFU) François Gonzalez (chef de projet de la contribution française à SVOM, CNES) Carine Amoros (CNRS/IRAP)
   À la suite du prix Camille Flammarion 2024, la Société Française d’Astronomie et d’Astrophysique (SF2A) et la Société Astronomique de France (SAF) ont souhaité récompenser et mettre en lumière le travail de Raphaël Peralta par le prix Camille Flammarion de la médiation scientifique à l’international   Raphaël Peralta est le responsable de la commnunication du Département d'Astrophysique (DAp) de l'IRFU du CEA Paris-Saclay, et le président-fondateur de l'association SpaceBus France, dont l'objectif est de sensibiliser le public à la science, notamment l’astronomie et l’espace, en la rendant accessible à tous par le biais de tournées itinérantes dans le monde francophone.   Ce prix souligne l’impact de l’action de Raphaël pour le développement de la sensibilisation scientifique dans deux pays africains, le Togo (2022) et la Côte d’Ivoire (2023), où il a organisé ces tournées en collaboration avec l’Association Ivoirienne d’Astronomie (AIA) et l’association togolaise SG2D (Science Géologique pour le Développement Durable).
Comment prendre contact avec d’autres formes de vie intelligente ? Telle est la tâche des programmes SETI/METI, qui scrutent les ondes radio de l’espace. Si la SF regorge, elle, de rencontres entre extraterrestre et humains, comment concrètement s’y prendre pour communiquer si l’on prenait contact ? Avec Frédéric Landragin Chercheur en linguistique au CNRS Roland Lehoucq Astrophysicien au CEA, enseignant à Sciences Po et à l'université Paris-Cité. https://www.radiofrance.fr/franceculture/podcasts/la-science-cqfd/communication-interstellaire-un-travail-de-longue-alien-1278633
Le satellite GAIA vient de mettre en évidence GAIA BH3, un trou noir stellaire dormant d’une taille exceptionnelle et relativement proche dans notre galaxie. Comment se forment les trous noirs stellaires ? Qu’est-ce que cette découverte a d’exceptionnel ? Avec David Elbaz Astrophysicien au CEA-Irfu Pasquale Panuzzo Ingénieur de recherche CNRS au laboratoire GEPI de l’Observatoire de Paris https://www.radiofrance.fr/franceculture/podcasts/la-science-cqfd/trous-noirs-stellaires-7446035
Qu'est-ce que L’énergie noire ? La bonne vieille "constante cosmologique" qu’Albert Einstein inséra en 1917 dans ses propres équations de la relativité générale ? Une "matière exotique" ? Le résultat de l’action d’une énigmatique "quintessence" ? Un effet du vide quantique ?… Avec Jean-Charles Cuillandre astrophysicien au CEA, membre de la mission Euclid https://www.radiofrance.fr/franceculture/podcasts/la-conversation-scientifique/saurons-nous-bientot-ce-qu-est-l-energie-dite-noire-9494308
Retrouvez le podcast de l'émission de la conversation scientifique du vendredi 29 mars 2024 : Titre : Que se passe-t-il dans un noyau d'atome ? Invités : Marine Vandebrouck et Antoine Drouart, chercheuse et chercheur au département de physique nucléaire de l'Irfu. Durée : 58 minutes   https://www.radiofrance.fr/franceculture/podcasts/la-conversation-scientifique/que-se-passe-t-il-dans-un-noyau-d-atome-4718650
Est-il possible de prévoir la météo de notre Soleil ? Une question de plus en plus d’actualité car nous sommes avec nos télécommunications et autres satellites de plus en plus sensibles et affectés par les « humeurs » du Soleil. Barbara Perri chercheuse en astrophysique, spécialiste du Soleil Allan Sacha Brun, astrophysicien, chef du LDEE (Laboratoire Dynamique des Etoiles et de leur Environnement) à l'IRFU au CEA de Saclay. https://www.rfi.fr/fr/podcasts/autour-de-la-question-le-magazine-de-toutes-les-sciences/20240408-jusqu-o%C3%B9-souffle-le-vent-solaire
Semeurs ou dévoreurs de galaxies ? Si les quasars ont une réputation changeante, une chose est sûre, ils restent des objets extrêmes, aux limites des théories de la physique moderne. Avec David Elbaz Astrophysicien au Commissaire de l’Énergie Atomique (CEA). Hakim Atek Chercheur à l'Institut d'astrophysique de Paris, membre de l'équipe “Origine et évolution des galaxies”   https://www.radiofrance.fr/franceculture/podcasts/la-science-cqfd/quasars-2214350
 Dans les coulisses du CEA, les chercheuses et chercheurs ouvrent les portes de leurs laboratoires pour vous dévoiler les avancées majeures qui façonneront le monde de demain ! Retrouvez les différents épisodes sur la chaîne Youtube du CEA.         Episode 1: Les recherches pour la santé et la médecine du futur   A 26' 28'', vous retrouvez Dominique Yvon (DPhP) vous présenter le projet Clearmind, qui devrait permettre d'améliorer les détecteurs pour l'imagerie TEP (Tomographie par émisssion de positons).   Episode 2 : Les recherches pour l'électronique du futur   A 22' 56'', vous retrouvez Esther Ferrer-Ribas (Dédip) présenter le projet DALPS (Detector for Axion Like Particle Searches) qui doit permettre de développer permettre des capteurs pour la détection des axions.
ESA - Euclid’s wide and deep surveys ESA/Euclid/Euclid Consortium/NASA/Planck Collaboration/A. Mellinger – Acknowledgment: Jean-Charles Cuillandre, João Dinis and Euclid Consortium Survey Group, CC BY-SA 3.0 IGO Le 14 février, Euclid a officiellement entamé son étude dans la direction des constellations du Burin et du Peintre dans l'hémisphère sud. Au cours de l'année à venir, Euclid couvrira environ 15 % de son étude. Les premières données de cosmologie seront publiées à l'été 2026, précédées par une publication de données sur les observations en champ profond au printemps 2025.    Animation représentant le survol cosmologique de Euclid, le plus grand jamais réalisée dans le visible et le proche infrarouge. Pendant six ans, Euclid balayera ainsi plus d'un tiers du ciel représentées ici par les différentes nuances de gris/bleu. Les zones non couvertes sont dissimulées principalement par la Voie lactée et la lumière émise par le système solaire. Crédit : ESA/Euclid/Consortium Euclid   Lancé le 1er juillet 2023, le télescope spatial de l'ESA, Euclid, débute son exploration de l'Univers sombre. Au cours des six prochaines années, Euclid cartographiera plus d'un tiers du ciel, observant des milliards de galaxies sur 10 milliards d'années d'histoire cosmique, afin d'étudier leur répartition et leur forme, et de fournir une vue en 3D de la distribution de la matière noire dans notre Univers et l’énergie sombre. Euclid est conçu pour être l'un des télescopes les plus précis et stables jamais construits, avec un champ de vue énorme, l'équivalent de 3 fois la pleine lune, lui permettant d'observer jusqu'à 50 000 galaxies en une seule prise ! Pendant sa mission, Euclid effectuera plus de 40 000 pointages du ciel, chacun durant 70 minutes, pour produire des images et des spectres. Avant le début du relevé, des tests ont révélé une anomalie : une faible quantité de lumière solaire indésirable atteignait l'instrument visible d'Euclid (VIS) à certains angles, même lorsque le pare-soleil était tourné vers le Soleil. Les équipes ont alors réajusté les différents champs de vue du télescope, en ajustant tous les angles de rotation afin de minimiser cet effet. Bien que cela limite légèrement l’efficacité du balayage, toutes les zones du ciel nécessaires peuvent encore être atteintes. Plus d’informations : Article de l'ESA Ready set go! actualité site du CNES: cnes | Euclid débute sa grande enquête autour de l’énergie et de la matière noires Découvrez aussi la série "Frémir avec Euclid" du CEA.
C’est en 1989 que la série télévisée Code Quantum de Donald Bellisario est diffusée sur le petit écran, avec comme thématique principale le voyage dans le temps, un prétexte pour explorer le maximum de lieux, situations et époques de l'histoire américaine entre 1953 et 1999. Avec Patrick Marcel Essayiste, traducteur et illustrateur Pierre Brun Physicien, directeur de recherche au département de physique des particules du CEA et enseignant à l’école des mines de Paris Claire Cornillon Maître de conférences à l’université de Nîmes https://www.radiofrance.fr/franceculture/podcasts/la-science-cqfd/code-quantum-en-attendant-sam-beckett-2315443
La physique quantique est une révolution scientifique et technologique. Mais ses résultats ont aussi amené des questionnements sur la nature des objets qui nous entourent. Comment la philosophie répond à ces interrogations ? Comment ces interprétations nous éloigne de notre intuition du réel ? Avec Alexei Grinbaum Philosophe de la physique, chercheur au LARSIM/CEA Hervé Zwirn Directeur de recherche au CNRS, physicien et épistémologue à l’IHPST, à Paris, et au Centre de mathématiques et de leurs applications à l’École normale supérieure Paris-Saclay https://www.radiofrance.fr/franceculture/podcasts/la-science-cqfd/coherence-et-decoherence-de-la-pensee-quantique-3122873
Démontage de la maquette grandeur nature du miroir du télescope spatial JWST, réalisée par le CEA en 2009 à l'occasion de l'Année mondiale de l'astronomie. Commandée à l'Atelier Alain Pras, cette représentation fidèle reproduit le miroir primaire et secondaire du JWST ainsi que la colonne d'instrument à l'arrière. A l'échelle 1, la maquette reflète les dimensions gigantesques de ce télescope, dont la surface du miroir primaire mesure 25 m². Le JWST (James Webb Space Telescope) a été développé par la NASA, avec la participation de l'Agence spatiale européenne et de l'Agence Spatiale Canadienne. Le CEA a beaucoup participé à la conception de l'instrument, en fournissant notamment l'imageur Mirim. Après avoir résidé pendant plusieurs années au CEA de Saclay, la maquette a été transférée à la Cité de l'Espace à Toulouse. Là-bas, elle bénéficiera d'une mise en valeur avant d'être prochainement exposée pour le plus grand plaisir des visiteurs ! La vidéo est également disponible sur la plateforme Viméo. De?part de la maquette JWST from ExplorNova on Vimeo. Crédits Vidéo : Francis Rhodes / CEA
  La journée annuelle de P2I s'est tenue le 9 Janvier 2024, à l'Institut Pascal, Bât. 530,  rue André Rivière, Orsay. Cette journée annuelle de P2I a été l’occasion de partager quelques nouvelles scientifiques et de faire le point sur nos activités et sur nos projets au sein de la Graduate School de Physique Retrouver ici le programme et les présentations des intervenants
  L'édition 2023 de l'Appel à Projet Générique (AAPG) de l’ANR concernait cinq instruments de financement, mobilisant une variété de projets de recherche ambitieux. Ces instruments, allant des projets individuels de jeunes chercheurs et chercheuses (JCJC) aux collaborations internationales ou public-privé (PRCI, PRCE), reflètent une diversité captivante dans le paysage de la recherche. Au cœur de cette effervescence, la Direction de la Recherche Fondamentale (DRF) a enregistré une belle progression. Les résultats de l'AAPG 2023 révèlent un taux de succès de 31,4% pour la DRF sur les cinq instruments, marquant une amélioration notable par rapport aux années précédentes, même avec une légère diminution du nombre de projets déposés. Ce taux dépasse celui du CEA et le taux national. Faisant également partie intégrante de cette réussite, l'Institut de Recherche sur les lois Fondamentales de l'Univers (Irfu) s'est distingué avec un taux de succès global de 33% pour l'année 2023. Parmi les 24 projets déposés à l'AAPG et les 3 déposés hors AAPG (ESDIR, Capteurs quantiques et ASTRID), 9 projets ont été sélectionnés, représentant un échantillon prometteur de la recherche à venir. Ces 9 projets retenus, véritables joyaux de l'innovation, seront brièvement présentés ci-après, témoignant de l'excellence et de la diversité des avancées scientifiques à l'Irfu. La vitalité de la recherche française trouve ainsi un écho éclatant dans ces résultats de l'AAPG 2023. Projet CompToN "Computerised Tomography of Nucleons" Projet NURBS  "NUclear Reaction model improvement with Bayesian Statistics" Projet AccessEmergence "Access the Emergence of hydrodynamics with dileptons" Projet DoTPiX "Development of a Technology needed for the PIXel particle detectors" Projet BASKET_P2 "A backward scattering experiment for P2 at MESA" Projet PEGaSUS "Probing and Exploring high-redshift Galaxies Spectroscopically Using Svom gamma-ray bursts" Projet ProGraceRay "PRObing GRAvity at Cosmological scalEs with relativistic RAY-tracing" Projet Widening "A Window on Interstellar Dust Evolution: the NIKA2 Images of Nearby Galaxies" Projet Windtrust "Améliorer la fiabilité des prévisions du vent solaire pour la Terre" Projet CompToN "Computerised Tomography of Nucleons" L'un des objectifs majeurs de la physique hadronique est d'accéder à la tomographie 3D du nucléon en termes de quarks et de gluons. Cette dernière est encodée dans les distributions de partons généralisées (GPD) qui décrivent les processus exclusifs. Après vingt ans de mesures pionnières, la communauté est entrée dans l'ère de la précision avec de nouvelles données expérimentales aux statistiques excellentes. Mais ceci se révèle être un défi. En effet, les physiciens de l'Irfu ont montré qu'une partie de l'information est perdue lors de la déconvolution des GPD à partir de données de processus exclusifs. Ainsi, les techniques d'extraction conventionnelles ne parviendront pas à tirer parti des mesures précises à venir, faisant des incertitudes théoriques les plus pénalisantes dans la compréhension des propriétés des nucléons en 3D. En parallèle, les ensembles de données de simulation à grande échelle promettent une connexion aux GPD sans perte d'information mais sur un petit nombre de configurations cinématiques. Il est nécessaire d'augmenter ces valeurs en imputant les données manquantes pour obtenir un modèle continu répondant à toutes les contraintes théoriques. A travers le projet CompToN, les physiciens de l'Irfu et du CPT uniront leurs expertises pour extraire la tomographie 3D des quarks et des gluons d'une manière innovante : en combinant des jeux de données calculées, des jeux de données expérimentales et des techniques de modélisation de pointe. Ceci réduira fortement les incertitudes théoriques associées aux extractions expérimentales. Des efforts théoriques, phénoménologiques et de simulation sont nécessaires pour prendre le meilleur des deux mondes et résoudre à la fois le problème de déconvolution des données expérimentales et celui d'imputation des simulations à grande échelle. In fine, nous visons une tomographie précise du proton avec 10 ans d’avance sur les attentes de la communauté basées sur le futur collisionneur électron-ion américain. Contact : Cédric Mezrag Projet NURBS  "NUclear Reaction model improvement with Bayesian Statistics" La vaste gamme d'applications de la physique nucléaire, et en particulier celles utilisant des réactions nucléaires, peut être divisée en deux grands régimes. D'abord, il y a le régime de basse énergie (e.g., les centrales nucléaires). Pour ces applications, pratiquement toutes les données nucléaires peuvent être et ont été mesurées. Ensuite, il y a les applications à haute énergie comme l'hadronthérapie (jusqu'à ~250 MeV), les sources de neutrons de spallation et les ADS (~500 MeV à ~2 GeV), les noyaux cosmogéniques (large gamme d'énergie, avec un pic à ~1 GeV), mais aussi les études sur les neutrinos (des centaines de MeV à des dizaines de GeV) et les expériences sur l'antimatière (du repos à plusieurs GeV). En raison d'énergies élevées et des différents types de projectiles concernés, il est impossible de mesurer toutes les données requises et des modèles sont nécessaires. Ces modèles, combinaison d'un modèle de cascade intranucléaire, e.g., INCL++6, et d'un modèle de désexcitation, e.g., Abla, sont capables de prédire le résultat d'une réaction de spallation. Dans ces réactions, de nombreuses particules légères (mésons, neutrons, particules chargées) sont éjectées. Le résultat de l'interaction est la production d'un noyau cible plus léger (ou plus si fission ou multifragmentation se produisent). Ces modèles ont été considérablement améliorés au cours des deux dernières décennies et nous sommes entrés dans une période plus exigeante : la quantification des incertitudes et des erreurs. Dans le projet NURBS, non seulement les incertitudes et les erreurs des simulations INCL++6/Abla seront quantifiées, mais nous améliorerons également les modèles grâce à une optimisation en parallèle de certains paramètres et au retour d'information de ces résultats. Les méthodes utilisées reposent sur la statistique bayésienne où les données expérimentales jouent le rôle de vraisemblance. Contact : Jean-Christophe David Projet AccessEmergence "Access the Emergence of hydrodynamics with dileptons" Les collisions entre deux ions lourds dans les collisionneurs de particules nous permettent d'étudier les propriétés de la matière fortement interagissante avec une densité d'énergie élevée. De telles collisions créent des systèmes petits produisant jusqu'à quelques milliers de particules qui se comportent comme des fluides avec des propriétés remarquables. Les résultats expérimentaux suggèrent que le comportement hydrodynamique émerge sur une échelle de temps relativement courte, une caractéristique qui n'est pas bien comprise d'un point de vue théorique. Afin d'obtenir des informations directes sur les premiers stades de l'évolution de la matière qui précèdent la phase hydrodynamique, nous proposons de mesurer la production de dileptons (paires électron-positron ou muon-antimuon) dans ces collisions dans la plage de masse de 1 à 5 GeV/c². Il s'agit en effet de processus de prééquilibre et pourrait éclairer le mécanisme qui conduit à la thermalisation. Ces dileptons n'ont pas encore été observés car ils sont masqués par un bruit de fond important provenant des désintégrations des hadrons charmés et beaux. L'expérience LHC beauty (LHCb) a été spécialement conçue pour détecter les hadrons charmés et beaux dans les collisions proton-proton. Sa mise à niveau actuelle est conçue pour gérer un plus grand nombre de particules, telles que celles produites dans les collisions d'ions lourds. Cela offre une opportunité unique de réaliser une mesure précise du bruit de fond et d'étudier les dileptons avec une masse de 1 à 5 GeV/c² dans les collisions d'ions lourds. Sur la base de notre expérience et de notre leadership dans les mesures de muons et d'électrons au sein de deux collaborations du LHC, une équipe du groupe LQGP Saclay sous la direction de Michael Winn accédera expérimentalement au processus d'équilibration dans les collisions d'ions lourds avec des dileptons. Cette ANR est une première étape dans cette entreprise. Nous allons : Concevoir de nouveaux outils pour les mesures des leptons primaires aux collisionneurs. Caractériser le bruit de fond Drell-Yan dans les collisions proton-proton. Étudier la faisabilité des mesures de dileptons sensibles à l'équilibration dans les collisions d'ions lourds aux collisionneurs et établir cet aspect physique pour la future mise à niveau de LHCb. Contact : Michael Winn Projet DoTPiX "Development of a Technology needed for the PIXel particle detectors" Les interactions entre les particules élémentaires constituent le point de départ de la physique fondamentale. Cela est essentiel pour la compréhension humaine de la nature et de l'univers, conférant ainsi une importance majeure à ce domaine. La majeure partie de ces connaissances provient d'expériences réalisées sur des accélérateurs de particules à haute énergie. De nos jours, les expériences de physique des particules nécessitent des détecteurs améliorés pour une reconstruction précise des trajectoires et des points de collision des particules. L'augmentation de la luminosité du collisionneur (cm-2 s-1) dans les expériences futures entraîne des niveaux élevés de radiation, nécessitant par conséquent une grande résistance à la radiation. Pour la première fois, nous proposons ici d'utiliser une boîte quantique de Ge dans un pixel 1T induisant un effet de mémoire favorable qui n'est pas apporté par d'autres conceptions de pixels. Le dispositif présenté ici est nouveau dans son concept et son fonctionnement. Il utilise les propriétés d'une boîte quantique de Ge qui localise sélectivement les trous sans effet sur les électrons, constituant la première avancée apportée par cette conception. La seconde est une réduction de la taille rendue possible par le fonctionnement à un seul transistor avec une boîte quantique qui pourrait être réduite à un point si nécessaire. Ce pixel très compact peut être réduit dans toutes les directions. Cette approche soulève toujours des défis en matière de science des matériaux. De plus, en mode opérationnel de détection, aucune puissance n'est dissipée, réduisant ainsi le besoin de systèmes de refroidissement tels que ceux utilisés dans les détecteurs de pixels hybrides et autres MAPS. Dans le contexte des expériences de physique des particules, le débit de données à partir d'une matrice de pixels dépend principalement du taux d'événements. Une lecture sélective (en bas de la matrice) peut le réduire. La conception proposée combinera une résolution spatiale point à point (inférieure à 0,5 µm) avec une résistance intrinsèque à la radiation due à sa petite taille, le budget matériel pouvant être réduit (10 µm) par rapport à celui des pixels hybrides. La fabrication de pixels élémentaires est basée sur une méthode expérimentale et de simulation. Les couches nécessaires pour les pixels Si/Ge/Si sont cultivées dans des réacteurs CVD-UHV et caractérisées in situ et ex situ. TCAD (dispositif et processus) et d'autres simulations de matériaux sont utilisés pour l'évaluation du dispositif, des couches de matériaux et du processus MOS suivant. Les résultats préliminaires nous amènent à nous concentrer sur la technologie de la couche de Ge enfouie. Nous avons l'intention d'obtenir à la fin du projet un prototype de matrice de pixels avec ce processus et nous étudierons toutes les étapes technologiques nécessaires pour produire la matrice de pixels DotPIX en tant que prototype pouvant être testé soit avec des rayons X, soit avec un faisceau de particules chargées. Contact : Nicolas Fourches Projet BASKET_P2 "A backward scattering experiment for P2 at MESA" Ce projet ambitionne des mesures précises de l'angle de mélange électrofaible, avec l'expérience P2 auprès de l'accélérateur MESA. En connection avec les mesures du LEP et du LHC, une interprétation détaillée de l’évolution de ce couplage en fonction de l'énergie sera présentée pour la première fois. L'utilisation de toutes les données disponibles au LHC et l'exploitation des "upgrades" du détecteur ATLAS permettront une mesure très précise de l'angle de mélange au pic du Z, et pour la première fois une mesure de l’évolution de ce couplage a haute masse. L’expérience P2 prévoit une mesure compétitive à très bas transfert d'impulsion, par la mesure de l’asymétrie de polarisation en diffusion clastique électronproton. Les mesures à P2 permettront également d'améliorer profondément notre compréhension de la structure du proton, avec des implications en astrophysique et en physique des neutrinos. Le principal objectif de ce projet est la construction d'un détecteur de traces pour la mesure de la diffusion des électrons vers l'arrière. Cette mesure est cruciale pour le succès de l'expérience P2 dans son ensemble. Le détecteur proposé est capable de mesurer l'angle de diffusion avec une précision d'un degré, l'impulsion avec une précision de 2%, et surtout d'assurer une fréquence de lecture et d'enregistrement de 100 MHz, ce qui en fait un des trajectographes les plus rapides conçus jusqu'`a présent. L'échantillon final doit être collecté en environ 1000 heures, et représenter de l'ordre de 10^14 événements. La mesure précise de l’évolution de l'angle de mélange électrofaible constitue un test fondamental du Modèle Standard, et une sonde de nouvelle physique a haute et basse masses. Une analyse globale des résultats est proposée. Contact : Maarten Boonekamp Projet PEGaSUS "Probing and Exploring high-redshift Galaxies Spectroscopically Using Svom gamma-ray bursts" La formation et l’évolution des galaxies est l’un des principaux sujets actuels de l’astrophysique extragalactique. De grandes avancées ont été réalisées dans l’étude observationnelle des propriétés des galaxies jusqu’au plus haut décalage spectral vers le rouge (redshift) et JWST est en train d'apporter un progrès énorme dans l’étude du gaz chaud des galaxies à grand redshift. Néanmoins les composantes du gaz neutre demeurent difficiles à explorer. Ce gaz est une composante principale de ces galaxies et il peut être détecté par son absorption de la lumière d'une source brillante d'arrière-plan. Les sursauts gamma longs (LGRBs) sont un outil tès efficace pour le dévoiler grâce à la détection de raies d’absorption du gaz de leurs galaxies hôtes dans les spectres de leurs rémanences, indépendamment de la luminosité des galaxies hôtes elles-mêmes. A l'ère du JWST, les LGRBs restent des outils uniques permettant de sonder en détail les propriétés du gaz neutre et de la poussière des galaxies faibles, qui dominent en nombre la population des galaxies à grand redshift. De plus, les LGRBs étant des phénomènes transients, une fois l'émission rémanente disparue, il est possible de détecter aussi l'émission du gaz ionisé de leur galaxies hôtes. Jusqu'à maintenant la limite de l'utilisation de LGRB pour ce type d'étude est le nombre limité d'observations spectroscopiques des rémanences de LGRB a z>2-3 et de leurs galaxies hôtes. Dans ce projet, nous comptons augmenter significativement cette statistique grâce à la mission spatiale sino-franc?ais SVOM, de?diée à la détection des GRBs, et à son suivi-sol. Nous effectuerons et utiliserons des observations spectroscopiques de rémanences de LGRBs détectés par SVOM pour explorer les propriétés des galaxies de faible masse à  grand redshift, afin de re?pondre aux questions suivantes : Quelles sont les propriétés du gaz neutre du milieu interstellaire (ISM)? Comment évoluent-elles ? Quelles sont les propriétés de la poussière ? Comment évoluent-elles ? Comment la formation d’étoiles est-elle liée a? ces propriétés ? Comment ces galaxies impactent-elles la réionisation ? Le projet est axé sur trois blocs de travail : A) les abondances, la métallicité et la cinématique du gaz neutre de l'ISM; B) la poussière dans les galaxies à grand redshift ; C) la combinaison des propriétés du gaz absorbant neutre avec celles du gaz ionisé. Nous exploiterons les résultats observationnels aussi dans le contexte des simulations cosmologiques de galaxies. Ce projet permettra aussi de déterminer le redshift des GRB détectés par SVOM, information essentielle pour les études concernant la physique des GRBs. Nos résultats sont essentiels pour le retour scientifique et l'impact de la mission SVOM, qui représente un effort important de la communauté astrophysique française. Contact : Emeric Le Floc'h Projet ProGraceRay "PRObing GRAvity at Cosmological scalEs with relativistic RAY-tracing" La nature de l’énergie noire est une question centrale de la cosmologie moderne : est-ce une constante cosmologique, une nouvelle composante fondamentale aux propriétés exotiques, ou la conséquence d’une modification de la gravité ? Le but du projet ProGraceRay est de construire des tests robustes de la gravité aux échelles cosmologiques tenant compte de l’impact de la physique relativiste de la lumière sur la distribution apparente de la matière. En effet, les photons ne se propagent pas en ligne droite et leur énergie n’est pas uniquement gouvernée par l’expansion de l’Univers homogène. Ainsi, les positions angulaires, formes, tailles et luminosités des sources sont changées par les effets de lentilles gravitationnelles faibles (WL). De même, la position radiale des galaxies déduite de leur redshift est perturbée ce qui modifie la distribution apparente des galaxies (distorsions de l’espace des redshifts ou RSD). Ce qui peut être vu comme du bruit s’avère en réalité du signal car ces effets sont porteurs d’informations cosmologiques : métrique le long de la ligne de visée (WL) et vitesses/potentiels des sources (RSD). Les études actuelles reposent sur de nombreuses approximations, pourtant les effets relativistes non-triviaux (habituellement négligés) peuvent contribuer à hauteur de 1 à 10% pour les analyses standards de WL et RSD, de 1 à 50% sur les corrélations entre densité et cisaillement et même à hauteur de 100% sur le dipôle de la fonction de corrélation-croisée des galaxies. Par ailleurs WL et RSD sont habituellement étudiés séparément dans deux communautés différentes. Cependant, dans le cadre des théories de gravité modifiée (MG) combiner WL et RSD est une nécessité afin d’extraire les deux potentiels de la métrique. Contact : Sandrine Pires Projet Widening "A Window on Interstellar Dust Evolution: the NIKA2 Images of Nearby Galaxies" Le milieu interstellaire est l'espace remplissant le volume des  galaxies entre les étoiles. Ce milieu est principalement composé de gaz et de grains de poussière. La composante poussiéreuse du milieu interstellaire a un rôle crucial dans plusieurs processus physiques : extinction du rayonnement stellaire, chauffage et refroidissement du gaz, et croissance de la complexité chimique. Une bonne compréhension de la physique des grains est donc essentielle si l'on veut comprendre l'évolution des galaxies et le mécanisme de formation d'étoiles. Or, les propriétés de la poussière (composition, distribution de taille, abondance, etc.) sont encore très mal connues. La complexité du problème requiert un grand nombre d'observations pour lever les nombreuses dégénérescences des modèles. En particulier, les propriétés optiques des grains, dans le domaine spectral millimétrique, sont très  mal connues et sont pourtant déterminantes pour précisément estimer les masses. Les données qui sont en train d'être acquises par le nouvel instrument NIKA2, à 1.2 et 2 mm de longueurs d'onde, au radiotélescope de 30 mètres de l'Institut de Radio-Astronomie Millimétrique (IRAM), fournissent une perspective sans équivalent sur ce problème. Notre collaboration IMEGIN (Interpreting the Millimeter Emission of Galaxies with IRAM/NIKA2 ; responsable S. Madden) a obtenu 200 heures de temps garanti pour cartographier une vingtaine de galaxies proches avec  NIKA2. Nous avons également obtenu 40 heures de temps ouvert, pour observer des galaxies de faible métallicité, importantes pour comprendre l'évolution chimique, dans le cadre du projet SEINFELD (Submillimeter Excess In Nearby Fairly-Extended Low-metallicity Dwarfs ; responsable F. Galliano). Ces données, combinées avec des observations d'archives à d'autres longueurs d'onde, vont donc nous permettre, pour la première fois, d'étudier la manière dont varient les propriétés optiques millimétriques des grains avec les conditions physiques. Cette compréhension nous permettra de mieux contraindre la composition chimique des gros grains et d'affiner les diagnostics physiques basés sur la poussière. Le projet d'ANR WIDENING va nous permettre d'embaucher deux postdoctorants, pendant trois ans, pour s'attaquer à ce problème. Cette ANR, dirigée par le DAp, est un partenariat avec l'IRAM de Grenoble et l'Institut d'Astrophysique de Paris. Contact : Frédéric Galliano Projet Windtrust "Améliorer la fiabilité des prévisions du vent solaire pour la Terre" La météorologie de l'espace est une science applicative en pleine émergence dans le monde entier, prioritaire pour de nombreux acteurs. Les conséquences sont importantes aussi bien pour la société civile que pour l'armée. La surveillance du Soleil n’est pas suffisante, surtout en période d’activité maximale comme maintenant, et requiert l’usage de simulations numériques pour des prévisions suffisamment en avance. Cependant, il est difficile d’estimer la fiabilité d’une prévision, en particulier quand celle-ci repose sur le couplage entre plusieurs modèles numériques qui peuvent chacun ajouter des erreurs. L’objectif de ce projet est donc d’améliorer la fiabilité des prévisions de météorologie de l’espace. Pour cela, on se concentre sur l’élément incontournable : le vent solaire, un éjecta continu de particules qui vient influencer l’environnement terrestre et transporter les événements extrêmes. En se basant sur le modèle français Wind Predict (Réville+2015, 2020), il s’agit d’améliorer les capacités de prévision française en utilisant de l’assimilation de données. Ceci permettra alors de mieux prédire les événements les plus extrêmes lors des phases d’activité les plus intenses. Il s’agira ensuite de développer un outil de validation de ces prévisions de vent. En se basant sur les travaux de Perri+2023 et son implication dans l’ISWAT, nous allons généraliser et automatiser les diagnostics de validation, afin de fournir un score de fiabilité. Ce score permettra alors de décider si la simulation peut être utilisée ou non pour des prévisions à la Terre. Ce projet permettra ainsi à la France de maintenir son indépendance internationale quant aux prévisions les plus réalistes. Cela permettra également de disposer d’un système de validation unique et compréhensible par tous les acteurs touchés par la météo de l’espace (aviation, communications, etc.). Contact : Barbara Perri  

Highlights

Avec sa première année de données, le grand relevé de galaxies DESI vient de publier de nouveaux résultats qui confirment la théorie de la relativité générale aux échelles cosmologiques avec une précision excédant celle des vingt dernières années.

Le grand relevé de galaxies DESI, qui utilise le télescope Mayall de 4m au Kitt Peak Observatory (Arizona), a commencé ses observations en mai 2021 et vient de publier une analyse cosmologique de la formation des grandes structures de l’Univers avec sa première années de prise de données (publication et video CosmologyTalk expliquant les résultats). DESI est un spectrographe multi-fibres qui, à chaque pointé, mesure le spectre de la lumière provenant de 5000 objets astrophysiques simultanément. Les données collectées permettent de dresser une carte tridimensionnelle de l’Univers. Des méthodes statistiques sont ensuite appliquées à cette carte des galaxies (voir figure 1) pour en déduire à quelle vitesse se sont formées les grandes structures de matière de l’Univers s’organisant en ce que l’on appelle la “toile cosmique”, composée de murs, filaments et nœuds cosmiques. Pour faire cette analyse, les scientifiques s’appuient sur le fait que les décalages spectraux des galaxies sont affectés par leur vitesse particulière, laquelle est d’autant plus grande que la formation des structures est plus rapide. La collaboration DESI a ainsi mesuré la croissance des structures de l’Univers au cours des 11 derniers milliards d’années. L’analyse fine de ces données, pour laquelle le CEA a eu un rôle important, permet de confirmer la validité de la théorie de la relativité générale aux échelles cosmologiques et de mesurer l’effet des neutrinos sur la formation des structures et de placer une contrainte sur leurs masses.

Le Dark Energy Spectroscopic Instrument (DESI) en cours d'observation au télescope Nicholas U. Mayall de 4 mètres au Kitt Peak National Observatory en Arizona. Crédit: KPNO/NOIRLab/NSF/AURA/T. Slovinský

DESI - Dark Energy Spectroscopic Instrument. Depuis 2009, le DPhP est impliqué dans le relevé spectroscopique, DESI, qui étudie l'effet de l'énergie sombre sur l'expansion de l'Univers, teste la gravitation à des distances cosmologiques et mesure la somme des masses des neutrinos. Au cours d’un programme de 5 ans qui a débuté en mai 2021, DESI, mesurera le décalage vers le rouge (redshift) de plus de 40 millions de galaxies et de quasars. En combinant leur position angulaire dans le ciel à leur redshift, DESI construit une carte en 3D de l'Univers (voir figure 1) qui permet de regarder dans le passé et de dérouler l’histoire de l’expansion de l’Univers et la formation de la toile cosmique sur les 11 derniers milliards d'années, quand on estime l’âge de l’Univers à 13,8 milliards d’années. L'instrument DESI est installé sur le télescope Mayall de 4 m au Kitt Peak National Observatory (Arizona, États-Unis). Le télescope possède un correcteur optique  qui augmente son champ de vue à 8 degrés carrés. Son plan focal est équipé de 5 000 fibres optiques contrôlées par des robots pour collecter la lumière de 5 000 objets astrophysiques simultanément à chaque pointé du télescope. La lumière des objets est transmise du plan focal du télescope aux 10 spectrographes via 5 000 fibres optiques. L’Irfu a réalisé la construction des 30 cryostats de ces 10 spectrographes qui mesurent le redshift de chaque objet. Pour construire la carte de l’Univers, DESI a choisi 5 types de “traceurs” de la distribution de matière de l’Univers dans le but d’accéder à des époques différentes de l'histoire de l’Univers, de maintenant jusqu’à 11 milliards d’années.  L’univers proche est sondé par un échantillon de galaxies très brillantes (Bright Galaxy Sample, BGS). Ensuite DESI utilise des galaxies rouges lumineuses (Luminous Red Galaxies, LRG) qui sont des galaxies massives ayant terminé leur cycle de formation d’étoiles. Viennent après les galaxies à raies d’émissions (Emission Line Galaxies, ELG), galaxies plus légères et formant des étoiles qui permettent de sonder l’Univers entre 8 et 10 milliards d’années. Enfin, l’univers lointain est reconstruit grâce aux objets les plus lumineux de l’univers, les quasars. Ils sont utilisés de deux manières distinctes, soit directement par leur position comme dans le cas des galaxies, soit indirectement, en détectant les fluctuations de densité d’hydrogène le long de la ligne de visée, absorption enregistrées dans leur spectre et connues sous le nom “forets  Ly-alpha”.  

Figure 1: Carte à trois dimensions du ciel produite par DESI. Chaque point représente une galaxie ou un quasar dont le spectre et ainsi le décalage vers le rouge ont été mesurés et permettent de déterminer la distance à laquelle ils se trouvent. Crédit: Claire Lamman/DESI collaboration and Jenny Nuss/Berkeley Lab

Mesure du taux de croissance des structures avec les vitesses particulières des galaxies La carte de l’Univers mesurée par DESI trace la toile cosmique : les galaxies se concentrent dans les nœuds et les filaments, lesquels sont séparés par des grands vides cosmiques. Cependant, DESI ne voit pas les galaxies à leur position réelle ! Les décalages spectraux mesurés sont en effet affectés par les vitesses particulières des galaxies (effet Doppler), ce que l’on appelle “distorsions dans l’espace des décalages spectraux”. Dans un système en effondrement gravitationnel (voir figure 2, ci contre), les galaxies les plus proches de nous, alors qu’elles tombent vers le centre de masse, ont ainsi tendance à s’éloigner  et les plus lointaines à se rapprocher ; les premières apparaissent donc plus lointaines et les secondes plus proches qu’elles ne sont en réalité. La distribution des galaxies observées (i.e. dans l’espace des décalages spectraux) apparaît donc “écrasée” le long de la direction radiale (ce que l’on appelle “effet Kaiser”). Dans cette analyse, la mesure porte sur la variance des vitesses particulières des galaxies en fonction de l’échelle (appelée spectre de puissance). Cette mesure permet de tester la manière dont les grandes structures se forment dans l’Univers.

Figure 2: Illustration de l'effondrement gravitationnel obtenu avec une simulation numérique d'Univers. Chaque rond jaune montre un "halo" de matière (surface proportionnelle à la masse) et sa vitesse. On observe un effet de cohérence des vitesses des halos qui tombent vers le centre de masse local. A cause de l'effet Doppler, la position apparente des galaxies le long de la ligne de visée (représentée en bleu) est modifiée. La mesure statistique de la distribution des galaxies par DESI permet ainsi de tester la gravité aux échelles cosmologiques.

Mesure de la croissance des structures La figure 3 illustre que la mesure de DESI, sous la forme du paramètre S8 ≡ σ8 (Ωm/0.3)1/2, combinaison de paramètres la mieux contrainte par les relevés de cisaillement gravitationnel (voir ci-dessous) et construite à partir de sigma8, la variance des fluctuations de densité dans des sphères de 8 Mpc/h, et de Omega_m, la fraction d’énergie de l’Univers sous forme de matière. La valeur mesurée par DESI est totalement compatible avec celle du précédent relevé SDSS (en bleu), et celle du fond diffus cosmologique (CMB), dans le cadre du modèle ΛCDM. Une manière alternative de mesurer la croissance des structures dans l’Univers est de sonder comment la trajectoire de la lumière émise par des sources lointaines — galaxies ou CMB — est modifiée par les perturbations de champ gravitationnel entre la source et l’observateur. Cet effet peut être mesuré de manière statistique dans l’orientation apparente des galaxies (cisaillement gravitationnel). Ces analyses donnent en moyenne une mesure de la croissance des structures plus faible (en orange sur la figure 3) que celle prédite dans le modèle LCDM en utilisant les résultats de Planck sur le CMB. En l’état, la mesure de DESI reste totalement compatible avec celle des relevés de cisaillement gravitationnel. Les futures données de DESI permettront d’affiner notre mesure, et le télescope européen Euclid mesurera très précisément S8 avec le lentillage gravitationnel faible dans les années à venir.

Figure 3: Mesure de croissance des structures (paramètre S8) par les données de DESI de première année (en bleu et en gras), comparée à celle du relevé précédent SDSS (en bleu), à celle obtenue par le CMB dans le modèle LCDM (en orange) et de relevés de lentillage gravitationnel faible (en vert). Credit: DESI Collaboration

Tests de la relativité générale La relativité générale, proposée par Einstein en 1915, a été testée à une précision extrême dans le système solaire et en champ fort (pulsars binaires, ondes gravitationnelles). Cependant, il est tout à fait possible d’envisager des théories alternatives de la gravité qui dévient de la relativité générale aux échelles cosmologiques mais satisfont les mesures aux échelles stellaires, grâce à des effets d’écrantage. Une des motivations pour investiguer des déviations à la relativité générale aux échelles cosmologiques peut être d’expliquer l’accélération de l’expansion de l’Univers, que l’on modélise actuellement en ajoutant la constante cosmologique Λ dans les équations d’Einstein. Les résultats publiés en avril 2024, obtenus par la collaboration DESI en combinant ses mesures des oscillations acoustiques de baryons avec le CMB et les supernovae (et que cette nouvelle analyse de DESI confirme), ont mis en évidence de possibles déviations à la constante cosmologique, ce qui a provoqué un regain d’intérêt pour des modifications au modèle actuel. Pour tester des déviations à la relativité générale, il est possible de considérer des modèles théoriques spécifiques, ou des paramétrisations génériques. L’une d’elles, utilisée pour les résultats principaux, introduit un paramètre μ0 dans l’équation de Poisson (régissant la trajectoire des particules massives), et un paramètre Σ0 dans celle régissant la trajectoire de la lumière. Comme μ0 gouverne la formation des structures, il peut être contraint par DESI seul (en bleu sur la figure ci-dessous). Σ0 est mesuré par les sondes sensibles aux modifications de trajectoire de la lumière dans un champ gravitationnel : le CMB (incluant le lentillage gravitationnel faible) et les mesures de cisaillement gravitationnel obtenues avec les orientations des galaxies (DES-Y3). Les contraintes actuelles sont totalement en accord avec la relativité générale, μ0 = Σ0 = 0.

Figure 4: Contraintes apportées par DESI dans le cadre d’un modèle où l’on permet des déviations à la relativité générale (?0, ?0), en combinaison avec les données du fond diffus cosmologique (CMB) et des relevés de lentillage gravitationnel faibles. La relativité générale (GR) correspond à ?0=0 et ?0=0. La zone hachurée exclue la région où les prédictions théoriques ne sont pas fiables. Credit: Arnaud De Mattia IRFU

Masse des neutrinos La masse des neutrinos a deux effets cosmologiques : 1) l’expansion de l’Univers : les neutrinos, à grand redshift (typiquement z > 200) sont ultra-relativistes, i.e. se comportent comme de la radiation. A plus bas redshift, les neutrinos participent au bilan énergétique de l’Univers comme de la matière. 2) la croissance des structures. Même dans l’Univers récent, les neutrinos (à cause de leur faible masse) se déplacent sur de grandes distances en-deçà desquelles ils amortissent la formation des structures. Cet effet est donc visible dans la distribution des galaxies (en espace des décalages spectraux) mesurée par DESI. DESI, avec un a priori sur la pente du spectre de puissance des fluctuations primordiales, pose une limite à 95% de confiance sur la somme des masses des neutrinos à 0.4 eV. En combinant DESI avec les données du CMB, cette limite descend à 0.071 eV, principalement via les contraintes additionnelles de DESI sur l’expansion de l’Univers (effet 1 ci-dessus). Cette contrainte est la plus forte et la valeur obtenue favorise la hiérarchie de masse normale pour les états propres des neutrinos. Cependant, nous venons de voir que les mesures de DESI préfèrent un univers avec une accélération de l’expansion légèrement différente d’une constante cosmologique. Dans ce cadre-là, la contrainte sur la masse des neutrinos donne Σmν < 0.2 eV à 95%. Cette contrainte est certe moins forte mais elle est posée dans le cadre d’un modèle plus général que ΛCDM. remerciements: DESI est soutenu par le DOE Office of Science et par le National Energy Research Scientific Computing Center, un centre de calcul du DOE Office of Science. DESI bénéficie également du soutien de la National Science Foundation des États-Unis, du Science and Technologies Facilities Council du Royaume-Uni, de la Gordon and Betty Moore Foundation, de la Heising-Simons Foundation, du Commissariat à l'énergie atomique et aux énergies alternatives (CEA) de France, du Conseil national de la science et de la technologie du Mexique, du ministère de l'économie de l'Espagne, ainsi que des institutions membres de DESI. La collaboration DESI est honorée d'être autorisée à mener des recherches scientifiques sur l'Iolkam Du'ag (Kitt Peak), une montagne qui revêt une importance particulière pour la nation Tohono O'odham. Publications: DESI 2024 VII: Cosmological Constraints from the Full-Shape Modeling of Clustering Measurements DESI 2024 V: Full-Shape Galaxy Clustering from Galaxies and Quasars Contacts: Arnaud de Mattia, Etienne Burtin

Le modèle standard de la cosmologie, fondement de notre compréhension de l'Univers depuis le Big Bang, est-il en danger ? Les récentes observations du télescope spatial James Webb (JWST), menées par une équipe internationale incluant le Département d’Astrophysique du CEA-IRFU, révèlent des galaxies massives dans l'Univers jeune, suscitant un vif débat au sein de la communauté scientifique. Alors que certains chercheurs y voient une remise en question de ce modèle, d'autres avancent que ces masses galactiques pourraient avoir été surestimées, suggérant que des mesures plus précises pourraient résoudre l'énigme sans invalider le modèle standard. Grâce au programme FRESCO, des données spectroscopiques plus précises que les précédentes semblent réconcilier ces galaxies précoces avec les prévisions théoriques. Toutefois, trois cas extrêmes continuent de défier notre compréhension de la formation galactique.

Figure 1 : Images des trois galaxies massives et lointaines qui défient notre compréhension de la formation galactique. Crédits : NASA/CSA/ESA, M. Xiao & P. A. Oesch (Université de Genève), G. Brammer (Niels Bohr Institute), Dawn JWST Archive.

Le modèle standard de la cosmologie remis en question Le modèle standard de la cosmologie, également appelé modèle ΛCDM (Lambda Cold Dark Matter), est actuellement le modèle de référence pour décrire l’évolution de l’Univers depuis le Big Bang. Il permet notamment d’expliquer des observations astronomiques telles que le fond diffus cosmologique — un rayonnement provenant de toutes les directions du ciel —, les structures à grande échelle, ainsi que la formation des galaxies en amas. Ainsi, lorsque les astronomes ont jeté un premier coup d'œil sur la jeunesse de l'Univers grâce au télescope spatial James Webb (JWST) de la NASA, ils s'attendaient à observer des galaxies modestes et en pleine croissance, conformément aux prédictions de ce modèle standard. Or, les scientifiques ont découvert une abondance inattendue de galaxies bien trop massives pour le jeune âge de l’Univers. Depuis lors, deux communautés scientifiques s’opposent : d’un côté, ceux qui estiment que ces découvertes révèlent des lacunes dans le modèle standard de la cosmologie, nécessitant sa remise en question complète ; de l’autre, ceux qui contestent les mesures de masses galactiques, jugées surestimées car fondées uniquement sur des observations photométriques insuffisamment précises. Selon ces derniers, il faudrait plutôt ajuster les modèles de croissance galactique sans pour autant remettre en cause le modèle standard.

Le programme d’observation FRESCO apporte de nouveaux éléments de réponses C’est dans ce contexte qu’une équipe internationale, incluant des astronomes du Département d’Astrophysique du CEA Paris-Saclay, apporte de nouvelles explications grâce au programme d’observation FRESCO. L’objectif de ce programme est de mesurer avec précision la masse des premières galaxies à l’aide de l’instrument NIRCam/grism du JWST, qui permet des mesures spectroscopiques à haute résolution, bien plus précises que les précédentes mesures photométriques (voir Figure 2). « NIRCam nous permet d'identifier et d'étudier la croissance des galaxies au fil du temps, et d’obtenir une image plus précise de l’accumulation de la masse stellaire au cours de l’histoire cosmique », explique Pascal Oesch, professeur assistant au Département d’astronomie de l’UNIGE, principal investigateur de ce programme d’observation et co-auteur de cette nouvelle étude. « Seul le télescope James Webb a la capacité de mesurer la masse stellaire des galaxies à des époques aussi reculées, jusqu’à un milliard d’années après le Big Bang, car la lumière y est décalée vers l’infrarouge », explique David Elbaz, directeur scientifique du Département d’Astrophysique au CEA Paris-Saclay et co-auteur de l’article.  

Figure 2 : Images et spectres des trois galaxies ultra-massives et primitives (Z ? 5 – 6) observées par le programme d’observation FRESCO utilisant l’instrument NIRCam du JWST. Les images à gauche ont été prises avec trois filtres NIRCam (1,82 µm, 2,10 µm et 4,44 µm), puis combinées en couleur (F182M en bleu, F210M en vert et F444W en rouge), accompagnées de la carte en H?. À droite, les spectres 1D (couvrant les lignes d’émission H?, [NII] et [SII]) ont été obtenus avec le grisme NIRCam et le filtre F444W. Les zones grises montrent l'incertitude associée à 1 sigma, et la ligne bleue représente le modèle qui ajuste au mieux les données. Crédits : Xiao et al. 2024.

La remise en cause du modèle standard cosmologique écartée En utilisant les données du programme FRESCO, l’équipe de chercheurs a ainsi pu mener une étude systématique de 36 galaxies massives. L’analyse suggère que la majorité des galaxies ultra-massives dans la jeunesse de l’Univers sont compatibles avec le modèle cosmologique standard, à l’exception de trois d’entre elles, qui représentent un défi potentiel et remettent en question les modèles de formation galactique (voir Figure 3). « Ces galaxies présentent des taux de formation d'étoiles proches de 1 000 masses solaires par an, des niveaux qui ne peuvent s'expliquer que par un processus de formation extrêmement efficace, que les modèles actuels ne parviennent pas à reproduire », affirme Dr. Mengyuan Xiao, post-doctorante au Département d’astronomie de l’UNIGE et première autrice de l’étude.   La remise en cause du modèle standard cosmologique semble donc s’éloigner. En effet, les nouvelles observations plus précises des masses galactiques permettent de réconcilier les observations avec les prédictions du modèle standard. Cependant, l’existence de ces trois galaxies ultra-massives si tôt dans l’histoire de l’Univers défie notre compréhension de la formation des galaxies dans l’Univers jeune. « Ces résultats suggèrent que parmi les premières galaxies, certaines étaient capables de convertir le gaz en étoiles avec une efficacité extrême, bien au-delà de ce que prédisent les modèles actuels. Les futures observations avec le JWST et l'Atacama Large Millimeter Array (ALMA) seront essentielles pour déterminer si ces galaxies ultra-massives représentent un cas isolé ou un phénomène plus répandu », enchérit la chercheuse. « Il va maintenant falloir comprendre comment l’Univers a formé des galaxies plus massives que la Voie lactée il y a près de 13 milliards d’années, soit environ un milliard d’années après le Big Bang », conclut David Elbaz.  

Figure 3 : Comparaison des masses de galaxies massives et lointaines en fonction de leur décalage vers le rouge (Z), mesurées par photométrie et spectroscopie, par rapport aux attentes théoriques du modèle standard de la cosmologie (?CDM). Les cercles gris représentent les galaxies rapportées dans la littérature, avec celles dont le décalage vers le rouge (Z) a été mesuré uniquement par photométrie (carrés vides gris). Les cercles rouges vides correspondent aux 36 galaxies observées dans le cadre du programme FRESCO, dont les décalages vers le rouge ont été mesurés précisément par spectroscopie grâce au JWST. Les barres d'erreur montrent les incertitudes des mesures. Les lignes rouges et bleues indiquent la masse maximale des galaxies attendue selon le modèle ?CDM, en fonction de l'efficacité de conversion des baryons en étoiles (Epsilon = 1 et 0,2, respectivement), tandis que la ligne noire représente la limite supérieure du modèle. Les cercles rouges pleins correspondent aux trois galaxies qui défient nos théories de formation galactique. Bien qu'elles restent compatibles avec le modèle ?CDM, ces galaxies ultra-massives présentent une efficacité de formation stellaire moyenne de Epsilon ? 0,5, ce qui suggère une conversion très efficace des baryons en étoiles, difficilement explicable avec les modèles actuels. Crédits : Xiao et al. 2024

Contacts CEA/IRFU: David Elbaz En savoir plus : Publication Communiqué de presse de l'Université de Genève

La Stratégie Européenne pour la Physique des Particules (ESPP) est au cœur du processus d'élaboration de la stratégie européenne pour l'avenir à long terme de la physique des particules. Mandatée par le Conseil du CERN, elle tient compte des résultats du LHC et d'autres installations dans le monde, du paysage international de la physique et des développements dans des domaines connexes, dans le but de maximiser les retombées scientifiques. En mars 2024, le Conseil du CERN a lancé le processus de la troisième mise à jour de la stratégie (ESPP update ou ESPPU). Le groupe stratégique européen (ESG) et le secrétariat de la stratégie pour cette mise à jour ont été créés en juin 2024 pour organiser l'ensemble du processus. Le mandat du groupe stratégique européen a également été approuvé en juin 2024. Le Conseil du CERN s’est réuni en septembre pour, entre autres décisions, nommer les membres groupe de préparation à la physique (PPG) dont le rôle sera de préparer un « Briefing Book » basé sur les contributions et les discussions.  La composition du PPG est disponible ici. Au sein du PPG, le secrétariat de la stratégie propose neuf groupes de travail pour couvrir l'ensemble des sujets de physique ainsi que les domaines technologiques des accélérateurs, des technologies de détection et de l'informatique. Les groupes de travail sont pilotés par un membre du PPG et un adjoint et Sara Bolognesi est adjointe pour le groupe Physique des neutrinos et messagers cosmiques.

La communauté scientifique est invitée à apporter sa contribution à l’ESPPU. Ses contributions aideront le PPG à préparer le Briefing Book qui sera soumis à l’ESG pour examen lors d'une session de rédaction de cinq jours qui devrait avoir lieu en décembre 2025. Le processus de mise à jour de la stratégie doit converger d'ici janvier 2026, date à laquelle un projet de document stratégique sera soumis au Conseil du CERN. Les contributions attendues couvrent : l'option préférée pour le prochain collisionneur au CERN mais aussi des options alternatives par ordre de priorité si le plan préféré choisi s'avère ne pas être faisable ou compétitif ; les domaines prioritaires pour les expériences de moindre envergure à envisager au CERN et dans les laboratoires nationaux ; de manière générale, tous les points jugés pertinents pour le domaine, notamment la R&D sur les accélérateurs, les détecteurs et le calcul, la physique théorique, les actions visant à minimiser l'impact environnemental et à améliorer la durabilité de la physique des particules basée sur les accélérateurs, et les actions de communication et de formation destinées à attirer et former les nouvelles générations de physiciens, d’ingénieurs et de technicien.

Tout scientifique peut directement apporter sa contribution au CERN (depuis le 1er septembre 2024) : https://europeanstrategyupdate.web.cern.ch/index.php/call-input et/ou participer à l’élaboration d’une contribution de la communauté française dans son ensemble. En effet, en sus de toutes les éventuelles contributions personnelles ou de groupes, l’IN2P3 et l’Irfu ont proposé que la communauté française produise et soumette un document synthétisant ses avis. Des groupes de travail autour de 4 thématiques scientifiques ont été mis en place pour collecter et synthétiser les contributions de la communauté : GT1 : Modèle standard et au-delà Pilotage : Fabrice Couderc, Marie-Hélène Genest, Ana Teixeira GT2 : Physique de la saveur et tests des interactions ???????Pilotage : Yasmine Ahmis, Giulio Dujany, Christopher Smith GT3 : Neutrinos (notamment Long-baseline) ???????Pilotage : Sara Bolognesi, Stéphane Lavignac, Anselmo Meregaglia GT4 : QCD et collisions d'ions lourds ???????Pilotage : Cyrille Marquet, Carlos Munoz Camacho, Michael Winn À ces quatre groupes thématiques est adjoint un groupe transverse : GTS : étude des différents scénarios de futurs collisionneurs ???????Pilotage : Jeremy Andrea, Maarten Boonekamp, Cristinel Diaconu, Stéphane Monteil, avec l’aide de Michel Spiro Chaque groupe est responsable de l’organisation du travail dans son périmètre. Les groupes ont déjà commencé à travailler, en particulier en organisant des réunions d’échange. Les travaux de collecte des contributions préparatoires émanant de la communauté, consultation large puis synthèse dans chacun des groupes doivent converger d’ici à janvier 2025, pour être présentés et discutés lors d’un symposium ouvert à tous qui aura lieu les 20 et 21 janvier 2025 à Paris sur le campus Pierre et Marie Curie (Jussieu), dans l'amphithéâtre sous le patio des tours 44-55.

Pour retrouver toutes les informations sur la contribution française et contribuer : https://esppu.in2p3.fr/ Pour aller plus loin, le site dédié du CERN rassemble les documents intéressants ici : https://europeanstrategyupdate.web.cern.ch/resources  

Le champ magnétique du Soleil est généré par un effet dynamo, causé par des mouvements de convection et de rotation dans son enveloppe. Il évoluera dans un futur lointain lorsque notre étoile deviendra une géante rouge, une étoile évoluée caractérisée par une enveloppe étendue et une rotation bien plus lente. La question se pose alors : comment évoluera le champ magnétique lorsque notre Soleil se transformera ? Pour répondre à cette question, une équipe de chercheurs affiliée au Département d’Astrophysique du CEA Paris-Saclay et à l’OSU OREME de l’Université de Montpellier a réalisé plusieurs simulations numériques hautes performances avancées de l’étoile Pollux, une géante rouge qui sert d’exemple à ce que pourrait devenir le Soleil, avec un champ magnétique très faible, inférieur à 1 Gauss, du fait de son enveloppe étendue. Ces simulations permettent de reproduire la valeur observée et expliquent cette faible valeur en montrant qu’entre 2 et 8 % de l’énergie cinétique (de mouvement) du plasma est convertie en énergie magnétique, en fonction de la taille des cellules de convection à la source de la dynamo. Les petites cellules créent des champs moins intenses et plus complexes, car la corrélation entre les structures magnétiques et convectives diminue à grande échelle. L’étude montre également que le champ magnétique de Pollux inverserait sa polarité sur plusieurs années, à l’image du Soleil, un phénomène encore non observé mais suggéré par les simulations et nécessitant de l’observer sur une période plus longue pour le confirmer. Par ailleurs, ces travaux enrichissent notre compréhension du magnétisme des étoiles géantes et ouvrent de nouvelles perspectives pour la mission PLATO de l’ESA, qui explorera l’activité magnétique des étoiles et ses impacts sur les exoplanètes. Cette étude fait l’objet d’une publication dans The Astrophysical Journal.

Figure 1 : Rendu visuel des données digitales d'une des simulations obtenue dans cette étude, comparées au Soleil à l'échelle, à gauche. Crédit: L. Amard, A.S. Brun, A. Palacios, A. Finley

Pollux utilisé comme proxy au futur de notre Soleil Le Soleil se trouve actuellement dans la séquence principale, une phase stable où l’hydrogène fusionne en hélium dans son noyau, produisant l’énergie nécessaire pour maintenir l’équilibre mécanique (hydrostatique) de l’étoile. Dans environ 5.5 milliards d’années, le Soleil aura converti tout son hydrogène en hélium dans son coeur nucléaire et entrera alors dans une phase plus instable. Son cœur se contractera jusqu'à initier la fusion de l’hélium, libérant une grande quantité d’énergie qui dilatera les couches externes de l’étoile, suivant un mécanisme thermostatique. Le Soleil deviendra alors une géante rouge, avec un diamètre atteignant l’orbite de Vénus, et une luminosité jusqu’à 2 000 fois plus élevée. En ce qui concerne l’évolution de son champ magnétique, les choses sont moins claires. Au-delà du cœur radiatif stable et dense des étoiles, le plasma de l’étoile devient convectivement instable et produit ainsi des écoulements de matière à plus ou moins grande échelle. Ces cellules convectives sont affectées par la rotation non uniforme (différentielle) en fonction du rayon et de la latitude présente dans l’enveloppe, et permettent la mise en place d’une dynamo à l’échelle de l’étoile, entretenant la génération d’un champ magnétique contre sa dissipation par effet Joule. Toutefois, on ignore comment ce champ évoluera lorsque le Soleil atteindra la phase de géante rouge, au cours de laquelle son enveloppe se dilatera considérablement et sa rotation ralentira fortement. Une équipe de chercheurs, associée au Département d’Astrophysique du CEA Paris-Saclay et à l’OSU OREME de l’Université de Montpellier s’est donc attelé à la tâche. Elle a utilisé l’étoile Pollux, qui a tout juste atteint le stade de géante rouge, comme proxy pour comprendre le futur de notre étoile. Pollux, bien étudiée en raison de sa proximité et de sa luminosité, présente une masse 2,5 fois supérieure à celle du Soleil et un rayon environ 9 fois plus grand (cf. Figure 1). Les observations spectro-polarimétriques ont montré que le champ magnétique à la surface était très faible, à peine inférieur à 1 Gauss, probablement l'un des plus faibles jamais détectés sur une étoile.

Figure 2 : Représentations tri-dimensionnelles des flots de matière dans une des simulations numériques de l’enveloppe convective de la géante rouge Pollux. À haut, les flots de matières montant et descendant ; et en bas, l’enstrophie quantifie les structures tourbillonnaires. Les lignes émergentes de la surface sont une extrapolation des lignes de champ magnétique possiblement générées par l’étoile. Crédit : L. Amard, A.S. Brun, A. Palacios, A. Finley

Découverte du mécanisme de dynamo des géantes, une première mondiale Pour comprendre le champ magnétique des géantes et le processus de dynamo dans leur enveloppe convective étendue, l'équipe de chercheurs a réalisé une série de simulations magnéto-hydrodynamiques 3D (figure 2), grâce aux supercalculateurs GENCI du TGCC et de l'Idris. Les valeurs du champ magnétiques déduites des simulations numériques de l’étude sont comparable aux valeurs très faibles mesurées à la surface de Pollux, de l’ordre de 1G. Les chercheurs démontrent également que la géométrie et l’intensité de ce champ magnétique dépendent directement de la taille des cellules de convection (cf figure 4). De petites cellules, illustrées par la simulation de gauche dans la figure 3, produisent un champ magnétique plus faible et plus complexe, et structuré à petites échelles. Cela s'explique par une corrélation moins efficace entre les structures convectives et magnétiques à ces grandes échelles, limitant ainsi la cohérence et la puissance du champ magnétique global comme illustré à gauche de la figure 4. Grâce à cette étude, les chercheurs ont estimé qu’entre 2 et 8% de l’énergie cinétique est convertie en énergie magnétique en fonction des paramètres/cas considérés. La découverte d’un tel mécanisme de dynamo dans des simulations 3D turbulentes d’étoiles géantes est une première mondiale. Enfin, comme le montre la figure 4, les simulations suggèrent qu’une étoile comme Pollux pourrait inverser la polarité du champ magnétique sur des périodes de plusieurs années, comme le fait le Soleil. Ce phénomène n’est pas visible dans les données actuelles car elles ne couvrent qu'environ quatre ans d’observation. L’étude prédit ainsi que des observations régulières sur une période plus longue pourraient révéler des inversions magnétiques chez Pollux.

Figure 3 : Rendu visuel des données digitales des deux simulations, comparées à gauche au Soleil à l'échelle. La taille des cellules convectives visibles à la surface est ici clairement différente d'une simulation à l'autre. De plus petites cellules mènent à un champ magnétique plus faible et à un champ plus complexe, lié à la moins bonne corrélation entre les structures convectives et magnétiques à ces grandes échelles. Crédit: L. Amard, A.S. Brun, A. Palacios, A. Finley

Une étude clé pour la réussite des prochaines missions stellaires et exoplanétaires Cette étude sur le magnétisme des étoiles géantes apporte une meilleure compréhension du phénomène de dynamo stellaire en proposant un scénario où la turbulence à petite échelle génère un champ magnétique de faible intensité dans l’enveloppe étendue de ces étoiles. En créant de l’activité magnétique à la surface de l’étoile et en provoquant ainsi des variations de luminosité, le champ magnétique complique la détection et la caractérisation des exoplanètes. Ainsi, en approfondissant notre connaissance du magnétisme stellaire, cette recherche s’inscrit parfaitement dans le cadre de la future mission spatiale de recherche d’exoplanètes de l’ESA, PLATO, pour laquelle le LDE3 et le LUPM contribuent activement.

Figure 4 : À gauche, est représentée l’échelle à laquelle le champ magnétique est généré dans les deux simulations présentées sur la figure 2. À droite, on montre l’évolution du champ magnétique intégré à la surface visible de ces mêmes simulations. La bande verte indique le domaine couvert par les valeurs observées par le spectropolarimètre Narval, situé au Pic du Midi [Aurière et al. (2021)]. Crédit : L. Amard, A.S. Brun, A. Palacios, A. Finley

Contacts CEA-IRFU : Louis AMARD, Sacha BRUN Publication : “Understanding Post Main Sequence Stellar Magnetism: On the origin of Pollux weak surface magnetic field”, Amard et al. 2024, The Astrophysical Journal Communiqué de presse du CNRS-INSU

Une pierre plusieurs coups avec la validation de la cryogénie à 1,9 K, du système numérique de protection et la démonstration des performances exceptionnelles du quadrupôle MQYYM fabriqué par l’Irfu pour le projet HL-LHC (High Luminosity Large Hadron Coll

Dix années de travail collaboratif intense entre les équipes du DACM et du DIS de l'Irfu ont abouti, en ce début d’été 2024, au succès du test de l’aimant supraconducteur MQYYM dans la nouvelle station de tests d’aimants d’accélérateur quadripôle STAARQ. De par ces résultats exceptionnels, 3 axes de développement fortement interconnectés entre les deux départements ont été validés : Un axe conception et fabrication d’aimant d’accélérateur NbTi (niobium-titane) pour HL-LHC avec l’aimant MQYYM (DACM/LEAS et DIS/LCAP-LRI), Un axe cryogénie à 1,9 K avec le développement de la station cryogénique de STAARQ (DACM/LCSE et DIS/LCAP-LRI), Un axe test d’aimant supraconducteur avec la qualification du système de protection de l’aimant basé sur un Magnet Safety System numérique (DIS/LEI).  Ce test n’aurait par ailleurs pas été possible sans l’implication du DIS/LDISC pour le système de contrôle commande et le DIS/LEIGE pour l’électrotechnique et l’électronique de puissance.  

Test de l'aimant au sein de la station Staarq (crédit : F. Rhodes/CEA-Irfu)

Photo de groupe des équipes du DACM et du DIS (crédit CEA/Irfu)

La station STAARQ est prête pour tester les performances de nouveaux aimants à 1,9 K Les équipes de l’Irfu du DACM et du DIS ont conçu et réalisé la nouvelle station de tests d’aimants d’accélérateur quadripôle, STAARQ, au sein du Synergium. Les études cryogéniques, électriques et du système de protection des aimants supraconducteurs ont nécessité 2 années de conception. Deux années supplémentaires ont permis l’installation et la modernisation des équipements. En mars 2023, la phase de mise au point a débuté jusqu’à l’obtention du dernier jalon : la démonstration et la caractérisation du fonctionnement à 1,9 K. Les deux prochaines années seront dédiées aux trainings et aux mesures des performances magnétiques d’aimants quadripôles destinés à l’accélérateur du CERN. Avec STAARQ, l’Irfu s’est doté d’une station qui s’inscrit de part ses performances et son adaptabilité dans le standard international des stations de tests de ce type. Pour en savoir plus

La station Staarq (Station de tests d'aimants d'accélérateur quadripôle) au CEA (crédit CEA)

Une campagne de test réussie à 1,9 K pour l’aimant MQYYM Les équipes du DACM/LEAS ont développé et fabriqué un aimant supraconducteur de type quadrupole en Niobuim-Titane (NbTi), dans le cadre du projet HL-LHC pour la jouvence des aimants situés autour des zones d’interaction des détecteurs ATLAS et CMS du LHC. Le projet a débuté en 2014 avec une première phase de design par les équipes du LEAS (magnétique, thermomécanique…). S’en sont suivies les phases de bobinage et de polymérisation de 10 bobines en NbTi au CEA, avant de poursuivre leur instrumentation et leur assemblage au CERN, toujours par l’équipe projet du CEA. Un an de travail et de déplacements ont été nécessaires pour la réalisation de ces actions par l’équipe projet du LEAS grâce aux infrastructures et conseils techniques du CERN. Une fois assemblé, l’aimant MQYYM a alors été renvoyé au CEA pour être testé une première fois avec succès à 4,2 K en mars 2021, puis testé à nouveau dans ses conditions nominales à 1,9 K en juin-juillet 2024 dans la station STAARQ. L’aimant a ainsi parfaitement performé, atteignant un courant de 6 375 ampères, soit très proche du courant maximal calculé ! De nombreux tests de caractérisation (vitesse de rampe, dépendance en température, protection) ont également été réalisés et ont démontré les très bonnes capacités de l’aimant à répondre aux différentes sollicitations. Pour en savoir plus

Aimant MQYYM lors de sa mise en place sur la plateforme STAARQ pour connexion et instrumentation (crédit CEA/Irfu)

Le déploiement novateur d’un Magnet Safety System numérique   La réalisation de la nouvelle station STAARQ s'accompagne du déploiement d'un Magnet Safety System (MSS) pour la détection de quench (c'est-à-dire le passage brutal de l'aimant de l'état supraconducteur à l'état résistif) et la commande de la protection de l’aimant en test. Le MSS est composé par un MSS analogique éprouvé et un nouveau MSS où la détection quench est numérique et intégrée dans un FPGA (Field-Programmable Gate Array, un composant logique programmable). Les essais de l’aimant MQYYM au début de l’été 2024 ont permis de complètement qualifier le MSS numérique avec la détection des 61 quenchs provoqués lors des tests, l’absence de fausse détection et des performances augmentées par rapport au MSS analogique. Pour en savoir plus

Contacts : J-M. Gheller, Simon Perraud, Hélène Felice, Damien Simon, Philippe De Antoni, Frédéric Molinié, Sony Trieste

La NASA vient de sélectionner le projet PRIMA (The PRObe for Infrared Mission for Astrophysics) pour une étude de phase A, parmi une dizaine de propositions. Cette phase d’étude, qui durera un an, permettra d’évaluer en profondeur le projet avant la décision finale. Si PRIMA est retenu, la NASA allouera un budget d’un milliard de dollars pour son développement, avec un lancement prévu en 2031. PRIMA est un télescope conçu pour observer l’infrarouge lointain, ce qui offrira des réponses sur l’origine et l’évolution des planètes, des trous noirs supermassifs, des étoiles et de la poussière cosmique. La France joue un rôle majeur dans cette mission, notamment grâce à la participation du CNES, du Laboratoire d'Astrophysique de Marseille (LAM) et du CEA, qui collaborent au développement de l'un des instruments clés du projet, l’imageur PRIMAger. Sur le plan européen, le projet bénéficie également du soutien du SRON (Pays-Bas) ainsi que d'instituts en Italie et au Royaume-Uni (Cardiff), renforçant ainsi la dimension internationale de l'équipe.

Design du télescope PRIMA Crédits : NASA-JPL-Caltech

Description de la mission PRIMA Le projet PRIMA est un observatoire spatial innovant doté d'un télescope de 1,8 mètre, conçu pour étudier les longueurs d'onde de l'infrarouge lointain. Il comble ainsi le fossé entre les observatoires infrarouges existants, tels que le télescope spatial James Webb (JWST) de la NASA, et les radiotélescopes au sol. Le projet repose sur deux instruments scientifiques majeurs : FIRESS (Far InfraRed Spectrometer System), un spectromètre ultra-sensible couvrant une gamme de 25 à 80 microns, capable de spectroscopie à basse résolution (R~200) pour des observations larges et à moyenne résolution (R~5000) pour des études plus détaillées. Développé par le Jet Propulsion Laboratory (JPL) à Pasadena, cet instrument permettra d'observer des phénomènes cosmiques avec une grande précision. PRIMAger, un imageur/polarimètre spectrophotométrique multi-bande optimisé pour les longueurs d'onde entre 25 et 300 microns. Il offrira deux bandes : la première, hyperspectrale (25-80 microns, R~10), et la deuxième, incluant des capacités polarimétriques (80-300 microns). Ce développement est le fruit d'une collaboration internationale réunissant le LAM, le CEA (sites de Paris-Saclay et Grenoble), ainsi que le SRON (Pays-Bas). Fonctionnant dans l’infrarouge lointain, la réussite de PRIMA repose sur des technologies avancées en cryogénie (température de fonctionnement à 4,5 K), permettant des observations d'une sensibilité exceptionnelle.

Description de la mission PRIMA Crédits : NASA-JPL-Caltech

Objectifs de la mission PRIMA Les objectifs scientifiques de PRIMA sont vastes et incluent : La coévolution des galaxies et des trous noirs supermassifs à travers l'observation en infrarouge des processus dynamiques qui les lient. L'étude de la formation des premiers éléments lourds et des grains de poussière dans l'univers primitif, apportant des informations cruciales sur l'évolution chimique de l'univers. L'analyse des disques proto-planétaires, permettant de déterminer les abondances chimiques et de comparer ces données avec les atmosphères des exoplanètes, afin de mieux comprendre le rôle de l'eau et d'autres composés dans la formation des planètes. L'étude des petits corps du système solaire, en particulier les objets de la ceinture de Kuiper, pour lesquels PRIMA permettra d'observer des tailles comprises entre 35 et 80 km, inaccessibles aux précédentes missions comme Spitzer ou Herschel. Réalisation d’un relevé hyperspectral complet du ciel, grâce à PRIMAger. Si ce relevé est mené à bien dans le cadre du temps d'observation ouvert, prévu sur une période d'un an (sur les cinq ans de la durée de vie de PRIMA), il constituera une base de données inédite, apportant des informations essentielles pour la communauté astronomique mondiale.

Les objectifs scientifiques de la mission PRIMA Crédits : NASA-JPL-Caltech

Prochaines étapes du projet La prochaine étape clé pour l'équipe PRIMA sera la sélection définitive du projet par la NASA, prévue en 2026. Si PRIMA est retenu, l'instrument PRIMAger, auquel la France participe, sera livré au Jet Propulsion Laboratory (JPL) d'ici fin 2029. Le lancement de la mission est quant à lui programmé pour mars 2031.

Contact CEA Paris-Saclay : Marc SAUVAGE Contact CEA Grenoble : Ivan CHARLES & Thomas PROUVE Pour aller plus loin : Site internet du projet

La compréhension des diverses populations stellaires constituant les galaxies est cruciale pour étudier la formation de ces dernières à travers le temps cosmique. Néanmoins, des irréductibles étoiles résistent encore et toujours aux modélisateurs ! Leur nature complexe et leur courte durée de vie rendent les étoiles de la branche asymptotique des géantes thermiquement pulsantes (TP-AGB) difficiles à modéliser, un sujet de débat depuis des décennies. Le télescope spatial James Webb permet enfin de lever le voile sur leur contribution au spectre des galaxies lointaines. Ces découvertes ont des répercussions sur la détermination de l'âge et de la masse stellaire des galaxies, ainsi que sur la production de poussière cosmique et l'enrichissement chimique. Cette découverte vient d'être publiée dans la prestigieuse revue Nature.

Les étoiles TP-AGB – le chainon manquant pour l’étude des galaxies Pour comprendre la formation et l’évolution des galaxies, les chercheurs utilisent les populations stellaires qui les composent en comparant les spectres des galaxies observées à des modèles stellaires basés sur des observations et théories. Bien que la plupart des phases d'évolution des étoiles sont bien modélisées, les étoiles TP-AGB, des géantes asymptotiques à pulsation thermique, restent une source d'incertitude. En effet, avec une durée de vie courte (entre 0,6 et 2 milliards d'années) et une évolution rapide du fait de phénomènes complexes comme la perte de masse et les pulsations thermiques, ces étoiles sont particulièrement difficiles à modéliser. La contribution des étoiles froides TP-AGB à l'émission infrarouge des galaxies fait ainsi l'objet d'une controverse depuis longtemps. Si leur contribution est significative, cela pourrait diminuer les estimations d'âge et de masse des galaxies, en particulier pour celles âgées d'environ 1 milliard d'années, fréquemment observées dans l'univers lointain. Une telle révision aurait des répercussions majeures sur notre compréhension de la formation et de l’évolution des galaxies (voir Figure 1).

Figure 1 – Comparaison des modèles de spectres de différentes populations stellaires. La connaissance de ces modèles est essentielle car ils permettent de déduire des informations clés telles que l'âge et la masse d'une galaxie.

Premières signatures claires d'étoiles TP-AGB révélées par le télescope spatial James Webb Les étoiles TP-AGB sont des astres froids qui présentent des signatures spectrales distinctives dans le proche infrarouge (0,5-2 microns), notamment des bandes d’absorption larges et des discontinuités causées par diverses molécules. Dans le cas où ces étoiles contribueraient de manière significative à la lumière d’une galaxie, ces caractéristiques spectrales devraient être facilement détectables. Une équipe de chercheurs dirigée par le Département d’Astrophysique du CEA-Saclay a utilisé des observations du télescope spatial James Webb (JWST) dont la sensibilité dans l’infrarouge est idéale pour détecter ces étoiles dans les galaxies quiescentes jeunes (∼ 1 milliard d'années) et lointaines (z = 1–2). Les chercheurs ont sélectionné trois galaxies issues du programme CEERS (JWST NIRSpec Cosmic Evolution Early Release Science), dont l'une, beaucoup plus lumineuse que les autres, offrait un spectre de haute qualité. Le spectre de cette galaxie, nommée D36123, a révélé des signatures claires d'étoiles TP-AGB riches en oxygène et en carbone, avec une contribution importante à la lumière de la galaxie (voir Figure 2). Les deux autres galaxies, bien que présentant un spectre de qualité inférieure, confirment ces observations. Les modèles de synthèse stellaire intégrant une contribution significative des étoiles TP-AGB s'ajustent mieux aux spectres observés, indiquant que ces galaxies pourraient être moins massives et plus jeunes que prévu initialement. Ces résultats ont également des implications pour la production de poussière cosmique et l'enrichissement chimique des galaxies.

Figure 2 - Le spectre révèle de nombreuses absorptions larges ainsi que des discontinuités spectrales, signatures caractéristiques des étoiles TP-AGB. Il s'agit de la première détection de ces étoiles dans le spectre d'une galaxie lointaine.

De futures observations pour contraindre les modèles La galaxie D36123 est unique et n'a pas d'analogue connu dans l'Univers proche, offrant un premier aperçu de l'émission des étoiles froides dans les galaxies lointaines. Cette découverte met fin au débat sur leur présence dans les galaxies âgées de plusieurs milliards d’année. Toutefois, même le modèle qui correspond le mieux aux données ne parvient pas à expliquer toute la richesse des signatures spectrales détectées. Un échantillon plus vaste d'observations similaires est donc crucial pour déterminer si les caractéristiques de la galaxie D36123 sont exceptionnelles ou si elles reflètent des propriétés communes des galaxies quiescentes. L’équipe de chercheurs a d’ailleurs obtenu de nouvelles observations avec le JWST pour approfondir ces questions. A plus long terme, l’équipe envisage d'observer ces galaxies à plus grande longueur d'onde afin d’obtenir de meilleurs modèles stellaires, guidés par les observations actuelles et futures.

Figure 3 : Planification des nouvelles observations de galaxies quiescentes avec le JWST. Les carrés bleus indiquent les champs d'observation prévus avec l'instrument NIRSpec du JWST, tandis que les points rouges représentent les galaxies quiescentes brillantes, telles que D36123.

Contact Irfu/DAp : Emanuele Daddi Pour aller plus loin : Article Nature Communiqué de presse de l'Université Nanjing Communiqué de presse de l'Université Portsmouth

Zoom sur la première page du grand atlas cosmique Euclid de l'ESA

La mission spatiale Euclid de l'ESA révèle le 15 octobre le premier morceau de sa grande carte de l'Univers, qui montre des millions d'étoiles et de galaxies. Ce premier morceau du relevé d'Euclid a été révélé lors du Congrès international d'astronautique à Milan, par le directeur général de l'ESA, Josef Aschbacher, et la directrice des sciences, Carole Mundell. Grâce à un accord entre le CEA et l'ESA, deux experts du traitement d'images, Jean-Charles Cuillandre et Emmanuel Bertin, tous deux astronomes de l'Observatoire des Sciences de l'Univers de Paris-Saclay (OSUPS) et membres du Département d'Astrophysique du CEA Irfu, ont réalisé cette mosaïque sous la supervision de l'ESA. La logistique informatique du projet a été assurée par le centre d’opérations et de données de l'OSUPS (IDOC), avec les moyens techniques de la plateforme VirtualData du mésocentre Paris-Saclay.  

Cette mosaïque réalisée par le telescope Euclid contient 260 observations collectées entre le 25 mars et le 8 avril 2024. Il s'agit de 1 % du vaste relevé qu'Euclid capturera pendant six ans. En seulement deux semaines, Euclid a couvert 132 degrés carrés du ciel austral, soit plus de 500 fois la surface de la pleine lune vue de la Terre. ESA/Euclid/Euclid Consortium/NASA, CEA Paris-Saclay, image processing by J.-C. Cuillandre, E. Bertin, G. Anselmi

Jean-Charles Cuillandre explique  : "De nouvelles méthodes de traitement du signal ont été mises en œuvre par rapport aux premiers efforts de novembre 2023 et mai 2024  pour révéler l'Univers aux très faibles brillances de surface jusqu'à de très grandes échelles sur le ciel. Les images à grand champ et haute résolution produites pour cet effort offrent une homogénéité inédite pour un relevé du ciel dans un tel domaine spectral depuis l'espace (optique et proche infrarouge)" Des méthodes d'apprentissage profond ont été mises en œuvre par Emmanuel Bertin pour éliminer aux petites échelles des reflets d’étoiles brillantes et autres parasites propres aux optiques d'Euclid et de ses instruments: "C’est la première fois qu’une image du ciel aussi étendue est produite avec une telle résolution depuis l’espace, préfigurant les futurs résultats de cette mission spatiale. La mosaïque publiée aujourd'hui est un avant-goût de ce que nous réserve la mission Euclid dans les années à venir".   En haut à gauche une carte de l'ensemble du ciel (41 000 degrés carrés) Zone en Jaune: la mosaïque d’Euclid; deux semaines seulement, 1 % de la vaste étude qu'Euclid réalisera sur une période de six ans, 132 degrés carrés soit plus de 500 fois la surface de la pleine lune. Puis 5 zooms allant dans les moindres détails Credit: ESA/Euclid/Euclid Consortium/NASA, CEA Paris-Saclay, image processing by J.-C. Cuillandre, E. Bertin, G. Anselmi; ESA/Gaia/DPAC; ESA/Planck Collaboration CC BY-SA 3.0 IGO   Dans la mosaïque, les emplacements des différentes images zoomées sont indiqués. Au-dessus de chaque image, le facteur de zoom est indiqué (de 3 à 600 fois par rapport à la mosaïque originale). Cette mosaïque contient déjà environ 100 millions de sources : des étoiles dans notre Voie lactée et des galaxies au-delà. Environ 14 millions de ces galaxies pourraient être utilisées pour étudier l'influence cachée de la matière et de l'énergie noires sur l'Univers.  

Une carte de l'ensemble du ciel (41 000 degrés carrés) est visible avec l'emplacement de la mosaïque d'Euclid sur le ciel austral surligné en jaune. ESA/Euclid/Euclid Consortium/NASA, CEA Paris-Saclay, image processing by J.-C. Cuillandre, E. Bertin, G. Anselmi; ESA/Gaia/DPAC; ESA/Planck Collaboration

La suite... Des premiers articles seront publiés en mars 2025 à partir de données de 50 degrés carrés (l’équivalent d’un semaine) comprenant un aperçu des zones du champ profond Euclid (qui seront observés des dizaines de fois durant les 6 ans de la mission). Les premiers articles avec une analyse cosmologique ainsi que la première année de données cosmologiques de la mission seront communiqués à la communauté en 2026.   Contacts Irfu/DAp : Jean-Charles Cuillandre, Emmanuel Bertin, Marc Sauvage

Une des images agrandie 150 fois par rapport à la grande mosaïque. Cette image montre des galaxies qui interagissent entre elles dans l'amas Abell 3381 à 420 millions d'années-lumière de nous. Crédit: ESA/Euclid/Euclid Consortium/NASA, CEA Paris-Saclay, image processing by J.-C. Cuillandre, E. Bertin, G. Anselmi

Retrouvez les images en hautes définition sur l'actualité ESA et sur l'actualité CEA Découvrez la première page du grand atlas cosmique Euclid de l'ESA et émerveillez-vous devant des millions d'étoiles et de galaxies capturées dans leurs moindres détails, dans une immense mosaïque de 208 gigapixels.   Cette vidéo vous fait vivre une exceptionnelle plongée dans le ciel. À partir d'un vaste panorama cosmique, une série de zooms de plus en plus profonds vous amène à une vue nette d'une galaxie spirale tourbillonnante, dans une image finale agrandie 600 fois par rapport à la mosaïque complète. Credit: ESA/Euclid/Euclid Consortium/NASA, CEA Paris-Saclay, image processing by J.-C. Cuillandre, E. Bertin, G. Anselmi; ESA/Gaia/DPAC; ESA/Planck Collaboration

Trois laboratoires CEA (SGLS/ISAS/DES, DPHP/IRFU, BioMaps/SHFJ/JOLIOT) ont associé leurs savoir-faire pour développer un algorithme de Deep Learning innovant pour l’amélioration de la reconstruction d’images TEP  acquises dans le cadre du projet ClearMind, une technologie basée sur la détection des photons gamma par un détecteur utilisant des cristaux monolithiques de tungstate de plomb. Un pas vers une imagerie TEP plus précise.  

© G.Daniel et al., Engineering Applications of AI, 2024

Dans le domaine de la médecine nucléaire, la Tomographie par Émission de Positrons (TEP) est une méthode d’imagerie essentielle au diagnostic en oncologie, neurologie et cardiologie. Au cours de l’examen, des atomes radioactifs émetteurs de positrons sont injectés au patient sous la forme d’un produit radiopharmaceutique. La désintégration du radiotraceur émet des positrons, qui s'annihilent en deux photons γ émis dos à dos et atteignent une paire de détecteurs opposés entourant le patient. Ces photons détectés en coïncidence sont utilisés pour reconstituer la distribution du traceur dans le corps du sujet. La précision de cette imagerie dépend donc de la capacité des détecteurs à localiser et dater les interactions des photons γ dans les scintillateurs. Récemment, le projet ClearMind a proposé un concept innovant de détecteur TEP composé de cristaux monolithiques de tungstate de plomb (PbWO4) sensibles à la position des photons γ. Ce scintillateur offre une sensibilité supérieure aux détecteurs pixellisés traditionnels, mais introduit une complexité supplémentaire dans le traitement des signaux pour la reconstruction spatiale des interactions.

Schéma du principe de détection de photons dans le détecteur ClearMind. Les photons gamma interagissent en émettant des photons optiques par effet Cherenkov et de scintillation qui sont ensuite détectés par une photocathode couplée à un photomultiplicateur qui crée le signal enregistré par le détecteur. © G.Daniel et al., Engineering Applications of AI, 2024

Dans cette étude, le consortium de chercheurs des trois laboratoires de l’ISAS, du DPHP-Irfu et du SHFJ-Joliot  a développé une méthode innovante de Deep Learning pour améliorer la localisation des interactions des photons γ dans les scintillateurs développés par le projet ClearMind. L’équipe a utilisé un réseau de neurones à densité (Density Neural Network), entraîné sur des simulations du détecteur, avec une fonction de perte intégrant les contraintes physiques du détecteur (notamment près des bords), ainsi qu’une estimation de l’incertitude inhérente au processus de reconstruction. Cette combinaison unique a permis des estimations de position plus robustes et plus fiables et les résultats obtenus démontrent l'efficacité de l'approche proposée en mettant en évidence les avantages significatifs de l'estimation des incertitudes par le modèle.  

En atteignant leur objectif de reconstruction plus fiable et précise des coordonnées spatiales des interactions γ pour l'imagerie TEP, les auteurs discutent le fait que leur méthode pourrait s'appliquer à d'autres domaines nécessitant des analyses de données de capteurs complexes. Ils prévoient que leur approche pourrait transformer la manière dont les reconstructions spatiales sont réalisées, ouvrant la voie à des applications élargies ainsi qu’à une imagerie médicale plus précise et fiable en lien avec l’IA de confiance. Contacts Irfu DPHP: Viatcheslav Sharyy, Dominique Yvon

Les New Small Wheels (NSW, nouvelles petites roues) sont le projet le plus important de la phase 1 de la jouvence du détecteur ATLAS, en vue des prises de données à haute luminosité. L’IRFU a été fortement impliqué dans la conception, la construction, l’intégration, la mise en œuvre, et le fonctionnement des NSW. Les NSW combinent deux technologies complémentaires : sTGC (small-strip Thin Gap Chambers), et Micromegas (Micro-Mesh Gaseous Structure). Les Micromegas ont été initialement développées par l’IRFU en collaboration avec le CERN dans les années 1990. C’est la première fois qu’elles sont utilisées à une si grande échelle : les NSW contiennent 1200 m² de plans de Micromegas, dont un tiers a été construit par l’IRFU à Saclay. Les deux roues ont été installées en 2021, à temps pour le début des prises de données du Run 3 du LHC. Depuis le printemps 2024, sTGC et Micromegas participent au système de déclenchement des muons vers l’avant du détecteur (end-cap), améliorant la réjection du bruit de fond de plus d’un facteur 2, réduisant ainsi le taux de trigger de 25 kHz à 11 kHz. Cela permet à ATLAS de prendre des données à une luminosité et un taux d’empilement jamais atteints auparavant.

Une des deux nouvelles petites roues (New Small Wheel A) dans la caverne d’ATLAS. Les bobines du spectromètre à muons d’ATLAS sont visibles autour de la roue. En position de fonctionnement, la roue est insérée à l'intérieur du spectromètre. Chaque roue est composée de 16 secteurs. Sur la photo, seuls les 8 grands secteurs sont visibles, tandis que les 8 petits secteurs sont intercalés entre les grands secteurs et recouverts d'une barre d'alignement.

Le LHC fournit des collisions à ATLAS à un taux de croisement de paquets de protons de 26 millions par seconde. Comme toutes les collisions ne sont pas intéressantes et que le volume de données serait trop important pour toutes les enregistrer, seule une petite partie est sélectionnée par le système de déclenchement d’ATLAS. Le premier niveau de déclenchement (niveau 1, Level-1, hardware) utilise des informations partielles de l'événement et décide de le conserver ou de le rejeter en moins de 2,5 microsecondes, réduisant le taux de 26 MHz à 100 kHz. Le deuxième niveau (High-Level Trigger, software) effectue une reconstruction complète des événements et réduit le taux à conserver d'un autre ordre de grandeur. Le système de déclenchement utilise diverses informations de la collision en particulier la présence dans l’événement de particules rares comme les muons. Le détecteur ATLAS après la jouvence de phase 1. On appelle bouchons (ou endcap) les deux parties verticales du détecteur qui “bouchent” le cylindre central (barrel). Dans le spectromètre à muons, les endcaps sont constitués des New Small Wheels, se situant entre les calorimètres endcap et les aimants toroïdaux endcap, et de deux grandes roues (Big Wheels Middle et Outer), se situant à l’extérieur des aimants.

Le projet NSW a été motivé par la nécessité de réduire le bruit de fond élevé observé dans le système de déclenchement de niveau 1 des muons vers l’avant du détecteur pendant le Run 1 du LHC (2010-2013) afin de pouvoir faire face à la luminosité attendue au HL-LHC (High-Luminosity LHC, LHC à haute luminosité). Un muon émanant d’une collision au centre du détecteur ATLAS traverse, dans cet ordre : une NSW, l’aimant toroïdal, une première grande roue (Middle), puis une seconde (Outer). À l’origine d’ATLAS, seule la grande roue Middle était équipée d’un système de déclenchement. L'objectif principal des NSW est d’apporter un point de mesure additionnel, en amont de l’aimant toroïdal, au système de déclenchement afin de rejeter les particules ne provenant pas du point d'interaction. La conception choisie est une combinaison de deux technologies capables à la fois de déclencher (nécessitant une réponse rapide et une bonne précision de mesure temporelle) et de mesurer avec précision la trajectoire des muons. La première utilise des chambres sTGC (small-strip Thin Gap Chambers, permettant un déclenchement rapide) possédant trois unités de lecture: pads (rectangles d’environ 8 cm de largeur dans le plan de mesure), bandes de 3.2 mm de largeur, et fils orientés perpendiculairement aux pads et aux bandes. La deuxième utilise des chambres Micromegas (Micro-Mesh Gaseous Structure, permettant une mesure précise) avec des bandes résistives de moins d'un demi-millimètre de largeur. Avec 8 couches de mesure chacune, les deux technologies offrent une bonne redondance. Dans le cadre de la phase 1 de la jouvence d'ATLAS, les roues ont été installées en 2021, à la fin du LS2 (Long-Shutdown 2, 2019-2021), juste avant le début du Run 3 du LHC (2022-2026). Un secteur de la nouvelle petite roue (ici un grand secteur) est composé d'une double-chambre Micromegas entre deux chambres sTGC. Chaque chambre fournit quatre couches de mesure. Les modules Micromegas LM1 (modules intérieurs des grands secteurs) ont été construits par l'IRFU, à Saclay.

Le système de déclenchement des muons vers l’avant fait coïncider les informations NSW avec le système de déclenchement des Big Wheels Middle. Le déclenchement des NSW est mis en œuvre en plusieurs étapes. Dans un premier temps, en 2023, plusieurs secteurs ont été activés en utilisant uniquement les pads des sTGC, ce qui ne nécessite pas l'utilisation du processeur de déclenchement NSW dédié. Le 8 mai 2024, des informations NSW ont été incluses dans 85 % des secteurs de déclenchement, ce qui a permis de réduire le taux de déclenchement au niveau 1, de 25 kHz à 13 kHz. Le 21 mai, les points de mesure des Micromegas pour ces mêmes secteurs ont été ajoutés pour la toute première fois. Enfin, le 28 mai, grâce à l'ajout des informations de Micromegas, tous les secteurs restants (certains souffrant d'une faible efficacité des sTGC) ont pu être inclus, ce qui a conduit à une réduction totale du taux de déclenchement principal des muons de 14 kHz, tout en conservant 96 % des muons intéressants. Le taux de déclenchement total d'ATLAS est limité à 100 kHz, de sorte qu'une réduction de 14 kHz est significative et permet de prendre des données à une luminosité plus élevée. Actuellement, ATLAS est capable de prendre des données avec une luminosité instantanée de 2,2 1034 cm-2s-1 à 13,6 TeV, ce qui produit 65 événements de pile-up par croisement de paquets. L'ajout d'informations Micromegas est particulièrement intéressant dans les secteurs souffrant d'une faible efficacité des sTGC : non seulement cela augmente l'efficacité du déclenchement, mais cela permet également d'activer des secteurs qui ne seraient pas suffisamment efficaces autrement, contribuant ainsi à la réduction du bruit de fond. Taux de déclenchement pour la chaîne de déclenchement principale d’un muon unique vers l’avant du détecteur, en fonction de la date. La réduction du taux est due à l'inclusion progressive des NSW. Le 28 mai 2024, la coïncidence avec les NSW a été pleinement activée pour tous les secteurs de déclenchement, à l'aide des détecteurs sTGC et Micromegas, ce qui a entraîné une réduction globale du taux d'environ 14 kHz.

Lors du Run 4 (qui devrait débuter en 2030), la luminosité sera jusqu'à trois fois plus élevée qu'aujourd'hui, ce qui exercera une pression encore plus forte sur le système de déclenchement. La prochaine étape pour les NSW consistera à utiliser, en plus des pads des sTGC et des bandes Micromegas, les bandes des sTGC, qui permettent une reconstruction plus précise que les pads et une redondance supplémentaire, réduisant ainsi davantage le bruit de fond.   Efficacité relative de la coïncidence entre le système pré-existant et les détecteurs NSW pour des secteurs particuliers, en fonction de la date. Initialement, le secteur NSW concerné (A10) n’utilisait que les pads des sTGC. Depuis le 9 mai 2024, l’information des détecteurs Micromegas a été ajoutée, ce qui a permis d'améliorer significativement l'efficacité. Contact:Henri Bachacou