CEA Paris-Saclay - Bat 141, salle André Berthelot (143) CEA Paris-Saclay
Superconducting magnets have been an enabling technology for particle accelerators for more than 40 years. An introduction on the specific challenges of high field accelerator dipoles with respect to other devices, such as solenoids or detector magnets, will be provided followed by a brief historical overview of the development of Nb-Ti magnets for particle colliders, up to the 8 T dipole fields achieved in the LHC at 1.9 K.
Nb3Sn was considered as an option for LHC; we will recall the development of Nb3Sn dipole short models in the 10-14 T range in the past 35 years.
The focus will then shift to the present status of Nb3Sn technology used in the quadrupoles to be installed at CERN in the High Luminosity LHC at the end of this decade, with 11.5 T operational peak field and lengths up to 7.5 m. To continue, the developments of Nb3Sn dipoles for future colliders aiming at an operational field of the order of 14 T will be discussed. High Temperature Superconductors are used as current leads in the LHC and are planned for the HL-LHC: we will give an outlook on the opportunities and challenges of making dipole magnets using HTS, to achieve fields of the order of 20 T.
CEA Saclay, Orme des Merisiers - Bat 703, p 135 salle visio-conférence CEA Saclay, Orme des Merisiers
13h45-14h Introduction - Anna Corsi
14h-15h L'instrument - 3* (20' + 5' questions)
+ Jean-Marc Gheller Cryogénie de la cible active
+ Alain Delbart TPC et Micromegas
+ Denis Calvet Electronique de la TPC : Feminos
15h-15h30 Pause café
15h30-16h30 La physique des noyaux
+ Valérie Lapoux - L'étude du noyau exotique d'Oxygène-28 (15'+ 5' questions)
+ Anna Corsi - Les campagnes SEASTAR- structure en couches de noyaux exotiques (35' + 5'questions)
CEA Saclay, Orme des Merisiers - Bat 703, p 45 CEA Saclay, Orme des Merisiers
Production of 11C for PET imaging using a high repetition
rate laser-driven proton source.
In recent years, there has been a growing interest in laser-driven ion accelerators as a potential
alternative to conventional accelerators. A particularly promising application is the production of
radionuclides relevant for medical diagnosis, such as 11C for PET imaging. Typically, the
production of these nuclides is centralised in cyclotrons, which reduces the number of facilities
required, but limits the range of usable radionuclides to those with
longer lifetimes.
In this context, compact laser-driven accelerators appear to be an attractive option for the in situ
production of short-lived isotopes. Although the activities required for PET imaging (>MBq) are well
above those achievable by a single laser irradiation (~kBq), the advent of high power, high
repetition rate laser systems open the way to demonstrate relevant activities by continuous
irradiation, provided a suitable target system is developed. In this context, we have developed and
commissioned a target assembly based on a rotating wheel and automatic alignment procedure for
laser-driven proton acceleration at multi-Hertz rates. The assembly, which can host more than 5000
targets and ensuring continuous target replenishment with micron-level precision, has been
demonstrated to provide stable and continuous MeV proton acceleration at rates of up to 10 Hz
using the 45 TW laser system at L2A2 (Univ. of Santiago de Compostela).
The continuous production of 11C via the proton-boron reaction 11B(p,n)11C reaction has been
recently demonstrated using our target assembly on the 1 Hz, 1 PW VEGA-3 system (CLPU,
Spain). In an initial campaign, an activity of ~12 kBq/shot was measured, with a peak activity of
234 kBq achieved through accumulation of 20 consecutive shots. Furthermore, results of a more
recent campaign will be presented, where activation levels in excess of 4 MBq where achieved, as
measured through using coincidence detectors, and supported by online measurements of highflux
neutron generation. We demonstrate that the degradation of the laser-driven ion beam due to
heating of optics is currently the only bottleneck preventing the production of preclinical (~10 MBq)
PET activities with current laser systems. The scalability to next-generation laser systems and new
technologies for the continuous replenishment of the target will allow in the near future the
production of clinical (~200 MBq) activities.
CEA Paris-Saclay - Bat 141, salle André Berthelot (143) CEA Paris-Saclay
I will present the new opportunities offered by the general-purpose intensity-frontier experimental facility BDF/SHiP that was approved by CERN in 2024 for the future physics programme of the new SPS High-Intensity facility in the ECN3 experimental area. The SHiP experiment is designed to operate in beam-dump mode to generically search for Feebly Interacting Particles at the GeV-scale, and perform measurements in neutrino physics. BDF/SHiP complements the worldwide program of New Physics searches by exploring a large region of parameter space that cannot be addressed by other experiments, and which reaches several orders of magnitude below existing bounds by efficiently exploiting the currently available 4x10^19 protons per year at 400 GeV for up to 15 years. The SHiP experiment has sensitivity to both decay and scattering signatures of models with feebly interacting particles, such as dark-sector mediators and light dark matter. In neutrino physics, BDF/SHiP can perform unprecedented measurements with tau neutrinos. In this seminar I will introduce the physics motivation and programme and give an overview of the experimental and technological challenges.
zoom link: https://cern.zoom.us/j/68399739111?pwd=SGErcHBQYmVLWFZTVE9jdm5xSmdEdz09
CEA Saclay, Orme des Merisiers - Bat 703, p 135 salle visio-conférence CEA Saclay, Orme des Merisiers
On behalf of the "Espace de Structure et de réactions Nucléaires Théorique" (ESNT), the workshop entitled: "Light nuclei between single-particle and clustering features" will be held on 3-6 December at CEA-Saclay, Orme-des-Merisiers site.
The goals of the workshops are:
- to define the current state of the field;
- to bridge the spectroscopic results of phenomenological and macroscopic approaches with ones achievable by ab-initio methods;
- to weigh the role of alpha-clustering and assessing perks and limits of macroscopic approaches;
- to provide a comprehensive understanding of the subject for all participants;
- to initiate possible new collaborations.
For details about the updated program, see the ESNT Web pages: https://esnt.cea.fr >> Ateliers 2024
For further information and registration, please contact the organizers of the project (see the Web page of the workshop).
CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers
In my talk, I shall review the main research projects I'm involved in, which all revolve around the added value of cross-correlations between various cosmological observables, as well as among cosmological and astrophysical observables, to shed new light onto pressing open questions in cosmology. In particular, I shall touch upon the possibility of detecting relativistic effects on cosmological scales - which will allow us to deepen our understanding of dark energy and modified gravity -, novel approaches to probe primordial non-Gaussianity, and the use of cosmological data to filter out astrophysical processes in studies of indirect detection of particle dark matter signatures. All this in the view of the new generation of cosmological experiments across the electromagnetic spectrum, like the SKA Observatory in the radio band, or the Euclid satellite at optical/near-infrared wavelengths.
Local concat: Martin KILBINGER
Organization: Fabian HERVAS-PETERS
CEA Saclay, Orme des Merisiers - Bat 703, p 135 salle visio-conférence CEA Saclay, Orme des Merisiers
On behalf of the "Espace de Structure et de réactions Nucléaires Théorique" (ESNT), the workshop entitled: "Dynamics of Nuclear Fission" will be held on 16-20 December at CEA-Saclay, Orme-des-Merisiers site.
The goals of the workshops are:
- Review the advances of nuclear fission theory in the last five years.
- Examine the current stages of development of phenomenological and microscopic models and establish new connections between the two approaches.
- Compare the computational strategies adopted by various research teams and identify challenges for the new generation of fission computer codes (dependable calculation of deformation energy surfaces, collective inertia, functional optimization, time evolution, symmetry restoration).
- Discuss with experimental teams the desired levels of accuracy for the description of specific fission observables including uncertainty quantification.
- Identify new applications of nuclear fission theory, particularly in the field of nuclear astrophysics.
- Issue a set of specific recommendations for developing a unified framework for the description of spontaneous and induced fission, that will start from nuclear structure and extend to the modeling of fission observables that are relevant for applications.
For details about the updated program, see the ESNT Web pages: https://esnt.cea.fr >> Ateliers 2024
For further information and registration, please contact the organizers of the project (see the Web page of the workshop).
CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers
Lancé le 10 décembre 1999, le satellite XMM-Newton d'observation en rayons X fêtera ses 25 ans d'opération et d'exploitation scientifique, et une moisson de résultats scientifiques dans de nombreux domaines. Nous vous invitons mardi 17 septembre 2024 à un séminaire d'anniversaire de la mission XMM-Newton, pierre angulaire du programme Horizon 2000 de l'Agence Spatiale Européenne. Nous retracerons à plusieurs voix l'implication du DAp-AIM dans la réalisation et l'exploitation des données de XMM-Newton, et vous présenterons une sélection de résultats scientifiques marquants.
Local contact: Anne DECOURCHELLE
Organization: Pierre-Antoine FRUGIER
CEA Paris-Saclay - Bat 141, salle André Berthelot (143) CEA Paris-Saclay
Remote visualization of X-rays and gamma rays is essential for nuclear safety and high-energy astrophysics, enabling the safe decommissioning of nuclear facilities and the detection of transient cosmological events. Indirect imaging techniques primarily rely on Compton imaging for a wide field of view and coded aperture-mask imaging for high angular resolution. My thesis advances coded aperture imaging by introducing new coded masks with 3D geometry, which expand the field of view beyond 90° while maintaining fine angular resolution within a few degrees for photon energies below 59.5 keV. We developed two prototypes: a hemispherical Tantalum mask with an Archimedean spiral pattern, achieving a 153° field of view and 2° angular resolution, and a Tungsten mask with an improved coded pattern and enhanced operational characteristics, expanding the field of view to 160°. We capture ionizing radiation using advanced Cadmium Telluride sensors: Timepix3, featuring ultra-high pixel resolution, and Caliste-HD, which provides cutting-edge spectroscopic capabilities. We also developed the "3D Projector Code" toolkit, allowing real-time system response simulation under the zero-energy approximation, facilitating rapid prototyping of 3D masks. Simulation evaluations, validated by experimental results, confirm the wide-field imaging capabilities of the new imaging systems. Future work will focus on enhancing mask designs and optimizing image reconstruction.
CEA Paris-Saclay - Bat 141, salle André Berthelot (143) CEA Paris-Saclay
The seminar will provide a glimpse of some elements of the rapidly evolving field of quantum sensing, specifically focusing on particle physics. Specific approaches involving quantum systems, such as low-dimensional systems or manipulations of ensembles of quantum systems, hold great promise for improving high-energy particle physics detectors, particularly in areas like calorimetry, tracking, and timing. The use of quantum sensors for high-precision measurements, as well as the development of new quantum sensors based on superconducting circuits, ion and particle traps, crystals, and nanomaterials, are equally relevant for low energy particle physics and for fundamental physics.
However, significant advances and improvements in existing or future quantum technologies will be necessary to address such topics related to the dark universe, the detection of relic neutrinos, precision tests of symmetries and of the standard model and probing general foundational issues in physics. The seminar will thus also feature discussions of the Quantum Sensing Initiatives at CERN and the ECFA R&D Roadmap on Quantum Sensing and Advanced Technologies and will discuss options for future collaborations in the context of the just approved DRD5 implementation of the rodmap.
indico: https://indico.in2p3.fr/event/33798/
zoom connection: https://cern.zoom.us/j/68399739111?pwd=SGErcHBQYmVLWFZTVE9jdm5xSmdEdz09
CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers
Local contact: Thierry FOGLIZZO
Organization: Frédéric GALLIANO
CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers
Local contact: Thierry FOGLIZZO
Organization: Frédéric GALLIANO
CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers
Local contact: Ugo LEBREUILLY
Organization: Frédéric GALLIANO
CEA Saclay, Orme des Merisiers - Bat 703, p 135 salle visio-conférence CEA Saclay, Orme des Merisiers
CMOS monolithic active pixel sensors or CMOS-MAPS were proposed more than twenty years ago to match the combination of requirements set by a vertex detector at the future ee linear collider. While we are only getting close to this original challenge, an intense R&D brought CMOS-MAPS into performance range unforeseen initially: hit rates exceeding 100 MHz/cm2, time resolutions below the nanosecond or tolerance to fluence beyond 10^15 n_eq/cm2. Consequently, new applications arose, from hadronic colliders to detector in space.
This seminar will start with a reminder on the existing main monolithic pixel sensor series and their characteristics in terms of technology, collection diode, read-out architecture. We will the focus on the future trackers (and vertex detectors) from collider experiments, which have chosen CMOS-MAPS as their baseline and details their specifications: Belle II, LHCb, ALICE 3, EIC, FCCee.
These projects serve as targets for various R&D with different goals and timelines. It is often not representative of the R&D challenge to quote only a single highlight specification like 3 micrometers, 10 picoseconds, GHz/cm2 particle rate, tolerance to fluence up to 1e16 neutron equivalent/cm2 or power dissipation around 10-20 mW/cm2.
In presenting some of the main R&D projects that are proposed within the newly formed DRD3 and DRD7 ECFA/CERN collaborations, we will show that challenges stems also from the interplays between the specifications due to the monolithic nature of the sensor, but also depending on the technology. In particular we will have a closer look at the developement of intrinsic amplification in the silicon and new read-out architectures.
A perspective of developments in France and their global interconnections world-wide will conclude the presentation.
CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers
Local contact: Thierry FOGLIZZO
Organization: Frédéric GALLIANO
CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers
Local contact: Thierry FOGLIZZO
Organization: Frédéric GALLIANO
CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers
Local contact: Thierry FOGLIZZO
Organization: Frédéric GALLIANO
CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers
Local contact: Thierry FOGLIZZO
Organization: Frédéric GALLIANO
CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers
Local contact: Thierry FOGLIZZO
Organization: Frédéric GALLIANO
CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers
Local contact: Thierry FOGLIZZO
Organization: Frédéric GALLIANO
CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers
Local contact: Emanuele DADDI
Organization: Frédéric GALLIANO
Avec sa première année de données, le grand relevé de galaxies DESI vient de publier de nouveaux résultats qui confirment la théorie de la relativité générale aux échelles cosmologiques avec une précision excédant celle des vingt dernières années.
Le grand relevé de galaxies DESI, qui utilise le télescope Mayall de 4m au Kitt Peak Observatory (Arizona), a commencé ses observations en mai 2021 et vient de publier une analyse cosmologique de la formation des grandes structures de l’Univers avec sa première années de prise de données (publication et video CosmologyTalk expliquant les résultats). DESI est un spectrographe multi-fibres qui, à chaque pointé, mesure le spectre de la lumière provenant de 5000 objets astrophysiques simultanément. Les données collectées permettent de dresser une carte tridimensionnelle de l’Univers. Des méthodes statistiques sont ensuite appliquées à cette carte des galaxies (voir figure 1) pour en déduire à quelle vitesse se sont formées les grandes structures de matière de l’Univers s’organisant en ce que l’on appelle la “toile cosmique”, composée de murs, filaments et nœuds cosmiques. Pour faire cette analyse, les scientifiques s’appuient sur le fait que les décalages spectraux des galaxies sont affectés par leur vitesse particulière, laquelle est d’autant plus grande que la formation des structures est plus rapide. La collaboration DESI a ainsi mesuré la croissance des structures de l’Univers au cours des 11 derniers milliards d’années. L’analyse fine de ces données, pour laquelle le CEA a eu un rôle important, permet de confirmer la validité de la théorie de la relativité générale aux échelles cosmologiques et de mesurer l’effet des neutrinos sur la formation des structures et de placer une contrainte sur leurs masses.
Le Dark Energy Spectroscopic Instrument (DESI) en cours d'observation au télescope Nicholas U. Mayall de 4 mètres au Kitt Peak National Observatory en Arizona. Crédit: KPNO/NOIRLab/NSF/AURA/T. Slovinský
DESI - Dark Energy Spectroscopic Instrument. Depuis 2009, le DPhP est impliqué dans le relevé spectroscopique, DESI, qui étudie l'effet de l'énergie sombre sur l'expansion de l'Univers, teste la gravitation à des distances cosmologiques et mesure la somme des masses des neutrinos. Au cours d’un programme de 5 ans qui a débuté en mai 2021, DESI, mesurera le décalage vers le rouge (redshift) de plus de 40 millions de galaxies et de quasars. En combinant leur position angulaire dans le ciel à leur redshift, DESI construit une carte en 3D de l'Univers (voir figure 1) qui permet de regarder dans le passé et de dérouler l’histoire de l’expansion de l’Univers et la formation de la toile cosmique sur les 11 derniers milliards d'années, quand on estime l’âge de l’Univers à 13,8 milliards d’années. L'instrument DESI est installé sur le télescope Mayall de 4 m au Kitt Peak National Observatory (Arizona, États-Unis). Le télescope possède un correcteur optique qui augmente son champ de vue à 8 degrés carrés. Son plan focal est équipé de 5 000 fibres optiques contrôlées par des robots pour collecter la lumière de 5 000 objets astrophysiques simultanément à chaque pointé du télescope. La lumière des objets est transmise du plan focal du télescope aux 10 spectrographes via 5 000 fibres optiques. L’Irfu a réalisé la construction des 30 cryostats de ces 10 spectrographes qui mesurent le redshift de chaque objet. Pour construire la carte de l’Univers, DESI a choisi 5 types de “traceurs” de la distribution de matière de l’Univers dans le but d’accéder à des époques différentes de l'histoire de l’Univers, de maintenant jusqu’à 11 milliards d’années. L’univers proche est sondé par un échantillon de galaxies très brillantes (Bright Galaxy Sample, BGS). Ensuite DESI utilise des galaxies rouges lumineuses (Luminous Red Galaxies, LRG) qui sont des galaxies massives ayant terminé leur cycle de formation d’étoiles. Viennent après les galaxies à raies d’émissions (Emission Line Galaxies, ELG), galaxies plus légères et formant des étoiles qui permettent de sonder l’Univers entre 8 et 10 milliards d’années. Enfin, l’univers lointain est reconstruit grâce aux objets les plus lumineux de l’univers, les quasars. Ils sont utilisés de deux manières distinctes, soit directement par leur position comme dans le cas des galaxies, soit indirectement, en détectant les fluctuations de densité d’hydrogène le long de la ligne de visée, absorption enregistrées dans leur spectre et connues sous le nom “forets Ly-alpha”.
Figure 1: Carte à trois dimensions du ciel produite par DESI. Chaque point représente une galaxie ou un quasar dont le spectre et ainsi le décalage vers le rouge ont été mesurés et permettent de déterminer la distance à laquelle ils se trouvent. Crédit: Claire Lamman/DESI collaboration and Jenny Nuss/Berkeley Lab
Mesure du taux de croissance des structures avec les vitesses particulières des galaxies La carte de l’Univers mesurée par DESI trace la toile cosmique : les galaxies se concentrent dans les nœuds et les filaments, lesquels sont séparés par des grands vides cosmiques. Cependant, DESI ne voit pas les galaxies à leur position réelle ! Les décalages spectraux mesurés sont en effet affectés par les vitesses particulières des galaxies (effet Doppler), ce que l’on appelle “distorsions dans l’espace des décalages spectraux”. Dans un système en effondrement gravitationnel (voir figure 2, ci contre), les galaxies les plus proches de nous, alors qu’elles tombent vers le centre de masse, ont ainsi tendance à s’éloigner et les plus lointaines à se rapprocher ; les premières apparaissent donc plus lointaines et les secondes plus proches qu’elles ne sont en réalité. La distribution des galaxies observées (i.e. dans l’espace des décalages spectraux) apparaît donc “écrasée” le long de la direction radiale (ce que l’on appelle “effet Kaiser”). Dans cette analyse, la mesure porte sur la variance des vitesses particulières des galaxies en fonction de l’échelle (appelée spectre de puissance). Cette mesure permet de tester la manière dont les grandes structures se forment dans l’Univers.
Figure 2: Illustration de l'effondrement gravitationnel obtenu avec une simulation numérique d'Univers. Chaque rond jaune montre un "halo" de matière (surface proportionnelle à la masse) et sa vitesse. On observe un effet de cohérence des vitesses des halos qui tombent vers le centre de masse local. A cause de l'effet Doppler, la position apparente des galaxies le long de la ligne de visée (représentée en bleu) est modifiée. La mesure statistique de la distribution des galaxies par DESI permet ainsi de tester la gravité aux échelles cosmologiques.
Mesure de la croissance des structures La figure 3 illustre que la mesure de DESI, sous la forme du paramètre S8 ≡ σ8 (Ωm/0.3)1/2, combinaison de paramètres la mieux contrainte par les relevés de cisaillement gravitationnel (voir ci-dessous) et construite à partir de sigma8, la variance des fluctuations de densité dans des sphères de 8 Mpc/h, et de Omega_m, la fraction d’énergie de l’Univers sous forme de matière. La valeur mesurée par DESI est totalement compatible avec celle du précédent relevé SDSS (en bleu), et celle du fond diffus cosmologique (CMB), dans le cadre du modèle ΛCDM. Une manière alternative de mesurer la croissance des structures dans l’Univers est de sonder comment la trajectoire de la lumière émise par des sources lointaines — galaxies ou CMB — est modifiée par les perturbations de champ gravitationnel entre la source et l’observateur. Cet effet peut être mesuré de manière statistique dans l’orientation apparente des galaxies (cisaillement gravitationnel). Ces analyses donnent en moyenne une mesure de la croissance des structures plus faible (en orange sur la figure 3) que celle prédite dans le modèle LCDM en utilisant les résultats de Planck sur le CMB. En l’état, la mesure de DESI reste totalement compatible avec celle des relevés de cisaillement gravitationnel. Les futures données de DESI permettront d’affiner notre mesure, et le télescope européen Euclid mesurera très précisément S8 avec le lentillage gravitationnel faible dans les années à venir.
Figure 3: Mesure de croissance des structures (paramètre S8) par les données de DESI de première année (en bleu et en gras), comparée à celle du relevé précédent SDSS (en bleu), à celle obtenue par le CMB dans le modèle LCDM (en orange) et de relevés de lentillage gravitationnel faible (en vert). Credit: DESI Collaboration
Tests de la relativité générale La relativité générale, proposée par Einstein en 1915, a été testée à une précision extrême dans le système solaire et en champ fort (pulsars binaires, ondes gravitationnelles). Cependant, il est tout à fait possible d’envisager des théories alternatives de la gravité qui dévient de la relativité générale aux échelles cosmologiques mais satisfont les mesures aux échelles stellaires, grâce à des effets d’écrantage. Une des motivations pour investiguer des déviations à la relativité générale aux échelles cosmologiques peut être d’expliquer l’accélération de l’expansion de l’Univers, que l’on modélise actuellement en ajoutant la constante cosmologique Λ dans les équations d’Einstein. Les résultats publiés en avril 2024, obtenus par la collaboration DESI en combinant ses mesures des oscillations acoustiques de baryons avec le CMB et les supernovae (et que cette nouvelle analyse de DESI confirme), ont mis en évidence de possibles déviations à la constante cosmologique, ce qui a provoqué un regain d’intérêt pour des modifications au modèle actuel. Pour tester des déviations à la relativité générale, il est possible de considérer des modèles théoriques spécifiques, ou des paramétrisations génériques. L’une d’elles, utilisée pour les résultats principaux, introduit un paramètre μ0 dans l’équation de Poisson (régissant la trajectoire des particules massives), et un paramètre Σ0 dans celle régissant la trajectoire de la lumière. Comme μ0 gouverne la formation des structures, il peut être contraint par DESI seul (en bleu sur la figure ci-dessous). Σ0 est mesuré par les sondes sensibles aux modifications de trajectoire de la lumière dans un champ gravitationnel : le CMB (incluant le lentillage gravitationnel faible) et les mesures de cisaillement gravitationnel obtenues avec les orientations des galaxies (DES-Y3). Les contraintes actuelles sont totalement en accord avec la relativité générale, μ0 = Σ0 = 0.
Figure 4: Contraintes apportées par DESI dans le cadre d’un modèle où l’on permet des déviations à la relativité générale (?0, ?0), en combinaison avec les données du fond diffus cosmologique (CMB) et des relevés de lentillage gravitationnel faibles. La relativité générale (GR) correspond à ?0=0 et ?0=0. La zone hachurée exclue la région où les prédictions théoriques ne sont pas fiables. Credit: Arnaud De Mattia IRFU
Masse des neutrinos La masse des neutrinos a deux effets cosmologiques : 1) l’expansion de l’Univers : les neutrinos, à grand redshift (typiquement z > 200) sont ultra-relativistes, i.e. se comportent comme de la radiation. A plus bas redshift, les neutrinos participent au bilan énergétique de l’Univers comme de la matière. 2) la croissance des structures. Même dans l’Univers récent, les neutrinos (à cause de leur faible masse) se déplacent sur de grandes distances en-deçà desquelles ils amortissent la formation des structures. Cet effet est donc visible dans la distribution des galaxies (en espace des décalages spectraux) mesurée par DESI. DESI, avec un a priori sur la pente du spectre de puissance des fluctuations primordiales, pose une limite à 95% de confiance sur la somme des masses des neutrinos à 0.4 eV. En combinant DESI avec les données du CMB, cette limite descend à 0.071 eV, principalement via les contraintes additionnelles de DESI sur l’expansion de l’Univers (effet 1 ci-dessus). Cette contrainte est la plus forte et la valeur obtenue favorise la hiérarchie de masse normale pour les états propres des neutrinos. Cependant, nous venons de voir que les mesures de DESI préfèrent un univers avec une accélération de l’expansion légèrement différente d’une constante cosmologique. Dans ce cadre-là, la contrainte sur la masse des neutrinos donne Σmν < 0.2 eV à 95%. Cette contrainte est certe moins forte mais elle est posée dans le cadre d’un modèle plus général que ΛCDM. remerciements: DESI est soutenu par le DOE Office of Science et par le National Energy Research Scientific Computing Center, un centre de calcul du DOE Office of Science. DESI bénéficie également du soutien de la National Science Foundation des États-Unis, du Science and Technologies Facilities Council du Royaume-Uni, de la Gordon and Betty Moore Foundation, de la Heising-Simons Foundation, du Commissariat à l'énergie atomique et aux énergies alternatives (CEA) de France, du Conseil national de la science et de la technologie du Mexique, du ministère de l'économie de l'Espagne, ainsi que des institutions membres de DESI. La collaboration DESI est honorée d'être autorisée à mener des recherches scientifiques sur l'Iolkam Du'ag (Kitt Peak), une montagne qui revêt une importance particulière pour la nation Tohono O'odham. Publications: DESI 2024 VII: Cosmological Constraints from the Full-Shape Modeling of Clustering Measurements DESI 2024 V: Full-Shape Galaxy Clustering from Galaxies and Quasars Contacts: Arnaud de Mattia, Etienne Burtin
Le modèle standard de la cosmologie, fondement de notre compréhension de l'Univers depuis le Big Bang, est-il en danger ? Les récentes observations du télescope spatial James Webb (JWST), menées par une équipe internationale incluant le Département d’Astrophysique du CEA-IRFU, révèlent des galaxies massives dans l'Univers jeune, suscitant un vif débat au sein de la communauté scientifique. Alors que certains chercheurs y voient une remise en question de ce modèle, d'autres avancent que ces masses galactiques pourraient avoir été surestimées, suggérant que des mesures plus précises pourraient résoudre l'énigme sans invalider le modèle standard. Grâce au programme FRESCO, des données spectroscopiques plus précises que les précédentes semblent réconcilier ces galaxies précoces avec les prévisions théoriques. Toutefois, trois cas extrêmes continuent de défier notre compréhension de la formation galactique.
Figure 1 : Images des trois galaxies massives et lointaines qui défient notre compréhension de la formation galactique. Crédits : NASA/CSA/ESA, M. Xiao & P. A. Oesch (Université de Genève), G. Brammer (Niels Bohr Institute), Dawn JWST Archive.
Le modèle standard de la cosmologie remis en question Le modèle standard de la cosmologie, également appelé modèle ΛCDM (Lambda Cold Dark Matter), est actuellement le modèle de référence pour décrire l’évolution de l’Univers depuis le Big Bang. Il permet notamment d’expliquer des observations astronomiques telles que le fond diffus cosmologique — un rayonnement provenant de toutes les directions du ciel —, les structures à grande échelle, ainsi que la formation des galaxies en amas. Ainsi, lorsque les astronomes ont jeté un premier coup d'œil sur la jeunesse de l'Univers grâce au télescope spatial James Webb (JWST) de la NASA, ils s'attendaient à observer des galaxies modestes et en pleine croissance, conformément aux prédictions de ce modèle standard. Or, les scientifiques ont découvert une abondance inattendue de galaxies bien trop massives pour le jeune âge de l’Univers. Depuis lors, deux communautés scientifiques s’opposent : d’un côté, ceux qui estiment que ces découvertes révèlent des lacunes dans le modèle standard de la cosmologie, nécessitant sa remise en question complète ; de l’autre, ceux qui contestent les mesures de masses galactiques, jugées surestimées car fondées uniquement sur des observations photométriques insuffisamment précises. Selon ces derniers, il faudrait plutôt ajuster les modèles de croissance galactique sans pour autant remettre en cause le modèle standard.
Le programme d’observation FRESCO apporte de nouveaux éléments de réponses C’est dans ce contexte qu’une équipe internationale, incluant des astronomes du Département d’Astrophysique du CEA Paris-Saclay, apporte de nouvelles explications grâce au programme d’observation FRESCO. L’objectif de ce programme est de mesurer avec précision la masse des premières galaxies à l’aide de l’instrument NIRCam/grism du JWST, qui permet des mesures spectroscopiques à haute résolution, bien plus précises que les précédentes mesures photométriques (voir Figure 2). « NIRCam nous permet d'identifier et d'étudier la croissance des galaxies au fil du temps, et d’obtenir une image plus précise de l’accumulation de la masse stellaire au cours de l’histoire cosmique », explique Pascal Oesch, professeur assistant au Département d’astronomie de l’UNIGE, principal investigateur de ce programme d’observation et co-auteur de cette nouvelle étude. « Seul le télescope James Webb a la capacité de mesurer la masse stellaire des galaxies à des époques aussi reculées, jusqu’à un milliard d’années après le Big Bang, car la lumière y est décalée vers l’infrarouge », explique David Elbaz, directeur scientifique du Département d’Astrophysique au CEA Paris-Saclay et co-auteur de l’article.
Figure 2 : Images et spectres des trois galaxies ultra-massives et primitives (Z ? 5 – 6) observées par le programme d’observation FRESCO utilisant l’instrument NIRCam du JWST. Les images à gauche ont été prises avec trois filtres NIRCam (1,82 µm, 2,10 µm et 4,44 µm), puis combinées en couleur (F182M en bleu, F210M en vert et F444W en rouge), accompagnées de la carte en H?. À droite, les spectres 1D (couvrant les lignes d’émission H?, [NII] et [SII]) ont été obtenus avec le grisme NIRCam et le filtre F444W. Les zones grises montrent l'incertitude associée à 1 sigma, et la ligne bleue représente le modèle qui ajuste au mieux les données. Crédits : Xiao et al. 2024.
La remise en cause du modèle standard cosmologique écartée En utilisant les données du programme FRESCO, l’équipe de chercheurs a ainsi pu mener une étude systématique de 36 galaxies massives. L’analyse suggère que la majorité des galaxies ultra-massives dans la jeunesse de l’Univers sont compatibles avec le modèle cosmologique standard, à l’exception de trois d’entre elles, qui représentent un défi potentiel et remettent en question les modèles de formation galactique (voir Figure 3). « Ces galaxies présentent des taux de formation d'étoiles proches de 1 000 masses solaires par an, des niveaux qui ne peuvent s'expliquer que par un processus de formation extrêmement efficace, que les modèles actuels ne parviennent pas à reproduire », affirme Dr. Mengyuan Xiao, post-doctorante au Département d’astronomie de l’UNIGE et première autrice de l’étude. La remise en cause du modèle standard cosmologique semble donc s’éloigner. En effet, les nouvelles observations plus précises des masses galactiques permettent de réconcilier les observations avec les prédictions du modèle standard. Cependant, l’existence de ces trois galaxies ultra-massives si tôt dans l’histoire de l’Univers défie notre compréhension de la formation des galaxies dans l’Univers jeune. « Ces résultats suggèrent que parmi les premières galaxies, certaines étaient capables de convertir le gaz en étoiles avec une efficacité extrême, bien au-delà de ce que prédisent les modèles actuels. Les futures observations avec le JWST et l'Atacama Large Millimeter Array (ALMA) seront essentielles pour déterminer si ces galaxies ultra-massives représentent un cas isolé ou un phénomène plus répandu », enchérit la chercheuse. « Il va maintenant falloir comprendre comment l’Univers a formé des galaxies plus massives que la Voie lactée il y a près de 13 milliards d’années, soit environ un milliard d’années après le Big Bang », conclut David Elbaz.
Figure 3 : Comparaison des masses de galaxies massives et lointaines en fonction de leur décalage vers le rouge (Z), mesurées par photométrie et spectroscopie, par rapport aux attentes théoriques du modèle standard de la cosmologie (?CDM). Les cercles gris représentent les galaxies rapportées dans la littérature, avec celles dont le décalage vers le rouge (Z) a été mesuré uniquement par photométrie (carrés vides gris). Les cercles rouges vides correspondent aux 36 galaxies observées dans le cadre du programme FRESCO, dont les décalages vers le rouge ont été mesurés précisément par spectroscopie grâce au JWST. Les barres d'erreur montrent les incertitudes des mesures. Les lignes rouges et bleues indiquent la masse maximale des galaxies attendue selon le modèle ?CDM, en fonction de l'efficacité de conversion des baryons en étoiles (Epsilon = 1 et 0,2, respectivement), tandis que la ligne noire représente la limite supérieure du modèle. Les cercles rouges pleins correspondent aux trois galaxies qui défient nos théories de formation galactique. Bien qu'elles restent compatibles avec le modèle ?CDM, ces galaxies ultra-massives présentent une efficacité de formation stellaire moyenne de Epsilon ? 0,5, ce qui suggère une conversion très efficace des baryons en étoiles, difficilement explicable avec les modèles actuels. Crédits : Xiao et al. 2024
Contacts CEA/IRFU: David Elbaz En savoir plus : Publication Communiqué de presse de l'Université de Genève
La Stratégie Européenne pour la Physique des Particules (ESPP) est au cœur du processus d'élaboration de la stratégie européenne pour l'avenir à long terme de la physique des particules. Mandatée par le Conseil du CERN, elle tient compte des résultats du LHC et d'autres installations dans le monde, du paysage international de la physique et des développements dans des domaines connexes, dans le but de maximiser les retombées scientifiques. En mars 2024, le Conseil du CERN a lancé le processus de la troisième mise à jour de la stratégie (ESPP update ou ESPPU). Le groupe stratégique européen (ESG) et le secrétariat de la stratégie pour cette mise à jour ont été créés en juin 2024 pour organiser l'ensemble du processus. Le mandat du groupe stratégique européen a également été approuvé en juin 2024. Le Conseil du CERN s’est réuni en septembre pour, entre autres décisions, nommer les membres groupe de préparation à la physique (PPG) dont le rôle sera de préparer un « Briefing Book » basé sur les contributions et les discussions. La composition du PPG est disponible ici. Au sein du PPG, le secrétariat de la stratégie propose neuf groupes de travail pour couvrir l'ensemble des sujets de physique ainsi que les domaines technologiques des accélérateurs, des technologies de détection et de l'informatique. Les groupes de travail sont pilotés par un membre du PPG et un adjoint et Sara Bolognesi est adjointe pour le groupe Physique des neutrinos et messagers cosmiques.
La communauté scientifique est invitée à apporter sa contribution à l’ESPPU. Ses contributions aideront le PPG à préparer le Briefing Book qui sera soumis à l’ESG pour examen lors d'une session de rédaction de cinq jours qui devrait avoir lieu en décembre 2025. Le processus de mise à jour de la stratégie doit converger d'ici janvier 2026, date à laquelle un projet de document stratégique sera soumis au Conseil du CERN. Les contributions attendues couvrent : l'option préférée pour le prochain collisionneur au CERN mais aussi des options alternatives par ordre de priorité si le plan préféré choisi s'avère ne pas être faisable ou compétitif ; les domaines prioritaires pour les expériences de moindre envergure à envisager au CERN et dans les laboratoires nationaux ; de manière générale, tous les points jugés pertinents pour le domaine, notamment la R&D sur les accélérateurs, les détecteurs et le calcul, la physique théorique, les actions visant à minimiser l'impact environnemental et à améliorer la durabilité de la physique des particules basée sur les accélérateurs, et les actions de communication et de formation destinées à attirer et former les nouvelles générations de physiciens, d’ingénieurs et de technicien.
Tout scientifique peut directement apporter sa contribution au CERN (depuis le 1er septembre 2024) : https://europeanstrategyupdate.web.cern.ch/index.php/call-input et/ou participer à l’élaboration d’une contribution de la communauté française dans son ensemble. En effet, en sus de toutes les éventuelles contributions personnelles ou de groupes, l’IN2P3 et l’Irfu ont proposé que la communauté française produise et soumette un document synthétisant ses avis. Des groupes de travail autour de 4 thématiques scientifiques ont été mis en place pour collecter et synthétiser les contributions de la communauté : GT1 : Modèle standard et au-delà Pilotage : Fabrice Couderc, Marie-Hélène Genest, Ana Teixeira GT2 : Physique de la saveur et tests des interactions ???????Pilotage : Yasmine Ahmis, Giulio Dujany, Christopher Smith GT3 : Neutrinos (notamment Long-baseline) ???????Pilotage : Sara Bolognesi, Stéphane Lavignac, Anselmo Meregaglia GT4 : QCD et collisions d'ions lourds ???????Pilotage : Cyrille Marquet, Carlos Munoz Camacho, Michael Winn À ces quatre groupes thématiques est adjoint un groupe transverse : GTS : étude des différents scénarios de futurs collisionneurs ???????Pilotage : Jeremy Andrea, Maarten Boonekamp, Cristinel Diaconu, Stéphane Monteil, avec l’aide de Michel Spiro Chaque groupe est responsable de l’organisation du travail dans son périmètre. Les groupes ont déjà commencé à travailler, en particulier en organisant des réunions d’échange. Les travaux de collecte des contributions préparatoires émanant de la communauté, consultation large puis synthèse dans chacun des groupes doivent converger d’ici à janvier 2025, pour être présentés et discutés lors d’un symposium ouvert à tous qui aura lieu les 20 et 21 janvier 2025 à Paris sur le campus Pierre et Marie Curie (Jussieu), dans l'amphithéâtre sous le patio des tours 44-55.
Pour retrouver toutes les informations sur la contribution française et contribuer : https://esppu.in2p3.fr/ Pour aller plus loin, le site dédié du CERN rassemble les documents intéressants ici : https://europeanstrategyupdate.web.cern.ch/resources
Le champ magnétique du Soleil est généré par un effet dynamo, causé par des mouvements de convection et de rotation dans son enveloppe. Il évoluera dans un futur lointain lorsque notre étoile deviendra une géante rouge, une étoile évoluée caractérisée par une enveloppe étendue et une rotation bien plus lente. La question se pose alors : comment évoluera le champ magnétique lorsque notre Soleil se transformera ? Pour répondre à cette question, une équipe de chercheurs affiliée au Département d’Astrophysique du CEA Paris-Saclay et à l’OSU OREME de l’Université de Montpellier a réalisé plusieurs simulations numériques hautes performances avancées de l’étoile Pollux, une géante rouge qui sert d’exemple à ce que pourrait devenir le Soleil, avec un champ magnétique très faible, inférieur à 1 Gauss, du fait de son enveloppe étendue. Ces simulations permettent de reproduire la valeur observée et expliquent cette faible valeur en montrant qu’entre 2 et 8 % de l’énergie cinétique (de mouvement) du plasma est convertie en énergie magnétique, en fonction de la taille des cellules de convection à la source de la dynamo. Les petites cellules créent des champs moins intenses et plus complexes, car la corrélation entre les structures magnétiques et convectives diminue à grande échelle. L’étude montre également que le champ magnétique de Pollux inverserait sa polarité sur plusieurs années, à l’image du Soleil, un phénomène encore non observé mais suggéré par les simulations et nécessitant de l’observer sur une période plus longue pour le confirmer. Par ailleurs, ces travaux enrichissent notre compréhension du magnétisme des étoiles géantes et ouvrent de nouvelles perspectives pour la mission PLATO de l’ESA, qui explorera l’activité magnétique des étoiles et ses impacts sur les exoplanètes. Cette étude fait l’objet d’une publication dans The Astrophysical Journal.
Figure 1 : Rendu visuel des données digitales d'une des simulations obtenue dans cette étude, comparées au Soleil à l'échelle, à gauche. Crédit: L. Amard, A.S. Brun, A. Palacios, A. Finley
Pollux utilisé comme proxy au futur de notre Soleil Le Soleil se trouve actuellement dans la séquence principale, une phase stable où l’hydrogène fusionne en hélium dans son noyau, produisant l’énergie nécessaire pour maintenir l’équilibre mécanique (hydrostatique) de l’étoile. Dans environ 5.5 milliards d’années, le Soleil aura converti tout son hydrogène en hélium dans son coeur nucléaire et entrera alors dans une phase plus instable. Son cœur se contractera jusqu'à initier la fusion de l’hélium, libérant une grande quantité d’énergie qui dilatera les couches externes de l’étoile, suivant un mécanisme thermostatique. Le Soleil deviendra alors une géante rouge, avec un diamètre atteignant l’orbite de Vénus, et une luminosité jusqu’à 2 000 fois plus élevée. En ce qui concerne l’évolution de son champ magnétique, les choses sont moins claires. Au-delà du cœur radiatif stable et dense des étoiles, le plasma de l’étoile devient convectivement instable et produit ainsi des écoulements de matière à plus ou moins grande échelle. Ces cellules convectives sont affectées par la rotation non uniforme (différentielle) en fonction du rayon et de la latitude présente dans l’enveloppe, et permettent la mise en place d’une dynamo à l’échelle de l’étoile, entretenant la génération d’un champ magnétique contre sa dissipation par effet Joule. Toutefois, on ignore comment ce champ évoluera lorsque le Soleil atteindra la phase de géante rouge, au cours de laquelle son enveloppe se dilatera considérablement et sa rotation ralentira fortement. Une équipe de chercheurs, associée au Département d’Astrophysique du CEA Paris-Saclay et à l’OSU OREME de l’Université de Montpellier s’est donc attelé à la tâche. Elle a utilisé l’étoile Pollux, qui a tout juste atteint le stade de géante rouge, comme proxy pour comprendre le futur de notre étoile. Pollux, bien étudiée en raison de sa proximité et de sa luminosité, présente une masse 2,5 fois supérieure à celle du Soleil et un rayon environ 9 fois plus grand (cf. Figure 1). Les observations spectro-polarimétriques ont montré que le champ magnétique à la surface était très faible, à peine inférieur à 1 Gauss, probablement l'un des plus faibles jamais détectés sur une étoile.
Figure 2 : Représentations tri-dimensionnelles des flots de matière dans une des simulations numériques de l’enveloppe convective de la géante rouge Pollux. À haut, les flots de matières montant et descendant ; et en bas, l’enstrophie quantifie les structures tourbillonnaires. Les lignes émergentes de la surface sont une extrapolation des lignes de champ magnétique possiblement générées par l’étoile. Crédit : L. Amard, A.S. Brun, A. Palacios, A. Finley
Découverte du mécanisme de dynamo des géantes, une première mondiale Pour comprendre le champ magnétique des géantes et le processus de dynamo dans leur enveloppe convective étendue, l'équipe de chercheurs a réalisé une série de simulations magnéto-hydrodynamiques 3D (figure 2), grâce aux supercalculateurs GENCI du TGCC et de l'Idris. Les valeurs du champ magnétiques déduites des simulations numériques de l’étude sont comparable aux valeurs très faibles mesurées à la surface de Pollux, de l’ordre de 1G. Les chercheurs démontrent également que la géométrie et l’intensité de ce champ magnétique dépendent directement de la taille des cellules de convection (cf figure 4). De petites cellules, illustrées par la simulation de gauche dans la figure 3, produisent un champ magnétique plus faible et plus complexe, et structuré à petites échelles. Cela s'explique par une corrélation moins efficace entre les structures convectives et magnétiques à ces grandes échelles, limitant ainsi la cohérence et la puissance du champ magnétique global comme illustré à gauche de la figure 4. Grâce à cette étude, les chercheurs ont estimé qu’entre 2 et 8% de l’énergie cinétique est convertie en énergie magnétique en fonction des paramètres/cas considérés. La découverte d’un tel mécanisme de dynamo dans des simulations 3D turbulentes d’étoiles géantes est une première mondiale. Enfin, comme le montre la figure 4, les simulations suggèrent qu’une étoile comme Pollux pourrait inverser la polarité du champ magnétique sur des périodes de plusieurs années, comme le fait le Soleil. Ce phénomène n’est pas visible dans les données actuelles car elles ne couvrent qu'environ quatre ans d’observation. L’étude prédit ainsi que des observations régulières sur une période plus longue pourraient révéler des inversions magnétiques chez Pollux.
Figure 3 : Rendu visuel des données digitales des deux simulations, comparées à gauche au Soleil à l'échelle. La taille des cellules convectives visibles à la surface est ici clairement différente d'une simulation à l'autre. De plus petites cellules mènent à un champ magnétique plus faible et à un champ plus complexe, lié à la moins bonne corrélation entre les structures convectives et magnétiques à ces grandes échelles. Crédit: L. Amard, A.S. Brun, A. Palacios, A. Finley
Une étude clé pour la réussite des prochaines missions stellaires et exoplanétaires Cette étude sur le magnétisme des étoiles géantes apporte une meilleure compréhension du phénomène de dynamo stellaire en proposant un scénario où la turbulence à petite échelle génère un champ magnétique de faible intensité dans l’enveloppe étendue de ces étoiles. En créant de l’activité magnétique à la surface de l’étoile et en provoquant ainsi des variations de luminosité, le champ magnétique complique la détection et la caractérisation des exoplanètes. Ainsi, en approfondissant notre connaissance du magnétisme stellaire, cette recherche s’inscrit parfaitement dans le cadre de la future mission spatiale de recherche d’exoplanètes de l’ESA, PLATO, pour laquelle le LDE3 et le LUPM contribuent activement.
Figure 4 : À gauche, est représentée l’échelle à laquelle le champ magnétique est généré dans les deux simulations présentées sur la figure 2. À droite, on montre l’évolution du champ magnétique intégré à la surface visible de ces mêmes simulations. La bande verte indique le domaine couvert par les valeurs observées par le spectropolarimètre Narval, situé au Pic du Midi [Aurière et al. (2021)]. Crédit : L. Amard, A.S. Brun, A. Palacios, A. Finley
Contacts CEA-IRFU : Louis AMARD, Sacha BRUN Publication : “Understanding Post Main Sequence Stellar Magnetism: On the origin of Pollux weak surface magnetic field”, Amard et al. 2024, The Astrophysical Journal Communiqué de presse du CNRS-INSU
Une pierre plusieurs coups avec la validation de la cryogénie à 1,9 K, du système numérique de protection et la démonstration des performances exceptionnelles du quadrupôle MQYYM fabriqué par l’Irfu pour le projet HL-LHC (High Luminosity Large Hadron Coll
Dix années de travail collaboratif intense entre les équipes du DACM et du DIS de l'Irfu ont abouti, en ce début d’été 2024, au succès du test de l’aimant supraconducteur MQYYM dans la nouvelle station de tests d’aimants d’accélérateur quadripôle STAARQ. De par ces résultats exceptionnels, 3 axes de développement fortement interconnectés entre les deux départements ont été validés : Un axe conception et fabrication d’aimant d’accélérateur NbTi (niobium-titane) pour HL-LHC avec l’aimant MQYYM (DACM/LEAS et DIS/LCAP-LRI), Un axe cryogénie à 1,9 K avec le développement de la station cryogénique de STAARQ (DACM/LCSE et DIS/LCAP-LRI), Un axe test d’aimant supraconducteur avec la qualification du système de protection de l’aimant basé sur un Magnet Safety System numérique (DIS/LEI). Ce test n’aurait par ailleurs pas été possible sans l’implication du DIS/LDISC pour le système de contrôle commande et le DIS/LEIGE pour l’électrotechnique et l’électronique de puissance.
Test de l'aimant au sein de la station Staarq (crédit : F. Rhodes/CEA-Irfu)
Photo de groupe des équipes du DACM et du DIS (crédit CEA/Irfu)
La station STAARQ est prête pour tester les performances de nouveaux aimants à 1,9 K Les équipes de l’Irfu du DACM et du DIS ont conçu et réalisé la nouvelle station de tests d’aimants d’accélérateur quadripôle, STAARQ, au sein du Synergium. Les études cryogéniques, électriques et du système de protection des aimants supraconducteurs ont nécessité 2 années de conception. Deux années supplémentaires ont permis l’installation et la modernisation des équipements. En mars 2023, la phase de mise au point a débuté jusqu’à l’obtention du dernier jalon : la démonstration et la caractérisation du fonctionnement à 1,9 K. Les deux prochaines années seront dédiées aux trainings et aux mesures des performances magnétiques d’aimants quadripôles destinés à l’accélérateur du CERN. Avec STAARQ, l’Irfu s’est doté d’une station qui s’inscrit de part ses performances et son adaptabilité dans le standard international des stations de tests de ce type. Pour en savoir plus
La station Staarq (Station de tests d'aimants d'accélérateur quadripôle) au CEA (crédit CEA)
Une campagne de test réussie à 1,9 K pour l’aimant MQYYM Les équipes du DACM/LEAS ont développé et fabriqué un aimant supraconducteur de type quadrupole en Niobuim-Titane (NbTi), dans le cadre du projet HL-LHC pour la jouvence des aimants situés autour des zones d’interaction des détecteurs ATLAS et CMS du LHC. Le projet a débuté en 2014 avec une première phase de design par les équipes du LEAS (magnétique, thermomécanique…). S’en sont suivies les phases de bobinage et de polymérisation de 10 bobines en NbTi au CEA, avant de poursuivre leur instrumentation et leur assemblage au CERN, toujours par l’équipe projet du CEA. Un an de travail et de déplacements ont été nécessaires pour la réalisation de ces actions par l’équipe projet du LEAS grâce aux infrastructures et conseils techniques du CERN. Une fois assemblé, l’aimant MQYYM a alors été renvoyé au CEA pour être testé une première fois avec succès à 4,2 K en mars 2021, puis testé à nouveau dans ses conditions nominales à 1,9 K en juin-juillet 2024 dans la station STAARQ. L’aimant a ainsi parfaitement performé, atteignant un courant de 6 375 ampères, soit très proche du courant maximal calculé ! De nombreux tests de caractérisation (vitesse de rampe, dépendance en température, protection) ont également été réalisés et ont démontré les très bonnes capacités de l’aimant à répondre aux différentes sollicitations. Pour en savoir plus
Aimant MQYYM lors de sa mise en place sur la plateforme STAARQ pour connexion et instrumentation (crédit CEA/Irfu)
Le déploiement novateur d’un Magnet Safety System numérique La réalisation de la nouvelle station STAARQ s'accompagne du déploiement d'un Magnet Safety System (MSS) pour la détection de quench (c'est-à-dire le passage brutal de l'aimant de l'état supraconducteur à l'état résistif) et la commande de la protection de l’aimant en test. Le MSS est composé par un MSS analogique éprouvé et un nouveau MSS où la détection quench est numérique et intégrée dans un FPGA (Field-Programmable Gate Array, un composant logique programmable). Les essais de l’aimant MQYYM au début de l’été 2024 ont permis de complètement qualifier le MSS numérique avec la détection des 61 quenchs provoqués lors des tests, l’absence de fausse détection et des performances augmentées par rapport au MSS analogique. Pour en savoir plus
Contacts : J-M. Gheller, Simon Perraud, Hélène Felice, Damien Simon, Philippe De Antoni, Frédéric Molinié, Sony Trieste
La NASA vient de sélectionner le projet PRIMA (The PRObe for Infrared Mission for Astrophysics) pour une étude de phase A, parmi une dizaine de propositions. Cette phase d’étude, qui durera un an, permettra d’évaluer en profondeur le projet avant la décision finale. Si PRIMA est retenu, la NASA allouera un budget d’un milliard de dollars pour son développement, avec un lancement prévu en 2031. PRIMA est un télescope conçu pour observer l’infrarouge lointain, ce qui offrira des réponses sur l’origine et l’évolution des planètes, des trous noirs supermassifs, des étoiles et de la poussière cosmique. La France joue un rôle majeur dans cette mission, notamment grâce à la participation du CNES, du Laboratoire d'Astrophysique de Marseille (LAM) et du CEA, qui collaborent au développement de l'un des instruments clés du projet, l’imageur PRIMAger. Sur le plan européen, le projet bénéficie également du soutien du SRON (Pays-Bas) ainsi que d'instituts en Italie et au Royaume-Uni (Cardiff), renforçant ainsi la dimension internationale de l'équipe.
Design du télescope PRIMA Crédits : NASA-JPL-Caltech
Description de la mission PRIMA Le projet PRIMA est un observatoire spatial innovant doté d'un télescope de 1,8 mètre, conçu pour étudier les longueurs d'onde de l'infrarouge lointain. Il comble ainsi le fossé entre les observatoires infrarouges existants, tels que le télescope spatial James Webb (JWST) de la NASA, et les radiotélescopes au sol. Le projet repose sur deux instruments scientifiques majeurs : FIRESS (Far InfraRed Spectrometer System), un spectromètre ultra-sensible couvrant une gamme de 25 à 80 microns, capable de spectroscopie à basse résolution (R~200) pour des observations larges et à moyenne résolution (R~5000) pour des études plus détaillées. Développé par le Jet Propulsion Laboratory (JPL) à Pasadena, cet instrument permettra d'observer des phénomènes cosmiques avec une grande précision. PRIMAger, un imageur/polarimètre spectrophotométrique multi-bande optimisé pour les longueurs d'onde entre 25 et 300 microns. Il offrira deux bandes : la première, hyperspectrale (25-80 microns, R~10), et la deuxième, incluant des capacités polarimétriques (80-300 microns). Ce développement est le fruit d'une collaboration internationale réunissant le LAM, le CEA (sites de Paris-Saclay et Grenoble), ainsi que le SRON (Pays-Bas). Fonctionnant dans l’infrarouge lointain, la réussite de PRIMA repose sur des technologies avancées en cryogénie (température de fonctionnement à 4,5 K), permettant des observations d'une sensibilité exceptionnelle.
Description de la mission PRIMA Crédits : NASA-JPL-Caltech
Objectifs de la mission PRIMA Les objectifs scientifiques de PRIMA sont vastes et incluent : La coévolution des galaxies et des trous noirs supermassifs à travers l'observation en infrarouge des processus dynamiques qui les lient. L'étude de la formation des premiers éléments lourds et des grains de poussière dans l'univers primitif, apportant des informations cruciales sur l'évolution chimique de l'univers. L'analyse des disques proto-planétaires, permettant de déterminer les abondances chimiques et de comparer ces données avec les atmosphères des exoplanètes, afin de mieux comprendre le rôle de l'eau et d'autres composés dans la formation des planètes. L'étude des petits corps du système solaire, en particulier les objets de la ceinture de Kuiper, pour lesquels PRIMA permettra d'observer des tailles comprises entre 35 et 80 km, inaccessibles aux précédentes missions comme Spitzer ou Herschel. Réalisation d’un relevé hyperspectral complet du ciel, grâce à PRIMAger. Si ce relevé est mené à bien dans le cadre du temps d'observation ouvert, prévu sur une période d'un an (sur les cinq ans de la durée de vie de PRIMA), il constituera une base de données inédite, apportant des informations essentielles pour la communauté astronomique mondiale.
Les objectifs scientifiques de la mission PRIMA Crédits : NASA-JPL-Caltech
Prochaines étapes du projet La prochaine étape clé pour l'équipe PRIMA sera la sélection définitive du projet par la NASA, prévue en 2026. Si PRIMA est retenu, l'instrument PRIMAger, auquel la France participe, sera livré au Jet Propulsion Laboratory (JPL) d'ici fin 2029. Le lancement de la mission est quant à lui programmé pour mars 2031.
Contact CEA Paris-Saclay : Marc SAUVAGE Contact CEA Grenoble : Ivan CHARLES & Thomas PROUVE Pour aller plus loin : Site internet du projet
La compréhension des diverses populations stellaires constituant les galaxies est cruciale pour étudier la formation de ces dernières à travers le temps cosmique. Néanmoins, des irréductibles étoiles résistent encore et toujours aux modélisateurs ! Leur nature complexe et leur courte durée de vie rendent les étoiles de la branche asymptotique des géantes thermiquement pulsantes (TP-AGB) difficiles à modéliser, un sujet de débat depuis des décennies. Le télescope spatial James Webb permet enfin de lever le voile sur leur contribution au spectre des galaxies lointaines. Ces découvertes ont des répercussions sur la détermination de l'âge et de la masse stellaire des galaxies, ainsi que sur la production de poussière cosmique et l'enrichissement chimique. Cette découverte vient d'être publiée dans la prestigieuse revue Nature.
Les étoiles TP-AGB – le chainon manquant pour l’étude des galaxies Pour comprendre la formation et l’évolution des galaxies, les chercheurs utilisent les populations stellaires qui les composent en comparant les spectres des galaxies observées à des modèles stellaires basés sur des observations et théories. Bien que la plupart des phases d'évolution des étoiles sont bien modélisées, les étoiles TP-AGB, des géantes asymptotiques à pulsation thermique, restent une source d'incertitude. En effet, avec une durée de vie courte (entre 0,6 et 2 milliards d'années) et une évolution rapide du fait de phénomènes complexes comme la perte de masse et les pulsations thermiques, ces étoiles sont particulièrement difficiles à modéliser. La contribution des étoiles froides TP-AGB à l'émission infrarouge des galaxies fait ainsi l'objet d'une controverse depuis longtemps. Si leur contribution est significative, cela pourrait diminuer les estimations d'âge et de masse des galaxies, en particulier pour celles âgées d'environ 1 milliard d'années, fréquemment observées dans l'univers lointain. Une telle révision aurait des répercussions majeures sur notre compréhension de la formation et de l’évolution des galaxies (voir Figure 1).
Figure 1 – Comparaison des modèles de spectres de différentes populations stellaires. La connaissance de ces modèles est essentielle car ils permettent de déduire des informations clés telles que l'âge et la masse d'une galaxie.
Premières signatures claires d'étoiles TP-AGB révélées par le télescope spatial James Webb Les étoiles TP-AGB sont des astres froids qui présentent des signatures spectrales distinctives dans le proche infrarouge (0,5-2 microns), notamment des bandes d’absorption larges et des discontinuités causées par diverses molécules. Dans le cas où ces étoiles contribueraient de manière significative à la lumière d’une galaxie, ces caractéristiques spectrales devraient être facilement détectables. Une équipe de chercheurs dirigée par le Département d’Astrophysique du CEA-Saclay a utilisé des observations du télescope spatial James Webb (JWST) dont la sensibilité dans l’infrarouge est idéale pour détecter ces étoiles dans les galaxies quiescentes jeunes (∼ 1 milliard d'années) et lointaines (z = 1–2). Les chercheurs ont sélectionné trois galaxies issues du programme CEERS (JWST NIRSpec Cosmic Evolution Early Release Science), dont l'une, beaucoup plus lumineuse que les autres, offrait un spectre de haute qualité. Le spectre de cette galaxie, nommée D36123, a révélé des signatures claires d'étoiles TP-AGB riches en oxygène et en carbone, avec une contribution importante à la lumière de la galaxie (voir Figure 2). Les deux autres galaxies, bien que présentant un spectre de qualité inférieure, confirment ces observations. Les modèles de synthèse stellaire intégrant une contribution significative des étoiles TP-AGB s'ajustent mieux aux spectres observés, indiquant que ces galaxies pourraient être moins massives et plus jeunes que prévu initialement. Ces résultats ont également des implications pour la production de poussière cosmique et l'enrichissement chimique des galaxies.
Figure 2 - Le spectre révèle de nombreuses absorptions larges ainsi que des discontinuités spectrales, signatures caractéristiques des étoiles TP-AGB. Il s'agit de la première détection de ces étoiles dans le spectre d'une galaxie lointaine.
De futures observations pour contraindre les modèles La galaxie D36123 est unique et n'a pas d'analogue connu dans l'Univers proche, offrant un premier aperçu de l'émission des étoiles froides dans les galaxies lointaines. Cette découverte met fin au débat sur leur présence dans les galaxies âgées de plusieurs milliards d’année. Toutefois, même le modèle qui correspond le mieux aux données ne parvient pas à expliquer toute la richesse des signatures spectrales détectées. Un échantillon plus vaste d'observations similaires est donc crucial pour déterminer si les caractéristiques de la galaxie D36123 sont exceptionnelles ou si elles reflètent des propriétés communes des galaxies quiescentes. L’équipe de chercheurs a d’ailleurs obtenu de nouvelles observations avec le JWST pour approfondir ces questions. A plus long terme, l’équipe envisage d'observer ces galaxies à plus grande longueur d'onde afin d’obtenir de meilleurs modèles stellaires, guidés par les observations actuelles et futures.
Figure 3 : Planification des nouvelles observations de galaxies quiescentes avec le JWST. Les carrés bleus indiquent les champs d'observation prévus avec l'instrument NIRSpec du JWST, tandis que les points rouges représentent les galaxies quiescentes brillantes, telles que D36123.
Contact Irfu/DAp : Emanuele Daddi Pour aller plus loin : Article Nature Communiqué de presse de l'Université Nanjing Communiqué de presse de l'Université Portsmouth
Zoom sur la première page du grand atlas cosmique Euclid de l'ESA
La mission spatiale Euclid de l'ESA révèle le 15 octobre le premier morceau de sa grande carte de l'Univers, qui montre des millions d'étoiles et de galaxies. Ce premier morceau du relevé d'Euclid a été révélé lors du Congrès international d'astronautique à Milan, par le directeur général de l'ESA, Josef Aschbacher, et la directrice des sciences, Carole Mundell. Grâce à un accord entre le CEA et l'ESA, deux experts du traitement d'images, Jean-Charles Cuillandre et Emmanuel Bertin, tous deux astronomes de l'Observatoire des Sciences de l'Univers de Paris-Saclay (OSUPS) et membres du Département d'Astrophysique du CEA Irfu, ont réalisé cette mosaïque sous la supervision de l'ESA. La logistique informatique du projet a été assurée par le centre d’opérations et de données de l'OSUPS (IDOC), avec les moyens techniques de la plateforme VirtualData du mésocentre Paris-Saclay.
Cette mosaïque réalisée par le telescope Euclid contient 260 observations collectées entre le 25 mars et le 8 avril 2024. Il s'agit de 1 % du vaste relevé qu'Euclid capturera pendant six ans. En seulement deux semaines, Euclid a couvert 132 degrés carrés du ciel austral, soit plus de 500 fois la surface de la pleine lune vue de la Terre. ESA/Euclid/Euclid Consortium/NASA, CEA Paris-Saclay, image processing by J.-C. Cuillandre, E. Bertin, G. Anselmi
Jean-Charles Cuillandre explique : "De nouvelles méthodes de traitement du signal ont été mises en œuvre par rapport aux premiers efforts de novembre 2023 et mai 2024 pour révéler l'Univers aux très faibles brillances de surface jusqu'à de très grandes échelles sur le ciel. Les images à grand champ et haute résolution produites pour cet effort offrent une homogénéité inédite pour un relevé du ciel dans un tel domaine spectral depuis l'espace (optique et proche infrarouge)" Des méthodes d'apprentissage profond ont été mises en œuvre par Emmanuel Bertin pour éliminer aux petites échelles des reflets d’étoiles brillantes et autres parasites propres aux optiques d'Euclid et de ses instruments: "C’est la première fois qu’une image du ciel aussi étendue est produite avec une telle résolution depuis l’espace, préfigurant les futurs résultats de cette mission spatiale. La mosaïque publiée aujourd'hui est un avant-goût de ce que nous réserve la mission Euclid dans les années à venir". En haut à gauche une carte de l'ensemble du ciel (41 000 degrés carrés) Zone en Jaune: la mosaïque d’Euclid; deux semaines seulement, 1 % de la vaste étude qu'Euclid réalisera sur une période de six ans, 132 degrés carrés soit plus de 500 fois la surface de la pleine lune. Puis 5 zooms allant dans les moindres détails Credit: ESA/Euclid/Euclid Consortium/NASA, CEA Paris-Saclay, image processing by J.-C. Cuillandre, E. Bertin, G. Anselmi; ESA/Gaia/DPAC; ESA/Planck Collaboration CC BY-SA 3.0 IGO Dans la mosaïque, les emplacements des différentes images zoomées sont indiqués. Au-dessus de chaque image, le facteur de zoom est indiqué (de 3 à 600 fois par rapport à la mosaïque originale). Cette mosaïque contient déjà environ 100 millions de sources : des étoiles dans notre Voie lactée et des galaxies au-delà. Environ 14 millions de ces galaxies pourraient être utilisées pour étudier l'influence cachée de la matière et de l'énergie noires sur l'Univers.
Une carte de l'ensemble du ciel (41 000 degrés carrés) est visible avec l'emplacement de la mosaïque d'Euclid sur le ciel austral surligné en jaune. ESA/Euclid/Euclid Consortium/NASA, CEA Paris-Saclay, image processing by J.-C. Cuillandre, E. Bertin, G. Anselmi; ESA/Gaia/DPAC; ESA/Planck Collaboration
La suite... Des premiers articles seront publiés en mars 2025 à partir de données de 50 degrés carrés (l’équivalent d’un semaine) comprenant un aperçu des zones du champ profond Euclid (qui seront observés des dizaines de fois durant les 6 ans de la mission). Les premiers articles avec une analyse cosmologique ainsi que la première année de données cosmologiques de la mission seront communiqués à la communauté en 2026. Contacts Irfu/DAp : Jean-Charles Cuillandre, Emmanuel Bertin, Marc Sauvage
Une des images agrandie 150 fois par rapport à la grande mosaïque. Cette image montre des galaxies qui interagissent entre elles dans l'amas Abell 3381 à 420 millions d'années-lumière de nous. Crédit: ESA/Euclid/Euclid Consortium/NASA, CEA Paris-Saclay, image processing by J.-C. Cuillandre, E. Bertin, G. Anselmi
Retrouvez les images en hautes définition sur l'actualité ESA et sur l'actualité CEA Découvrez la première page du grand atlas cosmique Euclid de l'ESA et émerveillez-vous devant des millions d'étoiles et de galaxies capturées dans leurs moindres détails, dans une immense mosaïque de 208 gigapixels. Cette vidéo vous fait vivre une exceptionnelle plongée dans le ciel. À partir d'un vaste panorama cosmique, une série de zooms de plus en plus profonds vous amène à une vue nette d'une galaxie spirale tourbillonnante, dans une image finale agrandie 600 fois par rapport à la mosaïque complète. Credit: ESA/Euclid/Euclid Consortium/NASA, CEA Paris-Saclay, image processing by J.-C. Cuillandre, E. Bertin, G. Anselmi; ESA/Gaia/DPAC; ESA/Planck Collaboration
Trois laboratoires CEA (SGLS/ISAS/DES, DPHP/IRFU, BioMaps/SHFJ/JOLIOT) ont associé leurs savoir-faire pour développer un algorithme de Deep Learning innovant pour l’amélioration de la reconstruction d’images TEP acquises dans le cadre du projet ClearMind, une technologie basée sur la détection des photons gamma par un détecteur utilisant des cristaux monolithiques de tungstate de plomb. Un pas vers une imagerie TEP plus précise.
© G.Daniel et al., Engineering Applications of AI, 2024
Dans le domaine de la médecine nucléaire, la Tomographie par Émission de Positrons (TEP) est une méthode d’imagerie essentielle au diagnostic en oncologie, neurologie et cardiologie. Au cours de l’examen, des atomes radioactifs émetteurs de positrons sont injectés au patient sous la forme d’un produit radiopharmaceutique. La désintégration du radiotraceur émet des positrons, qui s'annihilent en deux photons γ émis dos à dos et atteignent une paire de détecteurs opposés entourant le patient. Ces photons détectés en coïncidence sont utilisés pour reconstituer la distribution du traceur dans le corps du sujet. La précision de cette imagerie dépend donc de la capacité des détecteurs à localiser et dater les interactions des photons γ dans les scintillateurs. Récemment, le projet ClearMind a proposé un concept innovant de détecteur TEP composé de cristaux monolithiques de tungstate de plomb (PbWO4) sensibles à la position des photons γ. Ce scintillateur offre une sensibilité supérieure aux détecteurs pixellisés traditionnels, mais introduit une complexité supplémentaire dans le traitement des signaux pour la reconstruction spatiale des interactions.
Schéma du principe de détection de photons dans le détecteur ClearMind. Les photons gamma interagissent en émettant des photons optiques par effet Cherenkov et de scintillation qui sont ensuite détectés par une photocathode couplée à un photomultiplicateur qui crée le signal enregistré par le détecteur. © G.Daniel et al., Engineering Applications of AI, 2024
Dans cette étude, le consortium de chercheurs des trois laboratoires de l’ISAS, du DPHP-Irfu et du SHFJ-Joliot a développé une méthode innovante de Deep Learning pour améliorer la localisation des interactions des photons γ dans les scintillateurs développés par le projet ClearMind. L’équipe a utilisé un réseau de neurones à densité (Density Neural Network), entraîné sur des simulations du détecteur, avec une fonction de perte intégrant les contraintes physiques du détecteur (notamment près des bords), ainsi qu’une estimation de l’incertitude inhérente au processus de reconstruction. Cette combinaison unique a permis des estimations de position plus robustes et plus fiables et les résultats obtenus démontrent l'efficacité de l'approche proposée en mettant en évidence les avantages significatifs de l'estimation des incertitudes par le modèle.
En atteignant leur objectif de reconstruction plus fiable et précise des coordonnées spatiales des interactions γ pour l'imagerie TEP, les auteurs discutent le fait que leur méthode pourrait s'appliquer à d'autres domaines nécessitant des analyses de données de capteurs complexes. Ils prévoient que leur approche pourrait transformer la manière dont les reconstructions spatiales sont réalisées, ouvrant la voie à des applications élargies ainsi qu’à une imagerie médicale plus précise et fiable en lien avec l’IA de confiance. Contacts Irfu DPHP: Viatcheslav Sharyy, Dominique Yvon
Les New Small Wheels (NSW, nouvelles petites roues) sont le projet le plus important de la phase 1 de la jouvence du détecteur ATLAS, en vue des prises de données à haute luminosité. L’IRFU a été fortement impliqué dans la conception, la construction, l’intégration, la mise en œuvre, et le fonctionnement des NSW. Les NSW combinent deux technologies complémentaires : sTGC (small-strip Thin Gap Chambers), et Micromegas (Micro-Mesh Gaseous Structure). Les Micromegas ont été initialement développées par l’IRFU en collaboration avec le CERN dans les années 1990. C’est la première fois qu’elles sont utilisées à une si grande échelle : les NSW contiennent 1200 m² de plans de Micromegas, dont un tiers a été construit par l’IRFU à Saclay. Les deux roues ont été installées en 2021, à temps pour le début des prises de données du Run 3 du LHC. Depuis le printemps 2024, sTGC et Micromegas participent au système de déclenchement des muons vers l’avant du détecteur (end-cap), améliorant la réjection du bruit de fond de plus d’un facteur 2, réduisant ainsi le taux de trigger de 25 kHz à 11 kHz. Cela permet à ATLAS de prendre des données à une luminosité et un taux d’empilement jamais atteints auparavant.
Une des deux nouvelles petites roues (New Small Wheel A) dans la caverne d’ATLAS. Les bobines du spectromètre à muons d’ATLAS sont visibles autour de la roue. En position de fonctionnement, la roue est insérée à l'intérieur du spectromètre. Chaque roue est composée de 16 secteurs. Sur la photo, seuls les 8 grands secteurs sont visibles, tandis que les 8 petits secteurs sont intercalés entre les grands secteurs et recouverts d'une barre d'alignement.
Le LHC fournit des collisions à ATLAS à un taux de croisement de paquets de protons de 26 millions par seconde. Comme toutes les collisions ne sont pas intéressantes et que le volume de données serait trop important pour toutes les enregistrer, seule une petite partie est sélectionnée par le système de déclenchement d’ATLAS. Le premier niveau de déclenchement (niveau 1, Level-1, hardware) utilise des informations partielles de l'événement et décide de le conserver ou de le rejeter en moins de 2,5 microsecondes, réduisant le taux de 26 MHz à 100 kHz. Le deuxième niveau (High-Level Trigger, software) effectue une reconstruction complète des événements et réduit le taux à conserver d'un autre ordre de grandeur. Le système de déclenchement utilise diverses informations de la collision en particulier la présence dans l’événement de particules rares comme les muons. Le détecteur ATLAS après la jouvence de phase 1. On appelle bouchons (ou endcap) les deux parties verticales du détecteur qui “bouchent” le cylindre central (barrel). Dans le spectromètre à muons, les endcaps sont constitués des New Small Wheels, se situant entre les calorimètres endcap et les aimants toroïdaux endcap, et de deux grandes roues (Big Wheels Middle et Outer), se situant à l’extérieur des aimants.
Le projet NSW a été motivé par la nécessité de réduire le bruit de fond élevé observé dans le système de déclenchement de niveau 1 des muons vers l’avant du détecteur pendant le Run 1 du LHC (2010-2013) afin de pouvoir faire face à la luminosité attendue au HL-LHC (High-Luminosity LHC, LHC à haute luminosité). Un muon émanant d’une collision au centre du détecteur ATLAS traverse, dans cet ordre : une NSW, l’aimant toroïdal, une première grande roue (Middle), puis une seconde (Outer). À l’origine d’ATLAS, seule la grande roue Middle était équipée d’un système de déclenchement. L'objectif principal des NSW est d’apporter un point de mesure additionnel, en amont de l’aimant toroïdal, au système de déclenchement afin de rejeter les particules ne provenant pas du point d'interaction. La conception choisie est une combinaison de deux technologies capables à la fois de déclencher (nécessitant une réponse rapide et une bonne précision de mesure temporelle) et de mesurer avec précision la trajectoire des muons. La première utilise des chambres sTGC (small-strip Thin Gap Chambers, permettant un déclenchement rapide) possédant trois unités de lecture: pads (rectangles d’environ 8 cm de largeur dans le plan de mesure), bandes de 3.2 mm de largeur, et fils orientés perpendiculairement aux pads et aux bandes. La deuxième utilise des chambres Micromegas (Micro-Mesh Gaseous Structure, permettant une mesure précise) avec des bandes résistives de moins d'un demi-millimètre de largeur. Avec 8 couches de mesure chacune, les deux technologies offrent une bonne redondance. Dans le cadre de la phase 1 de la jouvence d'ATLAS, les roues ont été installées en 2021, à la fin du LS2 (Long-Shutdown 2, 2019-2021), juste avant le début du Run 3 du LHC (2022-2026). Un secteur de la nouvelle petite roue (ici un grand secteur) est composé d'une double-chambre Micromegas entre deux chambres sTGC. Chaque chambre fournit quatre couches de mesure. Les modules Micromegas LM1 (modules intérieurs des grands secteurs) ont été construits par l'IRFU, à Saclay.
Le système de déclenchement des muons vers l’avant fait coïncider les informations NSW avec le système de déclenchement des Big Wheels Middle. Le déclenchement des NSW est mis en œuvre en plusieurs étapes. Dans un premier temps, en 2023, plusieurs secteurs ont été activés en utilisant uniquement les pads des sTGC, ce qui ne nécessite pas l'utilisation du processeur de déclenchement NSW dédié. Le 8 mai 2024, des informations NSW ont été incluses dans 85 % des secteurs de déclenchement, ce qui a permis de réduire le taux de déclenchement au niveau 1, de 25 kHz à 13 kHz. Le 21 mai, les points de mesure des Micromegas pour ces mêmes secteurs ont été ajoutés pour la toute première fois. Enfin, le 28 mai, grâce à l'ajout des informations de Micromegas, tous les secteurs restants (certains souffrant d'une faible efficacité des sTGC) ont pu être inclus, ce qui a conduit à une réduction totale du taux de déclenchement principal des muons de 14 kHz, tout en conservant 96 % des muons intéressants. Le taux de déclenchement total d'ATLAS est limité à 100 kHz, de sorte qu'une réduction de 14 kHz est significative et permet de prendre des données à une luminosité plus élevée. Actuellement, ATLAS est capable de prendre des données avec une luminosité instantanée de 2,2 1034 cm-2s-1 à 13,6 TeV, ce qui produit 65 événements de pile-up par croisement de paquets. L'ajout d'informations Micromegas est particulièrement intéressant dans les secteurs souffrant d'une faible efficacité des sTGC : non seulement cela augmente l'efficacité du déclenchement, mais cela permet également d'activer des secteurs qui ne seraient pas suffisamment efficaces autrement, contribuant ainsi à la réduction du bruit de fond. Taux de déclenchement pour la chaîne de déclenchement principale d’un muon unique vers l’avant du détecteur, en fonction de la date. La réduction du taux est due à l'inclusion progressive des NSW. Le 28 mai 2024, la coïncidence avec les NSW a été pleinement activée pour tous les secteurs de déclenchement, à l'aide des détecteurs sTGC et Micromegas, ce qui a entraîné une réduction globale du taux d'environ 14 kHz.
Lors du Run 4 (qui devrait débuter en 2030), la luminosité sera jusqu'à trois fois plus élevée qu'aujourd'hui, ce qui exercera une pression encore plus forte sur le système de déclenchement. La prochaine étape pour les NSW consistera à utiliser, en plus des pads des sTGC et des bandes Micromegas, les bandes des sTGC, qui permettent une reconstruction plus précise que les pads et une redondance supplémentaire, réduisant ainsi davantage le bruit de fond. Efficacité relative de la coïncidence entre le système pré-existant et les détecteurs NSW pour des secteurs particuliers, en fonction de la date. Initialement, le secteur NSW concerné (A10) n’utilisait que les pads des sTGC. Depuis le 9 mai 2024, l’information des détecteurs Micromegas a été ajoutée, ce qui a permis d'améliorer significativement l'efficacité. Contact:Henri Bachacou