L'Irfu, Institut de Recherche sur les lois Fondamentales de l'Univers

PhoneBook

To find a person inside IRFU, please enter his name.

Events

CEA Saclay, Orme des Merisiers - Bat 703, p 45 CEA Saclay, Orme des Merisiers

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

This PhD thesis explores quark dynamics within the nucleon structure through two interconnected aspects.

The first aspect refines the modeling of Generalized Parton Distributions (GPDs) using Light Front Wave Functions providing insights into quark orbital angular momentum projection contributions on the nucleon's multidimensional structure.

The second aspect involves a systematic study, incorporating mock lattice data to constrain preexisting GPD models by refining uncertainties resulting from prior modeling by investigating the constraints on lattice data necessary for the greatest reduction of uncertainty given corresponding sets of Artificial Neural Network models. The thesis contributes to a comprehensive understanding of quark dynamics and directs potential lattice QCD studies for maximum impact on joint lattice and experimental data-based GPD modeling.

Thesis Defense: Michael Joseph Riberdy under the supervision of Cédric Mezrag, Hervé Moutarde, LSN, DPhN.

CEA Saclay, Orme des Merisiers - Bat 703, p 45 CEA Saclay, Orme des Merisiers

Almost all nuclei heavier than iron are produced through neutron capture nucleosynthesis, about half of them by the rapid (r) process. One of the limiting factors in understanding the r-process is the need for neutron capture cross-section measurements on unstable nuclei. As shown with the recent measurement of 88Zr (Shusterman et al., Nature 2019), neutron capture cross-sections can exhibit unpredictable behaviour.

We propose a novel method of measuring neutron capture cross-sections of short-lived nuclei. Neutron-rich nuclei produced via neutron-induced fission inside of a gas-filled stopping cell will form a mass-selected cooled low-energy beam, which will be transported into a linear Paul trap (coined ‘NG-Trap’), forming a target. This ‘cloud target’ of up to 1010 ions (Shusterman et al., Nature 2019) will then be irradiated with neutrons. The reaction products will then be identified and counted using a multiple-reflection time-of-flight mass-spectrometer (MR-TOF-MS), thus extracting the capture cross-sections.

This talk will present a breakthrough achievement towards the goal of generating the required ‘cloud target’. A demonstrator system with an ion capacity of more than 1010 ions will be presented. This system is a major milestone in the plan to install a high-capacity trap at the Soreq Applied Research Accelerator Facility (SARAF), which is currently under construction in Yavne, Israel.

CEA Saclay, Orme des Merisiers - Bat 703, p 135 salle visio-conférence CEA Saclay, Orme des Merisiers

François LE FEVRE, Startup Program Manager et porteur du groupe de travail IAGen du CEA nous présentera une des solutions d’IA générative installée et déjà disponible au CEA. 

Cette solution, IAGen, mise en place dans le cadre des expérimentations sur les IA génératives,  nous permet de disposer d’un environnement équivalent à ChatGPT en interne sans que nos données sortent du réseau local, elle expose en plus d’autres fonctionnalités pour des cas d’usages variés (Agents IA, RAG, génération d’images etc.) 

CEA Paris-Saclay - Bat 141, salle André Berthelot (143) CEA Paris-Saclay

High-energy particle colliders enable the systematic, direct and conclusive exploration of short-distance fundamental physics laws. Point-like particles such as electrons and muons are particularly suited for this purpose because their collision energy is entirely available to produce short-distance reactions. Unlike electrons, muons are sufficiently heavy to be accelerated in a ring without limitation from synchrotron radiation, allowing to envisage a muon collider energy of 10 TeV or more with a reasonably compact footprint.   A coordinated global effort is underway to establish the technological feasibility of such very high energy muon collider.
 
The novel theoretical and experimental environment offered by high-energy muon collisions entails unique opportunities to advance knowledge of fundamental physics in the search for new phenomena, as well as unique challenges. Studying these opportunities and addressing these challenges will require and produce innovative and exciting research in theoretical as well as experimental physics, on top of paving the way towards a muon collider. 
 

 

 

CEA Saclay, Orme des Merisiers - Bat 703, p 45 CEA Saclay, Orme des Merisiers

Une animation de sensibilisation au changement climatique à travers le jeu inventé par François Dulac LSCE et Loic Thulliez

CEA Paris-Saclay - Bat 141, salle André Berthelot (143) CEA Paris-Saclay

La conception des aimants supraconducteurs est un défi majeur. En cause, le caractère multi-physique, la variété des codes et des méthodes d’analyse, la définition imprécise des spécifications (notamment dans la phase exploratoire), rendent les phases de design longues et difficiles.

Pour à la fois automatiser la boucle de conception et permettre une exploration rapide de l’espace des paramètres lié aux spécifications, nous proposons ALESIA, un nouvel outil d’optimisation par intelligence artificielle et de gestion des data. ALESIA peut être interfacé avec tout type de code physique et de langage. De nombreuses méthodes d’optimisation multiparamétrique ont déjà été ajoutées, tel que, un algorithme génétique, un essaim particulaire, une évolution différentielle, un CMA-ES, une optimisation bayésienne, une forêt d'arbres décisionnels ou un réseau de neurones artificiels. Une base de données des matériaux est en création.

ALESIA est utilisé dans le développement des deux aimants supraconducteurs du projet SPIN ROTATORS pour l’Electron–Ion Collider (EIC). Une interface a été construite avec OPERA pour les calculs magnétiques et avec CAST3M pour les calculs mécaniques. Des modules pour le calcul du conducteur et du quench ont été implémentés. L’optimisation est faite en prenant en compte automatiquement toutes les étapes (magnétisme, conducteur, mécanique et quench) en même temps.

CEA Saclay, Orme des Merisiers - Bat 703, p 135 salle visio-conférence CEA Saclay, Orme des Merisiers

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

L'unité MaIAGE a commencé à réfléchir et adopter des éco-gestes dès 2017. En 2020, elle réalise son premier bilan de gaz à effet de serre (GES) sur les données de 2019 et se porte volontaire en 2021 pour participer à l'expérimentation nationale du GDR Labo 1point5. Cette expérimentation, conduite sur 22 labos pilotes, vise à étudier la mise en mouvement des laboratoires vers une réduction de leurs émissions de GES et à explorer différents dispositifs de réduction. C'est dans ce cadre que l'unité  a voté en 2022 un scénario visant 40% de réduction de ses GES en 2030 ; ce scénario s'accompagne d'un certain nombre de mesures obligatoires et/ou incitatives. C'est l'ensemble de ce parcours qui sera présenté lors de la présentation avec des exemples d'actions réalisées et de premiers résultats.

News

Le 22 juin, le satellite SVOM a été envoyé dans l'espace avec succès à bord d'une fusée chinoise. L’observatoire SVOM (Space-based Variable Objects Monitor) va scruter les « sursauts gamma » produits par l’explosion de certaines étoiles très massives ou la fusion d’étoiles à neutrons ou de trous noirs. Il est possible de détecter une dizaine de sursauts gamma par jour, mais il faut pour ce faire développer une batterie de technologies de pointe, tant ils sont imprévisibles et aléatoires.  Pour tout savoir sur cette mission réécoutez le Twitch du CNES qui a eu liemardi 04 juin 2024. Cette emission a été animée par la journaliste scientifique Alice Thomas avec 3 experts de la mission: Bertrand Cordier (responsable scientifique de la contribution française à SVOM, CEA/IRFU) François Gonzalez (chef de projet de la contribution française à SVOM, CNES) Carine Amoros (CNRS/IRAP)
   À la suite du prix Camille Flammarion 2024, la Société Française d’Astronomie et d’Astrophysique (SF2A) et la Société Astronomique de France (SAF) ont souhaité récompenser et mettre en lumière le travail de Raphaël Peralta par le prix Camille Flammarion de la médiation scientifique à l’international   Raphaël Peralta est le responsable de la commnunication du Département d'Astrophysique (DAp) de l'IRFU du CEA Paris-Saclay, et le président-fondateur de l'association SpaceBus France, dont l'objectif est de sensibiliser le public à la science, notamment l’astronomie et l’espace, en la rendant accessible à tous par le biais de tournées itinérantes dans le monde francophone.   Ce prix souligne l’impact de l’action de Raphaël pour le développement de la sensibilisation scientifique dans deux pays africains, le Togo (2022) et la Côte d’Ivoire (2023), où il a organisé ces tournées en collaboration avec l’Association Ivoirienne d’Astronomie (AIA) et l’association togolaise SG2D (Science Géologique pour le Développement Durable).
Building on the successful previous workshops in 2022 and 2023, we aim to develop and disseminate a research agenda on interconnecting software tools for real-time multi-messenger astronomy. This international workshop provides a forum for leading scientists and young researchers to foster communication within the community between developers and users with a wide range of expertise in the production and use of software tools that facilitate life in the rapidly evolving field of real-time multi-messenger astronomy.  Topics to be discussed at the workshop include:  - Physics of transient phenomena  - Multimessenger observations of transients  - Alert & follow-up systems The first two days of the workshop will consist of invited and contributed talks to discuss the current issues, challenges and opportunities in real-time multimessenger astronomy. Following these introductions, we will work together in small teams in a Hackathon-like event implementing prototypes and ideas developed during the workshop.  We do not require a registration fee for the workshop and will cover local expenses (lunch, coffee breaks, social dinner, etc.). We have a (very limited) amount of additional funding available mainly aimed to cover accommodation expenses of early career researchers. Please let us know if you would need support during the application process. Applications are open now and will close on June 21. Places are limited and will be allocated after the deadline by the Scientific Organizing Committee. Details incl. a preliminary program are available on the indico page: https://indico.ijclab.in2p3.fr/event/10545/overview All the best, Fabian Schussler,  on behalf of the Scientific Organizing Committee
 Dans les coulisses du CEA, les chercheuses et chercheurs ouvrent les portes de leurs laboratoires pour vous dévoiler les avancées majeures qui façonneront le monde de demain ! Retrouvez les différents épisodes sur la chaîne Youtube du CEA.         Episode 1: Les recherches pour la santé et la médecine du futur   A 26' 28'', vous retrouvez Dominique Yvon (DPhP) vous présenter le projet Clearmind, qui devrait permettre d'améliorer les détecteurs pour l'imagerie TEP (Tomographie par émisssion de positons).   Episode 2 : Les recherches pour l'électronique du futur   A 22' 56'', vous retrouvez Esther Ferrer-Ribas (Dédip) présenter le projet DALPS (Detector for Axion Like Particle Searches) qui doit permettre de développer permettre des capteurs pour la détection des axions.
ESA - Euclid’s wide and deep surveys ESA/Euclid/Euclid Consortium/NASA/Planck Collaboration/A. Mellinger – Acknowledgment: Jean-Charles Cuillandre, João Dinis and Euclid Consortium Survey Group, CC BY-SA 3.0 IGO Le 14 février, Euclid a officiellement entamé son étude dans la direction des constellations du Burin et du Peintre dans l'hémisphère sud. Au cours de l'année à venir, Euclid couvrira environ 15 % de son étude. Les premières données de cosmologie seront publiées à l'été 2026, précédées par une publication de données sur les observations en champ profond au printemps 2025.    Animation représentant le survol cosmologique de Euclid, le plus grand jamais réalisée dans le visible et le proche infrarouge. Pendant six ans, Euclid balayera ainsi plus d'un tiers du ciel représentées ici par les différentes nuances de gris/bleu. Les zones non couvertes sont dissimulées principalement par la Voie lactée et la lumière émise par le système solaire. Crédit : ESA/Euclid/Consortium Euclid   Lancé le 1er juillet 2023, le télescope spatial de l'ESA, Euclid, débute son exploration de l'Univers sombre. Au cours des six prochaines années, Euclid cartographiera plus d'un tiers du ciel, observant des milliards de galaxies sur 10 milliards d'années d'histoire cosmique, afin d'étudier leur répartition et leur forme, et de fournir une vue en 3D de la distribution de la matière noire dans notre Univers et l’énergie sombre. Euclid est conçu pour être l'un des télescopes les plus précis et stables jamais construits, avec un champ de vue énorme, l'équivalent de 3 fois la pleine lune, lui permettant d'observer jusqu'à 50 000 galaxies en une seule prise ! Pendant sa mission, Euclid effectuera plus de 40 000 pointages du ciel, chacun durant 70 minutes, pour produire des images et des spectres. Avant le début du relevé, des tests ont révélé une anomalie : une faible quantité de lumière solaire indésirable atteignait l'instrument visible d'Euclid (VIS) à certains angles, même lorsque le pare-soleil était tourné vers le Soleil. Les équipes ont alors réajusté les différents champs de vue du télescope, en ajustant tous les angles de rotation afin de minimiser cet effet. Bien que cela limite légèrement l’efficacité du balayage, toutes les zones du ciel nécessaires peuvent encore être atteintes. Plus d’informations : Article de l'ESA Ready set go! actualité site du CNES: cnes | Euclid débute sa grande enquête autour de l’énergie et de la matière noires Découvrez aussi la série "Frémir avec Euclid" du CEA.
Démontage de la maquette grandeur nature du miroir du télescope spatial JWST, réalisée par le CEA en 2009 à l'occasion de l'Année mondiale de l'astronomie. Commandée à l'Atelier Alain Pras, cette représentation fidèle reproduit le miroir primaire et secondaire du JWST ainsi que la colonne d'instrument à l'arrière. A l'échelle 1, la maquette reflète les dimensions gigantesques de ce télescope, dont la surface du miroir primaire mesure 25 m². Le JWST (James Webb Space Telescope) a été développé par la NASA, avec la participation de l'Agence spatiale européenne et de l'Agence Spatiale Canadienne. Le CEA a beaucoup participé à la conception de l'instrument, en fournissant notamment l'imageur Mirim. Après avoir résidé pendant plusieurs années au CEA de Saclay, la maquette a été transférée à la Cité de l'Espace à Toulouse. Là-bas, elle bénéficiera d'une mise en valeur avant d'être prochainement exposée pour le plus grand plaisir des visiteurs ! La vidéo est également disponible sur la plateforme Viméo. De?part de la maquette JWST from ExplorNova on Vimeo. Crédits Vidéo : Francis Rhodes / CEA
  La journée annuelle de P2I s'est tenue le 9 Janvier 2024, à l'Institut Pascal, Bât. 530,  rue André Rivière, Orsay. Cette journée annuelle de P2I a été l’occasion de partager quelques nouvelles scientifiques et de faire le point sur nos activités et sur nos projets au sein de la Graduate School de Physique Retrouver ici le programme et les présentations des intervenants
  L'édition 2023 de l'Appel à Projet Générique (AAPG) de l’ANR concernait cinq instruments de financement, mobilisant une variété de projets de recherche ambitieux. Ces instruments, allant des projets individuels de jeunes chercheurs et chercheuses (JCJC) aux collaborations internationales ou public-privé (PRCI, PRCE), reflètent une diversité captivante dans le paysage de la recherche. Au cœur de cette effervescence, la Direction de la Recherche Fondamentale (DRF) a enregistré une belle progression. Les résultats de l'AAPG 2023 révèlent un taux de succès de 31,4% pour la DRF sur les cinq instruments, marquant une amélioration notable par rapport aux années précédentes, même avec une légère diminution du nombre de projets déposés. Ce taux dépasse celui du CEA et le taux national. Faisant également partie intégrante de cette réussite, l'Institut de Recherche sur les lois Fondamentales de l'Univers (Irfu) s'est distingué avec un taux de succès global de 33% pour l'année 2023. Parmi les 24 projets déposés à l'AAPG et les 3 déposés hors AAPG (ESDIR, Capteurs quantiques et ASTRID), 9 projets ont été sélectionnés, représentant un échantillon prometteur de la recherche à venir. Ces 9 projets retenus, véritables joyaux de l'innovation, seront brièvement présentés ci-après, témoignant de l'excellence et de la diversité des avancées scientifiques à l'Irfu. La vitalité de la recherche française trouve ainsi un écho éclatant dans ces résultats de l'AAPG 2023. Projet CompToN "Computerised Tomography of Nucleons" Projet NURBS  "NUclear Reaction model improvement with Bayesian Statistics" Projet AccessEmergence "Access the Emergence of hydrodynamics with dileptons" Projet DoTPiX "Development of a Technology needed for the PIXel particle detectors" Projet BASKET_P2 "A backward scattering experiment for P2 at MESA" Projet PEGaSUS "Probing and Exploring high-redshift Galaxies Spectroscopically Using Svom gamma-ray bursts" Projet ProGraceRay "PRObing GRAvity at Cosmological scalEs with relativistic RAY-tracing" Projet Widening "A Window on Interstellar Dust Evolution: the NIKA2 Images of Nearby Galaxies" Projet Windtrust "Améliorer la fiabilité des prévisions du vent solaire pour la Terre" Projet CompToN "Computerised Tomography of Nucleons" L'un des objectifs majeurs de la physique hadronique est d'accéder à la tomographie 3D du nucléon en termes de quarks et de gluons. Cette dernière est encodée dans les distributions de partons généralisées (GPD) qui décrivent les processus exclusifs. Après vingt ans de mesures pionnières, la communauté est entrée dans l'ère de la précision avec de nouvelles données expérimentales aux statistiques excellentes. Mais ceci se révèle être un défi. En effet, les physiciens de l'Irfu ont montré qu'une partie de l'information est perdue lors de la déconvolution des GPD à partir de données de processus exclusifs. Ainsi, les techniques d'extraction conventionnelles ne parviendront pas à tirer parti des mesures précises à venir, faisant des incertitudes théoriques les plus pénalisantes dans la compréhension des propriétés des nucléons en 3D. En parallèle, les ensembles de données de simulation à grande échelle promettent une connexion aux GPD sans perte d'information mais sur un petit nombre de configurations cinématiques. Il est nécessaire d'augmenter ces valeurs en imputant les données manquantes pour obtenir un modèle continu répondant à toutes les contraintes théoriques. A travers le projet CompToN, les physiciens de l'Irfu et du CPT uniront leurs expertises pour extraire la tomographie 3D des quarks et des gluons d'une manière innovante : en combinant des jeux de données calculées, des jeux de données expérimentales et des techniques de modélisation de pointe. Ceci réduira fortement les incertitudes théoriques associées aux extractions expérimentales. Des efforts théoriques, phénoménologiques et de simulation sont nécessaires pour prendre le meilleur des deux mondes et résoudre à la fois le problème de déconvolution des données expérimentales et celui d'imputation des simulations à grande échelle. In fine, nous visons une tomographie précise du proton avec 10 ans d’avance sur les attentes de la communauté basées sur le futur collisionneur électron-ion américain. Contact : Cédric Mezrag Projet NURBS  "NUclear Reaction model improvement with Bayesian Statistics" La vaste gamme d'applications de la physique nucléaire, et en particulier celles utilisant des réactions nucléaires, peut être divisée en deux grands régimes. D'abord, il y a le régime de basse énergie (e.g., les centrales nucléaires). Pour ces applications, pratiquement toutes les données nucléaires peuvent être et ont été mesurées. Ensuite, il y a les applications à haute énergie comme l'hadronthérapie (jusqu'à ~250 MeV), les sources de neutrons de spallation et les ADS (~500 MeV à ~2 GeV), les noyaux cosmogéniques (large gamme d'énergie, avec un pic à ~1 GeV), mais aussi les études sur les neutrinos (des centaines de MeV à des dizaines de GeV) et les expériences sur l'antimatière (du repos à plusieurs GeV). En raison d'énergies élevées et des différents types de projectiles concernés, il est impossible de mesurer toutes les données requises et des modèles sont nécessaires. Ces modèles, combinaison d'un modèle de cascade intranucléaire, e.g., INCL++6, et d'un modèle de désexcitation, e.g., Abla, sont capables de prédire le résultat d'une réaction de spallation. Dans ces réactions, de nombreuses particules légères (mésons, neutrons, particules chargées) sont éjectées. Le résultat de l'interaction est la production d'un noyau cible plus léger (ou plus si fission ou multifragmentation se produisent). Ces modèles ont été considérablement améliorés au cours des deux dernières décennies et nous sommes entrés dans une période plus exigeante : la quantification des incertitudes et des erreurs. Dans le projet NURBS, non seulement les incertitudes et les erreurs des simulations INCL++6/Abla seront quantifiées, mais nous améliorerons également les modèles grâce à une optimisation en parallèle de certains paramètres et au retour d'information de ces résultats. Les méthodes utilisées reposent sur la statistique bayésienne où les données expérimentales jouent le rôle de vraisemblance. Contact : Jean-Christophe David Projet AccessEmergence "Access the Emergence of hydrodynamics with dileptons" Les collisions entre deux ions lourds dans les collisionneurs de particules nous permettent d'étudier les propriétés de la matière fortement interagissante avec une densité d'énergie élevée. De telles collisions créent des systèmes petits produisant jusqu'à quelques milliers de particules qui se comportent comme des fluides avec des propriétés remarquables. Les résultats expérimentaux suggèrent que le comportement hydrodynamique émerge sur une échelle de temps relativement courte, une caractéristique qui n'est pas bien comprise d'un point de vue théorique. Afin d'obtenir des informations directes sur les premiers stades de l'évolution de la matière qui précèdent la phase hydrodynamique, nous proposons de mesurer la production de dileptons (paires électron-positron ou muon-antimuon) dans ces collisions dans la plage de masse de 1 à 5 GeV/c². Il s'agit en effet de processus de prééquilibre et pourrait éclairer le mécanisme qui conduit à la thermalisation. Ces dileptons n'ont pas encore été observés car ils sont masqués par un bruit de fond important provenant des désintégrations des hadrons charmés et beaux. L'expérience LHC beauty (LHCb) a été spécialement conçue pour détecter les hadrons charmés et beaux dans les collisions proton-proton. Sa mise à niveau actuelle est conçue pour gérer un plus grand nombre de particules, telles que celles produites dans les collisions d'ions lourds. Cela offre une opportunité unique de réaliser une mesure précise du bruit de fond et d'étudier les dileptons avec une masse de 1 à 5 GeV/c² dans les collisions d'ions lourds. Sur la base de notre expérience et de notre leadership dans les mesures de muons et d'électrons au sein de deux collaborations du LHC, une équipe du groupe LQGP Saclay sous la direction de Michael Winn accédera expérimentalement au processus d'équilibration dans les collisions d'ions lourds avec des dileptons. Cette ANR est une première étape dans cette entreprise. Nous allons : Concevoir de nouveaux outils pour les mesures des leptons primaires aux collisionneurs. Caractériser le bruit de fond Drell-Yan dans les collisions proton-proton. Étudier la faisabilité des mesures de dileptons sensibles à l'équilibration dans les collisions d'ions lourds aux collisionneurs et établir cet aspect physique pour la future mise à niveau de LHCb. Contact : Michael Winn Projet DoTPiX "Development of a Technology needed for the PIXel particle detectors" Les interactions entre les particules élémentaires constituent le point de départ de la physique fondamentale. Cela est essentiel pour la compréhension humaine de la nature et de l'univers, conférant ainsi une importance majeure à ce domaine. La majeure partie de ces connaissances provient d'expériences réalisées sur des accélérateurs de particules à haute énergie. De nos jours, les expériences de physique des particules nécessitent des détecteurs améliorés pour une reconstruction précise des trajectoires et des points de collision des particules. L'augmentation de la luminosité du collisionneur (cm-2 s-1) dans les expériences futures entraîne des niveaux élevés de radiation, nécessitant par conséquent une grande résistance à la radiation. Pour la première fois, nous proposons ici d'utiliser une boîte quantique de Ge dans un pixel 1T induisant un effet de mémoire favorable qui n'est pas apporté par d'autres conceptions de pixels. Le dispositif présenté ici est nouveau dans son concept et son fonctionnement. Il utilise les propriétés d'une boîte quantique de Ge qui localise sélectivement les trous sans effet sur les électrons, constituant la première avancée apportée par cette conception. La seconde est une réduction de la taille rendue possible par le fonctionnement à un seul transistor avec une boîte quantique qui pourrait être réduite à un point si nécessaire. Ce pixel très compact peut être réduit dans toutes les directions. Cette approche soulève toujours des défis en matière de science des matériaux. De plus, en mode opérationnel de détection, aucune puissance n'est dissipée, réduisant ainsi le besoin de systèmes de refroidissement tels que ceux utilisés dans les détecteurs de pixels hybrides et autres MAPS. Dans le contexte des expériences de physique des particules, le débit de données à partir d'une matrice de pixels dépend principalement du taux d'événements. Une lecture sélective (en bas de la matrice) peut le réduire. La conception proposée combinera une résolution spatiale point à point (inférieure à 0,5 µm) avec une résistance intrinsèque à la radiation due à sa petite taille, le budget matériel pouvant être réduit (10 µm) par rapport à celui des pixels hybrides. La fabrication de pixels élémentaires est basée sur une méthode expérimentale et de simulation. Les couches nécessaires pour les pixels Si/Ge/Si sont cultivées dans des réacteurs CVD-UHV et caractérisées in situ et ex situ. TCAD (dispositif et processus) et d'autres simulations de matériaux sont utilisés pour l'évaluation du dispositif, des couches de matériaux et du processus MOS suivant. Les résultats préliminaires nous amènent à nous concentrer sur la technologie de la couche de Ge enfouie. Nous avons l'intention d'obtenir à la fin du projet un prototype de matrice de pixels avec ce processus et nous étudierons toutes les étapes technologiques nécessaires pour produire la matrice de pixels DotPIX en tant que prototype pouvant être testé soit avec des rayons X, soit avec un faisceau de particules chargées. Contact : Nicolas Fourches Projet BASKET_P2 "A backward scattering experiment for P2 at MESA" Ce projet ambitionne des mesures précises de l'angle de mélange électrofaible, avec l'expérience P2 auprès de l'accélérateur MESA. En connection avec les mesures du LEP et du LHC, une interprétation détaillée de l’évolution de ce couplage en fonction de l'énergie sera présentée pour la première fois. L'utilisation de toutes les données disponibles au LHC et l'exploitation des "upgrades" du détecteur ATLAS permettront une mesure très précise de l'angle de mélange au pic du Z, et pour la première fois une mesure de l’évolution de ce couplage a haute masse. L’expérience P2 prévoit une mesure compétitive à très bas transfert d'impulsion, par la mesure de l’asymétrie de polarisation en diffusion clastique électronproton. Les mesures à P2 permettront également d'améliorer profondément notre compréhension de la structure du proton, avec des implications en astrophysique et en physique des neutrinos. Le principal objectif de ce projet est la construction d'un détecteur de traces pour la mesure de la diffusion des électrons vers l'arrière. Cette mesure est cruciale pour le succès de l'expérience P2 dans son ensemble. Le détecteur proposé est capable de mesurer l'angle de diffusion avec une précision d'un degré, l'impulsion avec une précision de 2%, et surtout d'assurer une fréquence de lecture et d'enregistrement de 100 MHz, ce qui en fait un des trajectographes les plus rapides conçus jusqu'`a présent. L'échantillon final doit être collecté en environ 1000 heures, et représenter de l'ordre de 10^14 événements. La mesure précise de l’évolution de l'angle de mélange électrofaible constitue un test fondamental du Modèle Standard, et une sonde de nouvelle physique a haute et basse masses. Une analyse globale des résultats est proposée. Contact : Maarten Boonekamp Projet PEGaSUS "Probing and Exploring high-redshift Galaxies Spectroscopically Using Svom gamma-ray bursts" La formation et l’évolution des galaxies est l’un des principaux sujets actuels de l’astrophysique extragalactique. De grandes avancées ont été réalisées dans l’étude observationnelle des propriétés des galaxies jusqu’au plus haut décalage spectral vers le rouge (redshift) et JWST est en train d'apporter un progrès énorme dans l’étude du gaz chaud des galaxies à grand redshift. Néanmoins les composantes du gaz neutre demeurent difficiles à explorer. Ce gaz est une composante principale de ces galaxies et il peut être détecté par son absorption de la lumière d'une source brillante d'arrière-plan. Les sursauts gamma longs (LGRBs) sont un outil tès efficace pour le dévoiler grâce à la détection de raies d’absorption du gaz de leurs galaxies hôtes dans les spectres de leurs rémanences, indépendamment de la luminosité des galaxies hôtes elles-mêmes. A l'ère du JWST, les LGRBs restent des outils uniques permettant de sonder en détail les propriétés du gaz neutre et de la poussière des galaxies faibles, qui dominent en nombre la population des galaxies à grand redshift. De plus, les LGRBs étant des phénomènes transients, une fois l'émission rémanente disparue, il est possible de détecter aussi l'émission du gaz ionisé de leur galaxies hôtes. Jusqu'à maintenant la limite de l'utilisation de LGRB pour ce type d'étude est le nombre limité d'observations spectroscopiques des rémanences de LGRB a z>2-3 et de leurs galaxies hôtes. Dans ce projet, nous comptons augmenter significativement cette statistique grâce à la mission spatiale sino-franc?ais SVOM, de?diée à la détection des GRBs, et à son suivi-sol. Nous effectuerons et utiliserons des observations spectroscopiques de rémanences de LGRBs détectés par SVOM pour explorer les propriétés des galaxies de faible masse à  grand redshift, afin de re?pondre aux questions suivantes : Quelles sont les propriétés du gaz neutre du milieu interstellaire (ISM)? Comment évoluent-elles ? Quelles sont les propriétés de la poussière ? Comment évoluent-elles ? Comment la formation d’étoiles est-elle liée a? ces propriétés ? Comment ces galaxies impactent-elles la réionisation ? Le projet est axé sur trois blocs de travail : A) les abondances, la métallicité et la cinématique du gaz neutre de l'ISM; B) la poussière dans les galaxies à grand redshift ; C) la combinaison des propriétés du gaz absorbant neutre avec celles du gaz ionisé. Nous exploiterons les résultats observationnels aussi dans le contexte des simulations cosmologiques de galaxies. Ce projet permettra aussi de déterminer le redshift des GRB détectés par SVOM, information essentielle pour les études concernant la physique des GRBs. Nos résultats sont essentiels pour le retour scientifique et l'impact de la mission SVOM, qui représente un effort important de la communauté astrophysique française. Contact : Emeric Le Floc'h Projet ProGraceRay "PRObing GRAvity at Cosmological scalEs with relativistic RAY-tracing" La nature de l’énergie noire est une question centrale de la cosmologie moderne : est-ce une constante cosmologique, une nouvelle composante fondamentale aux propriétés exotiques, ou la conséquence d’une modification de la gravité ? Le but du projet ProGraceRay est de construire des tests robustes de la gravité aux échelles cosmologiques tenant compte de l’impact de la physique relativiste de la lumière sur la distribution apparente de la matière. En effet, les photons ne se propagent pas en ligne droite et leur énergie n’est pas uniquement gouvernée par l’expansion de l’Univers homogène. Ainsi, les positions angulaires, formes, tailles et luminosités des sources sont changées par les effets de lentilles gravitationnelles faibles (WL). De même, la position radiale des galaxies déduite de leur redshift est perturbée ce qui modifie la distribution apparente des galaxies (distorsions de l’espace des redshifts ou RSD). Ce qui peut être vu comme du bruit s’avère en réalité du signal car ces effets sont porteurs d’informations cosmologiques : métrique le long de la ligne de visée (WL) et vitesses/potentiels des sources (RSD). Les études actuelles reposent sur de nombreuses approximations, pourtant les effets relativistes non-triviaux (habituellement négligés) peuvent contribuer à hauteur de 1 à 10% pour les analyses standards de WL et RSD, de 1 à 50% sur les corrélations entre densité et cisaillement et même à hauteur de 100% sur le dipôle de la fonction de corrélation-croisée des galaxies. Par ailleurs WL et RSD sont habituellement étudiés séparément dans deux communautés différentes. Cependant, dans le cadre des théories de gravité modifiée (MG) combiner WL et RSD est une nécessité afin d’extraire les deux potentiels de la métrique. Contact : Sandrine Pires Projet Widening "A Window on Interstellar Dust Evolution: the NIKA2 Images of Nearby Galaxies" Le milieu interstellaire est l'espace remplissant le volume des  galaxies entre les étoiles. Ce milieu est principalement composé de gaz et de grains de poussière. La composante poussiéreuse du milieu interstellaire a un rôle crucial dans plusieurs processus physiques : extinction du rayonnement stellaire, chauffage et refroidissement du gaz, et croissance de la complexité chimique. Une bonne compréhension de la physique des grains est donc essentielle si l'on veut comprendre l'évolution des galaxies et le mécanisme de formation d'étoiles. Or, les propriétés de la poussière (composition, distribution de taille, abondance, etc.) sont encore très mal connues. La complexité du problème requiert un grand nombre d'observations pour lever les nombreuses dégénérescences des modèles. En particulier, les propriétés optiques des grains, dans le domaine spectral millimétrique, sont très  mal connues et sont pourtant déterminantes pour précisément estimer les masses. Les données qui sont en train d'être acquises par le nouvel instrument NIKA2, à 1.2 et 2 mm de longueurs d'onde, au radiotélescope de 30 mètres de l'Institut de Radio-Astronomie Millimétrique (IRAM), fournissent une perspective sans équivalent sur ce problème. Notre collaboration IMEGIN (Interpreting the Millimeter Emission of Galaxies with IRAM/NIKA2 ; responsable S. Madden) a obtenu 200 heures de temps garanti pour cartographier une vingtaine de galaxies proches avec  NIKA2. Nous avons également obtenu 40 heures de temps ouvert, pour observer des galaxies de faible métallicité, importantes pour comprendre l'évolution chimique, dans le cadre du projet SEINFELD (Submillimeter Excess In Nearby Fairly-Extended Low-metallicity Dwarfs ; responsable F. Galliano). Ces données, combinées avec des observations d'archives à d'autres longueurs d'onde, vont donc nous permettre, pour la première fois, d'étudier la manière dont varient les propriétés optiques millimétriques des grains avec les conditions physiques. Cette compréhension nous permettra de mieux contraindre la composition chimique des gros grains et d'affiner les diagnostics physiques basés sur la poussière. Le projet d'ANR WIDENING va nous permettre d'embaucher deux postdoctorants, pendant trois ans, pour s'attaquer à ce problème. Cette ANR, dirigée par le DAp, est un partenariat avec l'IRAM de Grenoble et l'Institut d'Astrophysique de Paris. Contact : Frédéric Galliano Projet Windtrust "Améliorer la fiabilité des prévisions du vent solaire pour la Terre" La météorologie de l'espace est une science applicative en pleine émergence dans le monde entier, prioritaire pour de nombreux acteurs. Les conséquences sont importantes aussi bien pour la société civile que pour l'armée. La surveillance du Soleil n’est pas suffisante, surtout en période d’activité maximale comme maintenant, et requiert l’usage de simulations numériques pour des prévisions suffisamment en avance. Cependant, il est difficile d’estimer la fiabilité d’une prévision, en particulier quand celle-ci repose sur le couplage entre plusieurs modèles numériques qui peuvent chacun ajouter des erreurs. L’objectif de ce projet est donc d’améliorer la fiabilité des prévisions de météorologie de l’espace. Pour cela, on se concentre sur l’élément incontournable : le vent solaire, un éjecta continu de particules qui vient influencer l’environnement terrestre et transporter les événements extrêmes. En se basant sur le modèle français Wind Predict (Réville+2015, 2020), il s’agit d’améliorer les capacités de prévision française en utilisant de l’assimilation de données. Ceci permettra alors de mieux prédire les événements les plus extrêmes lors des phases d’activité les plus intenses. Il s’agira ensuite de développer un outil de validation de ces prévisions de vent. En se basant sur les travaux de Perri+2023 et son implication dans l’ISWAT, nous allons généraliser et automatiser les diagnostics de validation, afin de fournir un score de fiabilité. Ce score permettra alors de décider si la simulation peut être utilisée ou non pour des prévisions à la Terre. Ce projet permettra ainsi à la France de maintenir son indépendance internationale quant aux prévisions les plus réalistes. Cela permettra également de disposer d’un système de validation unique et compréhensible par tous les acteurs touchés par la météo de l’espace (aviation, communications, etc.). Contact : Barbara Perri  
    Au cœur d'Euclid, les instruments VIS et NISP sont porteurs des espoirs de la communauté scientifique internationale. Ensemble, ils aspirent à percer les mystères de la matière noire et de l'énergie noire qui façonnent notre univers. Pour l'Irfu, cette aventure représente bien plus qu'un simple projet scientifique : c'est une véritable quête de connaissances et une exploration de l'inconnu.  Afin de vous faire vivre cette expérience unique, une série de vidéos a été réalisée. Douze chercheurs de l’Irfu vous ouvrent les portes de leur travail au sein de la mission, vous font part de leurs attentes et partagent leurs émotions à quelques jours seulement du lancement. Vous découvrirez leur dévouement, leur engagement et leur curiosité sans limite pour comprendre les secrets de l'Univers.                           La playlist youtube "Frémir avec Euclid"

Highlights

La désintégration double bêta sans émission de neutrinos (0ν2β) est un processus hypothétique dans lequel deux neutrons à l'intérieur d’un noyau se transforment en deux protons en émettant deux électrons mais aucun neutrino. Si elle venait à être observée, cette désintégration aurait des implications importantes sur notre compréhension des lois fondamentales de la nature. En particulier, elle impliquerait que le neutrino est une particule de Majorana, c'est-à-dire sa propre antiparticule, et donc nous aiderait à comprendre l'asymétrie entre matière et antimatière dans notre Univers. Dans le cadre de cette recherche, une collaboration internationale [1] à laquelle a pris part un physicien théoricien du DPhN vient de calculer de manière microscopique l’élément de matrice nucléaire pour la désintégration 0ν2β entre le 76Ge et le 76Se [2]. Pour la première fois, l’incertitude théorique a pu être estimée de manière rigoureuse.

Contrairement à sa radioactivité sœur, la désintégration double bêta avec émission de neutrinos (2ν2β), dans laquelle deux neutrinos sont émis en plus des électrons, la désintégration 0ν2β n’a encore jamais été observée. Les expériences actuelles et passées ont pour l’instant seulement permis de déterminer une limite basse pour son temps de demi-vie (t1/2), qui est plusieurs ordres de grandeur plus grand que celui de la désintégration 2ν2β, connue pour être le phénomène le plus lent jamais observé par l’être humain. Par exemple, dans le cas du processus reliant le 76Ge au 76Se, illustré sur la figure 1, la demi-vie pour la désintégration 2ν2β est d’environ 2 x 1021 ans alors que la limite basse pour la désintégration 0ν2β est de l’ordre de 1026 ans, soit une désintégration au minimum 100 000 fois plus lente !

Figure 1: Représentation du schéma de décroissance entre l'isotope de Germanium 76 et celui de Sélénium 76.

La désintégration 0ν2β, si elle venait à être observée, aurait des implications fortes sur nos modèles théoriques. Comme évoqué précédemment, l’existence de ce processus impliquerait que le neutrino est sa propre antiparticule. De plus, la mesure de son temps de demi-vie nous permettrait d'extraire de l'information sur la masse des neutrinos, et par conséquent, d'en apprendre davantage sur la physique au-delà du modèle standard. Pour toutes ces raisons, la recherche de cette nouvelle radioactivité est l'objet d'un grand effort expérimental à travers le monde auquel le CEA participe par exemple à travers son investissement dans le programme expérimental CUPID [3] ou le développement de prototypes de nouvelle génération dans le cadre de la bourse européenne TINY [4].

La physique nucléaire théorique a aussi son rôle a joué dans cette aventure. En effet, la probabilité de désintégration 0ν2β entre le noyau initial et le noyau final dépend de ce que l’on appelle un « élément de matrice nucléaire » (EMN). Plus celui-ci est grand, plus la désintégration est probable, et inversement. Connaître ces EMN avec précision est donc très utile pour choisir au mieux les noyaux candidats à utiliser dans les nouvelles expériences consacrées à cette recherche et maximiser ainsi les chances de découvertes. Malheureusement, les EMN ne sont pas accessibles directement par l’expérience et doivent être calculés grâce à des modèles de structure nucléaire. Historiquement, les EMN pour les différents noyaux candidats ont été estimés utilisant des approches phénoménologiques qui ont montré de grands désaccords entre elles. Cependant, depuis quelques années des efforts importants sont faits pour calculer ces EMN en utilisant des méthodes microscopiques, dites « ab initio », qui se proposent de résoudre aussi exactement que possible le problème à N corps nucléaire. Un intérêt majeur de ces approches est notamment la possibilité d’estimer de manière précise les incertitudes dans le calcul des EMN. Grâce à cela, les prédictions théoriques ont la promesse d’être plus fiables et plus facilement exploitables par les physiciens concevant les dispositifs expérimentaux.

Dans le cadre d’une collaboration internationale [1] à laquelle a pris part un physicien théoricien du DPhN, le calcul ab initio de l’EMN et de son incertitude viennent d’être réalisés pour la désintégration 0ν2β entre le 76Ge et le 76Se. La valeur de l’EMN prédit par la théorie, dans un intervalle de confiance de 68 %, est de 2.60 (+1.28,-1.36). Ce résultat est illustré sur la figure 2. Ceci est particulièrement intéressant pour plusieurs raisons. Tout d’abord, le noyau de 76Ge, grâce à ses propriétés expérimentales intéressantes (détecteurs de haute résolution énergétique, bas bruit de fond, possibilités d’enrichissement isotopique), est l’un des noyaux candidats les plus prometteurs dans la recherche de la désintégration 0ν2β. De fait, plusieurs projets expérimentaux majeurs emploient cet isotope [5]. Ensuite, la grande sophistication du calcul (utilisation d’interactions microscopiques et de plusieurs méthodes ab initio de résolution du problème à N corps), qui s’est notamment basé sur l’utilisation d’émulateurs (des outils qui permettent de simuler de manière approchée le résultat d’un grand nombre de calculs à un faible coût numérique), a permis d’estimer avec précision les différentes sources d’incertitudes : paramétrisation de l’interaction forte liant protons et neutrons (εχEFT), opérateur de transition électro-faible responsable de la désintégration (εOP), méthode à N corps permettant de décrire le noyau comme état lié de protons et neutrons (εMBT), utilisation d’un émulateur (εEM). Enfin, d’un point de vue physique, la valeur de l’EMN prédite par ce calcul est plus petite que la plupart de celles obtenues auparavant grâce aux approches phénoménologiques. Ceci signifie que cette désintégration serait moins probable, et donc malheureusement plus difficile à observer.

Figure 2: Valeur de l'EMN M0v et de son incertitude pour la transition entre le 76Ge et le 76Se. Les nouveaux calculs microscopiques (à droite) sont comparés aux résultats phénoménologiques obtenus par le passé (à gauche en vert). Les différentes sources d’incertitudes sont évaluées (voir le texte pour plus de détails). Les calculs ab initio ont été réalisés en utilisant plusieurs méthodes et interactions nucléaires (voir les labels en couleur)

Du fait de leur originalité et de leur qualité, ces travaux viennent d’être publiés dans la prestigieuse revue Physical Review Letters [1]. D’une manière plus générale, cette première scientifique ouvre la voie au calcul fiable des EMN par des approches microscopiques et devrait naturellement se poursuivre par des études similaires sur les autres noyaux candidats, comme par exemple le 100Mo ou le 136Xe. [1] Michigan State University (États-Unis), TRIUMF (Canada), Sun Yat-sen University (Chine), Technische Universität Darmstadt (Allemagne), Universidad Complutense de Madrid (Espagne), Universitat de Barcelona (Espagne), University of North Carolina at Chapel Hill (États-Unis), University of Notre Dame (États-Unis). [2] A. Belley et al., Phys. Rev. Lett. 132, 182502 (2024).   [3] Projet expérimental CUPID.   [4] Bourse européenne ERC : projet TINY.   [5] Dolinski et al., Annu. Rev. Nucl. Part. Sci. 69:219–51 (2019).

Samedi 22 juin à 9h, la fusée chinoise Long Marche 2C a décollé depuis la base de lancement de Xichang, dans la province du Sichuan en Chine, avec à son bord le satellite Franco-Chinois Svom (Space Variable Object Monitor). Quelques minutes après, Svom s’est positionné en orbite basse à une altitude de 650 km. Il est maintenant paré pour commencer sa phase de démarrage qui va durer plusieurs mois afin de démarrer l’exploitation scientifique dès le mois d’octobre. communiqué de presse CEA/CNES/CNRS

Une partie de la collaboration SVOM réunie en Chine pour le lancement (Crédit CEA)

Une mission pour explorer les phénomènes les plus violents de l’Univers Les sursauts gamma, qui seront détectés par le satellite SVOM, sont de brusques et intenses bouffées de lumière X et gamma. Ils sont associés à la formation cataclysmique des trous noirs, soit par fusion de deux astres compacts (étoile à neutrons ou trou noir), soit par l'explosion soudaine d'une étoile massive, vingt à cent fois plus grosse que notre propre Soleil. Les premières traces d'observation de ces phénomènes cataclysmiques sont anciennes et commencent en Chine, il y a plus d'un millénaire. Découvrez l’histoire de ces premières observations. Une plongée passionnante vers les débuts de l’Univers. Crédit CEA, auteur JM Bonnet-Bidaud, réalisation Frederic Durillon, Animéa Studio

L’implication de l’Irfu dans les deux instruments français Le projet SVOM à l'Irfu a démarré en 2017. Sur 16 ans (2017-2023), le projet a mobilisé pres de 300 hommes.an, chercheurs, ingénieurs et techniciens du Dap, DEDIP et DIS. L’Irfu a participé à la fois à la conception des deux instruments français ECLAIRs et MXT, plus particulièrement à la conception et au développement du logiciel de trigger à bord de l’instrument ECLAIRs (actualité 2023) et les études et développement de la caméra X de l’instrument MXT (actualité 2021).    

Reproduit à partir de la BD « L’aventure SVOM », par Bordenave A., le CEA et le CNES, 2024, p50.

La détection par le télescope ECLAIRs est le fruit de l’ordinateur embarqué muni de son logiciel, développé pendant 6 ans à l'Irfu. Il s’agit d’un des logiciels les plus complexes jamais embarqués sur un instrument spatial. En effet, en plus d’assurer la gestion de l’instrument (alimentation, régulation de température, réception et émission des commandes), il analyse en temps réel les signaux du ciel à la recherche des sursauts gamma et réoriente sans intervention humaine le satellite, une performance quasi-unique dans le monde spatial. T0 Arrivée du sursaut gamma T0 + 30s Détection et première localisation par ECLAIRs T0 + 2’ Alignement de SVOM avec la direction du sursaut T0 + 5’ Localisation plus précise par MXT puis les télescopes opérant dans le visible Les équipes sont aussi partie prenante des missions d’« Avocat Sursaut » en charge de surveiller les alertes envoyées par le satellite grâce notamment au centre de contrôle situé dans les locaux de l’institut au DAp. T0 + 10’ Confirmation du sursaut et de sa localisation par un "avocat sursaut" ; alerte des télescopes au sol ; début de l’étude détaillée T0 + 2h Première détermination de la distance du sursaut par un grand télescope

Le "cerveau" du boitier de l’UGTS (Unité de Gestion et de Traitements Scientifiques) d’ECLAIRs. Illustration : © CNES/TRONQUART Nicolas, 2018

 

Explications en images des instruments ECLAIRs et MXT vidéo youtube CNES (Copyright : CNES - Mai 2024)  réalisation Fab&Fab

Contacts : Bertrand Cordier, Arnaud Claret, Stéphane Schanne, Henri Louvin, ---- Site web Svom Emision twitch TV CNES SVOM : À l'affût des sursauts gamma

Pour finaliser la phase d’émergence du projet SAGA (Space Applications at Ganil Accelerators), le GANIL et le CNES ont co-organisé un séminaire au GANIL les 15&16 mai derniers regroupant tous les acteurs industriels français du domaine, les collaborateurs GANIL investis dans le projet ainsi que des représentants de l’écosystème régional et national impliqués dans les réflexions autour du financement du projet. Ce séminaire a réuni 100 personnes au GANIL.

partenaires du projet SAGA (Space Applications at Ganil Accelerators)

Le GANIL a démarré ce projet courant 2023 avec pour objectif d’améliorer l’accessibilité, pour les industriels du spatial, des moyens d’irradiation avec les ions lourds et les neutrons du GANIL et permettre aux entreprises françaises et européennes de gagner en réactivité, autonomie, efficacité (coûts et agilité). Ainsi la filière française aura l’opportunité de renforcer sa compétitivité dans un domaine d’excellence où les enjeux de souveraineté sont forts. En effet, depuis plusieurs années, le GANIL fournit du temps de faisceau d’ions lourds aux industriels du spatial pour des tests de composants électroniques sous irradiation. Depuis le début de l’année 2023, les demandes de faisceau des industriels du spatial ont augmenté de manière significative. Cette hausse est due à l’augmentation du nombre de lancements de satellites et témoigne de la qualité et de la reconnaissance des prestations offertes par le GANIL.

Les objectifs de ce séminaire étaient : de permettre à la communauté industrielle et académique du domaine de l’électronique en environnement radiatif (spatial principalement) d’échanger sur leurs besoins en irradiations, que ce soit en termes de volumes horaires mais aussi de conditions expérimentales. de visiter les installations GANIL et SPIRAL2 Cette rencontre a permis de vérifier l’adéquation des objectifs du projet SAGA avec les besoins exprimés par la communauté. De riches discussions ont eu lieu et ont incité plusieurs industriels à s’engager sur l’utilisation d’heures de faisceau pour les années à venir. Le GANIL et ses partenaires académiques et industriels ont pour prochain objectif de construire un partenariat durable pour la réalisation du projet SAGA.  Contact : Patricia ROUSSEL CHOMAZ

crédit GANIL

Le Consortium Euclid a décerné le prix Euclid STAR 2024, catégorie Scientifique Senior, à Jean-Charles Cuillandre, chercheur au Département d'Astrophysique (DAp) de l'IRFU du CEA Paris-Saclay, pour son pipeline personnalisé qui a permis de générer les magnifiques images publiques « Early Release Observations » (ERO) d'Euclid, vues par des milliards de personnes, et amorcer le début de l'exploitation scientifique des données.

Jean-Charles Cuillandre, chercheur à l'IRFU du CEA Paris-Saclay, lauréat du prix Euclid STAR Prize 2024, catégorie Scientifique Senior

Jean-Charles Cuillandre est un astronome basé au département d'astrophysique du CEA Paris-Saclay. Il a rejoint le Télescope Canada-France-Hawaï (TCFH) en 1996 après avoir obtenu un doctorat en astrophysique à Toulouse et a passé près de deux décennies à Hawaï où il a travaillé pour le TCFH et ses communautés scientifiques en tant qu'instrumentaliste et astronome. Avant de s'engager dans le monde de la recherche fondamentale, il a reçu une formation d'ingénieur qui correspondait bien à son goût pour le traitement des données astronomiques et l'instrumentation. Son principal domaine d'expertise est l'imagerie optique et proche infrarouge à grand champ, depuis les détecteurs, les techniques d'observation et le traitement des données, jusqu'à la science au sens large permise par cette instrumentation, en particulier à travers les grands relevés du ciel. Il est revenu en France au sein du DAp en 2014 pour rejoindre la mission Euclid afin de contribuer au développement du plan d'étude et de lancer la campagne internationale d'observations au sol, essentielle à la mission. Pendant son temps libre, il a développé un art du ciel basé sur les données d'imagerie à grand champ du TCFH au cours des deux dernières décennies. Il a dirigé les observations préliminaires d'Euclid (ERO) afin de fournir les premières images en couleur au monde entier et de soutenir la production des premiers résultats scientifiques.

Contact : Jean-Charles Cuillandre Pour en savoir plus : The Euclid Consortium STAR Prize 2024 Fait marquant sur les premières images ERO Euclid Fait marquant sur la deuxième série d'image ERO Euclid et les premiers résultats scientifiques Intervention de Jean-Charles Cuillandre dans l'émission La Conversation Scientifique sur France Culture : Saurons-nous bientôt ce qu’est l’énergie dite "noire" ? Intervention de Jean-Charles Cuillandre dans le reportage Le Blob :  Décryptage des premières images d’Euclid, télescope à la recherche de la matière noire

La NASA a récemment décerné le Silver Group Achievement Award à 232 experts mondiaux pour leur contribution à la mise en service du télescope spatial James Webb (JWST). Ces experts ont travaillé 24 heures sur 24 pendant les six mois du commissioning. Leur travail acharné a permis d'obtenir pour tous les instruments des performances finales surpassant les spécifications initiales. Parmi cette équipe, on compte six Français, dont quatre appartiennent au Département d'Astrophysique de l’Irfu du CEA Paris-Saclay.

Figure 1 – Scott Lambros, le responsable des systèmes d'instruments du JWST, recevant le prix d'argent pour les réalisations du groupe de la NASA au nom de toute l’équipe de mise en service des instruments du JWST lors de la remise officielle du 11 juin

Un travail d’équipe Le télescope spatial James Webb (JWST) est le premier observatoire d'astrophysique au monde et un succès incontestable. Les équipes dédiées, qui ont confirmé le fonctionnement des instruments scientifiques (IS) et des sous-systèmes pendant les six mois de mise en service, sont la clé de ce succès. Grâce à des séquences méticuleusement planifiées et à une coordination soignée entre toutes les activités de l'observatoire, ces équipes internationales ont assuré une couverture 24h/24, examiné les données et résolu les problèmes dès qu'ils se présentaient. Parmi eux, quatre personnes du Département d’Astrophysique de l'IRFU du CEA Paris-Saclay : Pierre-Olivier Lagage, chercheur et co-responsable de l’instrument MIRI ainsi que Christophe Cossou, Daniel Dicken et Alain Coulais, ingénieurs de recherche ayant participé à l’élaboration de MIRI.

Figure 2 - Christophe Cossou et Daniel Dicken, ingénieurs de recherche au CEA Paris-Saclay, dans le Centre de Contrôle des Opérations de la Mission JWST au Space Telescope Science Institute (STScI) au moment de la première observation avec l'instrument MIRI (first light), visible sur l’écran en arrière-plan.

La mise en service de MIRI L’une des caractéristiques du JWST est d’observer dans la portion de l’infrarouge moyen du spectre électromagnétique via l'instrument MIRI (instrument Mid InfraRed) à forte contribution française. Les observations sont possibles grâce à un refroidissement actif fourni par un cryoréfrigérateur qui « extrait » la chaleur des plans focaux et des optiques de MIRI pour offrir des performances spectroscopiques sans précédent. Il a fallu attendre trois mois après le lancement du télescope pour que le cryoréfrigérateur atteigne la température requise de 7 K, soit près de -266°C. « J'étais aux commandes quand on a démarré le cryoréfrigérateur et tout s'est magnifiquement passé. Voir en direct la température descendre... Là on se dit que ça va aller ! » Témoigne Alain Coulais, ingénieur de Recherche détaché au Département d’Astrophysique du CEA-Saclay Grâce à une planification précise des tests et de l'analyse des données de la part des équipes (cf. Figure 3), l’instrument MIRI a été entièrement mis en service en seulement trois semaines. MIRI n'a rencontré qu'un seul problème : une caractéristique inattendue de lumière parasite a fait échouer la méthode prévue pour aligner les coronographes. Une fois ce problème résolu, les coronographes ont été alignés et ont dépassé leurs performances initialement prévues d'un facteur de quatre.  « Etre aux commandes pour activer l'ouverture de l'instrument vers le ciel, puis l'acquisition de la première image fut un moment magique, l'aboutissement de plusieurs années de préparation » Explique Christophe Cossou, ingénieur de Recherche au Département d’Astrophysique du CEA-Saclay

Figure 3 - Equipe responsable de la mise en service de l’instrument MIRI au STSCI (Baltimore - USA) qui abrite le Centre d’Opération du JWST.

La mise en service de NIRCam L'équipe responsable de la caméra proche infrarouge (NIRCam) a permis l'alignement optique des 18 segments du miroir primaire du JWST (cf. Figure 4). Ils ont traité les problèmes de stabilité de pointage, des états thermiques inattendus et de l'exécution des activités qui ont permis d’obtenir un télescope aligné qui dépasse les spécifications pour lesquels il a été construit.

Figure 4 - Image de l'étoile 2MASS J17554042+6551277 prise par le télescope spatial James Webb après l’alignement de son miroir primaire. Les figures de diffraction autour de l’étoile confirme l’alignement parfait des 18 segments constituant le miroir primaire. Crédit : NASA/STScI

La mise en service de NIRSpec Au sein de l'équipe du spectrographe proche infrarouge (NIRSpec), chaque observation a été soigneusement planifiée pour garantir une efficacité maximale, et toutes les activités de calibration ont été complétées dans les délais impartis. NIRSpec utilise des réseaux de 250 000 micro-obturateurs (MSA), de petites fenêtres qui peuvent être sélectionnées individuellement pour observer des étoiles cibles (cf. Figure 5). Pour résoudre les problèmes d'acquisition de cibles MSA, l'équipe a passé des jours et des nuits à trouver des problèmes sur les systèmes connexes et à les résoudre.

Figure 5. A Gauche : Schéma de l'agencement de l’assemblage des micro-obturateurs (MSA), avec des cibles scientifiques (en bleu) montrées dans leurs volets MSA ouverts (en vert). Crédit : NASA/STScI A droite : Exemple d’utilisation des MSA pour mesurer la distance obtenue avec NIRSpec des galaxies individuelles parmi un champ de milliers de galaxies. Crédit : NASA, ESA, CSA, STScI

La mise en service du FGS Le capteur de guidage fin (FGS) fournit des images d'étoiles cataloguées au système de contrôle d'attitude 16 fois par seconde, permettant à Webb de pointer avec précision en restant très stable sur une longue durée (cf. Figure 6). Grâce aux efforts de l'équipe FGS, la précision de pointage dépasse là aussi les spécifications initialement prévues. Le guidage nécessite une surveillance quasi constante depuis la console. L'équipe a effectué de nombreuses répétitions spécifiques au FGS pour se préparer au processus complexe d'alignement des miroirs. Leurs efforts ont conduit à plusieurs réalisations majeures qui ont amélioré les capacités de guidage. Ils ont analysé des images pour générer des paramètres mis à jour, améliorant ainsi les performances de guidage pour les étoiles brillantes et les champs encombrés, et ont également perfectionné les scripts de commande pour optimiser les performances globales.

Figure 6 - Cette image test du détecteur du FGS a été acquise sur une période de huit jours lors de la phase de la mise en service et des tests de performance du JWST. Bien que non optimisée pour la détection d'objets faibles, elle capture néanmoins des objets extrêmement faibles. Crédit: NASA, CSA, and FGS team.

La mise en service de NIRISS Un problème résolu par l'équipe de l'imageur infrarouge proche et du spectrographe sans fente (NIRISS) était la lumière dispersée provenant de l'assemblage de l'échangeur de chaleur MIRI (HSA). Ils ont identifié le problème et confirmé qu'une fois le HSA refroidi, les niveaux de signal sont tombés aux limites attendues (cf. Figure 7). Après une défaillance initiale de l'acquisition de cible, l'équipe a travaillé pour corriger les scripts embarqués, ce qui a abouti à une acquisition de cible qui dépasse les attentes.

Figure 7 – Courbe de lumière obtenu avec l’instrument NIRISS d’un transit de l'exoplanète géante WASP-96 b devant son étoile. NIRISS est parfaitement adapté à ce type d’observation à fort contraste. Lors de cette observation, l'instrument a pu mesurer des différences de luminosité de l'ordre de 0,02 %. Crédit : NASA, ESA, CSA, STScI

Le ICDH et l’ISIM Le module de commande et de traitement des données des instruments scientifiques intégrés (ICDH) et l'unité des services distants ISIM (IRSU) ne reçoivent pas les acclamations des instruments scientifiques, mais sans eux, il n'y aurait pas de logiciel pour prendre les images, pas de commande, et pas de données transmises au sol. Cette équipe a soutenu les tests et les répétitions avant et après le lancement, travaillant 24 heures sur 24 pendant les six mois complets de mise en service. Non seulement leurs sous-systèmes ont fonctionné sans heurts, mais leur expertise a été une ressource précieuse pour les autres équipes en cas de problème. Les résultats de la dévotion de l'équipe de mise en service conjointe sont graphiquement illustrés par les images inspirantes publiées au public (cf. Figure 8).

Figure 8 - Falaises cosmiques dans la nébuleuse de la Carène prise par la caméra NIRCam, l’une des nombreuses images spectaculaires du JWST qui sont possibles grâce à l’effort d’une équipe internationale que le prix d’argent de la NASA récompense. Crédit : NASA, ESA, CSA, STScI

Contacts : Pierre-Olivier Lagage, Christophe Cossou, Alain Coulais Pour aller plus loin : Description des instruments scientifiques du JWST Témoignage de Christophe Cossou et de Pierre Guillard sur la phase de Commisionning dans le podcast réalisé par le CEA dédié au JWST Témoignage de Christophe Cossou à la découverte des premières images de MIRI, l’instrument à forte connotation française Cérémonie de remise des prix de l'administrateur au Glenn Research Center.

Une équipe de recherche internationale, impliquant des scientifiques du CEA, vient de révéler la composition chimique d'un disque de matière en rotation autour d'une jeune étoile où se forment de nouvelles planètes. Les résultats révèlent le plus grand nombre de molécules carbonées jamais observées dans un tel disque, dont certaines détectées pour la première fois en dehors de notre système solaire. Ces découvertes ont des implications sur la composition potentielle des planètes en formation autour de cette étoile. Ces résultats, publiés dans la revue Science le jeudi 6 juin, ont été obtenus dans le cadre du programme temps garanti de l'instrument MIRI, développé par un consortium de laboratoires en Europe et aux Etats-Unis.

Figure 1 : Impression d'artiste d'un disque protoplanétaire autour d'une étoile de très faible masse. Elle représente une sélection de molécules d'hydrocarbures (méthane, CH4 ; éthane, C2H6 ; éthylène, C2H2 ; diacétylène, C4H2 ; propyne, C3H4 ; benzène, C6H6) détectées dans le disque autour d'ISO-ChaI 147. Crédit : ALMA (ESO/NAOJ/NRAO) / MPIA

L’étude des disques protoplanétaires Les planètes rocheuses sont très communes autour des étoiles de très faible masse (moins de 0,3 masse solaire), comme en témoigne le fameux système planétaire TRAPPIST-1. On sait pourtant peu de choses sur la chimie de ces mondes, qui peuvent être semblables ou très différents de la Terre. En étudiant les disques à partir desquels ces planètes se forment, appelés disques protoplanétaires, les astronomes espèrent mieux comprendre le processus de formation des planètes et la composition des planètes qui en résultent. Les disques protoplanétaires autour d'étoiles de très faible masse (cf. Figure 2) sont difficiles à étudier parce qu'ils sont plus petits et moins lumineux que les disques autour d'étoiles plus massives. Le programme appelé MIRI Mid-INfrared Disk Survey (MINDS) vise à utiliser les capacités uniques du télescope spatial James Webb (JWST) pour faire le lien entre les propriétés des disques et les propriétés des exoplanètes.

Figure 2 : Impression d'artiste d'une jeune étoile entourée d'un disque de gaz et de poussière. Credit : NASA/JPL-Caltech

Un cocktail de molécules détectées autour de la jeune étoile ISO-ChaI-147 Dans une nouvelle étude, cette équipe a exploré la région autour d'une étoile de très faible masse connue sous le nom d'ISO-ChaI-147, une étoile âgée de 1 à 2 millions d'années, dont la masse n’est que de 0,11 fois celle du Soleil. Le spectre révélé par l’instrument MIRI du JWST montre la chimie d’hydrocarbure la plus riche observée à ce jour dans un disque protoplanétaire - un total de 13 molécules carbonées différentes (cf. Figure 3). L'équipe a notamment détecté pour la première fois de l'éthane (C2H6) en dehors de notre système solaire, ainsi que de l'éthylène (C2H4), du propyne (C3H4) et le radical méthyle CH3.   « Il est incroyable que nous puissions détecter et quantifier la quantité de molécules que nous connaissons bien sur Terre, comme le benzène, dans un objet situé à plus de 600 années-lumière », explique Agnès Perrin, chercheuse CNRS au Laboratoire de Météorologie Dynamique (LMD – CNRS/ENS-PSL/IPP/Sorbonne Université). « L’an dernier, nous avions déjà découvert une très grande quantité d’acétylène (C2H2), de diacétylène (C4H2) et du benzène (C6H6) dans un disque autour d’une étoile similaire. Ici c’est un cocktail encore plus riche de molécules qui est découvert, confirmant que les disques autour de ce type d’étoile sont de vraies usines d’hydrocarbures », ajoute Benoît Tabone, chercheur CNRS à l’Institut d’Astrophysique Spatiale (IAS - Université Paris-Saclay/CNRS).

Figure 3 : Ce graphique représente le spectre du disque protoplanétaire autour de l’étoile ISO-ChaI-147 révélé par l'instrument MIRI (Mid-Infrared Instrument) du télescope spatial James Webb. Le spectre montre la chimie des hydrocarbures la plus riche observée à ce jour dans un disque protoplanétaire, avec 13 molécules carbonées, dont la première détection extrasolaire d'éthane (C2H6) et la première détection d'éthylène (C2H4), de propyne (C3H4) et de radical méthyle (CH3) dans un disque. Crédits : NASA, ESA, CSA, Ralf Crawford (STScI)

Une vision plus précise des disques autour des étoiles de très faible masse? Ces résultats ont des implications importantes pour la chimie du disque interne et des planètes qui pourraient s'y former. Comme le JWST a révélé que le gaz présent dans le disque est riche en carbone, il est probable qu'il reste peu de carbone dans les matériaux solides à partir desquels les planètes se formeraient. Par conséquent, les planètes rocheuses qui pourraient s'y former seraient finalement pauvres en carbone. Ces travaux soulignent la nécessité cruciale pour les scientifiques de collaborer entre les différentes disciplines. L'équipe note que ces résultats et les données qui les accompagnent peuvent contribuer à d'autres domaines, notamment la physique théorique, la chimie et l'astrochimie, afin d'interpréter les spectres et d'étudier de nouvelles signature spectroscopique de molécules dans cette gamme de longueurs d'onde.

Vidéo 1 : Illustration le spectre du disque protoplanétaire de l'étoile ISO-ChaI-147, capturé par l'instrument MIRI du télescope JWST, montrant le mouvement typique des molécules responsable de l'absorption dans le spectre. Crédits: MPIA

Contacts : Pierre-Olivier Lagage Pour aller plus loin : Communiqué de presse de l’Agence spatiale européenne (ESA) Publication dans Science Application ludique pour découvrir quelles signatures chimiques combinées composent le spectre mesuré du disque autour de l'étoile de très faible masse ISO-ChaI 147. Vous pouvez ajouter et supprimer des molécules individuelles pour découvrir leur influence sur le spectre.

Dans leur quête des mystères de l'Univers, les astrophysiciens doivent capter les signaux fugaces des événements cosmiques. Pour parvenir à cette fin, ingénieurs et physiciens doivent repousser les limites de la technologie. Le Cherenkov Telescope Array Observatory (CTAO), une initiative mondiale visant à construire l'observatoire terrestre de rayons gamma le plus avancé au monde, fait partie de ce vaste effort. Le CTAO utilisera des télescopes de trois tailles différentes - grand, moyen et petit - pour couvrir pour la première fois toute la gamme d'énergie entre 20 GeV et 300 TeV. CTAO comportera deux sites - au Chili et aux îles Canaries - pour couvrir l'ensemble du ciel. La caméra NectarCAM, qui est équipée d'un composant essentiel appelé carte d’électronique frontale (FEB), est au cœur du fonctionnement des télescopes de taille moyenne qui seront installés sur le site nord de CTAO. Le développement de la nouvelle FEB en 2020, avec l'intégration de la puce innovante NECTAr3 développée à l'IRFU, a permis d’améliorer de façon significative l’efficacité de déclenchement de NectarCAM et est une avancée notable vers la découverte de l’origine des rayons cosmiques. La nouvelle puce permet de diminuer le temps mort de la caméra d'un ordre de grandeur, d'augmenter sa fréquence d’acquisition de données cosmiques et d'abaisser le seuil d'énergie des rayons gamma détectables. La nouvelle FEB et la puce NECTAr3, ainsi que les tests effectués à l'Irfu pour vérifier l'amélioration des performances de la caméra en termes de temps mort, de linéarité et de précision temporelle sont décrits dans un article publié par le journal NIM-A en avril 2024.

Figure 1: Image de synthèse d’un télescope de taille moyenne (MST) de l’observatoire CTAO. La caméra NectarCAM équipera le plan focal des 9 MST qui seront installés sur le site Nord de CTAO à La Palma (Espagne). (crédit : O. Ferreira/NectarCAM collaboration)

La nouvelle puce NECTAr pour la carte d’électronique frontale (FEB) de NectarCAM La caméra NectarCAM agit comme les yeux de l'observatoire, capturant de brefs mais brillants éclairs de lumière Cherenkov produits lorsque des rayons gamma de haute énergie entrent en collision avec l'atmosphère de la Terre. Cette lumière fugace dévoile les processus violents qui se produisent dans la Galaxie et au-delà, depuis les explosions de supernovae jusqu’au comportement énigmatique des trous noirs. Au cœur de NectarCAM, la FEB traduit les signaux lumineux en données numériques que les scientifiques peuvent ensuite analyser. Lorsque la lumière Cherenkov atteint la caméra, elle est d'abord captée par des photomultiplicateurs, au nombre de 1855 pour une NectarCAM. Ces détecteurs convertissent la faible lumière en signaux électriques, qui sont amplifiés dans deux canaux de gain différents. Les signaux amplifiés sont ensuite envoyés à la FEB, où ils sont amplifiés une deuxième fois, échantillonnés, puis, après déclenchement de la caméra, numérisés et enregistrés. La puce NECTAr, développée à l'Irfu[1], est au cœur de la FEB. Elle comprend un réseau de condensateurs commutés échantillonnant les signaux à 1 GHz et un convertisseur analogique-numérique (CAN) de 12 bits pour la numérisation de ces signaux, à la réception d'un signal de déclenchement. L'une des principales avancées de la nouvelle puce NECTAr est sa capacité à fonctionner en "mode ping-pong". Dans ce mode, la mémoire de la puce est divisée en deux segments qui fonctionnent alternativement pour optimiser le traitement des signaux analogiques entrants, ce qui permet de résoudre le problème du temps mort, c'est-à-dire la période pendant laquelle le système ne peut pas enregistrer de nouvelles données tout en traitant le signal en cours. Cette limitation réduit l'efficacité du système, en particulier lors de l'observation de phénomènes astronomiques à haute fréquence. Le mode "ping-pong" permet de remédier à ce problème en utilisant un système à deux mémoires tampons. Pendant qu'une mémoire tampon traite un signal, la seconde est prête à capturer le prochain signal entrant. Ce fonctionnement alterné assure une acquisition continue des données et réduit considérablement le temps mort du système.

Figure 2: Nouvelle carte d’électronique frontale de NectarCAM. Les principaux composants de la FEB sont indiqués par des numéros. 1 : Connecteurs gauches par lesquels les signaux électriques provenant de 7 PMT arrivent sur la carte. 2 : Quatre amplificateurs ACTA. 3 : Sept puces NECTAr3. 4 : FPGA. 5 : Connecteur droit, qui sert d'interface mécanique et électrique avec la carte responsable de la formation du déclenchement de premier niveau de la caméra. (crédit : V. Marandon/Irfu/CEA)

NECTAr est une puce développée à l'Irfu, capable de capturer à un taux d'échantillonnage élevé (109 d’échantillons par seconde) le signal analogique délivré par le photomultiplicateur et de le stocker jusqu'à ce qu’un ordre de lecture survienne. Le dispositif est basé sur une structure de mémoire analogique brevetée, qui permet de réduire la consommation d'énergie d'un facteur 100 par rapport aux systèmes courants. Cette structure a été utilisée à l'origine dans la puce SAM, conçue pour lire les données du grand télescope CT5 du réseau H.E.S.S. La puce NECTAr a été développée spécifiquement pour le CTAO dans le cadre d'un projet ANR financé en 2009. C’est une amélioration de la puce SAM qui intègre un convertisseur analogique-numérique, possède une matrice de mémoire quatre fois plus grande que celle de SAM pour faire face à des latences de déclenchement plus longues, et un système de lecture plus rapide qui permet de lire une trame de 60 échantillons en moins de 6 µs. La première version de la puce NECTAr est actuellement utilisée par les quatre caméras des petits télescopes de H.E.S.S. (CT1-4), installées en 2016. L'ajout du mode ping-pong dans la puce NECTAr3 ne modifie pas le temps de lecture du réseau de condensateurs, mais améliore le temps mort de la caméra.

La réduction du temps mort avec le mode ping-pong L'équipe NectarCAM de l'Irfu a effectué une série de tests pour évaluer les performances des nouvelles FEB, en se concentrant particulièrement sur la mesure du temps mort de la caméra. Ces tests ont été effectués dans la chambre noire de l'Irfu, un environnement thermiquement contrôlé et protégé des sources de lumière externes, où les caméras NectarCAM sont qualifiées avant d'être expédiées aux îles Canaries. D'une surface de ~80 m², elle a été spécialement construite pour le projet NectarCAM[1], afin de tester les 9 caméras prévues, avant installation sur le site de La Palma. Pour simuler les sources de lumière sur site, trois sources lumineuses distinctes ont été utilisées : une source lumineuse d'étalonnage pulsée à champ plat (FFCLS), un laser et une source de fond de ciel nocturne (NSB). La FFCLS utilise 13 LED pour fournir un champ uniformément éclairé à la caméra et sert de référence pour identifier et corriger les variations spatiales de la réponse de la caméra. La capture des images produites par cette source permet de détecter et corriger les écarts de sensibilité entre les pixels de la caméra. Le laser est stabilisé en température et est adapté aux mesures de temps précises. Quant à la source NSB, elle reproduit la lumière ambiante naturelle du ciel nocturne. Les trois sources ont été utilisées pour éclairer la caméra de manière aléatoire en temps, en utilisant pour les deux premières un générateur de déclenchement aléatoire externe. Au cours de ces tests, on a enregistré le nombre de fois où la caméra a reçu des pulses (Ncollected), ainsi que les cas où la caméra n’a pas pu acquérir de nouveaux signaux lumineux parce qu'elle était déjà occupée à numériser un autre signal (Nbusy). La comparaison de ces deux taux a permis d'obtenir une estimation de la fraction de temps mort, qui indique l'état de "mort" de la caméra, la rendant incapable d'enregistrer un signal. Une deuxième méthode a été employée pour estimer la fraction de temps mort. Lorsqu'un signal est enregistré par la caméra, un événement est créé et un horodatage lui est associé. Étant donné la nature aléatoire de l'émission de lumière, la distribution de la différence de temps entre des événements consécutifs ressemble à une distribution exponentielle. Cette distribution a été ajustée à l'aide d'un modèle exponentiel tronqué, dont les paramètres comprennent le temps mort minimum (δmin) et le taux exponentiel (R). Le temps mort minimum correspond à l'intervalle le plus court entre deux événements, donné par la lecture de la puce NECTAr, soit environ 700 ns, tandis que le taux exponentiel reflète le taux d'enregistrement des événements. La fraction de temps mort, dans ce cas, est déterminée en multipliant le temps mort minimum par le taux. La Figure 3 illustre les principales mesures du temps mort. Les données obtenues avec la nouvelle FEB sont représentées par des lignes de couleur, contrastant avec les lignes grises montrant les données de la précédente FEB (v5). Les mesures associées à différentes sources de lumière sont représentées par des couleurs différentes. Les lignes continues et les zones colorées représentent les deux méthodes adoptées pour calculer la fraction de temps mort. Ces résultats démontrent que le mode ping-pong réduit la fraction de temps mort de la NectarCAM à 0,5% lorsque celle-ci acquiert des données au taux nominal de 7 kHz, réalisant une diminution du temps mort d’un facteur 10. [1] La construction de la chambre noire a été partiellement financée par une subvention du DIM ACAV.

Figure 3: Fraction de temps mort pour les nouvelles FEB (en couleur) et les anciennes FEB v5 (en gris). La fraction de temps mort, estimée par le rapport entre le taux de déclenchement « busy » et le taux de déclenchement total (zone remplie) est comparée à celle obtenue à partir d’un ajustement exponentiel (points et ligne continue). Les trois sources utilisées ont été représentées : le FFCLS (en orange), la source laser (en violet) et la source NSB (en bleu).

Grâce au travail des ingénieurs et des chercheurs de l'Irfu, et à l’aide de leurs collègues du CNRS et de laboratoires espagnols et allemands, la caméra NectarCAM est maintenant entièrement assemblée sur le banc d'essai de l'Irfu. D'importants tests sont en cours pour vérifier ses performances et s'assurer qu'elle est prête à être installée sur place pour capturer les données du ciel. Parmi ces tests figure la validation de la nouvelle version de la puce NECTAr, mise au point à l'Irfu. La conception et la validation de cette puce innovante représentent une étape importante pour NectarCAM et le CTAO. Grâce à l’amélioration des performances de NectarCAM, nous sommes équipés pour capturer les phénomènes transitoires du cosmos à une fréquence plus élevée et des énergies plus faibles. Grâce à cela, nous serons en mesure de découvrir de nouveaux secrets de l'Univers, d'ouvrir de nouvelles possibilités de découverte et de comprendre le cosmos d'une manière que nous n'aurions jamais imaginée. Les prochaines étapes consistent à monter la première caméra sur un télescope de taille moyenne (MST) au site de La Palma, fin 2025, à valider ses performances et démarrer les observations, et, parallèlement, à lancer la production et l'intégration des huit caméras restantes fin 2024. Rendez-vous en 2025 pour commencer à explorer l'Univers avec le nouvel œil de NectarCAM. Le prochain chapitre de l'exploration cosmique à très haute énergie vient de commencer, et il promet d’être plus lumineux et plus clair que jamais ! Contacts : F. Bradascio, E. Delagnes, J.F. Glicenstein

Une équipe de théoriciens du Département d’Astrophysique (DAP) du CEA, travaillant au sein du Laboratoire de Modélisation des Plasmas Astrophysiques (LMPA), a réalisé des simulations à l’aide des supercalculateurs du CEA, dans le but de comprendre la formation des étoiles et des disques protoplanétaires. Des mois de calcul ont permis d’atteindre des résolutions jamais atteintes auparavant, révélant de nouveaux détails sur la formation de ces objets. Ces simulations apportent deux résultats majeurs : les protoétoiles sont turbulentes dès leur naissance et les disques protoplanétaires se forment à partir de matériel éjecté par la surface de l’étoile. Ces résultats ont été publiés dans le journal Astronomy & Astrophysics : The birth and early evolution of a low-mass protostar et Formation of low-mass protostars and their circumstellar disks.  

L’intérêt des simulations numériques  Dans notre galaxie, de nombreux nuages de poussière et de gaz s'effondrent sur eux-mêmes sous l'effet de la gravité, déclenchant ainsi le phénomène de formation stellaire. Le disque de gaz et de poussières entourant les jeunes étoiles, appelé « disque protoplanétaire » (cf. Figure 1), donnera ensuite naissance aux planètes. Comprendre l'évolution de ces phénomènes nous renseigne sur la formation de notre propre système solaire, de la Terre et sur l'apparition de la vie dans l'Univers. Malheureusement, il est très difficile d'observer la naissance des étoiles et des planètes, car la grande quantité de poussières dans lesquelles les jeunes étoiles sont enfouies masque une majeure partie de leur lumière. Par conséquent, l'observation de leur formation demeure difficile, même avec de puissants télescopes tels que le James Webb Space Telescope (JWST), auquel le CEA a contribué. C'est pourquoi les astrophysiciens utilisent des supercalculateurs pour réaliser des simulations numériques très complexes, qui tentent de reproduire ces phénomènes à partir des lois de la physique. Ces simulations sont néanmoins très chronophages. Réaliser une simulation qui décrit l'effondrement du nuage et la première année et demie après la naissance des proto-étoiles nécessite trois mois de calculs.

Figure 1: Vue d’artiste d’une étoile jeune avec un disque de gaz et de poussière (dit protoplanétaire) orbitant autour. Crédit: ESO/L. Calçada

Formation des étoiles   Dans une première étude, les simulations ont démontré que les étoiles sont turbulentes dès leur naissance (cf. Figure 2), ce qui va à l'encontre des croyances précédentes des chercheurs. En effet, on pensait que la turbulence dans les étoiles était déclenchée lorsque la fusion nucléaire démarre dans leur région centrale (environ 100 000 ans après leur naissance). Grâce à la très haute résolution des simulations, les chercheurs ont remarqué qu'une instabilité à la surface de l'étoile pouvait générer des mouvements turbulents à grande échelle lorsque l'étoile accrète le gaz environnant. Cela aura des conséquences sur l'évolution des étoiles et permet de poser de nouvelles questions sur l'origine de leurs champs magnétiques, qui nécessitent ces mouvements turbulents pour déclencher une dynamo.

Figure 2 : Visualisation de l’intérieur d’une proto-étoile, illustrant la forte turbulence qui s’y trouve. La couleur indique l'entropie du gaz, une mesure permettant de déterminer si une zone est susceptible de devenir turbulente. Crédit: Ahmad et al. (2023).

Formation de disques protoplanétaires  Dans une seconde étude, l’équipe a pris en compte les effets de rotation dans le nuage initial pour étudier la naissance des disques protoplanétaires conjointement avec l’étoile (cf. Figure 3). Pour la première fois, les simulations ont montré que les disques se forment à partir de gaz éjecté par la surface de l’étoile. En effet, la protoétoile tourne tellement vite à sa naissance qu’une partie de son gaz atteint la vitesse de rupture, c’est-à-dire la vitesse à laquelle la force centrifuge devient si importante que la gravité de l’étoile ne parvient plus à contenir le gaz. Cela change considérablement le paradigme de formation des disques, qui jusqu’à présent étaient étudiés indépendamment de l’étoile en raison des contraintes de temps de calcul.

Figure 3 : Simulation d’une proto-étoile (tore vert) et de son disque d’accrétion (bleu). Les courbes blanches représentent le champ de vitesse du gaz qui rentre dans les pôles de l’étoile, attiré par sa gravité. Les images en arrière-plan sont des coupes représentant l’émission radiatif du gaz. En seulement 10 mois, le disque a atteint une demi-unité astronomique en rayon, soit la moitié de la distance terre-soleil, et son étendue verticale est tel qu’il englobe l’étoile. Crédit: Ahmad et al. (2024)

Les prochaines simulations  L’équipe de chercheurs est d’ores et déjà en train de faire tourner de nouvelles simulations en prenant en compte le champ magnétique au sein du nuage. Ceci leur permettra d’étudier l’origine des champs magnétiques dans les étoiles et comment ils influent sur l’interaction entre l’étoile et le disque. 

Contacts : Adnan Ali AHMAD, Matthias GONZALEZ, Patrick HENNEBELLE  Pour aller plus loin : Chaine Youtube des vidéos de simulations de l'équipe du DAp

La collaboration Euclid publie aujourd’hui cinq articles de référence de la mission et dix articles scientifiques basés sur les premières images qui furent dévoilées au public en novembre 2023, et les nouvelles images présentées aujourd’hui par l’ESA.  Cette phase d’observations préliminaires menée l’automne dernier donne un aperçu des performances exceptionnelles du télescope. Les premiers articles scientifiques révèlent d’ores-et-déjà la découverte de planètes errantes nouvellement nées, la richesse de la population d'amas globulaires autour des galaxies voisines, la découverte de nouvelles galaxies naines à faible brillance de surface dans un amas de galaxies voisin, la distribution de la matière noire et de la lumière intra-amas dans les amas de galaxies, ou encore de dizaines de galaxies massives datant d’une époque où l’Univers n’avait que 5% de son âge actuel.  En parallèle de ces 15 articles, l’ESA dévoile aujourd’hui cinq nouvelles images basées sur ces observations qui permettent une fois de plus de contempler la finesse des images de Euclid, et sa capacité à observer toutes les échelles de l'Univers depuis le domaine optique jusqu’au proche infra-rouge sur un vaste champ de vue, plus de deux fois la surface de la pleine Lune.  Le CEA joue un rôle majeur dans l’ensemble de la mission au sein de la collaboration Euclid, depuis la conception et réalisation, jusqu’à son exploitation scientifique qui va se dérouler sur les six prochaines années. Le CEA est également très impliqué dans ce programme de validation scientifique du télescope mis en place par l’ESA. Jean-Charles Cuillandre, astronome au département d’astrophysique du CEA-Irfu, a analysé ces premières données scientifiques transmises par Euclid pour, d’une part, créer les images couleur mais aussi, permettre leur exploitation scientifique. Il est coauteur des 10 articles scientifiques relatant les premières découvertes, dont 2 en tant que premier auteur, l’un portant sur l’amas de galaxie de Persée et l’autre sur le traitement des images.  

Cinq articles de référence d’Euclid  En collaboration avec l'agence spatiale européenne (ESA), la collaboration Euclid, mené par 2600 personnes dans 18 pays du monde, et marqué par une très forte implication du CEA, a planifié, construit et exploite actuellement la mission du télescope spatial Euclid. Cette mission vise à cartographier sur une période de six ans la structure à grande échelle de notre Univers au fil du temps, afin de contraindre la nature de l'énergie noire et la validité de la relativité générale à l'échelle cosmologique. Lancé le 1er juillet 2023, le télescope a commencé sa cartographie du ciel le 14 février 2024.  Cinq nouveaux articles scientifiques documentent les performances d'Euclid et seront tout au long de la mission, des documents de référence pour la communauté intéressée par les données et les résultats scientifiques d'Euclid.  Un premier article présente la synthèse de la mission Euclid, couvrant ses objectifs scientifiques, les détails de l'engin spatial, la planification de l'étude, les produits de données, l'analyse prévue, et plus encore. Trois articles décrivent le développement et les spécifications des deux instruments embarqués sur Euclid, VIS et NISP, et l’étalonnage de ce dernier. Les tests de vérification des performances indiquent que le télescope et les deux instruments fonctionnent à un niveau conforme aux attentes. Enfin, un dernier article présente la collection “Euclid Flagship” de milliards de galaxies basée sur la plus grande simulation cosmologique jamais réalisée. Les simulations sont utilisées pour évaluer, calibrer et corriger les erreurs systématiques des méthodes d’analyse des données Euclid.  “Ces cinq articles, qui totalisent tout de même plus de 200 pages, représentent à la fois l’aboutissement de plus d’une décennie d’efforts de la collaboration Euclid, et le début d’une nouvelle phase, celle de la science Euclid” déclare Marc Sauvage, chercheur au Département d’Astrophysique du CEA-Irfu, président du comité scientifique de la collaboration Euclid 

Vue d'artiste du télescope spatial Euclid. Crédit: ESA

Dix articles issus des données de validation scientifique  Les Euclid ERO (“Early Release Observations”, c’est à dire des observations rendues publiques tôt dans la vie du projet) ont été obtenues au fil de l’automne 2023, pour un total de 24 heures d’observation. Le but de ce programme est de donner un aperçu des capacités uniques à Euclid. Pour cela, dix-sept cibles ont été observées, parmi celles-ci des amas de galaxies, des galaxies proches, des amas globulaires et des régions de formation d'étoiles. Une première série de cinq images spectaculaires a été publiée par l’ESA en novembre 2023, qui ont fait le tour du monde, [Voir le communiqué de presse de l’ESA du 7 novembre 2023]. Une seconde série de cinq images parait aujourd’hui pour célébrer la publication des premiers résultats scientifiques alors que les données scientifiques sont également rendues [Voir le communiqué de presse de l’ESA du 23 mai 2024]. "Les images et les résultats scientifiques associés sont d'une diversité impressionnante en termes d'objets astronomiques et de distances observés.” a déclaré Valeria Pettorino, scientifique du projet Euclid à l'ESA, chercheuse affiliée au Département d’Astrophysique du CEA-Irfu. “Elles génèrent une grande variété d'applications scientifiques et ne représentent pourtant que 24 heures d'observation au total. Ces premières observations démontrent clairement que Euclid est à la hauteur de la tâche qui l’attend. Nous attendons avec impatience les six années à venir !” Ajoute Valeria. Jean-Charles Cuillandre, astronome au Département d’Astrophysique du CEA-Irfu a mené pour l’ESA cette campagne d’observation avec un groupe de scientifiques de la collaboration Euclid, depuis le choix des sources astrophysiques, le traitement des données brutes transmises par Euclid, la production des images, jusqu’à leur analyse scientifique. Il est par conséquent parmi les auteurs principaux des 10 articles, et premier auteur de deux d’entre eux. Il est également à l’origine des magnifiques images couleur. L’un de ses articles détaille le programme ERO et la chaine complète de traitement des images spécifique à cet effort et décrivant la qualité extraordinaire des données de Euclid. « Les images inédites de ce programme ont non seulement mené à de premières belles découvertes d’Euclid que nous publions aujourd’hui, elles démontrent aussi que les miroirs d’Euclid sont proches de la perfection ! » s’exalte Jean-Charles Cuillandre. « C’est un niveau jamais atteint par un télescope imageur offrant un tel champ de vue à une si haute résolution grâce à ses deux grandes caméras panoramiques. Euclid offre des capacités inégalées pour explorer l'Univers à différentes échelles au travers d’une large gamme de luminosité, ouvrant par là-même une nouvelle fenêtre d'observation dans le proche infrarouge. » ajoute-t-il. 

Les cinq nouvelles imges Euclid ERO parues le 23 mai 2024 ESA/Euclid/Euclid Consortium/NASA, image processing by J.-C. Cuillandre (CEA Paris-Saclay), G. Anselmi

L’amas de galaxies de Persée passé au crible  Un des 6 programmes ERO fut dédié à l’étude de l’amas de galaxies de Persée par une équipe de 45 scientifiques de la collaboration Euclid, menée par J.-C. Cuillandre.   « L’amas de galaxies de Persée est le champ qui a nécessité le plus gros effort d’observation parmi les 17 champs ERO: plus de cinq heures ont été nécessaires pour révéler des centaines de galaxies de l’amas alors inconnues. C’est un cas très unique d'amas car il est à la bonne distance pour être optimalement observé par Euclid en un seul pointé, une opportunité qui ne se reproduira pas durant les 6 ans de mission car il y a très peu d’amas proches de ce type dans la toile cosmique de l’Univers proche. Ainsi donc, nous savons que les 3 premiers articles produits par notre équipe sur les propriétés de l’amas dans son ensemble, ses galaxies naines et sa lumière intra-amas, resteront d'actualité pour longtemps » conclut Jean-Charles Cuillandre.  Cet amas est l'une des structures les plus massives connues dans l'Univers. Situé à 240 millions d'années-lumière de la Terre, il contient plus d’un millier de galaxies. Une caractéristique importante de l'image d'Euclid de Persée est la faible lumière clairement identifiée entre les galaxies au cœur de l'amas. Cette lumière est causée par des étoiles errantes dans le vide intergalactique, conséquence de l'interaction des galaxies entre elles au fil des milliards d’années. En étudiant cette lumière dite intra-amas, les scientifiques cherchent à retracer l'histoire de l'amas.   Matthias Kluge, de l'Institut Max-Planck de physique extraterrestre de Munich, en Allemagne, a déclaré : "Cette lumière diffuse est plus de 100 000 fois plus faible que le ciel nocturne le plus sombre de la Terre. Mais elle est répartie sur un volume si important que lorsque nous l'additionnons, elle représente environ 20 % de la luminosité de l'ensemble de l'amas."  Les chercheurs ont caractérisé la population de galaxies dans ce vaste volume central de l’amas. Cette analyse a révélé 1100 galaxies naines, dont 630 nouvelles identifications !  "Les images ERO de l'amas de Persée démontrent la capacité unique d'Euclid à détecter et caractériser de larges échantillons de galaxies naines, ce qui nous permet de construire une image détaillée de la formation et de l'évolution des galaxies sur une large gamme d'échelles de masse et d'environnements", indique Francine Marleau, scientifique à l'Institut d'Astronomie et de Physique des Particules d'Innsbruck.   Les mesures de luminosité en optique et infrarouge par Euclid surpassent largement les mesures précédentes alors qu’il s’agit de l’amas le plus étudié de tous les temps étant donné sa proximité. Les propriétés de l'amas ont été analysées dériver la distribution des galaxies en luminosité et de masse stellaire, révélant une diversité spécifique au sein de la population de galaxies, offrant alors des informations sur la physique sous-jacente de la formation et de l’évolution des galaxies.   “Les données uniques obtenues de l'amas de Persée soulignent les capacités remarquables du télescope Euclid. Nos résultats diffèrent des prédictions des simulations cosmologiques, fournissant de nouvelles perspectives sur la formation et l'évolution des galaxies. Cette étude inédite enrichit par ailleurs notre compréhension de la structure de l'univers et des processus d'évolution des galaxies dans de tels amas denses.” conclut Maëlie Mondelin, doctorante au Département d’Astrophysique du CEA-Irfu. 

Amas de Persée vu par Euclid. Crédits : ESA/Euclid/Consortium Euclid/NASA, traitement des images par J.-C. Cuillandre (CEA Paris-Saclay), G. Anselmi

Contacts Irfu/Dap : Jean-Charles CUILLANDRE, Marc SAUVAGE, Maëlie MONDELIN   Pour aller plus loin : Communiqué de press du consortium Euclid Articles de référence Euclid : Euclid. I. Overview of the Euclid mission, Euclid Collaboration: Mellier et al. Euclid. II. The VIS Instrument, Euclid Collaboration: Cropper et al. Euclid. III. The NISP Instrument, Euclid Collaboration: Jahnke et al. Euclid. IV. The NISP calibration unit, Euclid Collaboration: Hormuth et al. Euclid. V. The Flagship galaxy mock catalogue: a comprehensive simulation for the Euclid mission, Euclid Collaboration: Castander et al. Articles scientifique Early Release Observation Euclid : Euclid: Early Release Observations – Programme overview and pipeline for compact- and diffuse-emission photometry, Cuillandre et al. Euclid: Early Release Observations – A glance at free-floating new-born planets in the σ Orionis cluster, Martin et al. Euclid: Early Release Observations – Unveiling the morphology of two Milky Way globular clusters out to their periphery, Massari et al. Euclid: Early Release Observations – Deep anatomy of nearby galaxies, Hunt et al. Euclid: Early Release Observations – Globular clusters in the Fornax galaxy cluster, from dwarf galaxies to the intracluster field, Saifollahi et al. Euclid: Early Release Observations – Overview of the Perseus cluster and analysis of its luminosity & stellar mass functions, Cuillandre et al Euclid: Early Release Observations – Dwarf galaxies in the Perseus galaxy cluster, Marleau et al. Euclid: Early Release Observations – The intracluster light and intracluster globular clusters of the Perseus cluster, Kluge et al. Euclid: Early Release Observations – A preview of the Euclid era through a magnifying lens, Atek et al. Euclid: Early Release Observations – NISP-only sources and the search for luminous z = 6 – 8 galaxies, Weaver et al. ERO ESA du 23 mai 2024 ERO ESA du 7 novembre 2023

Abstract: Le proton est un objet complexe rempli de particules élémentaires, les quarks et les gluons, interagissant entre elles via l'interaction forte. Nous savons à partir de mesures antérieures réalisées à haute énergie (expérience HERA à Hambourg 1992-2007) que la structure des protons est dominée par les gluons quand on le sonde à petite distance (haute énergie). Les gluons sont capables d’interagir entre eux et leur fusion impliquerait que leur nombre croit sans limite. Or la théorie des interactions fortes prédit une saturation de la densité de gluon. Pour valider cette prédiction théorique, des chercheurs de l'Irfu de la collaboration ALICE au LHC ont réalisé une première mesure sensible aux fluctuations de la densité de gluons dans le proton. Cette mesure, rendue possible grâce à une meilleure maîtrise du bruit de fond, présente la même évolution avec l’énergie que celle observée à HERA et avec une précision similaire. Ce résultat ouvre la voie à de futures mesures à des énergies plus élevées accessibles dans les collisions proton-plomb au LHC (Run 4 ~2029) avec ALICE et LHCb.

Le proton à haute énergie : la saturation et les fluctuations Le proton est une particule avec une structure interne riche. Il contient des quarks et des gluons qui interagissent entre eux via l'interaction forte. La figure 1 montre une vue d'artiste du contenu du proton. La structure du proton peut être étudiée avec des collisions électron–proton. À très haute énergie de collision, des études menées au collisionneur électron-hadron HERA à Hambourg (1992-2007) ont révélé qu'à ces énergies, la structure des protons est dominée par les gluons et leur densité croit fortement en allant vers des énergies de collisions de plus en plus hautes.  Des approches théoriques prédisent que cette croissance est limitée par l'interaction forte entre les gluons : la fusion de gluons mène à une saturation de la densité de gluon. Néanmoins, cette saturation n'a pas encore été observée d´une manière inambiguë ni à HERA ni au LHC. La recherche de la saturation est un des piliers importants du programme de physique du futur collisionneur électron-ion (EIC) aux États Unis. Le proton, objet quantique, est composé d'un grand nombre de configurations de particules élémentaires. A chaque observation, le proton est vu dans une configuration particulière. Ce changement de configuration implique une fluctuation de la densité de gluons observée. À très haute énergie, bien dans le régime de la saturation, les fluctuations de la densité de gluons devraient être supprimées : c'est la limite dite du disque noir du proton. Le proton est alors complètement rempli avec des gluons et sa densité de gluons ne peut plus fluctuer en fonction du temps.  En conséquence, des observables sensibles aux fluctuations de la densité de gluons dans le proton seraient intéressantes pour établir ce régime de saturation des gluons. 

Figure 1. Vue artistique du proton. © D. Dominguez/CERN

Une première observation des fluctuations du proton au LHC Le LHC peut offrir des énergies de collision bien plus élevées que celles à HERA ou au futur EIC. Par contre, trouver un environnement et un processus sensible à ces fluctuations n'est pas trivial dans un collisionneur hadronique comme le LHC.  Une possibilité au LHC est l´étude de la photoproduction du J/ψ : un photon incident interagit avec un proton et produit un J/ψ, une particule formée d'un quark charme et son antiquark. Cette particule est facilement détectable par sa désintegration en deux muons. Ce processus est appelé exclusif, lorsque le proton reste intact, ou dissociatif si le proton est cassé. Le premier est sensible à la moyenne de la densité de gluons dans le proton alors que le second est sensible à la variance de celle-ci !   Au LHC, des collisions entre protons et noyaux de plomb se prêtent bien à l'observation de ce processus. En effet, le noyau de plomb, chargé positivement (nombre de charges Z = 82) et accéléré à des énergies ultrarelativistes agit comme une source intense de photons.  Ce processus est montré schématiquement à la figure 2. Un photon résultant du champ électromagnétique du noyau de plomb interagit avec le proton en produisant une particule J/ψ et un système X avec une masse supérieure à celle du proton.  La production exclusive a déjà été mesurée par les collaborations LHCb et ALICE  dans des collisions proton-proton et proton-plomb au LHC. Une équipe de la collaboration ALICE menée par les physiciens du DPhN à l'Irfu a récemment réussi à mesurer pour la première fois la section efficace de photoproduction dissociative du J/ψ, une mesure plus difficile à réaliser car elle nécessite une meilleure compréhension des bruits de fond. La mesure a été réalisée avec les données des collisions proton-plomb de 2016 à une énergie dans le centre de masse par paire nucléon-nucléon de 8.16 TeV en reconstruisant les J/ψ via leur décroissance en deux muons grâce au spectromètre à muons d'ALICE. 

Figure 2. Photoproduction diffractive J/? avec dissociation du proton. Les deux variables cinématiques l'énergie W?p du système photon-proton et le transfert de quadri-impulsion entre le proton et le système dissociatif X sont représentées.

La figure 3 montre en magenta les résultats d'ALICE pour la section efficace diffractive avec dissociation du J/ψ en fonction de l'énergie Wγp. Les résultats expérimentaux sont comparés aux calculs théoriques d'un modèle incluant des effets de saturation. Ce modèle [2] illustre l´impact de la saturation à des énergies supérieures à celles explorées dans cette étude : au-delà d’une certaine énergie, la section efficace diminue lorsque Wγp augmente. Pour cette première, ALICE a choisi une région cinématique déjà explorée préalablement avec les données de HERA dans des collisions electron-proton.  La précision des mesures au LHC est similaire à celle des données de HERA (en bleu sur la figure) et démontre le potentiel des futures mesures au LHC à plus haute énergíe.  Cette étude pionnière ouvre la voie aux collaborations ALICE et LHCb à l'exploration des énergies Wγp plus élevées. Les géométries vers l'avant de LHCb et du spectromètre à muons d'ALICE permettront d'accéder à des énergies bien au delà du TeV en exploitant des collisions proton-plomb.

Figure 3. Mesure de la section efficace de la photoproduction diffractive de J/? avec dissociation du proton par ALICE [1] en comparaison avec les données de la collaboration H1 à HERA et avec le modèle de physique de saturation appelé CCT [2].

Contact : Michael WINN  [1] S. Acharya et al. [ALICE], « Exclusive and dissociative J/ψ photoproduction, and exclusive dimuon production, in p-Pb collisions at sqrt(sNN) = 8.16 TeV » Phys. Rev. D 108, no.11 (2023) 112004 [arXiv:2304.12403 [nucl-ex]]. [2] J. Cepila, J. G.Contreras and J.D.Tapia Takaki, « Energy dependence of dissociative J/ψ photoproduction as a signature of gluon saturation at the LHC » Phys. Lett. B 766 (2017) 186-191. [arXiv:1608.07559 [hep-ph]].