L'Irfu, Institut de Recherche sur les lois Fondamentales de l'Univers

PhoneBook

To find a person inside IRFU, please enter his name.

Events

CEA Paris-Saclay - Bat 130, pce 52 -- 7 à table + 3 CEA Paris-Saclay

Le but de ce cours est de fournir aux physiciens non experts en science des matériaux un aperçu de la manière dont les matériaux sont adaptés (et doivent être choisis) pour une application particulière. Le plan est le suivant :

  • Introduction : où se trouve le SC dans les accélérateurs et pourquoi ?
  • Back to basics : principales observations en supraconductivité
  • Théories (aucune théorie complète n’existe !)

Pause

  • Pénétration des vortex
  • Vortex en présence de champ électrique ou de courant
  • Épinglage des vortex

Pause

  • Optimisation des câbles SC
  • Optimisation du matériel SRF
  • Quelques exemples (impressionnants)

Claire signale que les transparents sont en anglais, l’exposé sera en principe en français (avec peut-être un peu de franglais )

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

The James Webb Space Telescope (JWST) is the most powerful space-based infrared observatory ever built. The first part of the talk will discuss the main structures of the
telescope and its assembly after launch. The talk will then highlight the extremely exciting science results in the field of star and planet formation, including the nature of protostars and planet-forming disks. A special emphasis will be placed on the accretion process and the chemical building blocks of disks and what we can learn from infrared spectroscopy regarding the inventory of material in the terrestrial planet-forming zone.

Contact local & organisation : Frédéric GALLIANO

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

 

Organisation: Frédéric GALLIANO

CEA Saclay, Orme des Merisiers - Bat 703, p 135 salle visio-conférence CEA Saclay, Orme des Merisiers

CEA Saclay, Orme des Merisiers - Bat 703, p 135 salle visio-conférence CEA Saclay, Orme des Merisiers

On behalf of the "Espace de Structure et de réactions Nucléaires Théorique" (ESNT), the workshop entitled: "Nuclear ab initio spectroscopy" will be held on 21st-24th April at CEA-Saclay, Orme-des-Merisiers site.

The main goals of the workshop are:  
1. to review existing ab initio approaches to nuclear spectroscopy in light- and medium-mass nuclei,
2. to discuss limitations of current methods and possible workarounds. 
For details about the updated program, see the ESNT Web pages: https://esnt.cea.fr >> Ateliers 2024
For further information and registration, please contact the organizers of the project (see the Web page of the workshop).

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

Les effets du changement climatique constituent une menace grandissante pour nos sociétés et nos économies; et agir face à cette menace nécessite de transformer nos façons de nous déplacer, nous loger, de produire et consommer. Autant de questions pour l'économie, pour analyser les implications économiques des trajectoires et politiques publiques d'atténuation du changement climatique. Ce séminaire proposera quelques incursions dans la recherche actuelle en économie du changement climatique, à partir d'un échantillon d'articles récents.

 

Le séminaire sera en français avec des slides en anglais.

 

Lien Zoom : https://u-paris.zoom.us/j/81695085233?pwd=SEs3RFBWUVRka29WVkpad0VESVU5dz09

ID de réunion: 816 9508 5233

Code secret: 789717

 

Organisé par le groupe climat du DAp

Contacts séminaires : roland.lehoucq@cea.fr, jerome.guilet@cea.fr,

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

Les effets du changement climatique constituent une menace grandissante pour nos sociétés et nos économies; et agir face à cette menace nécessite de transformer nos façons de nous déplacer, nous loger, de produire et consommer. Autant de questions pour l'économie, pour analyser les implications économiques des trajectoires et politiques publiques d'atténuation du changement climatique. Ce séminaire proposera quelques incursions dans la recherche actuelle en économie du changement climatique, à partir d'un échantillon d'articles récents.

Le séminaire sera en français avec des slides en anglais.

Local contact & organisation: Roland LEHOUCQ & Jérôme GUILET

 

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

What controls star formation? is a key question in astrophysics, and one very important aspect of this is the interaction of newly-formed stars with their surroundings. The radiative and mechanical feedback from young, massive stars can be dramatic. The altered composition and increased temperature that result make atomic and ionic fine structure lines ideal probes of stellar feedback. The value of such observations is dramatically increased if the spectral lines are velocity-resolved so that the momentum and energy impact on the stars’ surroundings can be determined. But such observations must be carried out from suborbital or space observatories due to absorption in the Earth’s atmosphere. The fine structure lines of ionized carbon, and atomic oxygen are the most important and have been widely observed with high spectral resolution starting with the Herschel HIFI instrument and continuing with upGREAT on SOFIA. In this talk I will discuss some recent fine structure line observations focusing on the effects of star formation on the surrounding interstellar medium and possible problems with measuring the rate of star formation. I will conclude by presenting two fine structure line spectroscopic balloon missions. GUSTO was launched on 31 December 2023, and until 27 February 2024 surveyed the 205 ?m line of [NII] and 158 ?m line of [CII] in the central portion of the Milky Way and the Large Magellanic Cloud. ASTHROS, which is to follow at the end of 2024, has a much larger 2.5m diameter telescope, and will observe both [NII] fine structure lines to derive the electron density in selected regions.

Local contact: Suzanne MADDEN

Organization: Frédéric GALLIANO

CEA Saclay, Orme des Merisiers - Bat 703, p 135 salle visio-conférence CEA Saclay, Orme des Merisiers

Concentrating on general-purpose event generators such as Pythia and Herwig, I will describe the evolution of hadronization modeling, from simple string and cluster fragmentation in the eighties to recent developments describing collective effects in hadron production in hot and dense systems.

CEA Saclay, Orme des Merisiers - Bat 703, p 135 salle visio-conférence CEA Saclay, Orme des Merisiers

The observed differences in heavy flavor hadron chemistry in e+e- machines and hadron colliders may suggest that the hadronization mechanism is not universal, particularly in high multiplicity events. This contribution will discuss the latest experimental results on heavy quark hadronization.

CEA Saclay, Orme des Merisiers - Bat 703, p 45 CEA Saclay, Orme des Merisiers

From 2022 onwards, the upgraded LHCb experiment has switched to a triggerless readout system collecting data at an event rate of 30 MHz and a data rate of 4 Terabytes/second. A software-only High-Level Trigger enables unprecedented flexibility for trigger selections. During the first stage (HLT1), track reconstruction, partial particle identification, and vertex fitting enable a broad and efficient selection process to reduce the event rate to 1 MHz.  High multiplicity event reconstruction at 30 MHz represents a significant computing challenge, and LHCb utilizes the inherent parallelism of the triggering process to meet throughput requirements with commercial-grade GPUs. In this seminar, we review this system's software and hardware design, reflect on the challenges of developing and integrating heterogeneous architectures, discuss how it meets LHCb’s performance requirements, and show first commissioning results from LHC Run 3 and prospects for the future.

CEA Saclay, Orme des Merisiers - Bat 713, salle de séminaires Galilée CEA Saclay, Orme des Merisiers

Le thème de la conférence portera sur l’observation de la Terre, le climat, les satellites et le NewSpace.

Le 24 janvier 2021, une fusée Falcon 9 était lancée avec succès par SpaceX depuis Cap Canaveral, en Floride. Sous la coiffe du lanceur, il y avait 143 satellites. C’est à ce jour le plus grand nombre de satellites jamais déployés en une seule mission. Uvsq-Sat, premier nanosatellite français dédié à l’observation de variables climatiques essentielles, faisait partie de cette épopée. Depuis plus de trois ans, Uvsq-Sat observe la Terre et le Soleil de manière assidue. A 550 km d’altitude, ce satellite mesure la quantité d'énergie solaire réfléchie vers l'espace et la quantité d'énergie thermique émise par la Terre vers l’espace.

  • Mais pourquoi est-il important pour nous d'étudier le bilan énergétique de la Terre ?
  • Que peuvent apporter les observations Uvsq-Sat ?
  • En ce qui concerne les phénomènes naturels et les activités humaines, quels sont les principaux impacts sur le bilan énergétique ? 

Autant de questions qui seront abordées en introduction de cette conférence. Les opérations en orbite et les résultats obtenus avec la mission Uvsq-Sat seront également présentés. L’intérêt d’utiliser des constellations de satellites sera aussi expliqué. De plus, cette conférence couvrira le développement et le lancement d'un autre satellite (avril 2023), Inspire-Sat, élaboré par le LATMOS. Enfin, nous mettrons en avant le développement du troisième satellite, dénommé Uvsq-Sat NG et qui doit être mis en orbite en février 2025.
 

Contact local: Henri TRIOU

Organisation: Pierre-Antoine FRUGIER

News

In the framework of the "Espace de Structure et de ractions Nuclaires Thorique" (ESNT), the workshop entitled: "Nuclear ab initio spectroscopy" will be held on 21st-24th May at CEA-Saclay, DPhN b.703 (Orme-des-Merisiers site). The discussions following the seminar talks are planned to achieve the goals described on: https://esnt.cea.fr/Phocea/Page/index.php?id=119 (including the updated program). For further information and registration, please contact the organizers of the project (see the Web page of the workshop). 4940 (4 Ko)
In the framework of the "Espace de Structure et de ractions Nuclaires Thorique" (ESNT), the workshop entitled: "Effective Field theory and Strong interaction" will be held on 8th-26th April at CEA-Saclay, DPhN b.703 (Orme-des-Merisiers site). Seminar talks will be given in the afternoon open sessions of the workshop during the first week. The discussions of the working group (2nd and 3rd weeks) are planned to achieve the goals described on: https://esnt.cea.fr/Phocea/Page/index.php?id=118 (including the details of the updated program). For further information and registration, please contact the organizers of the project (see the Web page of the workshop). 4939 (4 Ko)
Dans les coulisses du CEA, les chercheuses et chercheurs ouvrent les portes de leurs laboratoires pour vous dvoiler les avances majeures qui faonneront le monde de demain ! Retrouvez les diffrents pisodes sur la chane Youtube du CEA. Episode 1: Les recherches pour la sant et la mdecine du futur A 26' 28'', vousretrouvezDominique Yvon (DPhP) vous prsenter le projet Clearmind, qui devrait permettre d'amliorer les dtecteurs pour l'imagerie TEP (Tomographie par misssion de positons). Episode 2 : Les recherches pour l'lectronique du futur A 22' 56'', vous retrouvez Esther Ferrer-Ribas (Ddip) prsenter le projet DALPS (Detector for Axion Like Particle Searches) qui doit permettre de dvelopper permettre des capteurs pour la dtection des axions.
ESA - Euclid’s wide and deep surveys ESA/Euclid/Euclid Consortium/NASA/Planck Collaboration/A. Mellinger – Acknowledgment: Jean-Charles Cuillandre, Joo Dinis and Euclid Consortium Survey Group,CC BY-SA 3.0 IGO Le 14 fvrier, Euclid a officiellement entam son tude dans la direction des constellations du Burin et du Peintre dans l'hmisphre sud. Au cours de l'anne venir, Euclid couvrira environ 15 % de son tude. Les premires donnes de cosmologie seront publies l't 2026, prcdes par une publication de donnes sur les observations en champ profond au printemps 2025. Animation reprsentant le survol cosmologique de Euclid, le plus grand jamais ralise dans le visible et le proche infrarouge. Pendant six ans, Euclid balayera ainsi plus d'un tiers du ciel reprsentes ici par les diffrentes nuances de gris/bleu. Les zones non couvertes sont dissimules principalement par la Voie lacte et la lumire mise par le systme solaire. Crdit : ESA/Euclid/Consortium Euclid Lanc le 1er juillet 2023, le tlescope spatial de l'ESA, Euclid, dbute son exploration de l'Univers sombre. Au cours des six prochaines annes, Euclid cartographiera plus d'un tiers du ciel, observant des milliards de galaxies sur 10 milliards d'annes d'histoire cosmique, afin d'tudier leur rpartition et leur forme, et de fournir une vue en 3D de la distribution de la matire noire dans notre Univers et l’nergie sombre. Euclid est conu pour tre l'un des tlescopes les plus prcis et stables jamais construits, avec un champ de vue norme, l'quivalent de 3 fois la pleine lune, lui permettant d'observer jusqu' 50 000 galaxies en une seule prise ! Pendant sa mission, Euclid effectuera plus de 40 000 pointages du ciel, chacun durant 70 minutes, pour produire des images et des spectres. Avant le dbut du relev, des tests ont rvl une anomalie : une faible quantit de lumire solaire indsirable atteignait l'instrument visible d'Euclid (VIS) certains angles, mme lorsque le pare-soleil tait tourn vers le Soleil. Les quipes ont alors rajust les diffrents champs de vue du tlescope, en ajustant tous les angles de rotation afin de minimiser cet effet. Bien que cela limite lgrement l’efficacit du balayage, toutes les zones du ciel ncessaires peuvent encore tre atteintes. Plus d’informations: Article de l'ESA Ready set go! actualit site du CNES:cnes | Euclid dbute sa grande enqute autour de l’nergie et de la matire noires Dcouvrez aussi la srie "Frmir avec Euclid" du CEA.
Dmontage de la maquette grandeur nature du miroir du tlescope spatial JWST, ralise par le CEA en 2009 l'occasion de l'Anne mondiale de l'astronomie. Commande l'Atelier Alain Pras, cette reprsentation fidle reproduit le miroir primaire et secondaire du JWST ainsi que la colonne d'instrument l'arrire. A l'chelle 1, la maquette reflte les dimensions gigantesques de ce tlescope, dont la surface du miroir primaire mesure 25 m. Le JWST (James Webb Space Telescope) a t dvelopp par la NASA, avec la participation de l'Agence spatiale europenne et de l'Agence Spatiale Canadienne. Le CEA a beaucoup particip la conception de l'instrument, en fournissant notamment l'imageur Mirim. Aprs avoir rsid pendant plusieurs annes au CEA de Saclay, la maquette a t transfre la Cit de l'Espace Toulouse. L-bas, elle bnficiera d'une mise en valeur avant d'tre prochainement expose pour le plus grand plaisir des visiteurs ! La vido est galement disponible sur la plateforme Vimo. De?part de la maquette JWST from ExplorNova on Vimeo. Crdits Vido : Francis Rhodes / CEA
La journe annuelle de P2I s'est tenuele 9 Janvier 2024, l'Institut Pascal, Bt. 530,rue Andr Rivire, Orsay. Cette journe annuelle de P2I a t l’occasion de partager quelques nouvelles scientifiques et de faire le point sur nos activits et sur nos projets au sein de la Graduate School de Physique Retrouver ici leprogramme et les prsentations des intervenants
L'dition 2023 de l'Appel Projet Gnrique (AAPG) de l’ANR concernait cinq instruments de financement, mobilisant une varit de projets de recherche ambitieux. Ces instruments, allant des projets individuels de jeunes chercheurs et chercheuses (JCJC) aux collaborations internationales ou public-priv (PRCI, PRCE), refltent une diversit captivante dans le paysage de la recherche. Au cœur de cette effervescence, la Direction de la Recherche Fondamentale (DRF) a enregistr une belle progression. Les rsultats de l'AAPG 2023 rvlent un taux de succs de 31,4% pour la DRF sur les cinq instruments, marquant une amlioration notable par rapport aux annes prcdentes, mme avec une lgre diminution du nombre de projets dposs. Ce taux dpasse celui du CEA et le taux national. Faisant galement partie intgrante de cette russite, l'Institut de Recherche sur les lois Fondamentales de l'Univers (Irfu) s'est distingu avec un taux de succs global de 33% pour l'anne 2023. Parmi les 24 projets dposs l'AAPG et les 3 dposs hors AAPG (ESDIR, Capteurs quantiques et ASTRID), 9 projets ont t slectionns, reprsentant un chantillon prometteur de la recherche venir. Ces 9 projets retenus, vritables joyaux de l'innovation, seront brivement prsents ci-aprs, tmoignant de l'excellence et de la diversit des avances scientifiques l'Irfu. La vitalit de la recherche franaise trouve ainsi un cho clatant dans ces rsultats de l'AAPG 2023. Projet CompToN "Computerised Tomography of Nucleons" Projet NURBS "NUclear Reaction model improvement with Bayesian Statistics" Projet AccessEmergence "Access the Emergence of hydrodynamics with dileptons" Projet DoTPiX "Development of a Technology needed for the PIXel particle detectors" Projet BASKET_P2 "A backward scattering experiment for P2 at MESA" Projet PEGaSUS "Probing and Exploring high-redshift Galaxies Spectroscopically Using Svom gamma-ray bursts" Projet ProGraceRay"PRObing GRAvity at Cosmological scalEs with relativistic RAY-tracing" Projet Widening "A Window on Interstellar Dust Evolution: the NIKA2 Images of Nearby Galaxies" Projet Windtrust "Amliorer la fiabilit des prvisions du vent solaire pour la Terre" Projet CompToN "Computerised Tomography of Nucleons" L'un des objectifs majeurs de la physique hadronique est d'accder la tomographie 3D du nuclon en termes de quarks et de gluons. Cette dernire est encode dans les distributions de partons gnralises (GPD) qui dcrivent les processus exclusifs. Aprs vingt ans de mesures pionnires, la communaut est entre dans l're de la prcision avec de nouvelles donnes exprimentales aux statistiques excellentes. Mais ceci se rvle tre un dfi. En effet, les physiciens de l'Irfu ont montr qu'une partie de l'information est perdue lors de la dconvolution des GPD partir de donnes de processus exclusifs. Ainsi, les techniques d'extraction conventionnelles ne parviendront pas tirer parti des mesures prcises venir, faisant des incertitudes thoriques les plus pnalisantes dans la comprhension des proprits des nuclons en 3D. En parallle, les ensembles de donnes de simulation grande chelle promettent une connexion aux GPD sans perte d'information mais sur un petit nombre de configurations cinmatiques. Il est ncessaire d'augmenter ces valeurs en imputant les donnes manquantes pour obtenir un modle continu rpondant toutes les contraintes thoriques. A travers le projet CompToN, les physiciens de l'Irfu et du CPT uniront leurs expertises pour extraire la tomographie 3D des quarks et des gluons d'une manire innovante : en combinant des jeux de donnes calcules, des jeux de donnes exprimentales et des techniques de modlisation de pointe. Ceci rduira fortement les incertitudes thoriques associes aux extractions exprimentales. Des efforts thoriques, phnomnologiques et de simulation sont ncessaires pour prendre le meilleur des deux mondes et rsoudre la fois le problme de dconvolution des donnes exprimentales et celui d'imputation des simulations grande chelle. In fine, nous visons une tomographie prcise du proton avec 10 ans d’avance sur les attentes de la communaut bases sur le futur collisionneur lectron-ion amricain. Contact :Cdric Mezrag Projet NURBS "NUclear Reaction model improvement with Bayesian Statistics" La vaste gamme d'applications de la physique nuclaire, et en particulier celles utilisant des ractions nuclaires, peut tre divise en deux grands rgimes. D'abord, il y a le rgime de basse nergie (e.g., les centrales nuclaires). Pour ces applications, pratiquement toutes les donnes nuclaires peuvent tre et ont t mesures. Ensuite, il y a les applications haute nergie comme l'hadronthrapie (jusqu' ~250 MeV), les sources de neutrons de spallation et les ADS (~500 MeV ~2 GeV), les noyaux cosmogniques (large gamme d'nergie, avec un pic ~1 GeV), mais aussi les tudes sur les neutrinos (des centaines de MeV des dizaines de GeV) et les expriences sur l'antimatire (du repos plusieurs GeV). En raison d'nergies leves et des diffrents types de projectiles concerns, il est impossible de mesurer toutes les donnes requises et des modles sont ncessaires. Ces modles, combinaison d'un modle de cascade intranuclaire, e.g., INCL++6, et d'un modle de dsexcitation, e.g., Abla, sont capables de prdire le rsultat d'une raction de spallation. Dans ces ractions, de nombreuses particules lgres (msons, neutrons, particules charges) sont jectes. Le rsultat de l'interaction est la production d'un noyau cible plus lger (ou plus si fission ou multifragmentation se produisent). Ces modles ont t considrablement amliors au cours des deux dernires dcennies et nous sommes entrs dans une priode plus exigeante : la quantification des incertitudes et des erreurs. Dans le projet NURBS, non seulement les incertitudes et les erreurs des simulations INCL++6/Abla seront quantifies, mais nous amliorerons galement les modles grce une optimisation en parallle de certains paramtres et au retour d'information de ces rsultats. Les mthodes utilises reposent sur la statistique baysienne o les donnes exprimentales jouent le rle de vraisemblance. Contact :Jean-Christophe David Projet AccessEmergence "Access the Emergence of hydrodynamics with dileptons" Les collisions entre deux ions lourds dans les collisionneurs de particules nous permettent d'tudier les proprits de la matire fortement interagissante avec une densit d'nergie leve. De telles collisions crent des systmes petits produisant jusqu' quelques milliers de particules qui se comportent comme des fluides avec des proprits remarquables.Les rsultats exprimentaux suggrent que le comportement hydrodynamique merge sur une chelle de temps relativement courte, une caractristique qui n'est pas bien comprise d'un point de vue thorique. Afin d'obtenir des informations directes sur les premiers stades de l'volution de la matire qui prcdent la phase hydrodynamique, nous proposons de mesurer la production de dileptons (paires lectron-positron ou muon-antimuon) dans ces collisions dans la plage de masse de 1 5 GeV/c. Il s'agit en effet de processus de prquilibre et pourrait clairer le mcanisme qui conduit la thermalisation.Ces dileptons n'ont pas encore t observs car ils sont masqus par un bruit de fond important provenant des dsintgrations des hadrons charms et beaux. L'exprience LHC beauty (LHCb) a t spcialement conue pour dtecter les hadrons charms et beaux dans les collisions proton-proton. Sa mise niveau actuelle est conue pour grer un plus grand nombre de particules, telles que celles produites dans les collisions d'ions lourds. Cela offre une opportunit unique de raliser une mesure prcise du bruit de fond et d'tudier les dileptons avec une masse de 1 5 GeV/c dans les collisions d'ions lourds.Sur la base de notre exprience et de notre leadership dans les mesures de muons et d'lectrons au sein de deux collaborations du LHC, une quipe du groupe LQGP Saclay sous la direction de Michael Winn accdera exprimentalement au processus d'quilibration dans les collisions d'ions lourds avec des dileptons. Cette ANR est une premire tape dans cette entreprise. Nous allons : Concevoir de nouveaux outils pour les mesures des leptons primaires aux collisionneurs. Caractriser le bruit de fond Drell-Yan dans les collisions proton-proton. tudier la faisabilit des mesures de dileptons sensibles l'quilibration dans les collisions d'ions lourds aux collisionneurs et tablir cet aspect physique pour la future mise niveau de LHCb. Contact :Michael Winn Projet DoTPiX "Development of a Technology needed for the PIXel particle detectors" Les interactions entre les particules lmentaires constituent le point de dpart de la physique fondamentale. Cela est essentiel pour la comprhension humaine de la nature et de l'univers, confrant ainsi une importance majeure ce domaine. La majeure partie de ces connaissances provient d'expriences ralises sur des acclrateurs de particules haute nergie. De nos jours, les expriences de physique des particules ncessitent des dtecteurs amliors pour une reconstruction prcise des trajectoires et des points de collision des particules. L'augmentation de la luminosit du collisionneur (cm-2 s-1) dans les expriences futures entrane des niveaux levs de radiation, ncessitant par consquent une grande rsistance la radiation. Pour la premire fois, nous proposons ici d'utiliser une bote quantique de Ge dans un pixel 1T induisant un effet de mmoire favorable qui n'est pas apport par d'autres conceptions de pixels. Le dispositif prsent ici est nouveau dans son concept et son fonctionnement. Il utilise les proprits d'une bote quantique de Ge qui localise slectivement les trous sans effet sur les lectrons, constituant la premire avance apporte par cette conception. La seconde est une rduction de la taille rendue possible par le fonctionnement un seul transistor avec une bote quantique qui pourrait tre rduite un point si ncessaire. Ce pixel trs compact peut tre rduit dans toutes les directions. Cette approche soulve toujours des dfis en matire de science des matriaux. De plus, en mode oprationnel de dtection, aucune puissance n'est dissipe, rduisant ainsi le besoin de systmes de refroidissement tels que ceux utiliss dans les dtecteurs de pixels hybrides et autres MAPS. Dans le contexte des expriences de physique des particules, le dbit de donnes partir d'une matrice de pixels dpend principalement du taux d'vnements. Une lecture slective (en bas de la matrice) peut le rduire. La conception propose combinera une rsolution spatiale point point (infrieure 0,5 m) avec une rsistance intrinsque la radiation due sa petite taille, le budget matriel pouvant tre rduit (10 m) par rapport celui des pixels hybrides. La fabrication de pixels lmentaires est base sur une mthode exprimentale et de simulation. Les couches ncessaires pour les pixels Si/Ge/Si sont cultives dans des racteurs CVD-UHV et caractrises in situ et ex situ. TCAD (dispositif et processus) et d'autres simulations de matriaux sont utiliss pour l'valuation du dispositif, des couches de matriaux et du processus MOS suivant. Les rsultats prliminaires nous amnent nous concentrer sur la technologie de la couche de Ge enfouie. Nous avons l'intention d'obtenir la fin du projet un prototype de matrice de pixels avec ce processus et nous tudierons toutes les tapes technologiques ncessaires pour produire la matrice de pixels DotPIX en tant que prototype pouvant tre test soit avec des rayons X, soit avec un faisceau de particules charges. Contact :Nicolas Fourches Projet BASKET_P2 "A backward scattering experiment for P2 at MESA" Ce projet ambitionne des mesures prcises de l'angle de mlange lectrofaible, avec l'exprience P2 auprs de l'acclrateur MESA. En connection avec les mesures du LEP et du LHC, une interprtation dtaille de l’volution de ce couplage en fonction de l'nergie sera prsente pour la premire fois. L'utilisation de toutes les donnes disponibles au LHC et l'exploitation des "upgrades" du dtecteur ATLAS permettront une mesure trs prcise de l'angle de mlange au pic du Z, et pour la premire fois une mesure de l’volution de ce couplage a haute masse. L’exprience P2 prvoit une mesure comptitive trs bas transfert d'impulsion, par la mesure de l’asymtrie de polarisation en diffusion clastique lectronproton. Les mesures P2 permettront galement d'amliorer profondment notre comprhension de la structure du proton, avec des implications en astrophysique et en physique des neutrinos. Le principal objectif de ce projet est la construction d'un dtecteur de traces pour la mesure de la diffusion des lectrons vers l'arrire. Cette mesure est cruciale pour le succs de l'exprience P2 dans son ensemble. Le dtecteur propos est capable de mesurer l'angle de diffusion avec une prcision d'un degr, l'impulsion avec une prcision de 2%, et surtout d'assurer une frquence de lecture et d'enregistrement de 100 MHz, ce qui en fait un des trajectographes les plus rapides conus jusqu'`a prsent. L'chantillon final doit tre collect en environ 1000 heures, et reprsenter de l'ordre de 10^14 vnements. La mesure prcise de l’volution de l'angle de mlange lectrofaible constitue un test fondamental du Modle Standard, et une sonde de nouvelle physique a haute et basse masses. Une analyse globale des rsultats est propose. Contact :Maarten Boonekamp Projet PEGaSUS "Probing and Exploring high-redshift Galaxies Spectroscopically Using Svom gamma-ray bursts" La formation et l’volution des galaxies est l’un des principaux sujets actuels de l’astrophysique extragalactique. De grandes avances ont t ralises dans l’tude observationnelle des propritsdes galaxies jusqu’au plus haut dcalage spectral vers le rouge (redshift) et JWST est en train d'apporter un progrs norme dans l’tude du gaz chaud des galaxies grand redshift. Nanmoins les composantes du gaz neutre demeurent difficiles explorer. Ce gaz est une composante principale de ces galaxies et il peut tre dtect par son absorption de la lumire d'une source brillante d'arrire-plan. Les sursauts gamma longs (LGRBs) sont un outil ts efficace pour le dvoiler grce la dtection de raies d’absorption du gaz de leurs galaxies htes dans les spectres de leurs rmanences, indpendamment de la luminositdes galaxies htes elles-mmes. A l're du JWST, les LGRBs restent des outils uniques permettant de sonder en dtail les proprits du gaz neutre et de la poussire des galaxies faibles, qui dominent en nombre la population des galaxies grand redshift. De plus, les LGRBs tant des phnomnes transients, une fois l'mission rmanente disparue, il est possible de dtecter aussi l'mission du gaz ionisde leur galaxies htes. Jusqu'maintenant la limite de l'utilisation de LGRB pour ce type d'tude est le nombre limit d'observations spectroscopiques des rmanences de LGRB a z>2-3 et de leurs galaxies htes. Dans ce projet, nous comptons augmenter significativement cette statistique grce la mission spatiale sino-franc?ais SVOM, de?diela dtection des GRBs, et son suivi-sol. Nous effectuerons et utiliserons des observations spectroscopiques de rmanences de LGRBs dtects par SVOM pour explorer les proprits des galaxies de faible masse grand redshift, afin de re?pondre aux questions suivantes : Quelles sont les proprits du gaz neutre du milieu interstellaire (ISM)? Comment voluent-elles ? Quelles sont les proprits de la poussire ? Comment voluent-elles ? Comment la formation d’toiles est-elle lie a? ces proprits ? Comment ces galaxies impactent-elles la rionisation ? Le projet est axsur trois blocs de travail : A) les abondances, la mtallicitet la cinmatique du gaz neutre de l'ISM; B) la poussire dans les galaxies grand redshift ; C) la combinaison des proprits du gaz absorbant neutre avec celles du gaz ionis. Nous exploiterons les rsultats observationnels aussi dans le contexte des simulations cosmologiques de galaxies. Ce projet permettra aussi de dterminer le redshift des GRB dtects par SVOM, information essentielle pour les tudes concernant la physique des GRBs. Nos rsultats sont essentiels pour le retour scientifique et l'impact de la mission SVOM, qui reprsente un effort important de la communautastrophysique franaise. Contact :Emeric Le Floc'h Projet ProGraceRay"PRObing GRAvity at Cosmological scalEs with relativistic RAY-tracing" La nature de l’nergie noire est une question centrale de la cosmologie moderne : est-ce une constante cosmologique, une nouvelle composante fondamentale aux proprits exotiques, ou la consquence d’une modification de la gravit ? Le but du projet ProGraceRay est de construire des tests robustes de la gravit aux chelles cosmologiques tenant compte de l’impact de la physique relativiste de la lumire sur la distribution apparente de la matire. En effet, les photons ne se propagent pas en ligne droite et leur nergie n’est pas uniquement gouverne par l’expansion de l’Univers homogne. Ainsi, les positions angulaires, formes, tailles et luminosits des sources sont changes par les effets de lentilles gravitationnelles faibles (WL). De mme, la position radiale des galaxies dduite de leur redshift est perturbe ce qui modifie la distribution apparente des galaxies (distorsions de l’espace des redshifts ou RSD). Ce qui peut tre vu comme du bruit s’avre en ralit du signal car ces effets sont porteurs d’informations cosmologiques : mtrique le long de la ligne de vise (WL) et vitesses/potentiels des sources (RSD). Les tudes actuelles reposent sur de nombreuses approximations, pourtant les effets relativistes non-triviaux (habituellement ngligs) peuvent contribuer hauteur de 1 10% pour les analyses standards de WL et RSD, de 1 50% sur les corrlations entre densit et cisaillement et mme hauteur de 100% sur le diple de la fonction de corrlation-croise des galaxies. Par ailleurs WL et RSD sont habituellement tudis sparment dans deux communauts diffrentes. Cependant, dans le cadre des thories de gravit modifie (MG) combiner WL et RSD est une ncessit afin d’extraire les deux potentiels de la mtrique. Contact :Sandrine Pires Projet Widening "A Window on Interstellar Dust Evolution: the NIKA2 Images of Nearby Galaxies" Le milieu interstellaire est l'espace remplissant le volume des galaxies entre les toiles. Ce milieu est principalement compos de gaz et de grains de poussire. La composante poussireuse du milieuinterstellaire a un rle crucial dans plusieurs processus physiques : extinction du rayonnement stellaire, chauffage et refroidissement du gaz, et croissance de la complexit chimique. Une bonne comprhension de la physique des grains est donc essentielle si l'on veut comprendre l'volution des galaxies et le mcanisme de formation d'toiles. Or, les proprits de la poussire (composition, distribution de taille, abondance, etc.) sont encore trs mal connues. La complexit du problme requiert un grand nombre d'observations pour lever les nombreuses dgnrescences des modles. En particulier, les proprits optiques des grains, dans le domaine spectral millimtrique, sont trs mal connues et sont pourtant dterminantes pour prcisment estimer les masses.Les donnes qui sont en train d'tre acquises par le nouvel instrument NIKA2, 1.2 et 2 mm de longueurs d'onde, au radiotlescope de 30 mtres de l'Institut de Radio-Astronomie Millimtrique (IRAM), fournissent une perspective sans quivalent sur ce problme. Notre collaboration IMEGIN (Interpreting the Millimeter Emission of Galaxies with IRAM/NIKA2 ; responsable S. Madden) a obtenu 200 heures de temps garanti pour cartographier une vingtaine de galaxies proches avec NIKA2. Nous avons galement obtenu 40 heures de temps ouvert, pour observer des galaxies de faible mtallicit, importantes pour comprendre l'volution chimique, dans le cadre du projet SEINFELD (Submillimeter Excess In Nearby Fairly-Extended Low-metallicity Dwarfs ; responsable F. Galliano). Ces donnes, combines avec des observations d'archives d'autres longueurs d'onde, vont donc nous permettre, pour la premire fois, d'tudier la manire dont varient les proprits optiques millimtriques des grains avec les conditions physiques. Cette comprhension nous permettra de mieux contraindre la composition chimique des gros grains et d'affiner les diagnosticsphysiques bass sur la poussire. Le projet d'ANR WIDENING va nous permettre d'embaucher deux postdoctorants, pendant trois ans, pour s'attaquer ce problme. Cette ANR, dirige par le DAp, est un partenariat avec l'IRAM de Grenoble et l'Institut d'Astrophysique de Paris. Contact :Frdric Galliano Projet Windtrust "Amliorer la fiabilit des prvisions du vent solaire pour la Terre" La mtorologie de l'espace est une science applicative en pleine mergence dans le monde entier, prioritaire pour de nombreux acteurs. Les consquences sont importantes aussi bien pour la socit civile que pour l'arme. La surveillance du Soleil n’est pas suffisante, surtout en priode d’activit maximale comme maintenant, et requiert l’usage de simulations numriques pour des prvisions suffisamment en avance. Cependant, il est difficile d’estimer la fiabilit d’une prvision, en particulier quand celle-ci repose sur le couplage entre plusieurs modles numriques qui peuvent chacun ajouter des erreurs. L’objectif de ce projet est donc d’amliorer la fiabilit des prvisions de mtorologie de l’espace. Pour cela, on se concentre sur l’lment incontournable : le vent solaire, un jecta continu de particules qui vient influencer l’environnement terrestre et transporter les vnements extrmes. En se basant sur le modle franais Wind Predict (Rville+2015, 2020), il s’agit d’amliorer les capacits de prvision franaise en utilisant de l’assimilation de donnes. Ceci permettra alors de mieux prdire les vnements les plus extrmes lors des phases d’activit les plus intenses. Il s’agira ensuite de dvelopper un outil de validation de ces prvisions de vent. En se basant sur les travaux de Perri+2023 et son implication dans l’ISWAT, nous allons gnraliser et automatiser les diagnostics de validation, afin de fournir un score de fiabilit. Ce score permettra alors de dcider si la simulation peut tre utilise ou non pour des prvisions la Terre. Ce projet permettra ainsi la France de maintenir son indpendance internationale quant aux prvisions les plus ralistes. Cela permettra galement de disposer d’un systme de validation unique et comprhensible par tous les acteurs touchs par la mto de l’espace (aviation, communications, etc.). Contact :Barbara Perri
Au cœur d'Euclid, les instruments VIS et NISP sont porteurs des espoirs de la communaut scientifique internationale. Ensemble, ils aspirent percer les mystres de la matire noire et de l'nergie noire qui faonnent notre univers. Pour l'Irfu, cette aventure reprsente bien plus qu'un simple projet scientifique : c'est une vritable qute de connaissances et une exploration de l'inconnu. Afin de vous faire vivre cette exprience unique, une srie de vidos a t ralise. Douze chercheurs de l’Irfu vous ouvrent les portes de leur travail au sein de la mission, vous font part de leurs attentes et partagent leurs motions quelques jours seulement du lancement. Vous dcouvrirez leur dvouement, leur engagement et leur curiosit sans limite pour comprendre les secrets de l'Univers. La playlist youtube "Frmir avec Euclid"
Ralisation : Sbastien Avila Production: Universcience2023 Matire noire et nergie sombre formeraient la plus grande partie de l’Univers.Pour tenter de comprendre ce qui les compose, l’Agence spatiale europenne a conu un nouveau satellite:Euclid.Sa mission:photographier et cartographier des millions de galaxies.Le satellite vient d'arriverau site de lancement etseralanc par une fuse SpaceX Falcon 9 depuis les tats-Unis l’t2023.

Highlights

Zeptometry réalisera la 1ère étude quantitative de l'évolution de l'angle de mélange faible. Le projet combine théorie et expériences innovantes et permettra de sonder la présence de nouvelle physique aux échelles de longueur d’un zeptomètre.

Maarten Boonekamp, physicien du département de physique des particules au CEA/Irfu, est lauréat d’une bourse ERC Advanced pour son projet Zeptometry, en partenariat avec l’Université Johannes Gutenberg à Mainz en Allemagne. Grâce à une combinaison d'expériences innovantes et de développements théoriques, les équipes du projet réaliseront la première étude quantitative de l'évolution de l'angle de mélange faible, sin²θW, en fonction de l’énergie, sur quatre ordres de grandeur. L’évolution de ce paramètre fondamental du modèle standard de la physique des particules (MS) est prédite de manière précise, mais cette prédiction est perturbée en présence de nouvelles particules ou interactions. Jusqu'à présent, les données dans ce domaine sont trop rares et imprécises pour tester réellement le MS et l'éventuelle présence de nouvelle physique.

CEA

Le projet s’articule en 3 parties : Conception et intégration d’un détecteur innovant pour une mesure précise de sin²θW à basse énergie avec l’expérience P2 sur l’accélérateur MESA à Mayence (démarrage de la prise de données dès 2026); Optimisation de la mesure de sin²θW à Q = mZ et pour la première fois exploration de l'échelle d’énergie Q au TeV avec les données d’ATLAS au LHC au CERN ; Développements phénoménologiques pour une interprétation cohérente des données. Au total, l'évolution de sin²θW sera précisément cartographiée pour une énergie variant entre 100 MeV et 1 TeV. L'interprétation simultanée de ces déterminations de sin²θW permettra de sonder la nouvelle physique avec une sensibilité aux échelles de masse des nouvelles particules allant de 70 MeV à une centaine de TeV, correspondant aux échelles de longueur d'un zeptomètre (10-21 m).

Le modèle standard (MS) de la physique des particules décrit les particules élémentaires et leurs interactions. Il a permis de prédire l’existence de nombreuses particules découvertes par la suite, comme les bosons W et Z au CERN, le quark top et le neutrino tau à Fermilab, et le boson de Higgs de nouveau au CERN. Le MS est complet depuis la découverte de ce dernier en 2012, mais ne décrit toutefois qu’environ 15% de la masse totale de l’Univers. Ce mystère, parmi d’autres, suggère l’existence de nouvelles particules ou interactions qui influenceraient les valeurs des paramètres du MS. Il est alors essentiel de mesurer ces paramètres avec la plus grande précision possible pour débusquer les infimes variations porteuses de nouvelle physique. L’une des pierres angulaires du MS est l’angle de mélange faible, sin²θW. Ce paramètre relie la masse des bosons W et Z, mais influence aussi les couplages du boson Z avec les fermions1. Ces dernières années, les scientifiques se sont concentrés sur les mesures de précision des bosons W et de Higgs, et du quarks top par exemple, et les résultats sur sin²θW ont été relativement rares. L’expérience CMS vient toutefois d’annoncer, à la conférence Moriond 2024, une mesure très prometteuse de ce paramètre. L’objectif de Zeptometry est d’améliorer la détermination de sin²θW au pic du Z, et surtout d’étendre ces mesures à des échelle d’énergie couvrant quatre ordres de grandeur, en combinant des informations issues du LHC avec des données de basse énergie provenant de l’accélérateur MESA, hébergé par l’Université Johannes Gutenberg à Mainz en Allemagne. La combinaison de toutes ces mesures testera la dépendance en énergie de l’angle de mélange faible, à basse énergie, au pic du Z, et pour la première fois au-dessus de la masse du Z vers des énergies de l’ordre du TeV.

Prédiction théorique (en bleu) de l’évolution de la valeur de l’angle de mélange en fonction de l’énergie (Q) selon le modèle standard (MS) et prédiction de l’influence de particules massives nouvelles. Les points de mesure actuels sont montrés en noir avec leurs barres d’erreurs associées. Les résultats attendus du projet Zeptometry sont en rouge et montrent l’apport du projet. Les expériences P2 et ATLAS sonderont l’échelle des énergies afin d’obtenir des résultats de plus grandes précisions et à de nouvelles échelles notamment pour les hautes énergies Q > 10² GeV.

L’angle de mélange faible est déduit notamment de l’asymétrie dans la distribution angulaire des produits de désintégration des bosons Z. La valeur de sin²θW est dépendante de l’énergie (Q) à laquelle il est mesuré et le MS propose une prédiction théorique pour cette dépendance. Malheureusement, en dehors de LEP qui a produit une mesure précise de l’angle de mélange faible à la masse du Z, peu d’expériences ont contribué à mesurer ce paramètre qui pourrait être influencé par des particules encore inconnues. En effet, les valeurs prédites par la théorie seraient modifiées par toute nouvelle particule ou interaction. Par exemple, un candidat matière noire d'une masse de ~100 MeV générerait une déviation d'environ 1,5 %, à des énergies Q < 10-1 GeV (courbes en pointillés orange, verts et violets) alors qu’une nouvelle interaction impliquant des particules de masses d'environ 103 GeV entraînerait des écarts de quelques % à haute énergie (courbe en pointillés rouges). Le projet Zeptometry fournira à la communauté internationale des mesures précises de sin²θW grâce à la complémentarité entre les deux expériences, ainsi qu’une interprétation globale incluant l’ensemble de données existantes.

Liens Site de l'ERC : https://erc.europa.eu/news-events/news/erc-2023-advanced-grants-results Site partenaire : https://www.hi-mainz.de/news-events/detail/erc-advanced-grant-for-the-project-zeptometry Contact M. Boonekamp

un événement transitoire unique détecté avec INTEGRAL

Le premier magnetar extragalactique découvert par INTEGRAL! Un événement transitoire unique a été détecté par le satellite INTEGRAL: jusqu’à présent le magnetars, étoiles à neutrons au champ magnétique hyper puissant, n’étaient connus que dans notre galaxie. INTEGRAL, avec l’aide de XMM et d’observatoires au sol, a découvert un magnetar dans la galaxie M82! Retour sur la détection de ce "giant flare" seulement le 4ème en 50 ans d’observations! (article publié Nature) Pendant que le satellite de l’ESA INTEGRAL était en train d’observer la région de l’amas de galaxies de la Vierge en Novembre 2023, le télescope IBIS/ISGRI a soudainement détecté un signal gamma très bref, d’une durée d’un dixième de seconde (fugure ci contre). Grâce au INTEGRAL Burst Alert Sytem (IBAS), qui analyse les données d’ISGRI en temps réel au centre de données d’INTEGRAL (ISDC), une alerte a été émise seulement 13 secondes après l’évènement et les astronomes d’astreinte, dont Diego Götz du DAp, ont rapidement réalisé que cet évènement énergétique était associé à la galaxie M82. La question qui s’est posée par la suite était : quel est la nature de l’objet à l’origine de l’impulsion gamma. Est-ce un sursaut gamma court (issu de la coalescence de deux étoiles à neutrons) ou bien un giant flare d’un magnetar (étoile à neutrons avec un champ magnétique très élevé) ?

Les courbes de lumière montrent que le GRB 231115A était clairement visible dans les deux détecteurs d’IBIS à bord d'INTEGRAL, qui fonctionnent à des énergies différentes. ISGRI (20 keV-1 MeV), et PICsIT (175 keV-15 MeV).

L’équipe en charge, qui inclut outre les chercheurs français (DAp, LAM, LESIA, Observatoire de Paris), des scientifiques italiens, suisses, danois, allemands, espagnols et irlandais, a demandé que la région soit observée par le télescope de l’ESA XMM dans les rayons X et par Telescopio Nazionale Galileo et l’Observatoire de Haute-Provence (par D. Turpin et E. Le Floc’h du DAp), dans l’optique. L’absence de signaux dans les autres bandes électro-magnétiques , ainsi que dans les ondes gravitationnelles (LIGO/VIRGO/KAGRA) a permis d’exclure l’hypothèse d’un sursaut gamma court : en fait, les sursauts gamma courts sont accompagnés par une émission rémanente détectable en rayons X et en visible, et la fusion de deux étoiles à neutrons dans une galaxie si proche (M82 se trouve à environ 4 Mpc) aurait donné un signal en ondes gravitationnelles détectable pas les interféromètres au sol (comme pour GW 170817 situé dans un galaxie à 40 Mpc).

Image composite des observations d'Integral, de XMM-Newton et du télescope Telescopio Nazionale Galileo TNG Credit: ESA/Integral, ESA/XMM-Newton, INAF/TNG, M. Rigoselli (INAF)  Image de la région de l’amas de la Vierge obtenue par INTEGRAL au moment de la détection de la source transitoire.  Le petit carré sur la carte d'Integral indique l'emplacement de l'explosion. Le cercle bleu sur les deux images découpées indique la boîte d’erreur estimée par IBAS. L'une des images montre les données XMM en rayons X de la galaxie et l'autre une observation en lumière visible. Sur ces deux images (en X et en visible), seule la galaxie M82 est visible, sans aucun autre signal provenant de la source transitoire.

Donc seulement l’hypothèse d’un giant flare produit par un magnetar était compatible avec les observations. Les magnétars sont des étoiles à neutrons avec un champ magnétique bien plus élevé (jusqu’à 10 000 fois) que les pulsars standard et sont le produit de Supernovae issues d’étoiles massives (au moins huit fois plus massive que le soleil). Ils émettent sporadiquement des courts sursauts de rayons gamma, et très rarement ils en émettent de très énergétiques, appelés giant flares. Une trentaine de magnetars sont connus dans notre galaxie et dans le Nuage de Magellan. Jusqu’à présent que trois giant flares ont été détectés en 50 ans d’observations.

An artist's impression of an erupting magnetar (Image credit: Carl Knox, OzGrav/Swinburne University of Technology)

M82 est une galaxie brillante a fort taux de formation stellaire. C’est donc le lieu de formation d’étoiles massives censées produire des étoiles à neutrons en fin de vie. La découverte d’un magnetar dans ce type de galaxie confirme l’hypothèse que les magnetars sont des objets jeunes et qu’il faut viser ce type de galaxies pour continuer à détecter ce type d’objets. L’évènement détecté par INTEGRAL est le premier magnetar découvert dans une galaxie proche et va paver la route pour la découverte de nouveaux magnétar extra-galactiques par les futures missions dédiées aux sursauts gamma telles que SVOM ou THESEUS. Contacts : Diego Gotz, Damien Turpin Article: A magnetar giant flare in the nearby starburst galaxy M82, Nature (2024). DOI: 10.1038/s41586-024-07285-4 https://www.nature.com/articles/s41586-024-07285-4    

An image of the Cigar Galaxy, M82 as seen by the Hubble space telescope. (Image credit: NASA, ESA and the Hubble Heritage Team (STScI/AURA))

Le noyau d’hélium 6 a été proposé comme candidat possible pour explorer le modèle de la désintégration du neutron en matière noire. Grâce à la pureté et à l’intensité du faisceau d’hélium 6 (jusqu’à 300 millions de noyaux par seconde) produit par les installations de GANIL SPIRAL1, une probabilité maximale de 0.4 milliardième à l’existence d’un tel mode de décroissance dans l’hélium 6 a pu être établie. Cette limite contraint fortement le modèle théorique de la décroissance du neutron en matière noire ainsi que son origine : le problème de la durée de vie du neutron.

La durée de vie du neutron libre Le neutron libre est une particule instable qui se transforme en proton en émettant un électron et un anti-neutrino avec une durée de vie d’environ 880 secondes par le phénomène de désintégration β. La durée de vie du neutron libre étant un paramètre fondamental du Modèle Standard, il est important d’en connaître la valeur avec un bon degré de précision. Pour cette raison, de nombreuses expériences mesurant cette durée de vie ont été réalisées depuis les années 1950, passant de la valeur de 1108±216 secondes avec l’expérience de Robson en 1951, à 877.75±0.36 secondes en 2021 avec l’expérience de la collaboration UCNτ.  Les expériences réalisées pour mesurer cette durée de vie sont généralement divisées en deux catégories correspondant à la méthode expérimentale utilisée : d’un côté la méthode du « faisceau » et de l’autre celle de la « bouteille ». La méthode « faisceau », utilise un faisceau de neutrons froids  pour mesurer la durée de vie en comparant l’intensité initiale de ce faisceau (soit le nombre de neutrons par seconde) au nombre de protons et/ou d’électrons émis par seconde suivant la décroissance β des neutrons. La méthode dite de la « bouteille », stocke des neutrons ultra-froids dans un piège et la durée de vie est obtenue en mesurant directement la population de neutrons dans la bouteille après un temps de stockage défini. Les valeurs moyennes obtenues pour ces deux méthodes, montrées en Figure 1, sont en désaccord l’une avec l’autre avec un écart d’environ 1 %.  Les barres d’erreurs incompatibles l’une avec l’autre suggèrent l’existence d’un effet systématique non pris en compte dans l’une ou l’autre des méthodes. Cet écart entre ces deux valeurs moyennes est couramment appelé le problème de la durée de vie du neutron, ou the neutron lifetime discrepancy en anglais.

Figure 1: Les différentes mesures de la durée de vie du neutron libre depuis 1996. La bande rouge correspond à la valeur moyenne pour la méthode du « faisceau » et la bande bleue à celle pour la méthode de la « bouteille ».

Décroissance en matière noire du neutron La méthode de la « bouteille » suit directement l’évolution du nombre de neutrons dans le temps et donne accès à la durée de vie totale du neutron. En revanche, la méthode du « faisceau » regarde spécifiquement les produits issus de la décroissance β. Cette méthode permet donc de ne mesurer que la durée de vie partielle propre à cette voie de désintégration. Il a été proposé en 2018, que le neutron pourrait posséder un autre mode de décroissance, incluant une ou plusieurs particules de matière noire dans l’état final avec un rapport d’embranchement de 1 %. Le fait que les expériences “faisceau” soient insensibles à ce type de décroissance pourrait expliquer la différence de temps de vie observée entre les deux méthodes. Si une telle décroissance en matière noire existe pour le neutron libre, alors elle devrait également se produire dans une sélection de noyaux radioactifs aux propriétés bien spécifiques. L’hélium 6 est un de ces noyaux. Il s’agit d’un noyau dit borroméen, composé d’un cœur d’hélium 4 et d’un halo de deux neutrons qui sont très faiblement liés au reste de la structure, des neutrons quasi-libres. Si l’un de ces deux neutrons décroît en matière noire, alors le deuxième serait automatiquement libéré et émis dans l’environnement. Une telle émission de neutron dans la désintégration de l’hélium 6 n’est normalement pas prévue par le Modèle Standard. En effet, le seuil d’émission neutron dans la décroissance de l’hélium 6 n’est pas accessible énergétiquement depuis son état fondamental.  En revanche, cette émission est énergétiquement possible dans le cadre de cette nouvelle théorie,  et serait alors une signature unique de création de matière noire. Ce mode de décroissance exotique a pu être investigué en couplant le faisceau radioactif d’hélium 6 de SPIRAL1 du GANIL avec le détecteur de neutrons très performant TETRA (voir figure 2), issu d’une collaboration avec IJCLab.  Le faisceau était transporté à très basse énergie puis arrêté dans une feuille d'aluminium d'environ 150 um d'épaisseur au centre du setup expérimental selon un cycle bien défini. Dans un cycle typique, le faisceau était implanté dans la feuille d'aluminium pendant 3 secondes, puis coupé pendant 7 secondes. Si une décroissance en matière noire dans l'hélium 6 existe, alors le nombre de neutrons détectés avec TETRA devrait augmenter puis diminuer de manière proportionnelle avec la population d'hélium 6 implantée et se désintégrant dans un cycle.

Figure 2 : Setup expérimental avec le détecteur de neutrons TETRA situé au bout de la ligne LIRAT au GANIL. ©GANIL-CEA/CNRS

Cette expérience réalisée au GANIL a permis d’établir une valeur maximale au rapport d’embranchement de ce mode de décroissance à 4x10?10. Cette limite expérimentale a ensuite pu être traduite de manière théorique, contraignant l’espace des paramètres associé à la décroissance du neutron en matière noire comme montré en Figure 3. Ce résultat ajoute une contrainte supplémentaire à d’autres approches (Borexino et UCNτ sur la figure) pointant vers la conclusion qu’une décroissance en matière noire n’est a priori pas la cause première du problème de la durée de vie du neutron.

Figure 3 : Diagramme d’exclusion dans l’espace des paramètres. L’axe horizontal correspond à la masse de la particule de matière noire émise contrainte par deux conditions de stabilité représentées par les bandes verticales rouge et violette. La bande verticale grise représente une partie de la gamme de masse ouverte à laquelle nous sommes insensibles avec l’hélium 6. L’axe vertical représente le paramètre du modèle responsable de la décroissance en matière noire. Les lignes pointillées grises représentent 3 scénarios différents pour le problème de la durée de vie du neutron avec l’écart actuel de 1% jusqu’à 0,001%. Enfin, en vert, notre zone d’exclusion obtenue grâce à la mesure avec l’hélium 6.

Référence : https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.132.132501 Contact : Marius Lejoubioux

Une équipe de physiciens de l’Irfu, en partenariat avec le centre de physique nucléaire de Varsovie et l’université Williams & Mary aux États-Unis a mis au point une technique pour combiner efficacement données de simulations et expérimentales dans le but d’extraire la structure multidimensionnelle du nucléon en termes de quarks et gluons. Fondée sur la repondération bayésienne, cette technique permet de réduire fortement le coût de calcul par rapport aux approches standards. Les premières évaluations estiment que combiner données expérimentales et de simulation permettrait de réduire de près de 50 % [1] les incertitudes et permettent d’espérer une cartographie précise des quarks et des gluons dans le proton pour la seconde moitié de la décennie. C’est précisément l’objectif du projet CompToN financé par l’ANR qui a débuté à l’Irfu le 1 avril 2024.

La structure multidimensionnelle du nucléon en termes de quarks et de gluons est une des questions majeures de la physique hadronique moderne. Elle peut être étudiée pour des nucléons voyageant à une vitesse proche de celle de la lumière. En effet, dans ce cas très particulier, à haute énergie, on peut définir des densités 3D de quarks et de gluons à l’intérieur du nucléon. Cette information est encodée dans des fonctions mathématiques particulières appelées Distributions de Parton Généralisées (GPD). Ces GPD peuvent être extraites des données expérimentales obtenues lors de la mesure à haute énergie de processus exclusifs, c’est-à-dire de processus dans lesquels l’état final est entièrement caractérisé. Plusieurs installations expérimentales actuelles et à venir autour du globe ont des programmes de physique dédiés à l’extraction des GPD. L’Irfu est d’ailleurs fortement investi dans cette campagne expérimentale, particulièrement à travers le programme CLAS12 mené au Jefferson Laboratory aux États-Unis. Cependant, comme expliqué dans un précédent fait marquant, les processus exclusifs considérés filtrent une partie de l’information relative à la structure multidimensionnelle. En conséquence, l’extraction de la structure multidimensionnelle du nucléon est entachée de grandes incertitudes d’origine théorique. 

En parallèle des développements théoriques et expérimentaux, la dernière décennie a été fructueuse du point de vue de la simulation numérique de l’interaction forte. Les progrès réalisés en termes de puissance de calculs et d’efficacité algorithmique ont rendu les simulations actuelles réalistes. De plus, de nouvelles idées ont permis de connecter les calculs issus de simulation numériques à la structure multidimensionnelle du nucléon. Cependant, le calcul direct de la structure du nucléon même unidimensionnelle reste impossible pour l’instant, du fait de verrous mathématiques et algorithmiques. Les nouvelles méthodes évoquées ici proposent un contournement de ce problème via une détermination indirecte. On parle alors d’extraire les GPD à partir d’observables de simulation, de manière très similaire à ce qui est fait en pratique avec les observables expérimentales. Et comme dans le cas expérimental, une partie de l’information multidimensionnelle est filtrée. Mais les natures des filtres dans le cadre des expériences et des simulations sont très différentes et laissent passer des informations complémentaires.

Une équipe de l’Irfu, en collaboration avec des physiciens du laboratoire national de physique nucléaire (NCBJ) de Varsovie et de l’université Williams & Mary aux États-Unis, s’est donc posé la question de savoir si ces informations pouvaient être combinées de manière à réduire les incertitudes théoriques pesant sur l’extraction de la structure multidimensionnelle du nucléon. Pour ce faire, un modèle de GPD reposant sur un réseau de neurones a été spécialement conçu [2] pour :  être capable, par construction, de respecter l’ensemble des propriétés théoriques qui s’imposent aux GPD ; être capable de correctement tenir compte des incertitudes de reconstruction dues à l’information partielle obtenue via les processus expérimentaux. À l’aide de ce modèle, les physiciens ont produit une centaine de répliques, c’est-à-dire une centaine de solutions acceptables, en accord avec les données expérimentales disponibles. L’épaisseur du paquet caractérise les incertitudes théoriques d’extraction. C’est cette bande d’incertitude que l’on va chercher à réduire, en combinant données expérimentales et données de simulation. 

À l’heure actuelle, il n’existe pas de données publiques de simulations liées à la structure multidimensionnelle du nucléon, mais plusieurs groupes, aux États-Unis comme en Europe se sont lancés dans la course à leur production. Pour pallier ce manque temporaire, des données factices sont générées aléatoirement autour de la valeur centrale du paquet de répliques, mimant l’extension cinématique, la précision et le niveau de corrélation attendus de données de simulation réelles. Ces caractéristiques sont construites sur la base des données de simulation unidimensionnelles déjà disponibles. Idéalement, on voudrait alors réentraîner le réseau de neurone en incluant ces données factices pour étudier l’impact potentiel des données de simulation. Cependant, une des propriétés théoriques des GPD, appelée positivité, n’a pas pu être encastrée dans l’architecture du réseau. Elle est garantie au niveau de l’entraînement, ce qui augmente très significativement le temps d’apprentissage. Une étude d’impact reposant sur de multiples entraînements successifs du modèle se révélerait trop coûteuse. 

Pour pallier ce problème de coût de calcul, on fait appel à une technique de repondération bayésienne. Pour chaque réplique, on associe un poids ω compris entre 0 et 1. Plus l’accord entre la réplique et les nouvelles données est grand, plus le poids de cette réplique est important. À l’inverse, les répliques en désaccord avec les nouvelles données se verront attribuer un poids proche de 0. On définit ainsi le paquet de répliques repondérées, et on peut à nouveau calculer la valeur centrale et l’intervalle de confiance tous les deux repondérés.

Les résultats de cette procédure sont illustrés sur la figure 1, qui représente une coupe unidimensionnelle des GPD. La variable cinématique x représente la fraction d’impulsion portée par le quark sondé dans la direction de déplacement du nucléon. Les cent répliques sont réprésentées par des traits pleins verts. Des répliques atypiques (très éloignées de la valeur centrale) sont clairement visibles, justifiant le traitement spécifique évoqué précédemment. Les valeurs centrales sans (μ, trait pointillé bleu) et avec (μω, trait plein rose) repondération bayésienne sont très proches l’une de l’autre, comme attendu. En revanche, l’intervalle de confiance σω (traits pleins violets) de la distribution de répliques repondérée est bien plus étroit que celui de la distribution originale (σ, traits pointillés rouges), mettant ainsi en lumière une réduction significative des incertitudes. Cette réduction peut être quantifiée par le ratio Σ = σω/σ pour toute valeur de x, et dont la valeur moyenne est de l’ordre de 0.5 sur l’intervalle logarithmique choisi en x. Cette étude permet donc de conclure qu’en combinant données expérimentales et données de simulations, on peut espérer jusqu’à un facteur deux de réduction des incertitudes. 

Figure 1: Diagramme supérieur: les cent répliques générées via le modèle de GPD. Les valeurs centrales et intervalle de confiance à 68% sont représentés selon la prise en compte des données factices de simulation (??, ??) ou non (?, ?). Diagramme inférieur : ratio ? des intervalles de confiance ??/? (trait plein violet) en fonction de x, et valeur moyenne de réduction des incertitudes sur l'intervalle cinématique (pointillé vert).

Ce résultat est important car, on s’attend à ce qu’une grande quantité de données expérimentales reliées aux GPDs soit produite, et ce, à une précision inégalée, notamment au Jefferson Laboratory (USA).  Or ces données sont attendues dans la région cinématique 0.05< x < 0.5, c’est-à-dire là où l’impact de la repondération semble être maximal (figure 1). En combinant ces nouvelles données expérimentales avec les données de simulations à venir, on peut ainsi espérer réduire significativement les incertitudes théoriques sur la structure multidimensionnelle du nucléon. C’est l’objectif principal du projet ANR CompToN qui débutera à l’Irfu en avril prochain.

Contact : Cédric Mezrag et Michael Riberdy [1] M. Riberdy et al., Combining lattice QCD and phenomenological inputs on generalised parton distributions at moderate skewness , Eur. Phys. J. C 84, 201 (2024), e-Print: 2306.01647 [2] H. Dutrieux et al., Artificial neural network modelling of generalised parton distributions, Eur. Phys. J. C 82 (2022) 3, e-Print: 2112.10528

DESI vient de publier ses contraintes cosmologiques avec sa 1ère année de données avec une précision excédant celle des 20 dernières. Ces résultats affinent le modèle cosmologique et montrent des indices surprenants sur la nature de l'énergie noire.

Le grand relevé de galaxies DESI, qui utilise le télescope Mayall de 4m au Kitt Peak Observatory (Arizona), a commencé ses observations en mai 2021 et publie aujourd'hui l’analyse cosmologique de de sa première année de prise de données. DESI est un spectrographe multifibre qui, à chaque pointé, mesure le spectre de la lumière provenant de 5000 objets astrophysiques simultanément. Les données collectées permettent de dresser une carte tridimensionnelle de l’Univers. Des méthodes statistiques sont ensuite appliquées à cette carte pour en déduire comment l’expansion de l’Univers a évolué au cours des 11 derniers milliards d’années de son histoire alors que l’Univers est âgé de 13,8 milliards d’années. Pour faire cette analyse, les scientifiques s’appuient sur le phénomène physique des oscillations acoustiques baryoniques, des ondes de pression qui se sont propagées dans le plasma primordial et qui ont laissé un motif particulier dans la distribution de la matière que nous observons. Ce motif se traduit par le fait que la distance séparant deux galaxies montre un excès de probabilité à une valeur particulière. En mesurant cette distance caractéristique pour plusieurs types de galaxies différents, la collaboration DESI a ainsi mesuré l’histoire de l’expansion de l’Univers au cours de 11 derniers milliards d’années. L’analyse fine de ces données permet de préciser notre compréhension de l’Energie sombre, dont la nature est encore inconnue et qui est responsable de l’accélération de l’expansion de l’Univers. En particulier, les résultats de DESI tendent à montrer que l'Énergie sombre pourrait ne pas être décrite par une constante cosmologique mais qu’elle aurait évolué au cours du temps. lien vers les articles :  https://data.desi.lbl.gov/doc/papers/

DESI - Dark Energy Spectroscopic Instrument. Depuis 2009, l’Irfu est impliqué dans le relevé spectroscopique, DESI,  qui étudie l'effet de l'énergie sombre sur l'expansion de l'Univers, l'effet de la gravitation à des distances cosmologiques et qui mesure la somme des masses des neutrinos. Au cours d’un programme de 5 ans qui a débuté en mai 2021, DESI, mesure le spectre de la lumière (dans une gamme de longueur d’onde entre 360 à 980 nm, qui couvre le visible) provenant de plus de 40 millions de galaxies et de quasars. Le décalage vers le rouge de chaque spectre est déterminé et est converti en distance à l’aide du modèle cosmologique. En combinant cette distance avec les coordonnées angulaires, DESI construit une carte en 3D de l'Univers (voir figure 1)  qui permet de regarder dans le passé et de dérouler l’histoire de l’expansion de l’Univers sur les 11 derniers milliards d'années, quand on estime l’âge de l’Univers à 13,8 milliards d’années. L'instrument DESI est installé sur le télescope Mayall de 4 m au Kitt Peak National Observatory (Arizona, États-Unis). Le télescope possède un correcteur optique qui augmente son champ de vue à 8 degrés carrés. Son plan focal est équipé de 5 000 fibres optiques contrôlées par des robots pour collecter la lumière de 5 000 objets astrophysiques simultanément à chaque pointé du télescope. La lumière des objets est transmise du plan focal du télescope aux 10 spectrographes via 5 000 fibres optiques. L’Irfu a réalisé la construction des 30 cryostats de ces 10 spectrographes qui mesurent le redshift de chaque objet. Pour construire la carte de l’Univers, DESI a choisi 5 types de “traceurs” de la distribution de matière de l’Univers dans le but d’accéder à des époques différentes de l'histoire de l’Univers, de maintenant jusqu’à 11 milliards d’années.  L’univers proche est sondé par un échantillon de galaxies très brillantes (Bright Galaxy Sample, BGS). Ensuite DESI utilise des galaxies rouges lumineuses (Luminous Red Galaxies, LRG) qui sont des galaxies massives ayant terminé leur cycle de formation d’étoiles. Viennent après les galaxies à raies d’émissions (Emission Line Galaxies, ELG), galaxies plus légères et formant des étoiles qui permettent de sonder l’Univers entre 8 et 10 milliards d’années. Enfin, l’univers lointain est reconstruit grâce aux objets les plus lumineux de l’univers, les quasars. Ils sont utilisés de deux manières distinctes, soit directement par leur position comme dans le cas des galaxies, soit indirectement, en détectant les nuages de gaz d'hydrogène dans leurs spectres grâce à l'absorption dans la forêt Ly-alpha.

Figure 1: Carte à trois dimensions du ciel produite par DESI. Chaque point représente une galaxie ou un quasar dont le spectre et ainsi le décalage vers le rouge ont été mesurés et permettent de déterminer la distance à laquelle ils se trouvent. Credit: Claire Lamman/DESI collaboration and Jenny Nuss/Berkeley Lab

Mesure de l’échelle de distance des oscillations acoustiques des baryons En regardant la carte de l’Univers mesurée par DESI, il est facile de voir la structure sous-jacente de l'Univers : des filaments regroupant des galaxies, séparées par des régions contenant moins d'objets. L’univers primordial, bien au-delà de la portée de DESI, était très différent : une soupe chaude et dense de particules subatomiques se déplaçant trop rapidement pour former de la matière stable comme les atomes que nous connaissons aujourd'hui. Parmi ces particules se trouvaient les composants élémentaires de l’hydrogène et de l’hélium, collectivement appelés les baryons. De minuscules fluctuations dans ce plasma ionisé constitué de baryons, photons et électrons ont causé des ondes de pression qui s’y sont propagées. Alors que l'Univers s'étendait et refroidissait, à un moment appelé recombinaison, les atomes neutres se sont formés et les ondes de pression se sont figées,  augmentant ainsi la densité de matière dans des zones où se formeront les futures galaxies. Des milliards d'années plus tard, nous pouvons toujours voir la trace de ce motif dans la distribution spatiale des galaxies sous la forme d’une distance caractéristique appelée l’échelle de distance des oscillations acoustiques des baryons (BAO). Les coquilles sphériques correspondant à la propagation des ondes acoustiques qui se figent à la recombinaison, ne peuvent pas être détectées directement dans la carte 3D. En pratique, on construit la fonction de corrélation entre les traceurs par tranche de redshift. Comme le montre les encadrés de la figure 2, on observe une plus grande probabilité de trouver deux traceurs qui sont séparés par une distance correspondant à l’échelle BAO (pics BAO). Les positions de ces pics BAO sont mesurées par rapport à un modèle cosmologique fiduciel ( ΛCDM, décrit au paragraphe suivant). Les points de mesure de la figure 2 montrent les écarts à ce modèle fiduciel pour chaque époque de l’évolution de d’univers. Ces mesures de la taille apparente de l’échelle BAO réalisées à plusieurs époques de l’Univers permettent de tracer l’histoire de son expansion.

figure 2: Histogrammes des “pics BAO” pour les différents types de traceurs de la matière mesurés par DESI. Les points de mesure montrent l’écart des points de mesure avec le modèle ?CDM ainsi qu’un modèle cosmologique pour lequel la quantité d’énergie sombre varie au cours du temps (ligne tiretée). Credit: DESI collaboration, A. de Mattia

Contraintes sur la nature de l’énergie sombre L’énergie sombre est un concept né dans les années 90. Un certain faisceau d'indices, notamment venant de l'étude des propriétés de la distribution des galaxies à grande échelle, semblait indiquer que le contenu énergétique de l’Univers n’était plus dominé par la matière. L’accélération de l’expansion de l’Univers fut confirmée pour de bon en 1998 par l'observation de l'évolution de la luminosité des supernovae de type 1a en fonction de leur redshift, et la constante cosmologique (originellement introduite par Einstein en 1916, puis mise de côté), semble en rendre parfaitement compte. La cause de l'accélération de l'expansion a reçu le nom "d'énergie sombre" et de nombreux programmes, comme DESI, cherchent à en préciser la nature. Depuis maintenant plus de 25 ans, le modèle ΛCDM (Λ pour la constante cosmologique, CDM pour la matière noire froide), permet d'expliquer la très grande majorité des observations cosmologiques, de natures très diverses : les fluctuations de température du fond diffus cosmologique, la luminosité des supernovae, la distribution des galaxies à grande échelle (sondée par les relevés photométriques), la distribution de masse dans l’Univers (sondée pour le cisaillement gravitationnel faible), la masse des amas de galaxies, etc. Cependant, la valeur de la constante cosmologique actuellement observée n’est pas (encore) théoriquement motivée : elle est 10120 ou 1041 fois plus faible (selon les modèles théoriques) que la valeur attendue pour l’énergie du vide de la physique des particules. Il est donc légitime d’explorer des déviations à la constante cosmologique, en modélisant l’énergie sombre comme un fluide avec une densité ρ et une pression P reliée par une équation d’état P = w ρ. En supposant un paramètre d’équation d’état w constant, les données BAO de DESI seules, et en combinaison avec les autres sondes cosmologiques que représentent les mesures du fond diffus cosmologique (Planck et ACT, résumé en CMB ci-dessous) et les mesures de luminosité des supernovae (Pantheon+, Union3, DES-Y5), préfèrent une équation d’état w = -1, la valeur correspondant à une constante cosmologique. Cependant, si l’énergie sombre devait correspondre à un nouveau champ, l’équation d’état varierait probablement dans le temps. Une paramétrisation communément adoptée, et qui reflète bien le comportement de la plupart des modèles théoriques, est w = w0 + (1 - a) wa, avec a = 1 / (1 + z) le facteur d’échelle de l’Univers, et w0 et w_a deux paramètres constants. Comme le montre la figure 3, les données BAO de DESI, en combinaison avec les mesures du fonds diffus cosmologique et pour les différents échantillons de supernovae (qui ne sont pas indépendants), préfèrent w0 > -1, wa < 0, alors que les valeurs attendues pour la constante cosmologique sont (w0, wa) = (-1, 0) (en pointillés sur la figure). Le niveau d’exclusion de (w0, wa) = (-1, 0) varie en fonction du jeu de supernovae, avec une probabilité allant de 98% à 99.99%. Il semble donc que les données préfèrent une accélération de l’expansion légèrement différente d’une constante cosmologique (comme indiqué en pointillés sur la figure 2) : plus rapide au début de la domination de l’énergie sombre, il y a 6 milliards d’années, et moins rapide aujourd’hui. Ces résultats sont intéressants, et méritent une attention particulière dans les années qui suivent : les prochaines données de DESI, les nouveaux échantillons de supernovae de ZTF, et les données de la mission Euclid apporteront un éclairage supplémentaire.    

Figure 3: Contraintes apportées par DESI dans le cadre d’un modèle où l’énergie sombre peut varier au cours de l’évolution de l’Univers (les contours montrent les intervalles à 68% et 95% de confiance). Les contraintes sont faites en combinaison avec les données du fond diffus cosmologique (CMB) et de plusieurs échantillons de supernovae provenant de groupes différents (Pantheon+, Unions3 and DES-SN5YR). Une constante cosmologique serait à w0=-1 et wa=0. Credit: DESI collaboration, A. de Mattia

Constante de Hubble et somme des masses des neutrinos Contraindre l’énergie sombre est l’objectif principal de DESI. Cependant, de nombreuses questions peuvent trouver une réponse dans les données de DESI. Parmi celles-ci, deux quantités reçoivent une attention particulière : la valeur de la constante de Hubble, H0, et la somme des masses des neutrinos. DESI ne mesure pas directement la valeur du constant de Hubble, mais la quantité de matière dans l’Univers, Omega_m et la combinaison H0*rd, où rd est la taille de l’horizon acoustique au moment de la recombinaison. La vitesse de propagation des ondes acoustiques dans le plasma primordial, et ainsi la taille de l’horizon acoustique, dépend des densités de photons et de baryons dans l’Univers qui peuvent être déduites de la mesure de la température du fond diffus cosmologique et de l’abondance des éléments légers issus du processus de nucléosynthèse primordiale (BBN, Big Bang Nucleosynthesis). La figure 4 montre les contraintes apportées par DESI en combinaison avec les autres mesures évoquées ci-dessus. DESI mesure une valeur de Omega_m plus petite que celle déduite du CMB, ce qui donne une valeur de H0 un peu plus grande que celle du CMB lorsqu’on injecte la mesure de rd provenant de la BBN ainsi que l’échelle acoustique angulaire, θ*, provenant du CMB. La mesure de DESI reste en tension à plus de 99.98% avec les mesures directes locales de H0 (SNIa + Céphéides) même si elle s’en rapproche un petit peu. Enfin, grâce à cette mesure plus précise de Ωm, DESI peut améliorer indirectement les contraintes sur la somme des masses des neutrinos, ΣMν, également mesurées par le CMB. Dans le cadre du modèle ΛCDM et en utilisant les données de DESI, la contrainte sur la somme des masses des neutrinos est ΣMν<0.072 eV à 95% de confiance. Cette contrainte est la plus forte et la valeur obtenue favorise la hiérarchie de masse normale pour les états propres des neutrinos. Cependant, nous venons de voir que les mesures de DESI préfèrent un univers avec une accélération de l’expansion légèrement différente d’une constante cosmologique. Dans ce cadre-là, la contrainte sur la masse des neutrinos est ΣMν<0.195 eV à 95% de confiance. Cette contrainte est certes moins forte mais elle est posée dans le cadre d’un modèle plus général que ΛCDM. Dans le futur, DESI mesurera directement la masse des neutrinos en étudiant le forme de la fonction de corrélation des quasars et des galaxies et pas seulement la position du pic BAO. En effet, la dispersion à grande vitesse des neutrinos qui restent relativistes bien après la recombinaison, implique qu'ils se déplacent sur de grandes distances et qu’ils suppriment la formation des structures (galaxies, amas de galaxies, filaments) à petites échelles. Cet effet est directement visible dans la fonction de corrélation. Cette seconde vague d’analyses avec la première année de DESI, bien plus délicates, est attendue pour la fin de l’année 2024.

Figure 4: Mesure de la constante de Hubble provenant de différentes expériences ou combinaison d’expériences. Les contraintes apportées par DESI sont en bleu gras (voir le texte pour la description des différentes combinaisons). Credit: DESI collaboration

Remerciements : DESI est soutenu par le DOE Office of Science et par le National Energy Research Scientific Computing Center, un centre de calcul du DOE Office of Science. DESI bénéficie également du soutien de la National Science Foundation des États-Unis, du Science and Technologies Facilities Council du Royaume-Uni, de la Gordon and Betty Moore Foundation, de la Heising-Simons Foundation, du Commissariat à l'énergie atomique et aux énergies alternatives (CEA) de France, du Conseil national de la science et de la technologie du Mexique, du ministère de l'économie de l'Espagne, ainsi que des institutions membres de DESI. La collaboration DESI est honorée d'être autorisée à mener des recherches scientifiques sur l'Iolkam Du'ag (Kitt Peak), une montagne qui revêt une importance particulière pour la nation Tohono O'odham.   Contact : Etienne Burtin, Arnaud de Mattia, Christophe Yèche

Les magnétars sont des étoiles à neutrons arborant les champs magnétiques les plus intenses observés dans l’Univers. Pour s’atteler à la question encore ouverte de l’origine de ces champs magnétiques extrêmes, un scénario a été proposé par une équipe du Département d’Astrophysique (DAp) du CEA Saclay faisant appel au mécanisme dynamo de Tayler-Spruit, provoqué par la matière qui retombe sur la jeune étoile à neutrons après l’explosion en supernovae. L’équipe de scientifiques avait montré en 2022 par une analyse analytique que ce type de dynamo pouvait expliquer l’intensité du champ magnétique des magnétars. Dans cette nouvelle étude, l’équipe confirme ce résultat grâce à des simulations numériques tridimensionnelles. Cela aura de grandes répercussions sur la compréhension de l’origine des champs magnétiques, non seulement pour les magnétars, mais aussi pour l’évolution stellaire où le même mécanisme dynamo pourrait être à l’œuvre. Cette nouvelle étude a été publié dans le journal Monthly Notices of the Royal Astronomical Society: Letters.

FIGURE 1 – Vue d’artiste du magnétar de l’amas d’étoiles Westerlund 1. Crédit : ESO/L. Calçada

Les scénarios de la formation des magnétars Les étoiles à neutrons sont le résultat de la contraction violente du coeur de fer d’une étoile massive pendant son explosion en supernova gravitationnelle. Elles ont un rayon d'environ 12 km et une masse de 1 à 2 fois celle du Soleil, ce qui implique une densité extrême. Les magnétars sont une classe spéciale d'étoiles à neutrons. Ils émettent principalement dans les rayons X à cause de la dissipation d'un champ magnétique extrêmement intense qui, en combinaison avec une rotation très rapide, peut provoquer des supernovae extrêmement énergétiques, comme les hypernovae et les supernovae super-lumineuses. La question de la formation des magnétars, ainsi que le scénario des explosions extrêmes associé, est encore vivement débattue mais un scénario prometteur est l’amplification du champ magnétique par un effet dynamo dans une proto-étoile à neutrons. Les effets dynamos, qui sont certainement à l’origine de la majorité des champs magnétiques astrophysiques, sont des processus d’instabilité complexe couplant les mouvements d’un fluide et de son champ magnétique pour amplifier et maintenir ce dernier de manière auto-entretenue. Deux types de dynamos ont été étudiés au sein de l’équipe supernovae du Département d’Astrophysique au CEA Saclay, l’une est entretenue par des mouvements convectifs et l’autre par une instabilité magnétohydrodynamique due à la rotation différentielle du fluide. Ces scénarios permettent de retrouver l’intensité du champ magnétique des magnétars et les explosions extrêmes. Néanmoins, ces dynamos nécessitent que le coeur de l’étoile progénitrice soit en rotation rapide, ce qui est encore incertain et probablement trop rare pour expliquer l’ensemble de la population observée. Un troisième scénario proposé par cette même équipe suggère que la rotation rapide de la proto-étoile à neutrons vient de la matière retombant sur la surface de cette dernière environ 10 secondes après le début de l’explosion. Cela déclenche une dynamo entretenue par l’instabilité de Tayler-Spruit, une instabilité du champ magnétique toroïdal lorsqu’il devient trop intense, au dépend des deux autres mécanismes dynamos. « Ce nouveau scénario se complète des deux précédents, car il n'exige pas un cœur en rotation rapide pour engendrer un magnétar. Ainsi, il s'applique davantage aux magnétars formés au sein de supernovae avec des énergies typiques, tandis que les deux autres conviennent mieux aux magnétars nés dans des explosions plus énergétiques, impliquant donc un cœur en rotation rapide. » précise Paul Barrère, chercheur principal de cette étude.  

FIGURE 2 – Visualisation tridimensionnelle des lignes de champ magnétique et coupe méridionale de la composante radiale cylindrique du champ magnétique des dynamos de Tayler-Spruit hémisphérique (à gauche) et dipolaire (à droite).

L’apport des simulations numériques tridimensionnelles dans la confirmation de résultats L'existence de la dynamo de Tayler-Spruit a été longtemps débattue. Après une première étude analytique montrant que ce mécanisme peut participer à la formation des magnétars, les chercheurs de l'équipe supernovae du DAp et du Max Planck Institute for Gravitational Physics ont franchi une étape décisive en l'étudiant à travers des simulations numériques tridimensionnelles. Ces simulations ont abouti à la reproduction du dipôle magnétique, avec une intensité de 10^14 G, correspondant à l’ordre de grandeur observé dans les magnétars, confirmant ainsi l’existence de la dynamo de Tayler-Spruit. A ce résultat de premier plan, s’ajoute la découverte qu’il existe deux types de dynamo de Tayler-Spruit qui se distinguent par l’intensité et la géométrie du champ magnétique qu’elles génèrent. Dans la figure 2, on peut voir que le champ magnétique est soit concentré dans un hémisphère (à gauche), soit à symétrie dipolaire par rapport à l’équateur (à droite). Par ailleurs, ces dynamos de Tayler-Spuit sont respectivement en accord avec les prédictions théoriques de Spruit 2002 et Fuller et al. 2019 (voir la figure 3), accentuant la pertinence de ce nouveau scénario. « En plus de faire un grand pas dans la compréhension de la formation des magnétars, cette étude aura un impact plus large dans le domaine de la physique stellaire, notamment sur le problème du transport de moment cinétique à l’origine du ralentissement de la rotation du cœur des étoiles. » enchérie Paul Barrère. L’équipe poursuit actuellement ce travail en étudiant l’impact de différents paramètres physiques sur les dynamos de Tayler-Spruit, dans le but de mieux comprendre la formation des magnétars et d'approfondir notre compréhension de ces dynamos.

Figure 3 – Intensité du dipôle magnétique en fonction de la variation de la vitesse de rotation le long du rayon mesuré localement dans les simulations de dynamos dipolaires (en rouge) et hémisphériques (en vert). Ces simulations sont en accord avec les prédictions théoriques (traits en pointillé) de Fuller et al. 2019 (en rouge) et de Spruit 2002 (en vert).

Contacts : Paul Barrère, Jérôme Guilet, Raphaël Raynaud

Une équipe internationale, dont fait partie le Département d’Astrophysique du CEA-Saclay, dirigée par l'Instituto de Astrofísica e Ciências do Espaço (IA), a utilisé l'un des spectrographes les plus avancés au monde pour détecter les plus petits "tremblements stellaires" jamais enregistrés dans une étoile naine orange, ce qui en fait l'étoile la plus petite et la plus froide observée à ce jour avec des oscillations solaires confirmées. Cette étude démontre que l’astérosismologie est une technique puissante pour étudier de telles étoiles, ouvrant de nouvelles perspectives dans notre compréhension de la physique stellaire et, par la même occasion, des exoplanètes. Cette étude fait l’objet d’une publication dans le journal Astronomy & Astrophysics Letters : “Expanding the frontiers of cool-dwarf asteroseismology with ESPRESSO: Detection of solar-like oscillations in the K5 dwarf ε Indi”.

Impression d’artiste des ondes sismiques se propageant au sein de l’étoile à des couches plus ou moins profondes en fonction de leurs fréquences. L’étude de ces différents modes de vibration au niveau de la surface de l'étoile nous informe quant à la structure et la composition des différentes couches stellaires, tout comme un échogramme nous permet de voir l'intérieur de notre corps. Crédit : Tania Cunha (Planetário do Porto - Centro Ciência Viva)/Instituto de Astrofísica e Ciências do Espaço)

Des mesures incroyablement précises… Située à une distance de 11,9 années-lumière, Epsilon Indi (ε Indi) est une étoile naine orange (également connue sous le nom de naine K) dont le diamètre est de 71 % celui du Soleil. Pour observer cette petite étoile, l’équipe de scientifiques a utilisé le puissant spectrographe ESPRESSO, monté sur le Very Large Telescope (VLT) de l'Observatoire européen austral (ESO). L'équipe a ensuite utilisé une technique appelée astérosismologie permettant de mesurer les tremblements stellaires. Ces oscillations sismiques, mesurables qu’au niveau de la surface de l’étoile par photométrie ou vitesse radiale, sont riches en informations car elles se propagent dans toutes les étoiles. Elles donnent une mesure précise des paramètres fondamentaux stellaires (masse, rayon, âge) ainsi qu’un aperçu indirect de l'intérieur de l’étoile, telle que sa structure et sa composition, à l’instar des séismes terrestres qui nous renseignent sur l'intérieur de la Terre. Dans le cas de ε Indi, l'amplitude maximale des oscillations détectées est de seulement 2,6 centimètres par seconde, soit 14 % de l'amplitude des oscillations solaires, ce qui en fait l'étoile naine la plus petite et la plus froide observée à ce jour avec des oscillations solaires confirmées. Ces mesures sont si précises que la vitesse détectée est plus lente que la vitesse moyenne d'un paresseux ! « Le niveau d'extrême précision de ces observations est une réalisation technologique exceptionnelle. Il est important de noter que cette détection montre de manière concluante que l'astérosismologie précise est possible jusqu'aux naines froides avec des températures de surface aussi basses que 4200 degrés Celsius, soit environ 1000 degrés de moins que la surface du Soleil, ouvrant ainsi effectivement un nouveau domaine en astrophysique observationnelle », commente Tiago Campante, chercheur principal de l’étude et professeur adjoint au Département de physique et d'astronomie de la Faculté des sciences de l'Université de Porto (DFA-FCUP).

Infographie comparant l'étoile naine orange ? Indi au Soleil. La détection de si faibles oscillations ouvre de nombreuses perspectives, à la fois en physique stellaire et dans l'étude des exoplanètes. Crédit: Paulo Pereira (Instituto de Astrofísica e Ciências do Espaço)

… qui ouvrent bien de nouvelles perspectives ! Ce niveau de précision pourrait aider les scientifiques à résoudre un désaccord de longue date entre la théorie et les observations concernant la relation entre la masse et le diamètre de ces étoiles naines froides. « Les modèles d'évolution stellaire ont tendance à sous-estimer le diamètre des naines K de 5 à 15 % par rapport au diamètre obtenu par des méthodes empiriques. L'étude des oscillations dans les naines K, via l'astérosismologie, permettra d'identifier les lacunes des modèles stellaires actuels et, ainsi, de les améliorer afin d'éliminer cette disparité », explique la chercheuse Margarida Cunha, de l'IA. Malgré un scepticisme initial quant à la possibilité de détecter de telles oscillations au-delà des capacités instrumentales actuelles, Mário João Monteiro (IA & DFA-FCUP) explique que : « En plus de détecter la présence d'oscillations solaires dans ε Indi, nous espérons désormais utiliser les oscillations pour étudier la physique complexe des couches superficielles des naines K. Ces étoiles sont plus froides et plus actives que notre Soleil, ce qui en fait des laboratoires importants pour sonder les phénomènes clés se déroulant dans leurs couches superficielles que nous n'avons pas encore étudiés en détail dans d'autres étoiles. » Par ailleurs, étant donné que les étoiles naines oranges et leurs systèmes planétaires ont des durées de vie très longues, elles sont récemment devenues un point focal principal dans la recherche de mondes habitables et de vie extraterrestre. Ce résultat démontre que l'astérosismologie peut être mise à contribution dans la caractérisation détaillée de telles étoiles et de leurs planètes habitables, avec des implications véritablement étendues. De plus, la détermination précise des âges des naines froides proches rendue possible par l'astérosismologie peut être cruciale dans l'interprétation des biosignatures dans les exoplanètes directement imagées.

Diagramme du rayon stellaire en fonction de la température effective, mettant en évidence les détections sismiques des campagnes de photométrie Kepler et TESS (cercles bleus) et de vitesse radiale (diamants rouges). Les lignes pointillées délimitent les classes spectrales des étoiles. ? Indi est l'étoile la plus petite et la plus froide analysée en astérosismologie. Crédit : Campante et al. 2024

Enfin, ces "secousses stellaires" peuvent également être utilisées pour aider à planifier le futur télescope spatial PLATO de l'Agence spatiale européenne (ESA), une mission à laquelle le Département d’Astrophysique est fortement impliqué. Les amplitudes d'oscillation mesurées dans cette étude sont une information clé pour aider à prédire avec précision le rendement sismique de PLATO, prévu pour être lancé en 2026.   Contacts : Rafael Garcia

MISE A JOUR [26/03/2024] : La procédure de dégivrage des optiques a été un succès !

MISE A JOUR [26/03/2024] : La procédure de dégivrage des optiques d'Euclid a donné des résultats bien meilleurs que prévu. Le principal suspect de la vision trouble de l’instrument VIS d’Euclid était le miroir le plus froid derrière l'optique principale du télescope. Après l’avoir réchauffé de 34 degrés seulement, passant de -147°C à -113°C, a été suffisant pour que toute l’eau glacée s’évapore. Presque immédiatement, Euclid a retrouvé la vue avec 15 % de lumière en plus en provenance de l'Univers ! Les scientifiques et les ingénieurs ont ainsi pu déterminer avec précision où la glace s'était formée et où elle était susceptible de se former à nouveau. Pour en savoir plus, lire la page ESA.    Quelques couches de glace d'eau - ayant la largeur d'un brin d'ADN - commencent à affecter la vision d'Euclid ; un problème courant pour les engins spatiaux dans le froid glacial de l'espace, mais un problème potentiel pour cette mission très sensible qui nécessite une précision remarquable pour étudier la nature de l'Univers sombre. Après des mois de recherche, les équipes d'Euclid à travers l'Europe, dont fait partie le CEA-Saclay, ont élaboré une nouvelle procédure conçue pour dégivrer l'optique de la mission, qui consiste à chauffer les miroir de manière indépendante. La campagne s’est déroulée comme prévue et, s’il faut encore attendre pour établir avec certitude son efficacité, les analyses préliminaires sont encourageantes.

Impression d'artiste de la sonde Euclid de l'ESA. Crédit image : ESA/ATG medialab

Du givre sur les miroirs d’Euclid Au cours des derniers mois, durant les opérations de réglage fin et de calibration des instruments d'Euclid, les scientifiques ont géré différentes anomalies (Lumiere parasite, flashes de rayons X et problèmes de guidage).  Un nouveau défi est apparu : les experts ont remarqué une diminution progressive mais significative de la quantité de lumière mesurée à partir des étoiles observées à plusieurs reprises avec l'instrument visible (VIS). Alors que son équivalent infrarouge n’avait rencontré aucune difficulté. « Nous avons comparé la lumière des étoiles entrant par l'instrument VIS avec la luminosité enregistrée des mêmes étoiles à des moments antérieurs, observées à la fois par Euclid et la mission Gaia de l'ESA », explique Mischa Schirmer, scientifique en charge de la calibration pour le consortium Euclid et l'un des principaux concepteurs du nouveau plan de dégivrage. Ce problème est courant pour les engins spatiaux : l'eau présente dans l’atmosphère et absorbée par certains composants lors de l'assemblage sur Terre est libérée progressivement lorsque l'engin spatial est exposé au vide glacial de l'espace. Ces molécules d'eau libérées ont tendance à adhérer à la première surface sur laquelle elles se posent - et lorsqu'elles atterrissent sur l'optique de cette mission très sensible, elles peuvent poser problème. Pour cette raison, il y a eu une "campagne de dégazage" peu de temps après le lancement où le télescope a été chauffé par des radiateurs embarqués et également partiellement exposé au Soleil, sublimant la plupart des molécules d'eau présentes au lancement sur ou très près des surfaces d'Euclid. Une fraction considérable, cependant, a survécu, en étant absorbée dans l'isolation multi-couches, et est maintenant lentement libérée. Il y a probablement juste quelques dizaines de nanomètres d'épaisseur d'eau gelée sur les miroirs de l'optique d'Euclid, équivalent à la largeur d'un brin d'ADN, mais suffisant à diminuer les performances de l’instrument. Cela témoigne de la sensibilité extrême de la mission.  

L'instrument VIS, recouvert d'un isolant multicouche (MLI) noir, et NISP, recouvert d'un MLI doré, sur le module de charge utile d'Euclid vu dans la salle blanche. Environ 10 kg de MLI enveloppent les deux instruments, cependant, ce matériau est capable d'absorber jusqu'à 1 % de son propre poids en eau. Crédit : Airbus

Une opération risquée depuis 1,5 million de kilomètres de distance Malgré le caractère courant de ce problème de contamination pour les engins spatiaux opérant dans des conditions froides, il existe étonnamment peu de recherches publiées sur la manière précise dont la glace se forme sur les miroirs optiques et son impact sur les observations. Or, de petites quantités d'eau continueront à être libérées pendant toute la durée de la mission Euclid, mettant en péril les résultats de la mission. Alors, tandis que les observations et la science d'Euclid se poursuivent, les équipes ont élaboré un plan pour comprendre où se trouve la glace dans le système optique et atténuer son impact maintenant et à l'avenir, si elle continue à s'accumuler. L'option la plus simple serait de chauffer l'ensemble de l'engin spatial pendant plusieurs jours. Cela nettoierait les optiques mais pourrait entraîner une déformation de la structure mécanique due à la dilatation de certains matériaux, induisant ainsi un désalignement subtil des optiques nécessitant plusieurs semaines de recalibration fine. « La plupart des autres missions spatiales n'ont pas des exigences aussi strictes en matière de "stabilité thermo-optique" qu'Euclid », explique Andreas Rudolph, directeur de vol d'Euclid au centre de contrôle de mission de l'ESA. « Pour remplir les objectifs scientifiques d'Euclid consistant à réaliser une carte en 3D de l'Univers en observant des milliards de galaxies jusqu'à 10 milliards d'années-lumière, sur plus d'un tiers du ciel, nous devons maintenir la mission incroyablement stable - et cela inclut sa température. Allumer les radiateurs dans le module de charge utile doit donc être fait avec un soin extrême. » Pour limiter les changements thermiques, l’astuce consiste donc à chauffer partie par partie en fonction des résultats obtenus. L'équipe commencera par chauffer individuellement les parties optiques à faible risque, situées dans des zones où l'eau libérée a peu de chances de contaminer d'autres instruments ou optiques. Ils commenceront avec deux des miroirs d'Euclid qui peuvent être chauffés indépendamment.  « L’un d’entre eux est un bon candidat pour être contaminé : il n’est que dans le chemin optique de VIS et pas de NISP » explique Hervé Aussel du CEA-Saclay, le responsable scientifique du segment sol en charge de l’analyse des données d'Euclid. « Il n’est cependant pas certain que cela soit le seul coupable: en effet, la lumière rouge, et infrarouge est bien moins sensible à la diffusion par glace que la lumière bleue. C’est peut-être cela qui explique que NISP ne voit rien. Or on a de bonnes indications qu’il s’agit de diffusion au vu de certaines de nos mesures. » Si la perte de lumière persiste, ils continueront à chauffer d'autres groupes de miroirs d'Euclid, vérifiant à chaque fois le pourcentage de photons qu'ils récupèrent. La campagne s’est déroulée comme prévue et, s’il faut encore attendre pour établir avec certitude son efficacité, les analyses préliminaires sont encourageantes.

Pour aller plus loin : Operations begin to de-ice Euclid’s vision Article de Schirmer et al. 2023 - A&A Euclid's sight restored   Contacts : AUSSEL Herve FRUGIER Pierre-antoine Sauvage Marc

Après avoir été lauréate du prix Tate 2020 pour le leadership international en physique, l'astrophysicienne Dr Catherine Cesarsky se voit décerné un autre prix prestigieux : le Prix Fritz Zwicky 2024 d'Astrophysique & Cosmologie pour ses contributions exceptionnelles à la compréhension de l'évolution des galaxies grâce à des observations spatiales dans l'infrarouge, ainsi que pour son leadership dans le développement de l'infrastructure d'observation de l'astronomie contemporaine. Ce prix honore les scientifiques ayant obtenu des résultats fondamentaux et exceptionnels dans le domaine de l'astrophysique et/ou de la cosmologie. Le Prix Fritz Zwicky est décerné tous les deux ans, pour la première fois en 2020, par la Société Astronomique Européenne au nom de la Fondation Fritz Zwicky, située à Glaris, en Suisse. "Je suis très touchée de me voir attribuer ce prix, en témoignage de l’appréciation de mes collègues les astronomes européens. Fritz Zwicky était un astrophysicien remarquable. Entre autres travaux de premier plan, il est le vrai découvreur, en 1933, de la matière noire qui empêche les galaxies des amas de galaxies de se disperser. Je l’ai connu lorsque j’étais post doc à Caltech, dans les dernières années de sa vie. Il venait toujours aux séminaires, et à la fin il levait le doigt et disait : oui, d’accord, j’avais prédit ou découvert ça en…, et c’était toujours vrai" déclare Dr. Césarsky avec joie et reconnaissance.

Prix Fritz Zwicky d'astrophysique et de cosmologie Dr Catherine Cesarsky a obtenu un diplôme en physique de l'Université de Buenos Aires et un doctorat en astronomie en 1971 de l'Université Harvard. Elle a ensuite rejoint le California Institute of Technology avant de rejoindre le Commissariat à l'Énergie Atomique (CEA) en 1974, où elle est devenue Chef de l'Astrophysique (1985-1993), puis Directrice de la recherche fondamentale du CEA en physique et chimie (1994-1999). Dr Cesarsky a été le PI de l'Isocam, la caméra infrarouge à bord du satellite européen ISO (Observatoire Spatial Infrarouge). Elle est ensuite devenue Directrice Générale de l'Observatoire Européen Austral (1999 à 2007), puis Présidente de l'Union Astronomique Internationale (2006-2009). Dr Cesarsky a reçu plusieurs prix et récompenses pour ses réalisations et est membre de plusieurs académies scientifiques nationales et internationales renommées. De 2009 à 2012, elle a été Haut-Commissaire à l'Énergie Atomique en France, conseillère du gouvernement français pour les questions scientifiques et énergétiques. Elle est maintenant Présidente du Conseil de l'Observatoire SKA. Dr Cesarsky a travaillé dans plusieurs domaines centraux de l'astrophysique moderne, initialement en astrophysique des hautes énergies, puis en se concentrant sur l'astronomie infrarouge dans plusieurs domaines, de l'environnement interstellaire à l'évolution des galaxies. Dr Catherine Cesarsky a commencé sa carrière dans le domaine des hautes énergies. Elle a d'abord acquis une reconnaissance internationale grâce à ses travaux théoriques sur la propagation et l'accélération des rayons cosmiques. Ses intérêts se sont ensuite tournés vers l'astronomie infrarouge où elle a mené des recherches pionnières dans plusieurs domaines de l'astrophysique en exploitant les avancées en astronomie infrarouge. Alors au CEA, elle a dirigé le développement et la construction de la caméra infrarouge ISOCAM à bord du satellite ISO de l'ESA. Cela a conduit à de nombreuses études pionnières, en particulier sur l'évolution des galaxies. Dr Cesarsky a organisé le programme ISOCAM Central, qui a fourni de nouvelles perspectives sur l'émission infrarouge provenant du milieu interstellaire diffus et des galaxies normales, la formation d'étoiles dans les nuages moléculaires, la formation de poussières dans les supernovae et la formation d'étoiles dans les galaxies en collision. Elle a dirigé la collaboration ITGES qui a mené des survols profonds très sensibles avec ISOCAM, ce qui a permis de découvrir les galaxies individuelles responsables de la majeure partie du Fond Infrarouge Cosmique.

En tant que Directrice Générale de l'Observatoire Européen Austral, Dr Cesarsky a été la force motrice derrière la réalisation du plein potentiel du Very Large Telescope (VLT) de l'ESO et de son interféromètre associé (VLTI). Elle a également joué un rôle clé dans la facilitation des accords européano-nord-américains sur le Réseau d'Antennes Millimétrique/Submillimétrique de l'Atacama (ALMA), ultérieurement étendus au Japon, et a supervisé les premières années de construction de l'ALMA. Sous sa direction, l'Observatoire de La Silla est devenu un observatoire hautement productif et compétitif travaillant en parallèle avec le VLT. De plus, le leadership de Dr Cesarsky a été crucial pour orienter la communauté astronomique vers le développement d'un télescope extrêmement grand. Au cours de ses dernières années en tant que Directrice Générale de l'ESO, elle a supervisé le développement et la sélection du design révolutionnaire à cinq miroirs pour le Télescope Extrêmement Grand de l'ESO, ce qui a ouvert la voie à d'autres études de conception de ce télescope. Lorsque Dr Cesarsky était Présidente de l'Union Astronomique Internationale, elle a joué un rôle de premier plan dans la coordination de l'effort mondial en vue de l'Année Internationale de l'Astronomie en 2009, proclamée par les Nations Unies et soutenue par l'UNESCO. L'AIA2009 a marqué le 400e anniversaire de la première observation astronomique à travers un télescope par Galileo Galilei. L'AIA2009 a célébré l'astronomie et ses contributions à la société et à la culture, avec des événements à tous les niveaux, du national au mondial. Dr Cesarsky a également occupé plusieurs postes de haut niveau en France et à l'international. Elle a présidé le comité de haut niveau sur les infrastructures scientifiques à grande échelle pour le ministère français de la recherche et de l'enseignement supérieur de 2013 à 2018, et de 2014 à 2016, elle a été Présidente du Comité Consultatif des Sciences de l'Espace de l'ESA. De novembre 2017 à février 2021, Dr Cesarsky a présidé le Conseil d'Administration de l'Organisation SKA, et depuis lors, elle préside le Conseil du Square Kilometer Array Observatory. Ces nombreuses réalisations font du Dr Catherine Cesarsky une lauréate exceptionnelle du prix Fritz Zwicky 2024 pour l'astrophysique et la cosmologie.

Plus d'information : site EAS Contact : Catherine Césarsky

L’univers énergétique d’XMM-Newton s’associe à la vision du ciel du satellite Euclid. Mille heures d’observations en rayons X, sur une région grande comme 40 fois la lune, viendront compléter les études multi-longueur d’onde sur l’évolution cosmique des amas de galaxies. Une association déterminante pour contraindre les scénarios cosmologiques et révéler la nature de l’énergie sombre.

Illustration d'artiste du télescope spatial XMM-Newton de l'ESA, fleuron de l'astronomie européenne dans le domaine des rayons X. Crédit : ESA

Les grands relevés astronomiques depuis le ciel En deux décennies, les grands relevés multi-longueur d’onde du ciel sont devenus un des éléments constitutifs des grands observatoires actuels, que ce soit depuis le sol ou l’espace. Lancé en 1999 par l’ESA, XMM-Newton a été conçu avant tout pour l’étude détaillée du rayonnement X des astres. Grâce à son champ de vue (30’, équivalent à la taille apparente de la lune), sa bonne qualité d’image et sa grande surface collectrice, il s’est imposé comme l’instrument idéal pour cartographier le ciel entre 1 et 100 Å.  A ces énergies de l’ordre du keV, on rencontre principalement deux types d’objets à haute latitude galactique : les noyaux actifs de galaxies (ponctuels) et les amas de galaxies (sources étendues), qui tracent notamment l’histoire de la structuration de l’univers. Le satellite Euclid de l’ESA, lancé avec succès le 1er juillet 2023, va réaliser une cartographie profonde du ciel extragalactique dans les domaines visibles et infra-rouges. Le relevé ‘Wide’ recensera quelques centaines de milliers d’amas répartis sur les 10 derniers milliards d’années de l’histoire de l’Univers. Des observations ‘Deep’, 50 fois plus profondes, se concentreront sur trois régions spécifiques du ciel afin de tirer profit de l’exceptionnelle qualité d’image d’Euclid jusqu’à des époques encore plus reculées. L’une d’elle, nommé EDFF (Euclid Deep Fields Fornax) s’étend sur 10 deg2 dans la constellation Fornax (la Fournaise).  

Carte du ciel en coordonnées galactiques. Les régions bleues délimitent le survey Wide Euclid. Les trois taches jaunes sont les surveys Deep. XMM-Newton observera pendant 1000 heures, la région de 10 deg2 encadrée en rouge (dans la constellation de Fornax). Crédit(s) : Euclid – Projet XEDFF

Une vision multi-longueur d’onde de l’univers à la recherche de l’énergie sombre Les plus grands observatoires (ESO, Keck, Subaru, Spitzer, MeerKAT, etc) ont déjà planifié une partie de leurs moyens pour couvrir EDFF en imagerie (optique, infra-rouge, radio) et en spectroscopie afin de compléter la mission Euclid à la recherche de la matière noire. En décembre 2023, suite à l’appel triennal XMM "Heritage", 1000 heures ont été allouées pour réaliser la contrepartie en rayons X du champ EDFF. Ceci constitue en outre le plus gros programme d’XMM réalisé depuis son lancement. Cette vision de l’univers énergétique, combinée aux données Euclid et multi-longueur d’onde, apportera une vision indépendante et complémentaire des phénomènes physiques responsables de l’évolution des amas de galaxies et de l’activité des noyaux actifs de galaxies. Les observations XMM se dérouleront sur 3 ans de mai 2024 à avril 2027 Les amas de galaxies vus par Euclid et XMM portent deux signatures différentes : en optique, c’est celle des populations stellaires des galaxies d’amas, alors qu’en X c’est celle de l’émission du plasma ionisé, porté à plusieurs dizaines de millions de degrés, remplissant l’espace entre les galaxies d’amas. L’analyse statistique conjointe des deux relevés permettra de modéliser sans ambiguïté la population d’amas du Deep EDFF non détectée dans le relevé Wide et de reconstituer les comptages d’amas en fonction de leur masse et du temps. Ces comptages seront déterminants pour contraindre les scénarios cosmologiques et révéler la nature de l’énergie sombre.

Une vingtaine de chercheurs européens et japonais a participé à l’élaboration du projet Heritage XMM Fornax, dont cinq appartiennent à des instituts français : Le CEA (IRFU), l’Observatoire de la Côte d’Azur et l’Institut d’Astrophysique de Paris. L’ensemble des observations XMM Fornax et multi-longueur d'onde associées constituera une "mine de photons" d’une richesse sans égale, pour les quelque 2500 membres de la grande communauté Euclid. Contact: Maguerite Pierre