PDF
Analyse des mesures gravitationnelles de l'interféromètre LISA: Machine learning pour l'estimation rapide de paramètres des binaires galactiques
Analysis of the gravitational measurements of the LISA interferometer: Machine learning for the rapid estimation of galactic binary parameters

Spécialité

Mathématiques appliquées

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

28/02/2021

Durée

6 mois

Poursuite possible en thèse

oui

Contact

MOUTARDE Herve
+33 1 69 08 73 88

Résumé/Summary
Le travail de cette proposition de stage porte sur le développement d'une méthode rapide pour l'identification d'un grand nombre de systèmes binaires galactiques par l'utilisation de méthodes d'apprentissage automatique.
The work of this internship proposal focuses on the development of a rapid method for the identification of a large number of galactic binary systems using machine learning methods.
Sujet détaillé/Full description
A la suite des premières détections directes d'ondes gravitationnelles en 2015 par les interféromètres au sol LIGO et VIRGO, une nouvelle fenêtre d'observation de notre Univers s'est ouverte, ouvrant la voie à la mission spatiale LISA (Laser Interferometer Space Antenna). Cet observatoire spatial, dont le lancement est prévu en 2034, permettra la détection directe d’ondes gravitationnelles indétectables par les interféromètres terrestres.

A la différence des observatoires au sol, sensibles à de rares signaux d’ondes gravitationnelles et soumis à un bruit de mesure dominant, l'interféromètre spatial LISA devrait pouvoir observer un grand nombre de signaux distincts. Les estimations actuelles des quantités et types de source prévoient entre autres 60 millions de systèmes binaires galactiques émettant de manière continue, 10 à 100 signaux annuels provenant de trous noirs supermassifs, et de 10 à 1000 signaux annuels issus de systèmes binaires avec des rapports de masses très élevés.

Un des objectifs scientifiques de LISA est l’étude de la formation et de l’évolution des systèmes binaires galactiques : des naines blanches, mais aussi des étoiles à neutrons ou des trous noirs d’origine stellaires. LISA devrait permettre la caractérisation d’environ 25000 systèmes binaires galactiques.

L'un des défis posés par l'analyse des données de la mission LISA sera l'identification rapide, robuste et fiable des quelques 25000 systèmes binaires attendus, pouvant être détectés de manière individuelle. Plus précisément, l'identification de chaque système binaire consiste en l'estimation des paramètres des modèles physiques décrivant la forme des signatures gravitationnelles de tels systèmes. Ce problème devient d'autant plus difficile que les données réelles seront soumises à un certain nombre de bruits et d’artefacts à prendre en compte (par exemple des données incomplètes liées à des interruptions de mesures), qui affectent significativement notre capacité à détecter et identifier les signaux issus de systèmes binaires galactiques.

A l'heure actuelle, l'approche la plus classique est fondée sur l'utilisation de méthodes Monte-Carlo Markov Chains (MCMC - voir [2]) pour l'estimation de ces paramètres par maximum de vraisemblance. Cependant, le traitement conjoint de milliers de binaires par de telles méthodes requiert l'estimation d'un grand nombre de paramètres, conduisant à un coût calculatoire très élevé et une difficulté réelle à faire fonctionner des méthodes MCMC de manière efficace.

Le travail de cette proposition de stage porte sur le développement d'une méthode rapide pour l'identification d'un grand nombre de systèmes binaires galactiques par l'utilisation de méthodes d'apprentissage automatique. A cette fin, les problèmes auxquels nous nous attaquerons seront:
* la mise en oeuvre d'une méthode d'apprentissage statistique pour l'estimation de parmètres de binaires galactiques,
* son extension à l'estimation conjointe des incertitudes d'estimation, élément essentiel permettant de caractériser les erreurs d'estimation et sa fiabilité,
* l'évaluation des résultats sur des simulations réalistes du futur observatoire LISA.
Ce travail reposera sur l'application de méthodes statistiques pour l'analyse des données, en particulier par le déploiement de méthodes Deep Learning pour l'estimation paramétrique et la quantification d'incertitudes.

Ce sujet comporte une dominante de traitement du signal et de programmation soignée; le candidat recherché doit avoir de solides connaissances en statistiques et en traitement du signal. Des connaissances préalables en apprentissage statistique sont bienvenues.

Le stage se fera au sein des l'Institut de Recherche sur le lois Fondamentales de l'Univers (IRFU), sur une thématique à l'interface entre l'analyse statistique de données et la physique des ondes gravitationnelles.
Contacts : Jérôme BOBIN jerome.bobin@cea.fr ou Hervé MOUTARDE herve.moutarde@cea.fr

Références
[1] A.Blelly, J.Bobin, H.Moutarde, "Sparsity Based Recovery of Galactic Binaries Gravitational Waves", Phys. Rev. D, en cours de publication, 2020.
[2] T.B.Littenberg, "A detection pipeline for galactic binaries in LISA data", Phys.Rev.D, 84, 063009, (2011)
Following the first direct detections of gravitational waves in 2015 by the LIGO and VIRGO ground interferometers, a new window of observation of our Universe has opened, paving the way for the LISA (Laser Interferometer Space Antenna) space mission. This space observatory, scheduled for launch in 2034, will allow the direct detection of gravitational waves undetectable by ground-based interferometers.

Unlike ground-based observatories, which are sensitive to rare gravitational wave signals and subject to dominant measurement noise, the LISA space interferometer should be able to observe a large number of distinct signals. Current estimates of source quantities and types include 60 million continuously emitting galactic binary systems, 10 to 100 annual signals from supermassive black holes, and 10 to 1000 annual signals from binary systems with very high mass ratios.

One of the scientific objectives of LISA is the study of the formation and evolution of galactic binary systems: white dwarfs, but also neutron stars or black holes of stellar origin. LISA should allow the characterization of about 25000 galactic binary systems.

One of the challenges posed by the analysis of the LISA mission data will be the rapid, robust and reliable identification of the expected 25,000 or so binary systems that can be detected individually. Specifically, the identification of each binary system consists of estimating the parameters of physical models describing the shape of the gravitational signatures of such systems. This problem becomes all the more difficult as the actual data will be subject to a number of noise and artifacts to be taken into account (e.g. incomplete data due to measurement interruptions), which significantly affect our ability to detect and identify signals from galactic binary systems.

At present, the most classical approach is based on the use of Monte-Carlo Markov Chains methods (MCMC - see [2]) for the estimation of these parameters by maximum likelihood. However, the joint processing of thousands of binaries by such methods requires the estimation of a large number of parameters, leading to a very high computational cost and a real difficulty to make MCMC methods work efficiently.

The work of this internship proposal focuses on the development of a rapid method for the identification of a large number of galactic binary systems using machine learning methods. To this end, the problems to be addressed will be:
* the implementation of a statistical learning method for the estimation of galactic binary parmeters,
* its extension to the joint estimation of estimation uncertainties, an essential element for characterizing estimation errors and its reliability,
* Evaluation of the results on realistic simulations of the future LISA observatory.
This work will be based on the application of statistical methods for data analysis, in particular through the deployment of Deep Learning methods for parametric estimation and quantification of uncertainties.

This subject has a strong emphasis on signal processing and careful programming; the successful candidate must have a strong knowledge of statistics and signal processing. Previous knowledge of statistical learning is welcome.

The internship will take place at the Institut de Recherche sur le Lois Fondamentales de l'Univers (IRFU), on a theme at the interface between statistical data analysis and gravitational wave physics.
Contacts: Jérôme BOBIN jerome.bobin@cea.fr or Hervé MOUTARDE herve.moutarde@cea.fr

References:
[1] A.Blelly, J.Bobin, H.Moutarde, "Sparsity Based Recovery of Galactic Binaries Gravitational Waves", Phys. Rev. D, in publication, 2020.
[2] T.B.Littenberg, "A detection pipeline for galactic binaries in LISA data", Phys.Rev.D, 84, 063009, (2011)
Mots clés/Keywords
Machine learning, statistiques, estimation paramétrique, binaires galactiques, ondes gravitationnelles
Machine learning, statistics, parametric estimation, galactic binaries, gravitational waves
Logiciels
Python
PDF
Développement des calculs ab initio pour les noyaux atomiques
Advancing the ab initio description of atomic nuclei

Spécialité

Physique théorique, mécanique quantique

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

05/05/2021

Durée

5 mois

Poursuite possible en thèse

oui

Contact

SOMA Vittorio
+33 1 69 08 32 36

Résumé/Summary
Le projet porte sur les simulations ab initio de noyaux atomiques et vise des développements formels et / ou numériques (selon la préférence de l'étudiant) qui contribueront à pousser l'une des approches de pointe vers une plus grande précision.
The project concerns ab initio simulations of atomic nuclei and aims at formal and/or numerical developments (depending on the taste of the student) that will contribute to pushing one of the state-of-the-art approaches to higher precision.
Sujet détaillé/Full description
La description théorique "ab initio" des noyaux atomiques est devenue possible que récemment grâce à des progrès décisifs en théorie à N corps et à la disponibilité de super-ordinateurs de plus en plus puissants. Ces techniques ab initio sont appliquées avec succès à l'étude de la structure des noyaux les plus légers. En revanche, les extensions aux éléments plus lourds et aux réactions nucléaires posent des difficultés considérables.

L'objectif du projet est de contribuer à ce progrès en théorie à N corps. L'étude sera centré sur une technique ab initio en cours de développement au CEA Saclay (l'approche dite de fonction Gorkov-Green) qui a permis pour la première fois l'application de méthodes ab initio aux systèmes à couche ouverte ou, autrement dit, superfluides (la majorité des noyaux atomiques). Après les premieres applications pour des noyaux légers et de masse moyennes, l'approche face au défi d’un upgrade crucial pour atteindre le niveau de precision et compétitivité des méthodes de pointe. Le travail proposé visera à développer les premiers outils pour aller dans ce direction.

Plus précisément, l'étudiant effectuera (selon sa préférence) soit des développements formels de la théorie des fonctions de Gorkov-Green, soit contribuera à l'écriture d'un code numérique capable de générer automatiquement des expressions pour des contributions d'ordre supérieur dans la théorie. Une thèse où ces développements seront incorporés dans le code numérique pour des simulations ab initio des noyaux atomiques peut être envisagée.
The theoretical description of atomic nuclei from first principles, or in a so-called ab initio fashion, has become possible only recently thanks to crucial advances in many-body theory and the availability of increasingly powerful high-performance computers. Such ab initio techniques are being successfully applied to study the structure of nuclei starting from the lighter isotopes. Still, extensions to heavy elements and nuclear reactions are posing considerable difficulties.

The objective of the project is to contribute to this on-going progress in nuclear many-body theory. The study will focus on a developing ab initio technique (the so-called Gorkov-Green function approach, devised at CEA Saclay) designed to describe open-shell or superfluid systems (the majority of atomic nuclei). After the first promising applications to light and medium-mass nuclei, the method faces crucial upgrades to reach the precision and competitiveness of state-of-the-art approaches. The proposed work will aim to put in place the first necessary tools towards this direction.

More specifically, the student will perform (depending on his/her preference) either formal developments of Gorkov-Green's function theory or contribute to the writing of a numerical code able to automatically generate expressions for higher-order contributions in the theory. A PhD thesis where such developments will be implemented in the numerical code for full-fledged ab initio simulations of atomic nuclei can be envisaged.
Mots clés/Keywords
Physique nucléaire, structure nucléaire, techniques à N corps, calcul haute-performance
Nuclear physics, nuclear structure, many-body techniques, high-performance computing
PDF
Développement d’une source de rayons gamma de haute énergie induits par captures neutron pour la calibration de scintillateurs et bolomètres.
Development of a source of high energy gamma rays induced by neutron capture for the calibration of scintillators and bolometers.

Spécialité

Physique nucléaire

Niveau d'étude

Bac+4/5

Formation

Ingenieur/Master

Unité d'accueil

Candidature avant le

05/04/2021

Durée

3 mois

Poursuite possible en thèse

non

Contact

LHUILLIER David
+33 1 69 08 94 97

Résumé/Summary
Le(a) stagiaire sera en charge de mettre au point, par simulation et tests sur site, une source de gammas de 5 à 7 MeV basée sur le blindage et la collimation d'une source de 252Cf. Des applications directe dans les projets neutrinos en cours au DPhN sont attendues.
The student will be in charge of developing, through simulation and on-site testing, a 5 to 7 MeV gamma source based on the shielding and collimation of a 252Cf source. Direct applications in ongoing neutrino projects at the DPhN are expected.
Sujet détaillé/Full description
La compréhension de la réponse en énergie d’un détecteur est un facteur déterminant de la précision finale d’une mesure. Ce stage a pour objectif de développer un outil de calibration produisant des raies gamma dans la gamme de 5 à 7 MeV, nettement au-dessus des sources usuellement disponibles. Cet outil s'inscrira dans le développement d'une méthode de calibration innovante des détecteurs dédiés à la recherche de la matière noire et de la diffusion cohérente des neutrinos. Le travail de stage se fera en deux temps : la production d’un faisceau de neutrons thermiques à partir d’une source de 252Cf, la production et détection de gammas de haute énergie par capture de ces neutrons.

Les neutrons thermiques seront produits avec une source de neutrons de fission (252Cf) et un ensemble modérateur/blindage à optimiser par le stagiaire. Cet ensemble servira à : 1/ Thermaliser les neutrons émis par le 252Cf, c’est-à-dire réduire leur l’énergie initiale (de l’ordre du MeV) jusqu’à une énergie correspondant à l’agitation thermique du milieu ambiant (25 meV à 20°C). 2/ Absorber la majorité des rayons gamma prompts de fission afin de réduire le taux de comptage dans le détecteur que l’on veut calibrer. 3/ Conduire les neutrons thermalisés sur une cible métallique dédiée afin d’induire des captures qui produisent les gamma de haute énergie recherchés par désexcitation radiative.
Le(a) stagiaire aura en charge les études de simulation avec le logiciel GEANT4 permettant de définir la géométrie et les matériaux de l’ensemble modérateur/blindage à placer autour de la source de 252Cf. Des tests de validation seront menés sur site avec la réalisation et la mise en place de la configuration définie par le stagiaire. La validation de l’émission de gamma de haute énergie et la détermination du niveau de bruit de fond seront effectués avec un détecteur germanium ou un scintillateur inorganique.
L’environnement software de la simulation existe déjà et ne requiert pas de compétence poussée en informatique. L’analyse des résultats de ces simulations sera faite avec le logiciel ROOT ( https://root.cern ) qui sera aussi utilisé pour l’analyse des mesures. L’étudiant(e) pourra être force de propositions, tester ses propres idées et il (elle) aura un aperçu complet d’un travail de développement expérimental.
A terme cet outil de calibration aura des applications directes sur plusieurs programmes expérimentaux du département, notamment en physique des neutrinos avec la calibration de liquide et plastiques scintillants à haute énergie ainsi que la calibration de bolomètres pour la diffusion cohérente de neutrinos sur les noyaux. Le stage se déroulera en étroite collaboration avec le département de physique des particules de Saclay et en lien avec les collaborations franco-allemandes des expériences STEREO et NUCLEUS.
Understanding the energy response of a detector is crucial for the final accuracy of a measurement. The objective of this internship is to develop a calibration tool producing gamma lines in the range of 5 to 7 MeV, well above the commonly available sources. This tool will be part of the development of an innovative calibration method for future detectors dedicated to the search for dark matter and coherent neutrino scattering. The internship work will be done in two stages: the production of a beam of thermal neutrons from a 252Cf source, the production and detection of high-energy gammas by capturing these neutrons.

The thermal neutrons will be produced with a fission neutron source (252Cf) and a moderator/shielding assembly to be optimized by the student. This assembly will be used to : 1/ Thermalize the neutrons emitted by the 252Cf, i.e. reduce their initial energy (of the order of MeV) to an energy corresponding to the ambiant thermal agitation (25 meV at 20°C). 2/ Absorb the majority of the fission prompt gamma rays in order to reduce the counting rate in the detector to be calibrated. 3/ Conducting the thermalized neutrons on a dedicated metallic target in order to induce captures that produce the desired high-energy gamma rays by radiative de-excitation.

The(a) student will be in charge of the simulation studies with the GEANT4 software allowing to define the geometry and materials of the moderator/shielding assembly to be placed around the 252Cf source. Validation tests can then be carried out on site with the realization and implementation of the simulated configuration. The validation of the high energy gamma emission and the determination of the background level will be carried out with a germanium detector or an inorganic scintillator.
The software environment for the simulation already exists and does not require advanced computer skills. The analysis of the results of these simulations will be done with the ROOT software ( https://root.cern ) which will also be used for the analysis of the measurements. The student will be able to propose and test his/her own ideas and will have a complete overview of experimental development work.
Eventually this calibration tool will have direct applications on several of the department's experimental programs, notably in neutrino physics with the calibration of liquid and plastic scintillators at high energy as well as the calibration of bolometers for the coherent diffusion of neutrinos on nuclei. The internship will take place in close collaboration with the Particle Physics Department of Saclay and in connection with the French-German collaborations of the STEREO and NUCLEUS experiments.
Mots clés/Keywords
neutronique, physique nucléaire, physique des particules
neutron physics, nuclear physics, particle physics
Compétences/Skills
Optimisation de transport neutrons Analyses statistiques Déconvolution de spectres gamma
Optimisation of neutron propagation Statistical analyses Unfolding of gamma spectra
Logiciels
Langage C++ Logiciels ROOT, GEANT4
PDF
Étude du bruit de fond induits par les muons pour la mesure de la diffusion cohérente de neutrinos par l’expérience NUCLEUS.
Study of the muon-induced background for the measurement of coherent neutrino scattering by the NUCLEUS experiment.

Spécialité

Physique nucléaire

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

05/04/2021

Durée

3 mois

Poursuite possible en thèse

oui

Contact

LHUILLIER David
+33 1 69 08 94 97

Résumé/Summary
Ce stage propose le montage et le test sur site du véto-muon de l'expérience NUCLEUS (diffusion cohérente neutrino-noyau) ainsi qu'un travail de simulation des événements rares de bruit de fond non rejetés par ce véto.
This internship proposes the assembly and on-site testing of the veto-muon of the NUCLEUS experiment (neutrino coherent scattering off nuclei) as well as a work of simulation of the rare background events not rejected by this veto.
Sujet détaillé/Full description
L’expérience NUCLEUS a pour objectif de réaliser la première détection de la diffusion cohérente des neutrinos de réacteur sur les noyaux atomiques. La section efficace d’interaction de ce processus est des ordres de grandeurs plus grande que celle de la désintégration béta-inverse utilisée jusqu’à présent par toutes les expériences. La première mesure, réalisée avec interaction se réduit à un infime recul d’un noyau. Dans le cas de NUCLEUS la gamme d’énergie des reculs recherchés est autour de 100 eV seulement mais les bolomètres de saphir et de CaW04 qui seront utilisés atteignent aujourd’hui des seuils de détection de 20 eV. L’installation de l’expérience aura lieu en 2022 à 100 m des deux cœurs de la centrale EDF de Chooz dans les Ardennes. La mesure précise de ce couplage encore inexploré des neutrinos avec la matière offre des perspectives uniques de recherche d’une nouvelle physique au-delà du modèle standard.
Les performances intrinsèques des bolomètres étant déjà démontrées, un des principaux challenges de la mesure sera de des neutrinos de plus haute énergie issus d’un faisceau accéléré, ne date pourtant que de 2017 car la signature de cette rejeter les bruits de fond à un niveau nettement en-dessous du faible taux de comptage neutrino attendu, de l’ordre de 1/jour pour la première phase de NUCLEUS avec 10g de cible. Notre institut est en charge du véto muon de l’expérience, un blindage actif autour du détecteur central qui doit signer le passage à proximité du détecteur des rayons cosmiques, principale source de bruit de fond. La période du stage correspondra à la réception sur site des modules du véto-muon, constitués de panneaux de plastique scintillant dont le signal lumineux est extrait par des fibres optiques connectées à des Silicon-Photomultipliers (SiPM). L’étudiant(e) participera à l’ensemble de la préparation du détecteur avant son envoi prévu en Allemagne pour un montage à blanc complet de l’expérience à l’automne 2021. Le travail comprendra le montage des modules, la validation de l’électronique de traitement du signal qui aura été développée à l’IRFU, la calibration des SiPM et la validation de la réponse aux rayons cosmiques. Une chaîne complète d’analyse sera mise en place pour assurer un suivi automatique des performances des modules de détection lors des prises de données.
La sensibilité de la mesure NUCLEUS dépendra en grande partie du bruit de fond résiduel non vu par le véto-muon. Un important travail de simulation est donc mené en parallèle pour traquer les processus rares déjouant les techniques de réjection prévues. La méthode de réduction de variance récemment développée à l’IRFU sera incorporée dans la simulation GEANT4 de NUCLEUS par un effort conjoint du DPhN et du DPhP. Cette technique de biaisage pourra être appliquée dans le cadre de ce stage à l’étude des neutrons rapides générés par les rayons cosmiques dans les structures du bâtiment EDF où aura lieu l’expérience. La fraction de ces neutrons atteignant le bolomètre sans être détectés dans les blindages actifs est très difficile à estimer sans un biaisage efficace. Ce type de bruit de fond étant commun à un large programme expérimental de mesures neutrino ou de recherche de matière noire, l’impact de ce type de développement est potentiellement fort.
Ce travail offre une large vision des différents aspects expérimentaux d’une mesure neutrino. Il se fera en étroite collaboration avec le département de physique des particules (IRFU-DPhP) dans le cadre de la collaboration internationale de NUCLEUS. Des aptitudes pour la programmation sont préférables mais non obligatoires. Une thèse est proposée dans la continuité de ce stage sur l’expérience NUCLEUS.
The objective of the NUCLEUS experiment is to carry out the first detection of the coherent diffusion of reactor neutrinos on nuclei. The effective cross-section of interaction of this process is orders of magnitude larger than the beta-inverse decay used by all experiments so far. However the first measurement, carried out with higher energy neutrinos from an accelerated beam, dates only from 2017 only because the signature of this interaction is reduced to a tiny recoil of a nucleus. In the case of NUCLEUS, the energy range of the desired recoil is only around 100 eV, but the sapphire and CaW04 bolometers that will be used currently reach detection thresholds of 20 eV. The installation of the experiment will take place in 2022 at 100 m from the two cores of the EDF power plant of Chooz in the Ardennes. The precise measurement of this as yet unexplored coupling of neutrinos with matter offers unique prospects for the search for new physics beyond the standard model.
As the intrinsic performance of the bolometers has already been demonstrated, one of the main remaining challenges of the measurement will be to reject the background level well below the expected low neutrino counting rate, of the order of 1/day for the first phase of NUCLEUS with 10g of target. Our institute is in charge of the muon veto of the experiment. This active shielding placed around the central detector is meant to tag the cosmic-rays, the main source of background. The internship period will correspond to the on-site reception of the muon-veto modules, made of plastic scintillator panels whose light signal is extracted by optical fibers connected to Silicon-Photomultipliers (SiPM). The student will participate in the entire preparation of the detector before it is shipped to Germany for a dress rehearsal of the experiment in the fall of 2021. The work will include the assembly of the modules, the validation of the signal processing electronics that will have been developed at the IRFU, the calibration of the SiPMs and the validation of the cosmic ray response. A complete analysis chain will be set up to ensure automatic monitoring of the performance of the detection modules during data acquisition.
The sensitivity of the NUCLEUS measurement will largely depend on the residual background noise not seen by the muon veto. An important simulation work is therefore carried out in parallel to track down rare processes that thwart the planned rejection techniques. The variance reduction method recently developed at IRFU will be incorporated into the GEANT4 simulation of NUCLEUS by a joint effort of DPhN and DPhP. This biasing technique could be applied in the framework of this training course to the study of fast neutrons generated by cosmic rays in the structures of the EDF building where the experiment will take place. The fraction of these neutrons reaching the bolometer without being detected in the active shielding is very difficult to estimate without effective biasing. As this type of background is common to a large experimental program of neutrino measurements and searches for dark matter, the impact of this type of development is potentially strong.
This work offers a broad view of the different experimental aspects of a neutrino measurement. It will be done in close collaboration with the Department of Particle Physics (IRFU-DPhP) in the framework of the international collaboration of NUCLEUS. Programming skills are preferred but not mandatory.
A thesis is proposed on the NUCLEUS experiment as a continuation of this internship.
Mots clés/Keywords
neutrino, physique nucléaire, physique des particules, simulation
neutrino, nuclear physics, particle physics, simulation
Compétences/Skills
Détection par plastiques scintillants couplés à des fibres optiques. Calibration et suivi en temps de la réponses de SiPMs. Techniques de réduction de variance pour la simulation d'événements rares.
Detection in plastic scintillators coupled with optical fibers. Calibration and monitoring of SiPMs response. Variance reduction techniques for the simulation of rare events.
Logiciels
C++ GEANT4 root
PDF
Extraction conjointe du bruit de confusion et des binaires galactiques résolues à partir des signaux gravitationnels de l'interféromètre LISA
Joint extraction of confusion noise and resolved galactic binaries from the gravitational signals of the LISA interferometer

Spécialité

Mathématiques appliquées

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

28/02/2021

Durée

6 mois

Poursuite possible en thèse

oui

Contact

MOUTARDE Herve
+33 1 69 08 73 88

Résumé/Summary
Ce travail de stage porte sur l'analyse et le traitement de données pour l'extraction fiable et robuste du signal gravitationnel émis par les systèmes binaires galactiques, tant ceux pouvant être identifiés de manière individuelle que le bruit de confusion constitué des systèmes ne pouvant être résolus.
This internship work focuses on the analysis and processing of data for the reliable and robust extraction of the gravitational signal emitted by galactic binary systems, both those that can be individually identified and the confusion noise constituted by systems that cannot be resolved.
Sujet détaillé/Full description
A la suite des premières détections directes d'ondes gravitationnelles en 2015 par les interféromètres au sol LIGO et VIRGO, une nouvelle fenêtre d'observation de notre Univers s'est ouverte, ouvrant la voie à la mission spatiale LISA (Laser Interferometer Space Antenna). Cet observatoire spatial, dont le lancement est prévu en 2034, permettra la détection directe d’ondes gravitationnelles indétectables par les interféromètres terrestres.

A la différence des observatoires au sol, sensibles à de rares signaux d’ondes gravitationnelles et soumis à un bruit de mesure dominant, l'interféromètre spatial LISA devrait pouvoir observer un grand nombre de signaux distincts. Les estimations actuelles des quantités et types de source prévoient entre autres 60 millions de systèmes binaires galactiques émettant de manière continue, 10 à 100 signaux annuels provenant de trous noirs supermassifs, et de 10 à 1000 signaux annuels issus de systèmes binaires avec des rapports de masses très élevés.

Un des objectifs scientifiques de LISA est l’étude de la formation et de l’évolution des systèmes binaires galactiques : des naines blanches, mais aussi des étoiles à neutrons ou des trous noirs d’origine stellaires. Plusieurs systèmes binaires dits « de vérification » sont déjà identifiés comme sources d’ondes gravitationnelles détectables par LISA, et ce nombre devrait augmenter de manière significative grâce aux mesures collectées par le satellite Gaia et le télescope LSST.

LISA devrait permettre la caractérisation d’environ 25000 systèmes binaires galactiques. Les nombreux autres systèmes échappant à une détection individuelle formeront un fond stochastique, ou bruit de confusion. L'un des défis de l'analyse des données du futur observatoire LISA est la séparation entre signaux issus de systèmes binaires identifiables individuellement et bruit de confusion.

Ainsi, ce travail de stage porte sur l'analyse et le traitement de données pour l'extraction fiable et robuste du signal gravitationnel émis par les systèmes binaires galactiques, tant ceux pouvant être identifiés de manière individuelle que le bruit de confusion constitué des systèmes ne pouvant être résolus. Jusqu'à présent [1,2], les méthodes d'analyse actuelles se fondent essentiellement sur l'estimation des signaux issues de binaires détectables à partir de données bruitées. La restauration de ces binaires conjointement avec le bruit confusion sera l'objet précis de ce stage. A cette fin, les problèmes auxquels nous nous attaquerons seront:
* La modélisation statistique du bruit de confusion constitué des signaux gravitationnels issus des binaires non résolues.
* Le développement d'une méthode d'analyse conjointe pour l'intégralité des signaux issus de systèmes binaires galactiques, permettant de discriminer signaux provenant de binaires détectables individuellement, non résolues et bruit instrumental. Ce travail se fera en deux étapes: i) la modélisation statistique du bruit de confusion puis ii) l'extension de l'algorithme d'estimation des binaires galactiques [1] pour la prise en compte de cette source de bruit supplémentaire.
* L'évaluation sur des simulations réalistes du futur observatoire LISA.
* La prise en compte de données incomplètes, dues aux périodes d’interruption dans l’acquisition des données (maintenance, instabilités de sous-systèmes, etc.).
Ce travail reposera sur l'application de méthodes statistiques pour l'analyse des données, et sur la représentation parcimonieuse des signaux. Cette dernière permet d'exploiter les différences de formes ou de morphologie entre ces signaux, le bruit de confusion et le bruit instrumental pour la résolution de problèmes inverses.

Ce sujet comporte une dominante de traitement du signal et de programmation soignée; le candidat recherché doit avoir de solides connaissances en statistiques et en traitement du signal.

Le stage se fera au sein des l'Institut de Recherche sur le lois Fondamentales de l'Univers (IRFU), sur une thématique à l'interface entre l'analyse statistique de données et la physique des ondes gravitationnelles.

Contacts : Jérôme BOBIN jerome.bobin@cea.fr ou Hervé MOUTARDE herve.moutarde@cea.fr

Références :
[1] A.Blelly, J.Bobin, H.Moutarde, "Sparsity Based Recovery of Galactic Binaries Gravitational Waves", Phys. Rev. D, en cours de publication, 2020.
[2] T.B.Littenberg, "A detection pipeline for galactic binaries in LISA data", Phys.Rev.D, 84, 063009, (2011).
Following the first direct detections of gravitational waves in 2015 by the LIGO and VIRGO ground interferometers, a new window of observation of our Universe has opened, paving the way for the LISA (Laser Interferometer Space Antenna) space mission. This space observatory, scheduled for launch in 2034, will allow the direct detection of gravitational waves undetectable by ground-based interferometers.

Unlike ground-based observatories, which are sensitive to rare gravitational wave signals and subject to dominant measurement noise, the LISA space interferometer should be able to observe a large number of distinct signals. Current estimates of source quantities and types include 60 million continuously emitting galactic binary systems, 10 to 100 annual signals from supermassive black holes, and 10 to 1000 annual signals from binary systems with very high mass ratios.

One of the scientific objectives of LISA is the study of the formation and evolution of galactic binary systems: white dwarfs, but also neutron stars or black holes of stellar origin. Several so-called "verification" binary systems are already identified as sources of gravitational waves detectable by LISA, and this number should increase significantly thanks to the measurements collected by the Gaia satellite and the LSST telescope.

LISA should allow the characterization of about 25,000 galactic binary systems. The many other systems escaping individual detection will form a stochastic background, or confusion noise. One of the challenges of analyzing the data from the future LISA observatory is the separation between signals from individually identifiable binary systems and confusion noise.

Thus, this internship work focuses on the analysis and processing of data for the reliable and robust extraction of the gravitational signal emitted by galactic binary systems, both those that can be individually identified and the confusion noise constituted by systems that cannot be resolved. So far [1,2], current analysis methods are mainly based on the estimation of detectable binary signals from noisy data. The restoration of these binaries together with the confusing noise will be the precise object of this course. To this end, the problems we will tackle will be:
* The statistical modeling of the confusion noise consisting of the gravitational signals from the unresolved binaries.
* The development of a joint analysis method for the totality of signals from galactic binary systems, allowing to discriminate signals from individually detectable, unsolved binaries and instrumental noise. This work will be done in two steps: i) statistical modeling of the confusion noise and ii) extension of the galactic binary estimation algorithm [1] to take into account this additional noise source.
* The evaluation on realistic simulations of the future LISA observatory.
* The taking into account of incomplete data, due to periods of interruption in data acquisition (maintenance, subsystem instabilities, etc.).
This work will be based on the application of statistical methods for data analysis, and on the sparse representation of signals. The latter allows to exploit the differences in shape or morphology between these signals, confusion noise and instrumental noise for the resolution of inverse problems.

This subject has a strong emphasis on signal processing and careful programming; the candidate must have a strong knowledge of statistics and signal processing.

The internship will take place at the Institut de Recherche sur le Lois Fondamentales de l'Univers (IRFU), on a theme at the interface between statistical data analysis and gravitational wave physics.

Contacts : Jérôme BOBIN jerome.bobin@cea.fr or Hervé MOUTARDE herve.moutarde@cea.fr

References :
[1] A.Blelly, J.Bobin, H.Moutarde, "Sparsity Based Recovery of Galactic Binaries Gravitational Waves", Phys. Rev. D, in publication, 2020.
[2] T.B.Littenberg, "A detection pipeline for galactic binaries in LISA data", Phys.Rev.D, 84, 063009, (2011).
Mots clés/Keywords
Statistique, ondes gravitationnelles, représentations parcimonieuses
Statistics, gravitational waves, sparse representations
Logiciels
Python
PDF
Fonctions d'onde du cône de lumière et structure 3D du nucléon
Lightfront Wave Functions studies of the 3D structure of the nucleon

Spécialité

Physique théorique, mécanique quantique

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

09/05/2021

Durée

3 mois

Poursuite possible en thèse

oui

Contact

MEZRAG Cédric
+33 1 69 08 87 19

Résumé/Summary
Le but du stage est de comprendre comment est-ce que les fonctions d'onde de valence du nucléon (i.e. décrivant un nucléon composé de trois quarks habillés) génèrent la densité de présence 3D de quarks à l'intérieur du nucléon.
The aim of the intership is to understand how the nucleon's valence wave functions (i.e. describing a nucleon composed of three dressed quarks) generate the 3D presence density of quarks inside the nucleon.
Sujet détaillé/Full description
L'étude expérimentale et théorique de la structure du nucléon en termes de ses composants élémentaires, les quarks et les gluons, est un axe de recherche au cœur des programmes expérimentaux actuellement menés au Jefferson Lab (États-Unis) ou au CERN. C'est l'une des justifications majeures de la construction d'un futur collisionneur électron-ion (EIC). Ce thème, au confluent de la relativité spéciale et de la mécanique quantique, bénéficie d'un cadre théorique bien établi (la Chromo-Dynamique Quantique, QCD), et de perspectives expérimentales bien définies. Les distributions généralisées des partons (GPDs) offrent une nouvelle perspective sur le nucléon : elles donnent accès, pour la première fois, à des informations tridimensionnelles complémentaires sur la structure du nucléon.
Outre la structure tridimensionnelle du nucléon, les GPDs encodent des informations supplémentaires, particulièrement pertinentes pour notre compréhension du nucléon. Elles sont par exemple liées au tenseur énergie-momentum, ce qui nous permet d'extraire la décomposition du spin du nucléon en termes de spins et de moment angulaire orbital de ses constituants, et également de calculer une carte 3D de la distribution de masse et de la distribution de charge. Les mécanismes à l'origine de ces propriétés émergentes du nucléon sont encore pour la plupart inconnus et sont activement explorés tant sur le plan théorique qu'expérimental.
Les GPDs sont accessibles grâce à certains processus exclusifs (toutes les particules à l'état final sont détectées) tels que la diffusion Compton profondément virtuelle (DVCS) ou la production de méson profondément virtuelle (DVMP). En fait, la mesure de ces processus pour accéder aux GPD constitue une part importante des motivations scientifiques des installations expérimentales actuelles (Jefferson Lab, COMPASS@CERN...) et futures (collisionneur électron-ion américain). Cependant, en raison de la nature complexe des systèmes liés de QCD, aucun calcul ab initio n'a encore été effectué, ce qui empêche toute compréhension de la dynamique sous-jacente générant la structure 3D du nucléon. Un pont entre nos connaissances fondamentales de l'interaction des quarks et des gluons et la structure 3D des hadrons reste à construire.

Le stagiaire se concentrera sur la description des GPDs à l'aide des fonctions d'onde de front de lumière (LFWFs). Dans la théorie quantique des champs, les LFWFs jouent le même rôle que la fonction d'onde de Schrödinger en mécanique quantique non relativiste. Chaque LFWFs a la particularité de décrire une fluctuation spécifique du nucléon en termes de nombre de constituants et de nombres quantiques. Dans le cas présent, nous nous concentrerons sur le plus petit nombre possible de constituants, c'est-à-dire trois quarks. Les LFWFs décrivant les états à trois quarks sont appelés LFWFs de valence. Elles sont au nombre de six et portent des quantités variables de moment angulaire orbital. Une telle approximation devrait être bonne dans le domaine cinématique de "valence", où les quarks transportent environ 1/3 du moment cinétique du proton.
Les objectifs du stage sont les suivants :
1. comprendre comment les LFWFs de valence contribuent aux GPDs et, à travers eux, à la structure 3D des hadrons ;
2. évaluer l'impact de chacun d'eux, en utilisant un modèle algébrique simple.
En cas de succès, ces premières études permettront au candidat d'entamer un doctorat à l'automne 2021, avec déjà suffisamment de matériel scientifique pour produire un article.
The experimental and theoretical study of the structure of the nucleon in terms of its elementary components, quarks and gluons, is a research focus at the heart of experimental programs currently being conducted at Jefferson Lab (US) or CERN. This is one of the major justifications for the construction of a future electron-ion collider (EIC). This theme, at the confluence of special relativity and quantum mechanics, benefits from a well-established theoretical framework (Quantum Chromo-Dynamics, QCD), and well-defined experimental perspectives. Generalized parton distributions (GPD) offer a new perspective on the nucleon: they provide access, for the first time, to complementary three-dimensional information on the nucleon structure.
On top of the 3D structure of the nucleon, GPDs encode additional pieces of information, particularly relevant for our understanding of the nucleon. They are for instance related to the energy-momentum tensor, allowing us to extract the decomposition of the nucleon spin in terms of the spins and orbital angular momentum of its constituents, and also to compute a 3D map of the mass distribution and of the charge distribution. The mechanisms behind these emergent properties of the nucleon are still mostly unknown and are actively explored both theoretically and experimentally.
GPDs are accessible through certain exclusive processes (all particles in the final state are detected) such as deeply virtual Compton scattering (DVCS) or deeply virtual meson production (DVMP). In fact, measuring these processes to access GPDs is a significant part of the physics case of current (Jefferson Lab, COMPASS@CERN…) and future (US electron-ion collider) experimental facilities. However, because of the complex nature of QCD-bounded systems, no ab-initio computation has been performed yet, precluding any understanding of the underlying dynamics generating the 3D structure of the nucleon. A bridge between our basic ideas of quarks and gluons interaction and the 3D structure of hadron remains to be built.

The internee will focus on the description of the GPDs using the so-called lightfront wave functions (LFWFs). In quantum field theory, the LFWFs plays the same role than the Schrödinger wave function in non-relativistic quantum mechanics. Each LFWF has the specificity to describe one specific fluctuation of the nucleon in terms of number of constituents and quantum numbers. In the present case, we will focus on the lowest possible number of constituents, i.e. three quarks. The LFWFs describing the three-quarks states are called the valence LFWFs. They are six of them, carrying various amount of orbital angular momentum. Such an approximation is expected to be good in the “valence” kinematical domain, where quarks carry roughly 1/3 of the proton momentum.
The goals of the internship are:
1. understanding how the valence LFWFs contributes to the GPDs, and through them to the 3D structure of hadrons;
2. assessing the impact of each of them, using a simple algebraic model.
If successful, these first studies will allow the candidate to start a Ph.D. in autumn 2021, with already sufficient scientific material to produce a paper.
Mots clés/Keywords
Physique hadronique, QCD
Hadron Physics, QCD
Compétences/Skills
Théorie quantique des champs, chromodynamique quantique, recouvrement de fonction d'ondes, outils numériques.
Quantum field theory, Quantumchromodynamics, overlap of wave functions, numerical tools.
Logiciels
Mathematica, C++
PDF
Hyper optimisation des réseaux de neurones paramétrant les fonctions de fragmentation
Hyper optimisation of neural networks parameterising fragmentation functions

Spécialité

Physique théorique, mécanique quantique

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

01/06/2021

Durée

4 mois

Poursuite possible en thèse

oui

Contact

BERTONE Valerio
+33 1 69 08 87 19

Résumé/Summary
Le projet consiste à développer un réseau neuronal artificiel qui sera affiné afin d'extraire les propriétés des hadrons, comme par exemple les fonctions de fragmentation, à partir des données disponibles de collisions lepton-proton.
The project consists in developing an artificial neural network that will be tuned to extract hadron properties like fragmentation functions from available lepton-proton collision data.
Sujet détaillé/Full description
L'un des principaux défis de la physique théorique des particules est la compréhension quantitative de la structure des hadrons. Actuellement, il est largement admis que la chromodynamique quantique (QCD) est la théorie qui décrit le mieux les hadrons et leurs interactions. Les éléments constitutifs de la QCD, les quarks et les gluons, sont considérés comme responsables de la plupart des propriétés de base des hadrons telles que la masse, la charge, le spin, etc. Par conséquent, il est crucial pour une compréhension complète de la structure des hadrons d'avoir une image claire de la distribution des quarks et des gluons à l'intérieur des hadrons. Malheureusement, cette tâche est compliquée par le fait que la QCD est fortement couplée à des énergies pertinentes pour l'étude de la structure des hadrons, ce qui empêche l'utilisation de la théorie des perturbations. Malgré le développement d'outils théoriques permettant en principe de calculer ces distributions à partir des principes de base, à l'heure actuelle, la manière la plus précise de les déterminer repose sur des ajustements aux données expérimentales.
Plus précisément, la distribution des quarks et des gluons à l'intérieur des hadrons est paramétrée et déterminée par comparaison avec les données expérimentales. Il est donc important de minimiser autant que possible tout biais découlant de la forme paramétrique particulière choisie pour ajuster les données. À cet égard, les réseaux de neurones artificiels (ANN) [1], grâce à leur flexibilité, constituent un outil puissant pour une détermination fidèle de la structure hadronique. Une des plus importantes incarnations des distributions mentionnées ci-dessus est représentée par les fonctions de fragmentation (FF) qui décrivent comment les quarks et les gluons se transforment en hadrons (hadronisation). Les FF sont pertinentes dans les collisions à haute énergie dans lesquelles un quark ou un gluon de l'hadron cible interagit avec une sonde externe et, en raison du confinement, le quark ou le gluon sortant "hadronise" et l'hadron résultant est détecté à l'état final.
Le sujet du présent projet de stage est l'étude des FF des hadrons légers (principalement des pions et des kaons) et leur détermination à partir des ajustements aux données expérimentales en utilisant les ANN comme paramétrage flexible. Il est important de noter que l'extrême flexibilité des ANN les rend particulièrement difficiles à manipuler et qu'un choix minutieux de leur architecture est crucial pour rentabiliser leur application à cette tâche. En général, dans de nombreuses applications, le choix éclairé des paramètres pertinents d'un cadre impliquant des ANN, souvent appelé hyper-optimisation, est un aspect important qui influence fortement la qualité du résultat. C'est également le cas dans ce contexte et l'hyper-optimisation d'un cadre qui utilise les ANN pour déterminer les FF à partir des ajustements aux données est la tâche à laquelle le candidat sera confronté.

Le candidat du présent projet de stage participera à la détermination des FF à l'aide d'ANN via un ajustement avec diverses données expérimentales. Le but principal de ce projet spécifique est l'hyper-optimisation de l'ANN utilisé pour cette tâche dans le but d'identifier l'architecture optimale pour une extraction fidèle des FF. Deux étapes principales sont envisagées :

1. Dans la première étape préparatoire, le candidat se familiarisera avec le cadre scientifique. Au cours de cette phase, le candidat apprendra à obtenir et à interpréter les résultats d'ANN.
2. Sur la base des connaissances acquises lors de la première étape, le candidat sera en mesure d'ajuster les paramètres pertinents du problème (architecture ANN, fonctions d'activation, taux d'apprentissage, etc.) afin d'obtenir une configuration optimale qui permettra une détermination fidèle des FF.

Si elle est couronnée de succès, cette étude permettra de rationaliser considérablement la détermination des FF à partir de données expérimentales utilisant des ANN et ouvrira la voie à des applications de la même technologie pour déterminer d'autres quantités intéressantes pertinentes pour une compréhension plus approfondie de la structure hadronique.

Bibliographie:

[1] R. Abdul Khalek and V. Bertone, “On the derivatives of feed-forward neural networks”, arXiv:2005.07039.

[2] V. Bertone et al., “A determination of the fragmentation functions of pions, kaons, and protons with faithful uncertainties”, Eur.Phys.J.C 77 (2017) 8, 516.
One of the main challenges of theoretical particle physics is the quantitative understanding of the structure of hadrons. Currently, it is widely accepted that Quantum Chromodynamics (QCD) is the theory that best describes hadrons and their interactions. The building blocks of QCD, quarks and gluons, are believed to be responsible for most of the basic properties of hadrons such as: mass, charge, spin, etc.. Therefore, it is of crucial importance for a full understanding of the hadron structure to make a clear picture of the distribution of quarks and gluons inside the hadrons. Unfortunately, this task is complicated by the fact that QCD is strongly coupled at energies relevant for the study of the hadron structure, preventing the use of perturbation theory. Despite theoretical tools are being developed allowing in principle for the computation of these distributions from first principles, at present the most accurate way to determine them relies on fits to experimental data.
More specifically, the distribution of quarks and gluons inside the hadrons are parameterised and determined by comparison to experimental data. It is therefore important to minimise as much as possible any bias deriving from the particular parametric form chosen to fit the data. In this respect, artificial neural networks (ANN) [1], thanks to their flexibility, provide a powerful tool towards a faithful determination of the hadronic structure. One of the most important incarnations of the distributions mentioned above is represented by fragmentation functions (FFs) that describe how quarks and gluons turn into hadrons (hadronisation). FFs are relevant in high-energy collisions in which a quark or a gluon from the target hadron interacts with an external probe and, due to confinement, the outgoing quark or gluon “hadronises” and the resulting hadron is detected in the final state.
The subject of the present internship project is the study of the FFs of light hadrons (mostly pions and kaons) and their determination from fits to experimental data using ANNs as a flexible parameterisation. Importantly, the extreme flexibility of ANNs makes them particularly hard to handle and a careful choice of their architecture is crucial to make their application to this task profitable. Generally, in many applications the educated choice of the relevant parameters of a framework involving ANNs, often referred to as hyper-optimisation, is an important aspect that heavily influences the quality of the result. This is the case also in this context and the hyper-optimisation of a framework that employs ANNs to determine FFs from fits to data is the task that the candidate will be confronted with.

The candidate of the present internship project will be involved in the determination of light-hadron FFs from a fit to a variety of experimental data using ANNs. The main goal of this specific project is the hyper-optimisation of the ANN employed for this task with the aim of identifying the optimal architecture for a faithful extraction of FFs. Two main steps are envisioned:

1. In the first preparatory step, the candidate will be introduced to the framework. In this phase, the candidate will learn how to obtain and interpret the results.
2. Building upon the knowledge acquired in the first step, the candidate will be in the position to adjust the relevant parameters of the problem (ANN architecture, activation functions, learning rates, etc.) to achieve an optimal configuration that will allow for a faithful determination of FFs.

If successful, this study will significantly streamline the determination of FFs from experimental data using ANNs and pave the way to applications of the same technology to determine other interesting quantities relevant to a deeper understanding of the hadronic structure.

References

[1] R. Abdul Khalek and V. Bertone, “On the derivatives of feed-forward neural networks”, arXiv:2005.07039.

[2] V. Bertone et al., “A determination of the fragmentation functions of pions, kaons, and protons with faithful uncertainties”, Eur.Phys.J.C 77 (2017) 8, 516.
Mots clés/Keywords
Physique hadronique, QCD
Hadron Physics, QCD
Compétences/Skills
Une connaissance de base des techniques numériques est importante. Une connaissance pratique de C++ et de Python est nécessaire pour pouvoir utiliser le cadre de calcul. Une connaissance de base de la mécanique quantique et de la théorie quantique des champs est nécessaire pour comprendre le contexte scientifique, mais pas pour effectuer le travail numérique proprement dit.
Basic knowledge of numerical techniques is important. Working knowledge of C++ and Python is required to be able to use the computational framework. Basic knowledge of quantum mechanics and quantum field theory is instead needed to understand the scientific context, but not to perform the actual numerical work.
Logiciels
C++, Python
PDF
Identification rapide des paramètres des binaires galactiques à partir des signaux gravitationnels de l'interféromètre LISA
Rapid identification of galactic binary parameters from the gravitational signals of the LISA interferometer

Spécialité

Mathématiques appliquées

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

28/02/2021

Durée

6 mois

Poursuite possible en thèse

oui

Contact

MOUTARDE Herve
+33 1 69 08 73 88

Résumé/Summary
Le travail de stage porte sur le développement d'une méthode rapide pour l'identification d'un grand nombre de systèmes binaires galactiques.
The internship work focuses on the development of a rapid method for the identification of a large number of galactic binary systems.
Sujet détaillé/Full description
A la suite des premières détections directes d'ondes gravitationnelles en 2015 par les interféromètres au sol LIGO et VIRGO, une nouvelle fenêtre d'observation de notre Univers s'est ouverte, ouvrant la voie à la mission spatiale LISA (Laser Interferometer Space Antenna). Cet observatoire spatial, dont le lancement est prévu en 2034, permettra la détection directe d’ondes gravitationnelles indétectables par les interféromètres terrestres.

A la différence des observatoires au sol, sensibles à de rares signaux d’ondes gravitationnelles et soumis à un bruit de mesure dominant, l'interféromètre spatial LISA devrait pouvoir observer un grand nombre de signaux distincts. Les estimations actuelles des quantités et types de source prévoient entre autres 60 millions de systèmes binaires galactiques émettant de manière continue, 10 à 100 signaux annuels provenant de trous noirs supermassifs, et de 10 à 1000 signaux annuels issus de systèmes binaires avec des rapports de masses très élevés.

Un des objectifs scientifiques de LISA est l’étude de la formation et de l’évolution des systèmes binaires galactiques : des naines blanches, mais aussi des étoiles à neutrons ou des trous noirs d’origine stellaires.

LISA devrait permettre la caractérisation d’environ 25000 systèmes binaires galactiques. De plus, comme dans toute expérience, les données réelles seront soumises à un certain nombre de bruits et d’artefacts à prendre en compte pour optimiser le potentiel scientifique de la mission.

L'un des défis posés par l'analyse des données de la mission LISA sera l'identification rapide, robuste et fiable des quelques 25000 systèmes binaires attendus, pouvant être détectés de manière individuelle. Plus précisément, l'identification de chaque système binaire consiste en l'estimation des paramètres des modèles physiques décrivant la forme des signatures temporelles observées de tels systèmes. A cette fin, l'approche la plus classique est fondée sur l'utilisation de méthodes Markov Chain Monte Carlo (MCMC) pour l'estimation par maximum de vraisemblance de ces paramètres. Cependant, le traitement conjoint de milliers de binaires requiert l'estimation d'un grand nombre de paramètres, conduisant à un coût calculatoire très élevé, sans mentionner les problèmes de convergence des algorithmes MCMC en grande dimension. Ce problème devient d'une extrême complexité si l'on prend en compte le caractère incomplet des données lié aux périodes d'interruption dans l'acquisition des données.

Le travail de stage porte sur le développement d'une méthode rapide pour l'identification d'un grand nombre de systèmes binaires galactiques. A cette fin, les problèmes auxquels nous nous attaquerons seront:
* Le développement d'une méthode d'analyse fondée sur une approche en deux étapes: i) une étape de détection des systèmes binaires par modélisation parcimonieuse des données [1] et ii) une identification en parallèle des binaires préalablement détectées. Cette dernière étape sera construite sur une méthode MCMC.
* L'extension au cas de l'estimation de systèmes binaires dont les signatures harmoniques interfèrent (par exemple une forte corrélation entre les signaux observés pour différents systèmes binaires).
* L'évaluation sur des simulations réalistes du futur observatoire LISA.
* La prise en compte de données incomplètes, dues aux périodes d’interruption dans l’acquisition des données (maintenance, instabilités de sous-systèmes, etc.).
Ce travail reposera sur l'application de méthodes statistiques pour l'analyse des données et sur la représentation parcimonieuse des signaux. En particulier, il fera appel aux méthodes stochastiques d'échantillonnage (MCMC).

Ce sujet comporte une dominante de traitement du signal et de programmation soignée; le candidat recherché doit avoir de solides connaissances en statistiques et en traitement du signal.

Le stage se fera au sein des l'Institut de Recherche sur le lois Fondamentales de l'Univers (IRFU), sur une thématique à l'interface entre l'analyse statistique de données et la physique des ondes gravitationnelles.

Contacts : Jérôme BOBIN jerome.bobin@cea.fr ou Hervé MOUTARDE herve.moutarde@cea.fr

Références :
[1] A.Blelly, J.Bobin, H.Moutarde, "Sparsity Based Recovery of Galactic Binaries Gravitational Waves", Phys. Rev. D, en cours de publication, 2020.
[2] T.B.Littenberg, "A detection pipeline for galactic binaries in LISA data", Phys.Rev.D, 84, 063009, (2011).
Following the first direct detections of gravitational waves in 2015 by the LIGO and VIRGO ground interferometers, a new window of observation of our Universe has opened, paving the way for the LISA (Laser Interferometer Space Antenna) space mission. This space observatory, scheduled for launch in 2034, will allow the direct detection of gravitational waves undetectable by ground-based interferometers.

Unlike ground-based observatories, which are sensitive to rare gravitational wave signals and subject to dominant measurement noise, the LISA space interferometer should be able to observe a large number of distinct signals. Current estimates of source quantities and types include 60 million continuously emitting galactic binary systems, 10 to 100 annual signals from supermassive black holes, and 10 to 1000 annual signals from binary systems with very high mass ratios.

One of the scientific objectives of LISA is the study of the formation and evolution of galactic binary systems: white dwarfs, but also neutron stars or black holes of stellar origin.

LISA should allow the characterization of about 25000 galactic binary systems. In addition, as in any experiment, the real data will be subjected to a number of noise and artifacts that must be taken into account to optimize the scientific potential of the mission.

One of the challenges of analyzing the LISA mission data will be the rapid, robust and reliable identification of the expected 25,000 or so individually detectable binary systems. Specifically, the identification of each binary system consists of estimating the parameters of physical models describing the shape of the observed time signatures of such systems. For this purpose, the most classical approach is based on the use of Markov Chain Monte Carlo (MCMC) methods for the maximum likelihood estimation of these parameters. However, the joint processing of thousands of binaries requires the estimation of a large number of parameters, leading to a very high computational cost, not to mention the problems of convergence of MCMC algorithms in large dimensions. This problem becomes extremely complex if one takes into account the incomplete nature of the data due to the interruption periods in data acquisition.

The internship work focuses on the development of a rapid method for the identification of a large number of galactic binary systems. To this end, the problems to be addressed will be:
* The development of an analytical method based on a two-step approach: i) a step of detection of binary systems by parsimonious data modeling [1] and ii) a parallel identification of the previously detected binaries. This last step will be built on an MCMC method.
* The extension to the case of estimating binary systems whose harmonic signatures interfere (e.g. a strong correlation between the signals observed for different binary systems).
* The evaluation on realistic simulations of the future LISA observatory.
* The taking into account of incomplete data, due to periods of interruption in data acquisition (maintenance, subsystem instabilities, etc.).
This work will be based on the application of statistical methods for data analysis and on the sparse representation of signals. In particular, it will make use of stochastic sampling methods (MCMC).

This subject has a strong emphasis on signal processing and careful programming; the candidate must have a solid knowledge of statistics and signal processing.

The internship will take place at the Institut de Recherche sur le Lois Fondamentales de l'Univers (IRFU), on a theme at the interface between statistical data analysis and gravitational wave physics.

Contacts: Jérôme BOBIN jerome.bobin@cea.fr or Hervé MOUTARDE herve.moutarde@cea.fr

References:
[1] A.Blelly, J.Bobin, H.Moutarde, "Sparsity Based Recovery of Galactic Binaries Gravitational Waves", Phys. Rev. D, in publication, 2020.
[2] T.B.Littenberg, "A detection pipeline for galactic binaries in LISA data", Phys.Rev.D, 84, 063009, (2011).
Mots clés/Keywords
Statistique, méthodes MCMC, représentations parcimonieuses, ondes gravitationnelles
Statistics, MCMC methods, sparse representations, gravitational waves
Logiciels
Python
PDF
Mesure des performances de détecteurs Micromegas pour la chambre à projection temporelle de l'expérience PandaX-III
Performance measurement of Micromegas detectors for the time projection chamber of the PandaX-III experiment

Spécialité

Physique nucléaire

Niveau d'étude

Bac+4

Formation

Master 1

Unité d'accueil

Candidature avant le

18/06/2021

Durée

4 mois

Poursuite possible en thèse

non

Contact

NEYRET Damien
+33 1 69 08 75 52

Résumé/Summary
L'expérience PandaX-III recherche des désintégrations double-beta sans neutrino dans une TPC en Xénon 136 gazeux à 10 bars. Cette TPC utilise des détecteurs gazeux Micromegas Microbulk à grande radiopureté et très bonne résolution en énergie. Le stagiaire travaillera à l'étude des performances de ces détecteurs en comparaison avec d'autres type de Micromegas. Il ou elle travaillera aussi sur un prototype de TPC sans amplification gazeuse utilisant une électronique IDeF-X à très bas bruit qui pourrait atteindre de meilleures performances que les Micromegas.
The PandaX-III experiment search for neutrinoless double-beta decays in an high pressure (10 bar) gaseous 136-Xenon TPC. This TPC features Micromegas Microbulk gaseous detectors with an high radiopurity and a very good energy resolution. The student will study the performance of these detectors, with a comparison with other kinds of Micromegas detectors. He/she will also work on a small TPC prototype without gaseous amplification using a very low noise IDeF-X read-out electronics, which could reach better performances compared to Micromegas detectors.
Sujet détaillé/Full description
Ettore Majorana a montré que le neutrino, seule particule de matière de charge électrique nulle, pourrait être identique à son antiparticule. Si tel est le cas, alors un phénomène naturel nouveau devrait apparaître pour quelques rares isotopes comme le Xénon 136 : la désintégration double-beta sans émission de neutrinos. La violation de l’invariance du nombre leptonique qui en résulte, et qui est interdite par le Modèle Standard serait une découverte majeure. La collaboration PandaX-III propose de mesurer la cinématique d'événements de désintégration double-beta de noyaux de Xénon 136 dans un grand volume de Xénon gazeux à 10 bars, en les distinguant des différents bruits de fonds (double-beta classique, contamination d'autres noyaux radioactifs, rayons cosmiques). Cette expérience prendra place dans le laboratoire souterrain de Jinping (province du Sichuan, Chine) à partir de fin 2021 avec un premier module de 145 kg de Xénon, pour arriver progressivement à une masse de 1 tonne avec 5 modules au delà de 2022.

Afin de mesurer les événements de désintégration, le volume de Xénon gazeux formera une chambre à projection temporelle (Time Projection Chamber, TPC) dans laquelle les particules issues de la désintégration ionisent le gaz. La détection des électrons d'ionisation, qui dérivent sous l'effet d'un champ électrique, se fait par des détecteurs gazeux à micro-structure Micromegas indépendamment suivant les deux directions X et Y. La coordonnée Z qui indique la distance au plan de détection est mesurée par le temps de dérive des électrons. Plusieurs contraintes s'appliquent sur les détecteurs Micromegas de la TPC: Ils doivent atteindre une très bonne résolution relative en énergie, moins de 3% et jusqu'à 1%, afin de différentier les événements double-beta sans production de neutrinos (2,5 MeV) des double-beta classiques qui ont une énergie inférieure. Ils doivent aussi être constitués de matériaux de très faible radioactivité, afin de limiter la contribution des bruits de fonds gamma. Le choix de la collaboration PandaX-III s'est porté sur les Micromegas Microbulk, qui sont constitués d'une feuille de polyimide et de cuivre, matériaux de bonne radiopureté, et qui ont une excellente résolution en énergie. Ces détecteurs sont cependant délicats à mettre en œuvre. Plusieurs études sont en cours afin de mesurer et d'optimiser leurs performances, en essayant en particulier de traiter les défauts de détection qui peuvent apparaître (voies manquantes, courants de fuite, décharges sur certaines voies). Des R&D sont aussi en cours dans notre laboratoire afin de déterminer si d'autres types de détecteurs Micromegas bulk, plus robustes, pourraient atteindre des performances similaires aux Microbulks, ou si une détection directe des électrons d'ionisation sans amplification gazeuse et avec une électronique de lecture à très bas bruit pourrait remplacer les détecteurs Micromegas pour ce type d'application. Ces détecteurs pourraient alors être pris en compte pour le design des modules TPC qui suivront le premier.

Lors de son stage l'étudiant participera avec les physiciens de l'Irfu/DPhN du groupe PandaX-III ainsi qu'avec les ingénieurs de l'Irfu/Dedip aux études sur les détecteurs Microbulk et sur les détecteurs Micromegas bulk à haute résolution en énergie. Il participera aussi à la mise en œuvre d'un prototype d'une TPC avec lecture directe des électrons d'ionisation utilisant des chips de lecture IDeF-X à très bas bruit. Après avoir mesuré les performances de ces détecteurs grâce à des sources radioactives ainsi qu'avec des rayons cosmiques, il travaillera à l'analyse des données recueillies afin d'en déterminer le niveau de bruit de l'électronique, la résolution en énergie et l'homogénéité du gain des détecteurs, ainsi que leur résolution spatiale. Les résultats pourront être présentés à la collaboration PandaX-III qui est directement intéressée par ce travail, ainsi que devant d'autres groupes. Le travail proposé aura lieu au Département de Physique Nucléaire (DPhN) à l’Irfu au CEA de Saclay, ainsi que partiellement dans un laboratoire du Dedip de l'Irfu.

La Collaboration PandaX-III comprend 60 physiciens de 12 laboratoires en Chine, aux États-Unis, en Espagne et en France. Les physiciens du groupe PandaX-III du DPhN ont participé à l'analyse des données plusieurs expériences de physique nucléaire et de physique hadronique ces dernières années et ont une grande expérience des problématiques de reconstruction de traces dans des détecteurs gazeux. Ils ont aussi développé différents détecteurs Micromegas pour les expériences Compass et n_TOF.

Durée du stage prévue: 4 à 6 mois
Formation demandée: L3 ou M1
Mots clés/Keywords
Physique des particules, TPC, chambre à projection temporelle, détection gazeuse, détecteurs Micromegas, détecteurs Microbulks
Particle physics, TPC, time projection chamber, gaseous detection, Micromegas detectors, Microbulk detectors
Compétences/Skills
Analyses de données, analyse statistique, détecteurs gazeux Micromegas, électronique de lecture et prise de données, simulation Monte-Carlo
Data analysis, statistics, gaseous detectors, read-out electronics and data acquisition system, Monte-Carlo simulation
Logiciels
C++, ROOT, Garfield++, environnement REST
PDF
Mise à l'épreuve de l'interaction nucléaire aux limites de l'existence des noyaux
Testing nuclear interaction at the dripline

Spécialité

Physique nucléaire

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

30/05/2021

Durée

5 mois

Poursuite possible en thèse

oui

Contact

CORSI Anna
+33 1 69 08 7554

Résumé/Summary
Le stage portera sur l'analyse de données sur le noyaux très riche en neutrons 28F prises en 2015 auprès de l'accélérateur RIBF au Japon et plus précisément sur l'étude des correlations des neutrons émis dans sa décroissance. Ce travail peut déboucher sur une thèse.
The internship will focus on the analysis of data on the very neutron-rich 28F nucleus taken in 2015 at the RIBF accelerator in Japan and more precisely on the study of the correlations among its decay neutrons. This work can continue with a Thesis on the same subject.
Sujet détaillé/Full description
L'exploration des noyaux se trouvant à proximité de la limite d’existence des noyaux (appelée dripline) offre l’unique opportunité d’observer et d’étudier de nombreux phénomènes non prédits - ou insuffisamment - par la théorie tels que l’apparition de "halo" de neutrons ainsi que l’émergence de nouveaux nombres magiques et la disparition de ceux observés dans les noyaux proches de la stabilité.
Le sujet de stage proposé s’articule autour de l’étude de ces phénomènes émergents dans les noyaux exotiques et plus précisément dans le noyau très riche en neutrons 28F. Ce noyau a récemment fait l’objet d’une étude ayant permis de mettre en évidence de nombreux état non liés dont certains favorisant une décroissance via l’émission de deux neutrons. L’étude de la cinématique de la décroissance de ces états devrait révéler des informations importantes sur l’interaction neutron-neutron.
Ces travaux seront menées grâce à l’analyse de données issues d’expériences réalisées à RIKEN (Japon) et utilisant les dispositifs expérimentaux de pointe SAMURAI et MINOS (conçu et réalisé à l'IRFU) indispensables à l’étude de ces phénomènes.
The exploration of nuclei close to the dripline offers the unique opportunity to observe and study many phenomena not - or insufficiently - predicted by theory such as the appearance of neutron "halos" as well as the emergence of new magic numbers and the disappearance of those observed in nuclei close to stability.
The proposed internship topic is based on the study of these emerging phenomena in exotic nuclei and more precisely in the very neutron-rich 28F nucleus. This nucleus has recently been the subject of a study that has revealed numerous unbound states among which several ones decaying preferentially via the emission of two neutrons. The study of the kinematics of the decay of these states should reveal important information on the neutron-neutron interaction.
This work will be carried out through the analysis of data from experiments carried out in RIKEN (Japan) and using the advanced experimental devices SAMURAI and MINOS (designed and built at the IRFU) essential for the study of these phenomena.
Mots clés/Keywords
Interaction nucleaire, noyaux exotiques
Nuclear interaction, exotic nuclei
Compétences/Skills
Analyse de données à l'aide du logiciel Root
Data analysis with Root software
Logiciels
C++, Root
PDF
Optimisation par apprentissage du traitement de l’image appliqué à la radiographie neutronique.
Optimisation of neutronography image processing through machine learning

Spécialité

Neutronique

Niveau d'étude

Bac+4/5

Formation

Ingenieur/Master

Unité d'accueil

Candidature avant le

09/06/2021

Durée

2 mois

Poursuite possible en thèse

non

Contact

DROUART Antoine
+33 1 69 08 73 52

Résumé/Summary
De manière analogue aux rayons X, les neutrons sont utilisés pour radiographier des objets. Mais les images obtenues peuvent souffrir d'une résolution limitée. Ce stage propose d'appliquer des méthodes modernes de machine Learning au traitement des images, afin d'améliorer les caractéristiques des clichés.
Similar to X-rays, neutrons are used to radiograph objects. But the images can suffer from a limited resolution. This internship proposes to apply modern methods of machine Learning to image processing, in order to improve the characteristics of the images.
Sujet détaillé/Full description
La neutronographie, ou radiographie neutronique, consiste à réaliser une image 2D d’un objet traversé par un flux de neutrons en mesurant les différences d’absorption et de diffusion de ces particules lors de la traversée des matériaux. C’est un contrôle non-destructif et ces images possèdent des caractéristiques extrêmement intéressantes, très différentes de celles obtenus par radiographie X, du fait des propriétés de l’interaction neutron-matière. En effet, les neutrons, essentiellement sensibles à l’interaction nucléaire, sont affectés par les éléments chimiques légers (surtout hydrogène), présents notamment dans les matières organiques, alors que les éléments plus lourds, comme les métaux, leur sont transparents. Ils permettent d’imager des substances organiques à l’intérieur d’objets métalliques. Ainsi la neutronographie trouve-t-elle des applications uniques en science des matériaux, en ingénierie, en archéologie ou dans l’étude d’œuvres d’art.
Les installations pratiquant la neutronographie sont traditionnellement localisées auprès des réacteurs nucléaires de recherche, ceux-ci fournissant une source abondante de neutrons. Toutefois, ce type de réacteurs se fait de plus en plus rare, une grande partie d’entre eux arrivant en fin de vie. Ainsi le réacteur de recherche Orphée a-t-il fermé en octobre 2019, alors qu’il était la seule installation de neutronographie en France. De nouvelles sources alternatives sont en cours de développement, basées sur les neutrons émis lors de réactions nucléaires produites par un faisceau de particules (par exemple des protons) accélérées, comme le projet SONATE. Ces nouvelles installations ont l’avantage d’être moins chères et plus souples que les réacteurs nucléaires, mais fournissent des flux de neutrons moins élevés. Pour éviter des temps de mesures trop longs, il est nécessaire d’employer des technologies d’imagerie plus sensibles que les films argentiques traditionnellement utilisés. Une de ces technologies est « l’Image plate ». L’image plate est exposée au flux de neutrons, puis la radiographie est révélée et numérisée par un scanner laser. Les image plates ont la propriété d’être bien plus sensibles que les films argentiques, mais ont le désavantage d’avoir une moins bonne résolution spatiale intrinsèque (de l’ordre de 130µm, contre 90µm pour les films argentiques) et d’être plus sensibles aux bruits ambiants (gamma, neutrons rapides…). Mais on peut imaginer améliorer ces caractéristiques par un traitement de l’image adéquat.
Le travail de ce stage sera d’analyser des images d’objets produites par neutronographie, à la fois avec des films argentiques et des images plates. L’objectif est double : i) étudier les possibilités d’amélioration de ces dernières, et ii) travailler sur l’utilisation d’algorithmes adaptés au traitement rapide des images. Pour ce faire, le stagiaire utilisera des algorithmes modernes de traitement de l’image, qui seront utilisés pour la première fois dans ce domaine d’application. Ce travail pourra faire appel à des méthodes avancées de machine learning pour la reconstruction d’image, permettant potentiellement un gain de qualité de reconstruction ainsi qu’une analyse rapide. Les algorithmes pourront être appliqués à des modèles empiriques, mais aussi à des simulations réalistes du processus d’imagerie, de l’interaction avec le neutron jusqu’au scan laser.. L’objectif final sera d’évaluer la capacité des image plates à repérer des défauts caractéristiques dans les pièces étudiées.
Le stage se déroulera sur le site du CEA Saclay, pour une durée minimale de 2 mois.
Neutronography, or neutron radiography, consists of producing a 2D image of an object crossed by a neutron beam by measuring the differences in absorption and scattering of these particles as they pass through the materials. It is a non-destructive test and these images have extremely interesting characteristics, very different from those obtained by X-ray, due to the properties of neutron-matter interaction. Indeed, neutrons, which are essentially sensitive to the nuclear interaction, are affected by light chemical elements (especially hydrogen), which are present in particular in organic materials, whereas heavier elements, such as metals, are transparent to them. They allow the imaging of organic substances inside metallic objects. Neutronography thus finds unique applications in materials science, engineering, archaeology or the study of works of art.
Neutronography facilities are traditionally located at nuclear research reactors, which provide an abundant source of neutrons. However, this type of reactor is becoming increasingly rare, as a large proportion of them are reaching the end of their lives. For example, the Orphée research reactor was shut down in October 2019, when it was the only neutronography facility in France. New alternative sources are being developed, based on neutrons emitted during nuclear reactions produced by a beam of accelerated particles (e.g. protons), such as the SONATE project. These new facilities have the advantage of being cheaper and more flexible than nuclear reactors, but provide lower neutron fluxes. To avoid excessively long measurement times, it is necessary to use imaging technologies that are more sensitive than the silver films traditionally used. One of these technologies is the "image plate". The image plate is exposed to the neutron flux, then the radiograph is revealed and digitised by a laser scanner. Image plates have the property of being much more sensitive than silver films, but have the disadvantage of having a lower intrinsic spatial resolution (of the order of 130µm, compared to 90µm for silver films) and of being more sensitive to ambient noise (gamma, fast neutrons...). But one can imagine improving these characteristics through adequate image processing.
The work of the student will be to analyse the images of objects produced by neutronography, both with silver films and flat images. The aim is twofold: i) to study the possibilities of improving the latter, and ii) to work on the use of algorithms adapted to rapid image processing. To do this, the trainee will use modern image processing algorithms. This work may make use of advanced machine learning methods for image reconstruction, potentially allowing a gain in reconstruction quality as well as rapid analysis. The algorithms can be applied to empirical models, but also to realistic simulations of the imaging process, from interaction with the neutrons to laser scanning... The final objective will be to evaluate the ability of flat images to detect characteristic defects in the parts under study.
The internship takes place at the CEA Saclay, and will last at least 2 months.
Mots clés/Keywords
Traitement de l'image, machine learning
Image processing, machine learning
Compétences/Skills
Traitement du signal, traitement de l'image, simulations neutroniques
Signal processing, Image processing, neutron physics simulations
Logiciels
Français, English C++, Python Github
PDF
RECHERCHE DE LA DÉSINTÉGRATION NUCLÉAIRE EN DEUX PHOTONS
INVESTIGATION OF THE NUCLEAR TWO-PHOTON DECAY IN SWIFT FULLY STRIPPED HEAVY

Spécialité

Physique nucléaire

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

30/04/2021

Durée

3 mois

Poursuite possible en thèse

oui

Contact

KORTEN Wolfram
+33 1 69 08 42 72

Résumé/Summary
Ce stage concerne exclusivement les candidats qui sont intéressés par le même projet de thèse publié sur le site web de l'INSTN (voire lien externe c-dessous). Pendant le stage, le candidat commencera à travailler sur la bibliographie du sujet et la technique expérimentale.
This interim concerns exclusively candidats who are interested in the same thesis project published on the website of INSTN (see external link below). During the internship the candidate will start working on the bibliographie of the subject and the experimental technique.
Sujet détaillé/Full description
La désexcitation nucléaire en deux photons, c.à.d. la décroissance par émission de deux rayons gamma, est un mode de désexcitation rare du noyau atomique, au cours duquel un noyau excité émet deux rayons gamma simultanément pour revenir à l’état fondamental. Les noyaux pair-pair ayant un premier état excité 0+ sont des cas favorables pour rechercher la décroissance double gamma puisque l'émission d'un seul rayon gamma est strictement interdite pour les transitions 0+ -> 0+ par conservation du moment angulaire. Cette décroissance présente toujours un très petit rapport d’embranchement (<1E-4) en comparaison avec les autres modes de désexcitation possibles, soit par l'émission d'électrons de conversion interne (ICE) soit la création de paires positron-électron (e+-e-) (IPC). Nous utiliserons donc une nouvelle technique pour rechercher la décroissance double gamma: l’étude de la désexcitation d’un état isomérique 0+ de basse énergie dans les ions nus, c.-à-d. entièrement épluchés de leurs électrons atomiques. L'idée de base de l’expérience est de produire, sélectionner et stocker les noyaux dans leur état isomérique 0+ dans l’anneau de stockage de l’installation GSI en Allemagne. Lorsque le noyau est entouré du cortège électronique l'état 0+ excité est un état isomérique à durée de vie assez courte, de l'ordre de quelques dizaines à quelques centaines de nanosecondes. Toutefois, aux énergies relativistes disponibles à GSI, tous les ions sont entièrement épluchés de leurs électrons atomiques et la désexcitation par ICE n'est donc pas possible. Si l'état d'intérêt est situé en dessous du seuil de création de paires, le processus IPC n'est pas possible non plus. Par conséquent, les noyaux nus sont piégés dans un état isomérique de longue durée de vie, qui ne peut se désintégrer que par émission de deux rayons gamma vers l'état fondamental. La désexcitation de l'isomère serait identifiée par spectroscopie de masse Schottky (SMS) à résolution temporelle. Cette méthode permet de distinguer l'isomère de l'état fondamental par la (très légère) différence de leur temps de révolution dans l’ESR, et d'observer la disparition du pic de l'isomère dans le spectre de masse aveI un temps de décroissance caractéristique. L'expérience pour rechercher la décroissance double gamma dans les isotopes 72Ge and 70Se a été accepté par le comité d'expériences de GSI et son réalisation est prévu en 2021/22.
The nuclear two-photon, or double-gamma decay is a rare decay mode in atomic nuclei whereby a nucleus in an excited state emits two gamma rays simultaneously. Even-even nuclei with a first excited 0+ state are favorable cases to search for a double-gamma decay branch, since the emission of a single gamma ray is strictly forbidden for 0+ -> 0+ transitions by angular momentum conservation. The double-gamma decay still remains a very small decay branch (<1E-4) competing with the dominant (first-order) decay modes of atomic Internal-Conversion Electrons (ICE) or Internal positron-electron (e+-e-) Pair Creation (IPC). Therefore we will make use of a new technique to search for the double-gamma decay in bare (fully-stripped) ions, which are available at the GSI facility in Darmstadt, Germany. The basic idea of our experiment is to produce, select and store exotic nuclei in their excited 0+ state in the GSI storage ring (ESR). For neutral atoms the excited 0+ state is a rather short-lived isomeric state with a lifetime of the order of a few tens to hundreds of nanoseconds. At relativistic energies available at GSI, however, all ions are fully stripped of their atomic electrons and decay by ICE emission is hence not possible. If the state of interest is located below the pair creation threshold the IPC process is not possible either. Consequently, bare nuclei are trapped in a long-lived isomeric state, which can only decay by double-gamma emission to the ground state. The decay of the isomers would be identified by so-called time-resolved Schottky Mass Spectroscopy. This method allows to distinguish the isomer and the ground state state by their (very slightly) different revolution time in the ESR, and to observe the disappearance of the isomer peak in the mass spectrum with a characteristic decay time. An experiment to search for the double-gamma decay in 72Ge and 70Se has already been accepted by the GSI Programme Committee and should be realised in 2021/22.
PDF
Solution Numérique d'électrodynamique quantique non-perturbative (QED)
Numerical solution to Non-perturbative Quantum Electro-Dynamics (QED)

Spécialité

Physique théorique, mécanique quantique

Niveau d'étude

Bac+4/5

Formation

Master 1

Unité d'accueil

Candidature avant le

09/05/2021

Durée

4 mois

Poursuite possible en thèse

non

Contact

MEZRAG Cédric
+33 1 69 08 87 19

Résumé/Summary
Le but du stage est de résoudre numériquement un système d'équations intégro-différentielles décrivant la manière dont l’électron d'un part, et le photon d'autre part, se propage dans le vide.
The aim of the internship is to numerically solve a system of integro-differential equations describing the way in which the electron on the one hand, and the photon on the other hand, propagates in vacuum.
Sujet détaillé/Full description
Le monde de la physique des particules se trouve à la confluence de deux grandes théories du XXe siècle : la relativité spéciale et la mécanique quantique. Une fois combinées, ces deux théories donnent naissance au cadre de la théorie quantique des champs, dont les développements les plus célèbres sont l'électrodynamique quantique (QED), la chromodynamique quantique (QCD) et la théorie électrofaible, ces deux dernières constituant le modèle standard des particules.
Bien que ces théories soient bien établies, dans le sens où leurs Lagrangiens sont connus, une solution algébrique reste hors de portée. Historiquement, les résultats n'ont été obtenus que par la théorie des perturbations, excluant le calcul des propriétés des états liés. Cela pose des difficultés. Par exemple, on ne peut accéder expérimentalement qu'aux états liés de la QCD (proton, noyau, pion...), les quarks et les gluons restant confinés dans ces derniers. Au cours des 20 dernières années, d'importants progrès ont été réalisés dans l'étude des propriétés des états liés en utilisant d'importantes simulations informatiques. Cependant, ces dernières sont réalisées dans l'espace euclidien, ce qui complique fortement l'étude de la région causale.
Pourtant, d'autres approches non perturbatives sont possibles. Parmi elles, les techniques du continuum basées sur la version quantique des équations d'Euler-Lagrange se révèlent prometteuses. Elles consistent en un ensemble infini d'équations intégrodifférentielles couplées, tronquées par des hypothèses physiques appropriées. Un nouvel ensemble de 6 équations intégrodifférentielles couplées a récemment été dérivé en collaboration avec l'université La Sapienza (Rome). Cet ensemble a la particularité d'être obtenu directement dans l'espace de Minkowski. Par conséquent, il pourrait déclencher de nouvelles études dans la région causale, qui était jusqu'à présent hors de portée des simulations informatiques.

Le candidat au stage se concentrera sur la construction d'un algorithme numérique capable de résoudre la version quantique des équations d'Euler-Lagrange dans la QED. L'objectif est de comprendre comment les fluctuations quantiques modifient la propagation des électrons et des photons dans le vide. Deux étapes sont envisagées :

1. Le système d'équations sera simplifié de telle sorte que les fluctuations modifiant la propagation des photons soient négligées. Le système est réduit de 6 à 4 équations, décrivant uniquement la propagation des électrons.

2. Si les résultats de la première étape sont prometteurs, la deuxième étape consistera à résoudre le système complet.

Au-delà des deux étapes décrites ici, le présent travail débloquerait la possibilité de calculer les propriétés des états liés dans la région causale. Je m'attends donc à ce que, en cas de succès, les études débouchent sur des publications et aient un impact significatif dans la communauté de la physique des hadrons.
The world of particle physics lies at the confluence of two major theories of the twentieth century : special relativity and quantum mechanics. Once combined, these two theories give birth to the framework of quantum field theory, whose most famous developments are quantum electro-dynamics (QED), quantum Chromodynamics (QCD) and electro-weak theory, the two latter composing the standard model of particles.
Although these theories are well established, in the sense that their Lagrangian are known, an algebraic solution remains out of reach. Historically, results were obtained only through perturbation theory, precluding the computations of bound states properties. This is certainly an issue, as for instance, one can only experimentally access bound-states of QCD (proton, nuclei, pion...) as quarks and gluons remain confined in the latter. In the last 20 years, important progresses have been done to study bound states properties using heavy computer simulations. However, the latter are performed in Euclidean space, strongly complicating the study of the causal region.
Yet, other non-perturbative approaches are possible. Among them, continuum techniques based on the quantum version of the Euler-Lagrange equations are promising. They consist in an infinite set of coupled intregro-differential equations truncated through appropriate physical assumptions. A new set of 6 coupled integro-differential equations has recently been derived in collaboration with the Universiy La Sapienza (Rome). This set has the particularity to be obtained directly in Minkowski space. Therefore, it could trigger new studies in the causal region, which was, until now, out of reach of computer simulations.

The internship candidate will focus on the construction of a numerical algorithm able to solve the quantum version of the Euler-Lagrange equations in QED. The goal is to figure out how the quantum fluctuations modify the propagation of the electrons and photons in the vacuum. Two steps are considered :

1. The set of equation will be simplified in such a way that the fluctuations modifying the photon propagation are neglected. The system is reduced from 6 to 4 equations, describing only the electron propagation.

2. If the results of the first step are promising, solving the full system will be the second step.

Beyond the two steps described here, the present work would unlock the possibility to compute bound-states properties in the causal region. I therefore expect that, if successful, the studies will lead to publications and will have a significant impact in the hadron physics community.
Mots clés/Keywords
Analyse numérique
Numerical analysis
Compétences/Skills
Solver numérique d'équation différentielles
Numerical solver of differential equations
Logiciels
C++

 

Retour en haut