PDF
Analyse des mesures gravitationnelles de l'interféromètre LISA: Machine learning pour l'estimation rapide de paramètres des binaires galactiques
Analysis of the gravitational measurements of the LISA interferometer: Machine learning for the rapid estimation of galactic binary parameters

Spécialité

Mathématiques appliquées

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

28/02/2021

Durée

6 mois

Poursuite possible en thèse

oui

Contact

MOUTARDE Herve
+33 1 69 08 73 88

Résumé/Summary
Le travail de cette proposition de stage porte sur le développement d'une méthode rapide pour l'identification d'un grand nombre de systèmes binaires galactiques par l'utilisation de méthodes d'apprentissage automatique.
The work of this internship proposal focuses on the development of a rapid method for the identification of a large number of galactic binary systems using machine learning methods.
Sujet détaillé/Full description
A la suite des premières détections directes d'ondes gravitationnelles en 2015 par les interféromètres au sol LIGO et VIRGO, une nouvelle fenêtre d'observation de notre Univers s'est ouverte, ouvrant la voie à la mission spatiale LISA (Laser Interferometer Space Antenna). Cet observatoire spatial, dont le lancement est prévu en 2034, permettra la détection directe d’ondes gravitationnelles indétectables par les interféromètres terrestres.

A la différence des observatoires au sol, sensibles à de rares signaux d’ondes gravitationnelles et soumis à un bruit de mesure dominant, l'interféromètre spatial LISA devrait pouvoir observer un grand nombre de signaux distincts. Les estimations actuelles des quantités et types de source prévoient entre autres 60 millions de systèmes binaires galactiques émettant de manière continue, 10 à 100 signaux annuels provenant de trous noirs supermassifs, et de 10 à 1000 signaux annuels issus de systèmes binaires avec des rapports de masses très élevés.

Un des objectifs scientifiques de LISA est l’étude de la formation et de l’évolution des systèmes binaires galactiques : des naines blanches, mais aussi des étoiles à neutrons ou des trous noirs d’origine stellaires. LISA devrait permettre la caractérisation d’environ 25000 systèmes binaires galactiques.

L'un des défis posés par l'analyse des données de la mission LISA sera l'identification rapide, robuste et fiable des quelques 25000 systèmes binaires attendus, pouvant être détectés de manière individuelle. Plus précisément, l'identification de chaque système binaire consiste en l'estimation des paramètres des modèles physiques décrivant la forme des signatures gravitationnelles de tels systèmes. Ce problème devient d'autant plus difficile que les données réelles seront soumises à un certain nombre de bruits et d’artefacts à prendre en compte (par exemple des données incomplètes liées à des interruptions de mesures), qui affectent significativement notre capacité à détecter et identifier les signaux issus de systèmes binaires galactiques.

A l'heure actuelle, l'approche la plus classique est fondée sur l'utilisation de méthodes Monte-Carlo Markov Chains (MCMC - voir [2]) pour l'estimation de ces paramètres par maximum de vraisemblance. Cependant, le traitement conjoint de milliers de binaires par de telles méthodes requiert l'estimation d'un grand nombre de paramètres, conduisant à un coût calculatoire très élevé et une difficulté réelle à faire fonctionner des méthodes MCMC de manière efficace.

Le travail de cette proposition de stage porte sur le développement d'une méthode rapide pour l'identification d'un grand nombre de systèmes binaires galactiques par l'utilisation de méthodes d'apprentissage automatique. A cette fin, les problèmes auxquels nous nous attaquerons seront:
* la mise en oeuvre d'une méthode d'apprentissage statistique pour l'estimation de parmètres de binaires galactiques,
* son extension à l'estimation conjointe des incertitudes d'estimation, élément essentiel permettant de caractériser les erreurs d'estimation et sa fiabilité,
* l'évaluation des résultats sur des simulations réalistes du futur observatoire LISA.
Ce travail reposera sur l'application de méthodes statistiques pour l'analyse des données, en particulier par le déploiement de méthodes Deep Learning pour l'estimation paramétrique et la quantification d'incertitudes.

Ce sujet comporte une dominante de traitement du signal et de programmation soignée; le candidat recherché doit avoir de solides connaissances en statistiques et en traitement du signal. Des connaissances préalables en apprentissage statistique sont bienvenues.

Le stage se fera au sein des l'Institut de Recherche sur le lois Fondamentales de l'Univers (IRFU), sur une thématique à l'interface entre l'analyse statistique de données et la physique des ondes gravitationnelles.
Contacts : Jérôme BOBIN jerome.bobin@cea.fr ou Hervé MOUTARDE herve.moutarde@cea.fr

Références
[1] A.Blelly, J.Bobin, H.Moutarde, "Sparsity Based Recovery of Galactic Binaries Gravitational Waves", Phys. Rev. D, en cours de publication, 2020.
[2] T.B.Littenberg, "A detection pipeline for galactic binaries in LISA data", Phys.Rev.D, 84, 063009, (2011)
Following the first direct detections of gravitational waves in 2015 by the LIGO and VIRGO ground interferometers, a new window of observation of our Universe has opened, paving the way for the LISA (Laser Interferometer Space Antenna) space mission. This space observatory, scheduled for launch in 2034, will allow the direct detection of gravitational waves undetectable by ground-based interferometers.

Unlike ground-based observatories, which are sensitive to rare gravitational wave signals and subject to dominant measurement noise, the LISA space interferometer should be able to observe a large number of distinct signals. Current estimates of source quantities and types include 60 million continuously emitting galactic binary systems, 10 to 100 annual signals from supermassive black holes, and 10 to 1000 annual signals from binary systems with very high mass ratios.

One of the scientific objectives of LISA is the study of the formation and evolution of galactic binary systems: white dwarfs, but also neutron stars or black holes of stellar origin. LISA should allow the characterization of about 25000 galactic binary systems.

One of the challenges posed by the analysis of the LISA mission data will be the rapid, robust and reliable identification of the expected 25,000 or so binary systems that can be detected individually. Specifically, the identification of each binary system consists of estimating the parameters of physical models describing the shape of the gravitational signatures of such systems. This problem becomes all the more difficult as the actual data will be subject to a number of noise and artifacts to be taken into account (e.g. incomplete data due to measurement interruptions), which significantly affect our ability to detect and identify signals from galactic binary systems.

At present, the most classical approach is based on the use of Monte-Carlo Markov Chains methods (MCMC - see [2]) for the estimation of these parameters by maximum likelihood. However, the joint processing of thousands of binaries by such methods requires the estimation of a large number of parameters, leading to a very high computational cost and a real difficulty to make MCMC methods work efficiently.

The work of this internship proposal focuses on the development of a rapid method for the identification of a large number of galactic binary systems using machine learning methods. To this end, the problems to be addressed will be:
* the implementation of a statistical learning method for the estimation of galactic binary parmeters,
* its extension to the joint estimation of estimation uncertainties, an essential element for characterizing estimation errors and its reliability,
* Evaluation of the results on realistic simulations of the future LISA observatory.
This work will be based on the application of statistical methods for data analysis, in particular through the deployment of Deep Learning methods for parametric estimation and quantification of uncertainties.

This subject has a strong emphasis on signal processing and careful programming; the successful candidate must have a strong knowledge of statistics and signal processing. Previous knowledge of statistical learning is welcome.

The internship will take place at the Institut de Recherche sur le Lois Fondamentales de l'Univers (IRFU), on a theme at the interface between statistical data analysis and gravitational wave physics.
Contacts: Jérôme BOBIN jerome.bobin@cea.fr or Hervé MOUTARDE herve.moutarde@cea.fr

References:
[1] A.Blelly, J.Bobin, H.Moutarde, "Sparsity Based Recovery of Galactic Binaries Gravitational Waves", Phys. Rev. D, in publication, 2020.
[2] T.B.Littenberg, "A detection pipeline for galactic binaries in LISA data", Phys.Rev.D, 84, 063009, (2011)
Mots clés/Keywords
Machine learning, statistiques, estimation paramétrique, binaires galactiques, ondes gravitationnelles
Machine learning, statistics, parametric estimation, galactic binaries, gravitational waves
Logiciels
Python
PDF
Extraction conjointe du bruit de confusion et des binaires galactiques résolues à partir des signaux gravitationnels de l'interféromètre LISA
Joint extraction of confusion noise and resolved galactic binaries from the gravitational signals of the LISA interferometer

Spécialité

Mathématiques appliquées

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

28/02/2021

Durée

6 mois

Poursuite possible en thèse

oui

Contact

MOUTARDE Herve
+33 1 69 08 73 88

Résumé/Summary
Ce travail de stage porte sur l'analyse et le traitement de données pour l'extraction fiable et robuste du signal gravitationnel émis par les systèmes binaires galactiques, tant ceux pouvant être identifiés de manière individuelle que le bruit de confusion constitué des systèmes ne pouvant être résolus.
This internship work focuses on the analysis and processing of data for the reliable and robust extraction of the gravitational signal emitted by galactic binary systems, both those that can be individually identified and the confusion noise constituted by systems that cannot be resolved.
Sujet détaillé/Full description
A la suite des premières détections directes d'ondes gravitationnelles en 2015 par les interféromètres au sol LIGO et VIRGO, une nouvelle fenêtre d'observation de notre Univers s'est ouverte, ouvrant la voie à la mission spatiale LISA (Laser Interferometer Space Antenna). Cet observatoire spatial, dont le lancement est prévu en 2034, permettra la détection directe d’ondes gravitationnelles indétectables par les interféromètres terrestres.

A la différence des observatoires au sol, sensibles à de rares signaux d’ondes gravitationnelles et soumis à un bruit de mesure dominant, l'interféromètre spatial LISA devrait pouvoir observer un grand nombre de signaux distincts. Les estimations actuelles des quantités et types de source prévoient entre autres 60 millions de systèmes binaires galactiques émettant de manière continue, 10 à 100 signaux annuels provenant de trous noirs supermassifs, et de 10 à 1000 signaux annuels issus de systèmes binaires avec des rapports de masses très élevés.

Un des objectifs scientifiques de LISA est l’étude de la formation et de l’évolution des systèmes binaires galactiques : des naines blanches, mais aussi des étoiles à neutrons ou des trous noirs d’origine stellaires. Plusieurs systèmes binaires dits « de vérification » sont déjà identifiés comme sources d’ondes gravitationnelles détectables par LISA, et ce nombre devrait augmenter de manière significative grâce aux mesures collectées par le satellite Gaia et le télescope LSST.

LISA devrait permettre la caractérisation d’environ 25000 systèmes binaires galactiques. Les nombreux autres systèmes échappant à une détection individuelle formeront un fond stochastique, ou bruit de confusion. L'un des défis de l'analyse des données du futur observatoire LISA est la séparation entre signaux issus de systèmes binaires identifiables individuellement et bruit de confusion.

Ainsi, ce travail de stage porte sur l'analyse et le traitement de données pour l'extraction fiable et robuste du signal gravitationnel émis par les systèmes binaires galactiques, tant ceux pouvant être identifiés de manière individuelle que le bruit de confusion constitué des systèmes ne pouvant être résolus. Jusqu'à présent [1,2], les méthodes d'analyse actuelles se fondent essentiellement sur l'estimation des signaux issues de binaires détectables à partir de données bruitées. La restauration de ces binaires conjointement avec le bruit confusion sera l'objet précis de ce stage. A cette fin, les problèmes auxquels nous nous attaquerons seront:
* La modélisation statistique du bruit de confusion constitué des signaux gravitationnels issus des binaires non résolues.
* Le développement d'une méthode d'analyse conjointe pour l'intégralité des signaux issus de systèmes binaires galactiques, permettant de discriminer signaux provenant de binaires détectables individuellement, non résolues et bruit instrumental. Ce travail se fera en deux étapes: i) la modélisation statistique du bruit de confusion puis ii) l'extension de l'algorithme d'estimation des binaires galactiques [1] pour la prise en compte de cette source de bruit supplémentaire.
* L'évaluation sur des simulations réalistes du futur observatoire LISA.
* La prise en compte de données incomplètes, dues aux périodes d’interruption dans l’acquisition des données (maintenance, instabilités de sous-systèmes, etc.).
Ce travail reposera sur l'application de méthodes statistiques pour l'analyse des données, et sur la représentation parcimonieuse des signaux. Cette dernière permet d'exploiter les différences de formes ou de morphologie entre ces signaux, le bruit de confusion et le bruit instrumental pour la résolution de problèmes inverses.

Ce sujet comporte une dominante de traitement du signal et de programmation soignée; le candidat recherché doit avoir de solides connaissances en statistiques et en traitement du signal.

Le stage se fera au sein des l'Institut de Recherche sur le lois Fondamentales de l'Univers (IRFU), sur une thématique à l'interface entre l'analyse statistique de données et la physique des ondes gravitationnelles.

Contacts : Jérôme BOBIN jerome.bobin@cea.fr ou Hervé MOUTARDE herve.moutarde@cea.fr

Références :
[1] A.Blelly, J.Bobin, H.Moutarde, "Sparsity Based Recovery of Galactic Binaries Gravitational Waves", Phys. Rev. D, en cours de publication, 2020.
[2] T.B.Littenberg, "A detection pipeline for galactic binaries in LISA data", Phys.Rev.D, 84, 063009, (2011).
Following the first direct detections of gravitational waves in 2015 by the LIGO and VIRGO ground interferometers, a new window of observation of our Universe has opened, paving the way for the LISA (Laser Interferometer Space Antenna) space mission. This space observatory, scheduled for launch in 2034, will allow the direct detection of gravitational waves undetectable by ground-based interferometers.

Unlike ground-based observatories, which are sensitive to rare gravitational wave signals and subject to dominant measurement noise, the LISA space interferometer should be able to observe a large number of distinct signals. Current estimates of source quantities and types include 60 million continuously emitting galactic binary systems, 10 to 100 annual signals from supermassive black holes, and 10 to 1000 annual signals from binary systems with very high mass ratios.

One of the scientific objectives of LISA is the study of the formation and evolution of galactic binary systems: white dwarfs, but also neutron stars or black holes of stellar origin. Several so-called "verification" binary systems are already identified as sources of gravitational waves detectable by LISA, and this number should increase significantly thanks to the measurements collected by the Gaia satellite and the LSST telescope.

LISA should allow the characterization of about 25,000 galactic binary systems. The many other systems escaping individual detection will form a stochastic background, or confusion noise. One of the challenges of analyzing the data from the future LISA observatory is the separation between signals from individually identifiable binary systems and confusion noise.

Thus, this internship work focuses on the analysis and processing of data for the reliable and robust extraction of the gravitational signal emitted by galactic binary systems, both those that can be individually identified and the confusion noise constituted by systems that cannot be resolved. So far [1,2], current analysis methods are mainly based on the estimation of detectable binary signals from noisy data. The restoration of these binaries together with the confusing noise will be the precise object of this course. To this end, the problems we will tackle will be:
* The statistical modeling of the confusion noise consisting of the gravitational signals from the unresolved binaries.
* The development of a joint analysis method for the totality of signals from galactic binary systems, allowing to discriminate signals from individually detectable, unsolved binaries and instrumental noise. This work will be done in two steps: i) statistical modeling of the confusion noise and ii) extension of the galactic binary estimation algorithm [1] to take into account this additional noise source.
* The evaluation on realistic simulations of the future LISA observatory.
* The taking into account of incomplete data, due to periods of interruption in data acquisition (maintenance, subsystem instabilities, etc.).
This work will be based on the application of statistical methods for data analysis, and on the sparse representation of signals. The latter allows to exploit the differences in shape or morphology between these signals, confusion noise and instrumental noise for the resolution of inverse problems.

This subject has a strong emphasis on signal processing and careful programming; the candidate must have a strong knowledge of statistics and signal processing.

The internship will take place at the Institut de Recherche sur le Lois Fondamentales de l'Univers (IRFU), on a theme at the interface between statistical data analysis and gravitational wave physics.

Contacts : Jérôme BOBIN jerome.bobin@cea.fr or Hervé MOUTARDE herve.moutarde@cea.fr

References :
[1] A.Blelly, J.Bobin, H.Moutarde, "Sparsity Based Recovery of Galactic Binaries Gravitational Waves", Phys. Rev. D, in publication, 2020.
[2] T.B.Littenberg, "A detection pipeline for galactic binaries in LISA data", Phys.Rev.D, 84, 063009, (2011).
Mots clés/Keywords
Statistique, ondes gravitationnelles, représentations parcimonieuses
Statistics, gravitational waves, sparse representations
Logiciels
Python
PDF
Fonctions d'onde du cône de lumière et structure 3D du nucléon
Lightfront Wave Functions studies of the 3D structure of the nucleon

Spécialité

Physique théorique, mécanique quantique

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

09/05/2021

Durée

3 mois

Poursuite possible en thèse

oui

Contact

MEZRAG Cédric
+33 1 69 08 87 19

Résumé/Summary
Le but du stage est de comprendre comment est-ce que les fonctions d'onde de valence du nucléon (i.e. décrivant un nucléon composé de trois quarks habillés) génèrent la densité de présence 3D de quarks à l'intérieur du nucléon.
The aim of the intership is to understand how the nucleon's valence wave functions (i.e. describing a nucleon composed of three dressed quarks) generate the 3D presence density of quarks inside the nucleon.
Sujet détaillé/Full description
L'étude expérimentale et théorique de la structure du nucléon en termes de ses composants élémentaires, les quarks et les gluons, est un axe de recherche au cœur des programmes expérimentaux actuellement menés au Jefferson Lab (États-Unis) ou au CERN. C'est l'une des justifications majeures de la construction d'un futur collisionneur électron-ion (EIC). Ce thème, au confluent de la relativité spéciale et de la mécanique quantique, bénéficie d'un cadre théorique bien établi (la Chromo-Dynamique Quantique, QCD), et de perspectives expérimentales bien définies. Les distributions généralisées des partons (GPDs) offrent une nouvelle perspective sur le nucléon : elles donnent accès, pour la première fois, à des informations tridimensionnelles complémentaires sur la structure du nucléon.
Outre la structure tridimensionnelle du nucléon, les GPDs encodent des informations supplémentaires, particulièrement pertinentes pour notre compréhension du nucléon. Elles sont par exemple liées au tenseur énergie-momentum, ce qui nous permet d'extraire la décomposition du spin du nucléon en termes de spins et de moment angulaire orbital de ses constituants, et également de calculer une carte 3D de la distribution de masse et de la distribution de charge. Les mécanismes à l'origine de ces propriétés émergentes du nucléon sont encore pour la plupart inconnus et sont activement explorés tant sur le plan théorique qu'expérimental.
Les GPDs sont accessibles grâce à certains processus exclusifs (toutes les particules à l'état final sont détectées) tels que la diffusion Compton profondément virtuelle (DVCS) ou la production de méson profondément virtuelle (DVMP). En fait, la mesure de ces processus pour accéder aux GPD constitue une part importante des motivations scientifiques des installations expérimentales actuelles (Jefferson Lab, COMPASS@CERN...) et futures (collisionneur électron-ion américain). Cependant, en raison de la nature complexe des systèmes liés de QCD, aucun calcul ab initio n'a encore été effectué, ce qui empêche toute compréhension de la dynamique sous-jacente générant la structure 3D du nucléon. Un pont entre nos connaissances fondamentales de l'interaction des quarks et des gluons et la structure 3D des hadrons reste à construire.

Le stagiaire se concentrera sur la description des GPDs à l'aide des fonctions d'onde de front de lumière (LFWFs). Dans la théorie quantique des champs, les LFWFs jouent le même rôle que la fonction d'onde de Schrödinger en mécanique quantique non relativiste. Chaque LFWFs a la particularité de décrire une fluctuation spécifique du nucléon en termes de nombre de constituants et de nombres quantiques. Dans le cas présent, nous nous concentrerons sur le plus petit nombre possible de constituants, c'est-à-dire trois quarks. Les LFWFs décrivant les états à trois quarks sont appelés LFWFs de valence. Elles sont au nombre de six et portent des quantités variables de moment angulaire orbital. Une telle approximation devrait être bonne dans le domaine cinématique de "valence", où les quarks transportent environ 1/3 du moment cinétique du proton.
Les objectifs du stage sont les suivants :
1. comprendre comment les LFWFs de valence contribuent aux GPDs et, à travers eux, à la structure 3D des hadrons ;
2. évaluer l'impact de chacun d'eux, en utilisant un modèle algébrique simple.
En cas de succès, ces premières études permettront au candidat d'entamer un doctorat à l'automne 2021, avec déjà suffisamment de matériel scientifique pour produire un article.
The experimental and theoretical study of the structure of the nucleon in terms of its elementary components, quarks and gluons, is a research focus at the heart of experimental programs currently being conducted at Jefferson Lab (US) or CERN. This is one of the major justifications for the construction of a future electron-ion collider (EIC). This theme, at the confluence of special relativity and quantum mechanics, benefits from a well-established theoretical framework (Quantum Chromo-Dynamics, QCD), and well-defined experimental perspectives. Generalized parton distributions (GPD) offer a new perspective on the nucleon: they provide access, for the first time, to complementary three-dimensional information on the nucleon structure.
On top of the 3D structure of the nucleon, GPDs encode additional pieces of information, particularly relevant for our understanding of the nucleon. They are for instance related to the energy-momentum tensor, allowing us to extract the decomposition of the nucleon spin in terms of the spins and orbital angular momentum of its constituents, and also to compute a 3D map of the mass distribution and of the charge distribution. The mechanisms behind these emergent properties of the nucleon are still mostly unknown and are actively explored both theoretically and experimentally.
GPDs are accessible through certain exclusive processes (all particles in the final state are detected) such as deeply virtual Compton scattering (DVCS) or deeply virtual meson production (DVMP). In fact, measuring these processes to access GPDs is a significant part of the physics case of current (Jefferson Lab, COMPASS@CERN…) and future (US electron-ion collider) experimental facilities. However, because of the complex nature of QCD-bounded systems, no ab-initio computation has been performed yet, precluding any understanding of the underlying dynamics generating the 3D structure of the nucleon. A bridge between our basic ideas of quarks and gluons interaction and the 3D structure of hadron remains to be built.

The internee will focus on the description of the GPDs using the so-called lightfront wave functions (LFWFs). In quantum field theory, the LFWFs plays the same role than the Schrödinger wave function in non-relativistic quantum mechanics. Each LFWF has the specificity to describe one specific fluctuation of the nucleon in terms of number of constituents and quantum numbers. In the present case, we will focus on the lowest possible number of constituents, i.e. three quarks. The LFWFs describing the three-quarks states are called the valence LFWFs. They are six of them, carrying various amount of orbital angular momentum. Such an approximation is expected to be good in the “valence” kinematical domain, where quarks carry roughly 1/3 of the proton momentum.
The goals of the internship are:
1. understanding how the valence LFWFs contributes to the GPDs, and through them to the 3D structure of hadrons;
2. assessing the impact of each of them, using a simple algebraic model.
If successful, these first studies will allow the candidate to start a Ph.D. in autumn 2021, with already sufficient scientific material to produce a paper.
Mots clés/Keywords
Physique hadronique, QCD
Hadron Physics, QCD
Compétences/Skills
Théorie quantique des champs, chromodynamique quantique, recouvrement de fonction d'ondes, outils numériques.
Quantum field theory, Quantumchromodynamics, overlap of wave functions, numerical tools.
Logiciels
Mathematica, C++
PDF
Hyper optimisation des réseaux de neurones paramétrant les fonctions de fragmentation
Hyper optimisation of neural networks parameterising fragmentation functions

Spécialité

Physique théorique, mécanique quantique

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

01/06/2021

Durée

4 mois

Poursuite possible en thèse

oui

Contact

BERTONE Valerio
+33 1 69 08 87 19

Résumé/Summary
Le projet consiste à développer un réseau neuronal artificiel qui sera affiné afin d'extraire les propriétés des hadrons, comme par exemple les fonctions de fragmentation, à partir des données disponibles de collisions lepton-proton.
The project consists in developing an artificial neural network that will be tuned to extract hadron properties like fragmentation functions from available lepton-proton collision data.
Sujet détaillé/Full description
L'un des principaux défis de la physique théorique des particules est la compréhension quantitative de la structure des hadrons. Actuellement, il est largement admis que la chromodynamique quantique (QCD) est la théorie qui décrit le mieux les hadrons et leurs interactions. Les éléments constitutifs de la QCD, les quarks et les gluons, sont considérés comme responsables de la plupart des propriétés de base des hadrons telles que la masse, la charge, le spin, etc. Par conséquent, il est crucial pour une compréhension complète de la structure des hadrons d'avoir une image claire de la distribution des quarks et des gluons à l'intérieur des hadrons. Malheureusement, cette tâche est compliquée par le fait que la QCD est fortement couplée à des énergies pertinentes pour l'étude de la structure des hadrons, ce qui empêche l'utilisation de la théorie des perturbations. Malgré le développement d'outils théoriques permettant en principe de calculer ces distributions à partir des principes de base, à l'heure actuelle, la manière la plus précise de les déterminer repose sur des ajustements aux données expérimentales.
Plus précisément, la distribution des quarks et des gluons à l'intérieur des hadrons est paramétrée et déterminée par comparaison avec les données expérimentales. Il est donc important de minimiser autant que possible tout biais découlant de la forme paramétrique particulière choisie pour ajuster les données. À cet égard, les réseaux de neurones artificiels (ANN) [1], grâce à leur flexibilité, constituent un outil puissant pour une détermination fidèle de la structure hadronique. Une des plus importantes incarnations des distributions mentionnées ci-dessus est représentée par les fonctions de fragmentation (FF) qui décrivent comment les quarks et les gluons se transforment en hadrons (hadronisation). Les FF sont pertinentes dans les collisions à haute énergie dans lesquelles un quark ou un gluon de l'hadron cible interagit avec une sonde externe et, en raison du confinement, le quark ou le gluon sortant "hadronise" et l'hadron résultant est détecté à l'état final.
Le sujet du présent projet de stage est l'étude des FF des hadrons légers (principalement des pions et des kaons) et leur détermination à partir des ajustements aux données expérimentales en utilisant les ANN comme paramétrage flexible. Il est important de noter que l'extrême flexibilité des ANN les rend particulièrement difficiles à manipuler et qu'un choix minutieux de leur architecture est crucial pour rentabiliser leur application à cette tâche. En général, dans de nombreuses applications, le choix éclairé des paramètres pertinents d'un cadre impliquant des ANN, souvent appelé hyper-optimisation, est un aspect important qui influence fortement la qualité du résultat. C'est également le cas dans ce contexte et l'hyper-optimisation d'un cadre qui utilise les ANN pour déterminer les FF à partir des ajustements aux données est la tâche à laquelle le candidat sera confronté.

Le candidat du présent projet de stage participera à la détermination des FF à l'aide d'ANN via un ajustement avec diverses données expérimentales. Le but principal de ce projet spécifique est l'hyper-optimisation de l'ANN utilisé pour cette tâche dans le but d'identifier l'architecture optimale pour une extraction fidèle des FF. Deux étapes principales sont envisagées :

1. Dans la première étape préparatoire, le candidat se familiarisera avec le cadre scientifique. Au cours de cette phase, le candidat apprendra à obtenir et à interpréter les résultats d'ANN.
2. Sur la base des connaissances acquises lors de la première étape, le candidat sera en mesure d'ajuster les paramètres pertinents du problème (architecture ANN, fonctions d'activation, taux d'apprentissage, etc.) afin d'obtenir une configuration optimale qui permettra une détermination fidèle des FF.

Si elle est couronnée de succès, cette étude permettra de rationaliser considérablement la détermination des FF à partir de données expérimentales utilisant des ANN et ouvrira la voie à des applications de la même technologie pour déterminer d'autres quantités intéressantes pertinentes pour une compréhension plus approfondie de la structure hadronique.

Bibliographie:

[1] R. Abdul Khalek and V. Bertone, “On the derivatives of feed-forward neural networks”, arXiv:2005.07039.

[2] V. Bertone et al., “A determination of the fragmentation functions of pions, kaons, and protons with faithful uncertainties”, Eur.Phys.J.C 77 (2017) 8, 516.
One of the main challenges of theoretical particle physics is the quantitative understanding of the structure of hadrons. Currently, it is widely accepted that Quantum Chromodynamics (QCD) is the theory that best describes hadrons and their interactions. The building blocks of QCD, quarks and gluons, are believed to be responsible for most of the basic properties of hadrons such as: mass, charge, spin, etc.. Therefore, it is of crucial importance for a full understanding of the hadron structure to make a clear picture of the distribution of quarks and gluons inside the hadrons. Unfortunately, this task is complicated by the fact that QCD is strongly coupled at energies relevant for the study of the hadron structure, preventing the use of perturbation theory. Despite theoretical tools are being developed allowing in principle for the computation of these distributions from first principles, at present the most accurate way to determine them relies on fits to experimental data.
More specifically, the distribution of quarks and gluons inside the hadrons are parameterised and determined by comparison to experimental data. It is therefore important to minimise as much as possible any bias deriving from the particular parametric form chosen to fit the data. In this respect, artificial neural networks (ANN) [1], thanks to their flexibility, provide a powerful tool towards a faithful determination of the hadronic structure. One of the most important incarnations of the distributions mentioned above is represented by fragmentation functions (FFs) that describe how quarks and gluons turn into hadrons (hadronisation). FFs are relevant in high-energy collisions in which a quark or a gluon from the target hadron interacts with an external probe and, due to confinement, the outgoing quark or gluon “hadronises” and the resulting hadron is detected in the final state.
The subject of the present internship project is the study of the FFs of light hadrons (mostly pions and kaons) and their determination from fits to experimental data using ANNs as a flexible parameterisation. Importantly, the extreme flexibility of ANNs makes them particularly hard to handle and a careful choice of their architecture is crucial to make their application to this task profitable. Generally, in many applications the educated choice of the relevant parameters of a framework involving ANNs, often referred to as hyper-optimisation, is an important aspect that heavily influences the quality of the result. This is the case also in this context and the hyper-optimisation of a framework that employs ANNs to determine FFs from fits to data is the task that the candidate will be confronted with.

The candidate of the present internship project will be involved in the determination of light-hadron FFs from a fit to a variety of experimental data using ANNs. The main goal of this specific project is the hyper-optimisation of the ANN employed for this task with the aim of identifying the optimal architecture for a faithful extraction of FFs. Two main steps are envisioned:

1. In the first preparatory step, the candidate will be introduced to the framework. In this phase, the candidate will learn how to obtain and interpret the results.
2. Building upon the knowledge acquired in the first step, the candidate will be in the position to adjust the relevant parameters of the problem (ANN architecture, activation functions, learning rates, etc.) to achieve an optimal configuration that will allow for a faithful determination of FFs.

If successful, this study will significantly streamline the determination of FFs from experimental data using ANNs and pave the way to applications of the same technology to determine other interesting quantities relevant to a deeper understanding of the hadronic structure.

References

[1] R. Abdul Khalek and V. Bertone, “On the derivatives of feed-forward neural networks”, arXiv:2005.07039.

[2] V. Bertone et al., “A determination of the fragmentation functions of pions, kaons, and protons with faithful uncertainties”, Eur.Phys.J.C 77 (2017) 8, 516.
Mots clés/Keywords
Physique hadronique, QCD
Hadron Physics, QCD
Compétences/Skills
Une connaissance de base des techniques numériques est importante. Une connaissance pratique de C++ et de Python est nécessaire pour pouvoir utiliser le cadre de calcul. Une connaissance de base de la mécanique quantique et de la théorie quantique des champs est nécessaire pour comprendre le contexte scientifique, mais pas pour effectuer le travail numérique proprement dit.
Basic knowledge of numerical techniques is important. Working knowledge of C++ and Python is required to be able to use the computational framework. Basic knowledge of quantum mechanics and quantum field theory is instead needed to understand the scientific context, but not to perform the actual numerical work.
Logiciels
C++, Python
PDF
Identification rapide des paramètres des binaires galactiques à partir des signaux gravitationnels de l'interféromètre LISA
Rapid identification of galactic binary parameters from the gravitational signals of the LISA interferometer

Spécialité

Mathématiques appliquées

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

28/02/2021

Durée

6 mois

Poursuite possible en thèse

oui

Contact

MOUTARDE Herve
+33 1 69 08 73 88

Résumé/Summary
Le travail de stage porte sur le développement d'une méthode rapide pour l'identification d'un grand nombre de systèmes binaires galactiques.
The internship work focuses on the development of a rapid method for the identification of a large number of galactic binary systems.
Sujet détaillé/Full description
A la suite des premières détections directes d'ondes gravitationnelles en 2015 par les interféromètres au sol LIGO et VIRGO, une nouvelle fenêtre d'observation de notre Univers s'est ouverte, ouvrant la voie à la mission spatiale LISA (Laser Interferometer Space Antenna). Cet observatoire spatial, dont le lancement est prévu en 2034, permettra la détection directe d’ondes gravitationnelles indétectables par les interféromètres terrestres.

A la différence des observatoires au sol, sensibles à de rares signaux d’ondes gravitationnelles et soumis à un bruit de mesure dominant, l'interféromètre spatial LISA devrait pouvoir observer un grand nombre de signaux distincts. Les estimations actuelles des quantités et types de source prévoient entre autres 60 millions de systèmes binaires galactiques émettant de manière continue, 10 à 100 signaux annuels provenant de trous noirs supermassifs, et de 10 à 1000 signaux annuels issus de systèmes binaires avec des rapports de masses très élevés.

Un des objectifs scientifiques de LISA est l’étude de la formation et de l’évolution des systèmes binaires galactiques : des naines blanches, mais aussi des étoiles à neutrons ou des trous noirs d’origine stellaires.

LISA devrait permettre la caractérisation d’environ 25000 systèmes binaires galactiques. De plus, comme dans toute expérience, les données réelles seront soumises à un certain nombre de bruits et d’artefacts à prendre en compte pour optimiser le potentiel scientifique de la mission.

L'un des défis posés par l'analyse des données de la mission LISA sera l'identification rapide, robuste et fiable des quelques 25000 systèmes binaires attendus, pouvant être détectés de manière individuelle. Plus précisément, l'identification de chaque système binaire consiste en l'estimation des paramètres des modèles physiques décrivant la forme des signatures temporelles observées de tels systèmes. A cette fin, l'approche la plus classique est fondée sur l'utilisation de méthodes Markov Chain Monte Carlo (MCMC) pour l'estimation par maximum de vraisemblance de ces paramètres. Cependant, le traitement conjoint de milliers de binaires requiert l'estimation d'un grand nombre de paramètres, conduisant à un coût calculatoire très élevé, sans mentionner les problèmes de convergence des algorithmes MCMC en grande dimension. Ce problème devient d'une extrême complexité si l'on prend en compte le caractère incomplet des données lié aux périodes d'interruption dans l'acquisition des données.

Le travail de stage porte sur le développement d'une méthode rapide pour l'identification d'un grand nombre de systèmes binaires galactiques. A cette fin, les problèmes auxquels nous nous attaquerons seront:
* Le développement d'une méthode d'analyse fondée sur une approche en deux étapes: i) une étape de détection des systèmes binaires par modélisation parcimonieuse des données [1] et ii) une identification en parallèle des binaires préalablement détectées. Cette dernière étape sera construite sur une méthode MCMC.
* L'extension au cas de l'estimation de systèmes binaires dont les signatures harmoniques interfèrent (par exemple une forte corrélation entre les signaux observés pour différents systèmes binaires).
* L'évaluation sur des simulations réalistes du futur observatoire LISA.
* La prise en compte de données incomplètes, dues aux périodes d’interruption dans l’acquisition des données (maintenance, instabilités de sous-systèmes, etc.).
Ce travail reposera sur l'application de méthodes statistiques pour l'analyse des données et sur la représentation parcimonieuse des signaux. En particulier, il fera appel aux méthodes stochastiques d'échantillonnage (MCMC).

Ce sujet comporte une dominante de traitement du signal et de programmation soignée; le candidat recherché doit avoir de solides connaissances en statistiques et en traitement du signal.

Le stage se fera au sein des l'Institut de Recherche sur le lois Fondamentales de l'Univers (IRFU), sur une thématique à l'interface entre l'analyse statistique de données et la physique des ondes gravitationnelles.

Contacts : Jérôme BOBIN jerome.bobin@cea.fr ou Hervé MOUTARDE herve.moutarde@cea.fr

Références :
[1] A.Blelly, J.Bobin, H.Moutarde, "Sparsity Based Recovery of Galactic Binaries Gravitational Waves", Phys. Rev. D, en cours de publication, 2020.
[2] T.B.Littenberg, "A detection pipeline for galactic binaries in LISA data", Phys.Rev.D, 84, 063009, (2011).
Following the first direct detections of gravitational waves in 2015 by the LIGO and VIRGO ground interferometers, a new window of observation of our Universe has opened, paving the way for the LISA (Laser Interferometer Space Antenna) space mission. This space observatory, scheduled for launch in 2034, will allow the direct detection of gravitational waves undetectable by ground-based interferometers.

Unlike ground-based observatories, which are sensitive to rare gravitational wave signals and subject to dominant measurement noise, the LISA space interferometer should be able to observe a large number of distinct signals. Current estimates of source quantities and types include 60 million continuously emitting galactic binary systems, 10 to 100 annual signals from supermassive black holes, and 10 to 1000 annual signals from binary systems with very high mass ratios.

One of the scientific objectives of LISA is the study of the formation and evolution of galactic binary systems: white dwarfs, but also neutron stars or black holes of stellar origin.

LISA should allow the characterization of about 25000 galactic binary systems. In addition, as in any experiment, the real data will be subjected to a number of noise and artifacts that must be taken into account to optimize the scientific potential of the mission.

One of the challenges of analyzing the LISA mission data will be the rapid, robust and reliable identification of the expected 25,000 or so individually detectable binary systems. Specifically, the identification of each binary system consists of estimating the parameters of physical models describing the shape of the observed time signatures of such systems. For this purpose, the most classical approach is based on the use of Markov Chain Monte Carlo (MCMC) methods for the maximum likelihood estimation of these parameters. However, the joint processing of thousands of binaries requires the estimation of a large number of parameters, leading to a very high computational cost, not to mention the problems of convergence of MCMC algorithms in large dimensions. This problem becomes extremely complex if one takes into account the incomplete nature of the data due to the interruption periods in data acquisition.

The internship work focuses on the development of a rapid method for the identification of a large number of galactic binary systems. To this end, the problems to be addressed will be:
* The development of an analytical method based on a two-step approach: i) a step of detection of binary systems by parsimonious data modeling [1] and ii) a parallel identification of the previously detected binaries. This last step will be built on an MCMC method.
* The extension to the case of estimating binary systems whose harmonic signatures interfere (e.g. a strong correlation between the signals observed for different binary systems).
* The evaluation on realistic simulations of the future LISA observatory.
* The taking into account of incomplete data, due to periods of interruption in data acquisition (maintenance, subsystem instabilities, etc.).
This work will be based on the application of statistical methods for data analysis and on the sparse representation of signals. In particular, it will make use of stochastic sampling methods (MCMC).

This subject has a strong emphasis on signal processing and careful programming; the candidate must have a solid knowledge of statistics and signal processing.

The internship will take place at the Institut de Recherche sur le Lois Fondamentales de l'Univers (IRFU), on a theme at the interface between statistical data analysis and gravitational wave physics.

Contacts: Jérôme BOBIN jerome.bobin@cea.fr or Hervé MOUTARDE herve.moutarde@cea.fr

References:
[1] A.Blelly, J.Bobin, H.Moutarde, "Sparsity Based Recovery of Galactic Binaries Gravitational Waves", Phys. Rev. D, in publication, 2020.
[2] T.B.Littenberg, "A detection pipeline for galactic binaries in LISA data", Phys.Rev.D, 84, 063009, (2011).
Mots clés/Keywords
Statistique, méthodes MCMC, représentations parcimonieuses, ondes gravitationnelles
Statistics, MCMC methods, sparse representations, gravitational waves
Logiciels
Python
PDF
Solution Numérique d'électrodynamique quantique non-perturbative (QED)
Numerical solution to Non-perturbative Quantum Electro-Dynamics (QED)

Spécialité

Physique théorique, mécanique quantique

Niveau d'étude

Bac+4/5

Formation

Master 1

Unité d'accueil

Candidature avant le

09/05/2021

Durée

4 mois

Poursuite possible en thèse

non

Contact

MEZRAG Cédric
+33 1 69 08 87 19

Résumé/Summary
Le but du stage est de résoudre numériquement un système d'équations intégro-différentielles décrivant la manière dont l’électron d'un part, et le photon d'autre part, se propage dans le vide.
The aim of the internship is to numerically solve a system of integro-differential equations describing the way in which the electron on the one hand, and the photon on the other hand, propagates in vacuum.
Sujet détaillé/Full description
Le monde de la physique des particules se trouve à la confluence de deux grandes théories du XXe siècle : la relativité spéciale et la mécanique quantique. Une fois combinées, ces deux théories donnent naissance au cadre de la théorie quantique des champs, dont les développements les plus célèbres sont l'électrodynamique quantique (QED), la chromodynamique quantique (QCD) et la théorie électrofaible, ces deux dernières constituant le modèle standard des particules.
Bien que ces théories soient bien établies, dans le sens où leurs Lagrangiens sont connus, une solution algébrique reste hors de portée. Historiquement, les résultats n'ont été obtenus que par la théorie des perturbations, excluant le calcul des propriétés des états liés. Cela pose des difficultés. Par exemple, on ne peut accéder expérimentalement qu'aux états liés de la QCD (proton, noyau, pion...), les quarks et les gluons restant confinés dans ces derniers. Au cours des 20 dernières années, d'importants progrès ont été réalisés dans l'étude des propriétés des états liés en utilisant d'importantes simulations informatiques. Cependant, ces dernières sont réalisées dans l'espace euclidien, ce qui complique fortement l'étude de la région causale.
Pourtant, d'autres approches non perturbatives sont possibles. Parmi elles, les techniques du continuum basées sur la version quantique des équations d'Euler-Lagrange se révèlent prometteuses. Elles consistent en un ensemble infini d'équations intégrodifférentielles couplées, tronquées par des hypothèses physiques appropriées. Un nouvel ensemble de 6 équations intégrodifférentielles couplées a récemment été dérivé en collaboration avec l'université La Sapienza (Rome). Cet ensemble a la particularité d'être obtenu directement dans l'espace de Minkowski. Par conséquent, il pourrait déclencher de nouvelles études dans la région causale, qui était jusqu'à présent hors de portée des simulations informatiques.

Le candidat au stage se concentrera sur la construction d'un algorithme numérique capable de résoudre la version quantique des équations d'Euler-Lagrange dans la QED. L'objectif est de comprendre comment les fluctuations quantiques modifient la propagation des électrons et des photons dans le vide. Deux étapes sont envisagées :

1. Le système d'équations sera simplifié de telle sorte que les fluctuations modifiant la propagation des photons soient négligées. Le système est réduit de 6 à 4 équations, décrivant uniquement la propagation des électrons.

2. Si les résultats de la première étape sont prometteurs, la deuxième étape consistera à résoudre le système complet.

Au-delà des deux étapes décrites ici, le présent travail débloquerait la possibilité de calculer les propriétés des états liés dans la région causale. Je m'attends donc à ce que, en cas de succès, les études débouchent sur des publications et aient un impact significatif dans la communauté de la physique des hadrons.
The world of particle physics lies at the confluence of two major theories of the twentieth century : special relativity and quantum mechanics. Once combined, these two theories give birth to the framework of quantum field theory, whose most famous developments are quantum electro-dynamics (QED), quantum Chromodynamics (QCD) and electro-weak theory, the two latter composing the standard model of particles.
Although these theories are well established, in the sense that their Lagrangian are known, an algebraic solution remains out of reach. Historically, results were obtained only through perturbation theory, precluding the computations of bound states properties. This is certainly an issue, as for instance, one can only experimentally access bound-states of QCD (proton, nuclei, pion...) as quarks and gluons remain confined in the latter. In the last 20 years, important progresses have been done to study bound states properties using heavy computer simulations. However, the latter are performed in Euclidean space, strongly complicating the study of the causal region.
Yet, other non-perturbative approaches are possible. Among them, continuum techniques based on the quantum version of the Euler-Lagrange equations are promising. They consist in an infinite set of coupled intregro-differential equations truncated through appropriate physical assumptions. A new set of 6 coupled integro-differential equations has recently been derived in collaboration with the Universiy La Sapienza (Rome). This set has the particularity to be obtained directly in Minkowski space. Therefore, it could trigger new studies in the causal region, which was, until now, out of reach of computer simulations.

The internship candidate will focus on the construction of a numerical algorithm able to solve the quantum version of the Euler-Lagrange equations in QED. The goal is to figure out how the quantum fluctuations modify the propagation of the electrons and photons in the vacuum. Two steps are considered :

1. The set of equation will be simplified in such a way that the fluctuations modifying the photon propagation are neglected. The system is reduced from 6 to 4 equations, describing only the electron propagation.

2. If the results of the first step are promising, solving the full system will be the second step.

Beyond the two steps described here, the present work would unlock the possibility to compute bound-states properties in the causal region. I therefore expect that, if successful, the studies will lead to publications and will have a significant impact in the hadron physics community.
Mots clés/Keywords
Analyse numérique
Numerical analysis
Compétences/Skills
Solver numérique d'équation différentielles
Numerical solver of differential equations
Logiciels
C++

 

Retour en haut