PDF
Faisabilité des mesures PQG futures au LHC
Feasibility of future QGP measurements at the LHC

Spécialité

Physique corpusculaire des accélérateurs

Niveau d'étude

Bac+3

Formation

DUT/L2

Unité d'accueil

Candidature avant le

30/06/2023

Durée

3 mois

Poursuite possible en thèse

non

Contact

WINN Michael
+33 1 69 08 55 86

Résumé/Summary
Le plasma quark-gluon est un état exotique de la matière créé à des températures extrêmes lors de collisions d'ions lourds au LHC au CERN. Le stage propose une étude de faisabilité de mesures des corrélations des particules de quarks lourds, une observable clé pour la caractérisation du plasma quark-gluon.
The Quark-Gluon Plasma is an exotic state of matter created under extreme temperatures in heavy-ion collisions at the LHC at CERN.
The proposed internship consists of a feasibility study of heavy quark particle correlations, a key observable for the characterisation of the quark-gluon plasma.
Sujet détaillé/Full description
Au Large Hadron Collider (LHC) à Genève, des collisions de noyaux de plomb sont utilisées pour créer un système thermodynamique décrit par la dynamique des fluides dans des conditions extrêmes. Cet état de la matière est communément appelé Plasma Quark-Gluon (PQG) et dont l'évolution temporelle est décrite par l'hydrodynamique relativiste. Dans ces collisions, des quarks lourds sont créent dans des pairs aux premiers instants et leur nombre est conservé pendant la durée de vie du plasma. Par conséquent, ces pairs de quarks sont des témoins de la collision. La corrélation initiale des deux quarks lourds est modifiée par l´interaction des deux quarks avec le PQG. Cette modification peut nous renseigner sur le mécanisme avec lequel les quarks interagissent avec le PQG. Jusqu´à ce jour, une mesure n´a pas été réalisé.

Le laboratoire PQG du département de physique nucléaire du CEA Saclay est activement impliqué à tous les niveaux de l'exploration expérimentale du PQG avec l'expérience ALICE, l'expérience dédiée aux ions lourds au LHC. Actuellement, le groupe étudie de nouvelles sondes et de nouveaux détecteurs pour étudier le PQG dans l'expérience LHCb, telles que la corrélation des quarks lourds.

L'un des défis de cette mesure expérimentale est le rejet du bruit de fond du grand nombre de particules produites dans la collision et la rareté du signal. Le stage propose d´étudier le rejet de bruit de fond avec les performances des détecteurs futures pour réaliser une première mesure. Ce travail se basera sur des outils de simulation Monte Carlo rapides.Le candidat se familiarisera avec la physique du PQG, la programmation de base en C++, et les bases de l'analyse des données.
At the Large Hadron Collider (LHC) at Geneva, collisions of lead nuclei are used to create a thermodynamic system described by fluid dynamics under extreme conditions. This state of matter is commonly called Quark-Gluon Plasma (QGP). Its time evolution is described by relativistic hydrodynamics. In these collisions, heavy quarks are created in pairs in the early stages and their number is conserved during the plasma lifetime. Consequently, these quark pairs are witnesses of the collision. The initial correlation between the two heavy quark is modified by the strong interaction of these two quarks with the QGP. Until today, no measurement has been realised.

The QGP laboratory inside the department of nuclear physics of CEA Saclay is actively involved at all levels of experimental exploration of the QGP with the ALICE experiment, the dedicated heavy-ion experiment at the LHC. Currently, the group investigates novel probes and new detectors for QGP studies in the LHCb experiment, such as heavy quark correlations.

One of the main challenges of experimental measurement is the rejection of background from the numerous particles produced in the collision and the rareness of the signal. The internship's objective is the study of the background rejection with the performance of future detectors to realise a first measurement. The work will be based on fast Monte Carlo simulation tools. The candidate will familiarise himself/herself with the physics of the QGP, basic C++ programming and basics in data analysis.
Compétences/Skills
simulation de Monte Carlo
MC simulations
Logiciels
C++
PDF
Caractérisation de la réponse de chip CMOS pour l’upgrade de l’Upstream Tracker de LHCb.
CMOS chip response characterization for the future Upstream Tracker of the LHCb collaboration.

Spécialité

Physique nucléaire

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

29/05/2023

Durée

4 mois

Poursuite possible en thèse

non

Contact

AUDURIER Benjamin
+33 1 69 08 73 08

Résumé/Summary
Le projet de stage est d'étudier et de caractériser la fonction de réponse de chips CMOS. L’étudiant.e choisi.e devra d'abord préparer une simulation GEANT4 pour reproduire le montage expérimental utilisé lors des essais faisceaux réalisés au CERN. L’étudiant.e caractérisera ensuite la fonction de réponse de différents chips en comparant le résultat de ses simulations avec les bases de données.
The internship project is to study and characterize the response function of CMOS chip. To archive this goal, the chosen student will first implement a simple GEANT4 simulation to reproduce the experimental setup used during the beam tests made at CERN. The student will then characterize the response function of different chips by comparing the output of his/her simulations with the databases.
Sujet détaillé/Full description
#SYNOPSIS
Le détecteur LHCb est l'un des quatre principaux détecteurs installés sur le Grand collisionneur de hadrons (LHC) du CERN. Conçu pour étudier la production de quarks lourds dans les collisions proton-proton, Tous ses sous-détecteurs passeront par une phase d’upgrade majeure à l’horizon 2030. Parmi ces détecteurs, l’Upstream Tracker (UT), un trajectographe à quatre stations installé en amont de l'aimant de LHCb, est un élément essentiel de la reconstruction, notamment pour identifier les fausses traces reconstruites par les algorithmes dans les collisions à haute multiplicité de particule produite, telles que les collisions d’ions lourds.

Initialement constitué de strips, la technologie du futur UT sera modifier pour utiliser des pixels afin de faire face au taux de collision élevé prévu au LHC en 2030. Le choix de la future technologie utilisée n'est pas encore déterminé, et des études basées sur la simulation sont nécessaires pour comparer les différentes options technologiques. Un ingrédient clé est la fonction de réponse du chip, qui peut être caractérisée sur la base des simulations GEANT4 et des bases de données de tests faisceaux effectués au CERN. Cette fonction de réponse est en effet nécessaire pour les études de performance des chips, et donc cruciale pour choisir la future technologie de l'UT.

#Projet de stage:
Le projet de stage est d'étudier et de caractériser la fonction de réponse de chips CMOS. L’étudiant.e choisi.e devra d'abord préparer une simulation GEANT4 pour reproduire le montage expérimental utilisé lors des essais faisceaux réalisés au CERN. L’étudiant.e caractérisera ensuite la fonction de réponse de différents chips en comparant le résultat de ses simulations avec les bases de données.

#Equipe de stage:
Laboratoire: lQGP at CEA Saclay.
Encadrant: Benjamin Audurier (benjamin.audurier@cea.fr).
#Research overview:
The LHCb detector is one of the four major detectors installed on the Large Hadron Collider (LHC) at CERN. Designed to study heavy-quark production in proton-proton collisions, the detector will undergo a major upgrade in 2030 of all its sub-detectors. Among them, the Upstream Tracker (UT), a four stations tracker installed upstream of the LHCb magnet, is crucial to distinguish fake reconstructed tracks from good ones in heavy-ion collisions with a high particle multiplicity, such as heavy-ion collisions.

Initially made out of strips, the UT will have to be rebuilt with pixel chips to cope with the high collision rate foreseen at the LHC in 2030. The choice of pixel technology is not settled, and studies based on simulation are required to compare the different options. A key ingredient is the chip response function, which can be characterized based on GEANT4 simulations and databases from beam tests made at the CERN. This response function is mandatory for performance studies and ultimately to choose the UT’s future technology.

#INTERNSHIP project:
The internship project is to study and characterize the response function of CMOS chip. To archive this goal, the chosen student will first implement a simple GEANT4 simulation to reproduce the experimental setup used during the beam tests made at CERN. The student will then characterize the response function of different chips by comparing the output of his/her simulations with the databases.

#INTERNSHIP TEAM:
Laboratory: lQGP at CEA Saclay.
Internship supervisor: Benjamin Audurier (benjamin.audurier@cea.fr).
Duration: Four months.
Mots clés/Keywords
Technologie CMOS, Simulation GEANT4
CMOS technology, GEANT4 simulation
Compétences/Skills
Simulation GEANT4. Analyse de donnée avec le framework ROOT.
GEANT4 simulation. Data analysis with the ROOT framework.
PDF
Détection par ondes gravitationnelles des systèmes binaires à rapport de masses extrême
Gravitational wave detection of binary systems with extreme mass ratio

Spécialité

Mathématiques appliquées

Niveau d'étude

Bac+4/5

Formation

Ingenieur/Master

Unité d'accueil

Candidature avant le

23/12/2022

Durée

6 mois

Poursuite possible en thèse

oui

Contact

MOUTARDE Herve
+33 1 69 08 73 88

Résumé/Summary
Le travail proposé consiste à définir des méthodes robustes de détection des systèmes binaires à rapport de masses extrême à partir de certaines de leurs caractéristiques génériques.
The proposed work consists in defining robust methods for the detection of binary systems with extreme mass ratio based on some of their generic characteristics.
Sujet détaillé/Full description
En 2016, l’annonce de la première détection directe d’ondes gravitationnelles a ouvert une ère durant laquelle l’univers sera sondé d’une manière inédite. Simultanément, le succès complet de la mission LISA Pathfinder a validé certaines technologies retenues pour le projet LISA (Laser Interferometer Space Antenna). Cet observatoire spatial serait constitué de trois satellites éloignés de 2.5 millions de kilomètres et permettrait la détection directe d’ondes gravitationnelles indétectables par les interféromètres terrestres. Son lancement est prévu par l’ESA pour 2035.

Les systèmes binaires à rapport de masses extrême (« extreme mass ratio inspiral » ou EMRI) consistent en un couple de trous noirs dont les masses diffèrent d’au moins 4 ordres de grandeur. Il s’agit typiquement d’un trou noir d’une dizaine de masses solaires orbitant autour d’un trou noir d’un million de masses solaires. Le corps léger agit comme une masse test sondant la géométrie de l’espace-temps au voisinage du corps le plus massif. La gamme de fréquences à laquelle l’observatoire spatial LISA sera sensible permettra de suivre cette évolution orbitale pendant des dizaines de milliers d’orbites. De telles configurations ouvrent donc la voie à des tests uniques de relativité générale en couplage fort, faisant de ces systèmes une observable d’intérêt spécifique .

A la différence des observatoires au sol, sensibles à de rares signaux d’ondes gravitationnelles et soumis à un bruit de mesure dominant, un interféromètre spatial sera en permanence alimenté par un grand nombre de signaux distincts et caractérisés théoriquement à divers degrés de précision. Le calcul précis de la signature gravitationnelle des EMRI pose encore de nombreux problèmes théoriques, mais leurs caractéristiques qualitatives générales sont connues. Définir des méthodes robustes de détection des EMRI à partir de ces caractéristiques est un enjeu important d’analyse de données pour la mission LISA.

Les LISA data challenges (LDC) constituent un effort collectif pour résoudre des problèmes d’analyse de données associés à LISA, stimuler le développement d’algorithmes et de codes de calcul, et démontrer la faisabilité de l’exploitation scientifique des données. Les LDC sont le cadre idéal pour développer de nouvelles méthodes de détection d’EMRI et les évaluer sur des données simulées. Cet objectif peut être atteint en deux étapes :
1. L’étude des méthodes utilisées avec succès dans les LDC passés et leur reproduction sur des jeux de données récents. Ces algorithmes reposent sur l’estimation des paramètres physiques décrivant le signal émis par un EMRI.
2. L’étude de méthodes non-paramétriques utilisées pour la détection d’autres types de signaux par LISA et l’évaluation de leur pertinence dans le cas des EMRI.

Dans la mesure où la forme d’onde des EMRI n’est qu’imparfaitement connue, une approche en deux étapes, dissociant détection du signal et estimation des paramètres physiques sous-jacents, pourrait être particulièrement adaptée. De telles méthodes n’ont pas encore été explorées pour les EMRI. Elles requièrent au préalable une compréhension des caractéristiques qualitatives à rechercher pour détecter les EMRI, et l’identification des limites des méthodes paramétriques précédemment utilisées. Une difficulté supplémentaire est que LISA détectera de nombreux types de sources, ouvrant la possibilité de mélange voire de confusion entre sources.

Dans l’ensemble, il faut préciser que si ce sujet comporte une part importante de traitement du signal et des aspects de programmation soignée, un effort devra être porté sur la physique, la compréhension fine du contenu des signaux, et les moyens à mettre en œuvre pour la réalisation des objectifs de physique de la mission LISA.

Contacts :
• Hervé Moutarde herve.moutarde@cea.fr
• Jérôme Bobin jerome.bobin@cea.fr
In 2016, the announcement of the first direct detection of gravitational waves ushered in an era in which the universe will be probed in a way never before possible. Simultaneously, the complete success of the LISA Pathfinder mission validated some of the technologies selected for the LISA (Laser Interferometer Space Antenna) project. This space observatory would consist of three satellites 2.5 million kilometers apart and would allow the direct detection of gravitational waves undetectable by ground-based interferometers. Its launch is planned by ESA for 2035.

Binary systems with extreme mass ratio (EMRI) consist of a pair of black holes whose masses differ by at least 4 orders of magnitude. It is typically a black hole of about ten solar masses orbiting a black hole of one million solar masses. The light body acts as a test mass probing the geometry of space-time in the vicinity of the more massive body. The range of frequencies to which the LISA space observatory will be sensitive will allow to follow this orbital evolution during tens of thousands of orbits. Such configurations thus open the way to unique tests of general relativity in strong coupling, making these systems an observable of specific interest.

Unlike ground-based observatories, sensitive to rare gravitational wave signals and subject to a dominant measurement noise, a space interferometer will be permanently fed by a large number of distinct signals and theoretically characterized at various degrees of accuracy. The precise calculation of the gravitational signature of EMRIs still poses many theoretical problems, but their general qualitative characteristics are known. Defining robust methods for detecting EMRIs from these characteristics is an important data analysis challenge for the LISA mission.

The LISA data challenges (LDCs) are a collaborative effort to solve LISA-related data analysis problems, stimulate the development of algorithms and computational codes, and demonstrate the feasibility of scientific exploitation of the data. LDCs are the ideal setting to develop new EMRI detection methods and evaluate them on simulated data. This goal can be achieved in two steps:
1. Studying methods successfully used in past LDCs and replicating them on recent datasets. These algorithms are based on the estimation of physical parameters describing the signal emitted by an EMRI.
2. The study of non-parametric methods used for the detection of other types of signals by LISA and the evaluation of their relevance in the case of EMRI.

Since the EMRI waveform is only imperfectly known, a two-step approach, dissociating the detection of the signal and the estimation of the underlying physical parameters, could be particularly suitable. Such methods have not yet been explored for EMRI. They require an understanding of the qualitative characteristics to look for in order to detect EMRI, and the identification of the limitations of the parametric methods previously used. An additional difficulty is that LISA will detect many types of sources, opening the possibility of mixing or even confusing sources.

Overall, it should be noted that while this subject includes a significant amount of signal processing and careful programming aspects, an effort will have to be made on the physics, the fine understanding of the content of the signals, and the means to be implemented for the realization of the physics objectives of the LISA mission.

Contacts :
• Hervé Moutarde herve.moutarde@cea.fr
• Jérôme Bobin jerome.bobin@cea.fr
Mots clés/Keywords
Ondes gravitationnelles, statistiques, MCMC, EMRI
Gravitational waves, statistics, MCMC, EMRI
Logiciels
Python
PDF
Détection robuste d’ondes gravitationnelles et atténuation des artefacts de prise de données
Robust detection of gravitational waves and mitigation of data acquisition artifacts

Spécialité

Mathématiques appliquées

Niveau d'étude

Bac+4/5

Formation

Ingenieur/Master

Unité d'accueil

Candidature avant le

23/12/2022

Durée

6 mois

Poursuite possible en thèse

oui

Contact

MOUTARDE Herve
+33 1 69 08 73 88

Résumé/Summary
Le travail proposé consiste à évaluer l’impact des artefacts présents dans le signal acquis sur l’exploitation physique des mesures du futur observatoire gravitationnel LISA.
The proposed work consists in evaluating the impact of the artifacts present in the acquired signal on the physical exploitation of the measurements of the future LISA gravitational observatory.
Sujet détaillé/Full description
En 2016, l’annonce de la première détection directe d’ondes gravitationnelles a ouvert une ère durant laquelle l’univers sera sondé d’une manière inédite. Simultanément, le succès complet de la mission LISA Pathfinder a validé certaines technologies retenues pour le projet LISA (Laser Interferometer Space Antenna). Cet observatoire spatial sera constitué de trois satellites éloignés de 2.5 millions de kilomètres et écoutera l’univers gravitationnel à des longueurs d’ondes cent mille fois plus grandes que celles auxquelles sont sensibles les observatoires terrestres actuels. Son lancement est prévu par l’ESA pour 2035.

A la différence des observatoires au sol, sensibles à de rares signaux d’ondes gravitationnelles et soumis à un bruit de mesure dominant, un interféromètre spatial sera en permanence alimenté par un grand nombre de signaux distincts et caractérisés théoriquement à divers degrés de précision. Les estimations actuelles des quantités et types de source envisagent entre autres 60 millions de systèmes binaires galactiques émettant de manière continue, 10 à 100 signaux annuels provenant de trous noirs supermassifs, et de 10 à 1000 signaux annuels issus de systèmes binaires avec des rapports de masses extrêmes.

Comme dans toute expérience, les données réelles seront soumises à un certain nombre de bruits et d’artefacts à prendre en compte pour optimiser le potentiel scientifique de la mission. Des périodes d’interruption de prises de données sont en effet attendues, par exemple à cause de perturbations liées à la réorientation des antennes de communication avec la Terre ou de pertes de télémétrie. Des transitoires instrumentaux dits « glitches » peuvent aussi perturber le signal mesuré et potentiellement affecter la détection d’ondes gravitationnelles.

Un enjeu clé de la préparation de la mission LISA consiste à évaluer l’impact des artefacts présents dans le signal sur l’exploitation physique des mesures. Cette étude peut avoir des conséquences pratiques sur le dimensionnement de la mission, par exemple dans la planification des interruptions de prises de données.

Les LISA data challenges (LDC) constituent un effort collectif pour résoudre des problèmes d’analyse de données associés à LISA, stimuler le développement d’algorithmes et de codes de calcul, et démontrer la faisabilité de l’exploitation scientifique des données. Les LDC sont le cadre idéal pour évaluer sur des données simulées l’impact de la présence d’artefacts. Une attention particulière sera accordée au LDC2b dit « Spritz » contenant 1 an de pseudo-données, 36 systèmes binaires galactiques, et une certaine quantité de glitches distribués aléatoirement. Ce travail s’organisera en deux étapes :
1. L’utilisation des méthodes développées pour la gestion des données lacunaires dans LISA . Il s’agit d’identifier les glitches et de supprimer les blocs de données affectés, créant ainsi des lacunes. Deux méthodes différentes ont été proposées mais leurs performances n’ont pas encore été comparées.
2. L’étude de méthodes non-paramétriques basées sur l’apprentissage automatique de formes d’ondes en s’appuyant sur le catalogue des glitches mesurés sur LISA Pathfinder. Cette approche considère glitches et ondes gravitationnelles émises par des systèmes physiques comme deux types de signaux différents qu’on distinguera par leurs formes respectives.

Les mérites respectifs de chacune des deux étapes ci-dessus devront être évalués et comparés. En principe, la seconde approche permettrait de séparer glitches et signatures des binaires galactiques, et limiterait la perte de signal exploitable dans l’analyse des données. Une extension naturelle de ce programme de travail consisterait à traiter le cas de de la fusion de trous noirs super massifs.

Dans l’ensemble, il faut préciser que si ce sujet comporte une part importante de traitement du signal et des aspects de programmation soignée, un effort devra être porté sur la physique, la compréhension fine des caractéristiques des différents signaux, et les moyens à mettre en œuvre pour la réalisation des objectifs de physique de la mission LISA.

Contacts :
• Hervé Moutarde herve.moutarde@cea.fr
• Jérôme Bobin jerome.bobin@cea.fr

In 2016, the announcement of the first direct detection of gravitational waves ushered in an era in which the universe will be probed in a way never before possible. Simultaneously, the complete success of the LISA Pathfinder mission validated some of the technologies selected for the LISA (Laser Interferometer Space Antenna) project. This space observatory will consist of three satellites 2.5 million kilometers apart and will listen to the gravitational universe at wavelengths one hundred thousand times greater than those to which current ground-based observatories are sensitive. Its launch is planned by ESA for 2035.

Unlike ground-based observatories, which are sensitive to rare gravitational wave signals and subject to dominant measurement noise, a space-based interferometer will be permanently fed by a large number of distinct signals, theoretically characterized to varying degrees of accuracy. Current estimates of source quantities and types envision, among other things, 60 million continuously emitting Galactic binary systems, 10 to 100 annual signals from supermassive black holes, and 10 to 1000 annual signals from binary systems with extreme mass ratios.

As with any experiment, the actual data will be subject to a number of noises and artifacts that must be taken into account to maximize the scientific potential of the mission. Periods of interruption of data taking are indeed expected, for example because of disturbances related to the reorientation of the communication antennas with the Earth or losses of telemetry. Instrumental transients called "glitches" can also disturb the measured signal and potentially affect the detection of gravitational waves.

A key issue in the preparation of the LISA mission is to assess the impact of artifacts in the signal on the physical exploitation of the measurements. This study can have practical consequences on the mission design, for example in the planning of data collection interruptions.

LISA data challenges (LDC) are a collective effort to solve LISA-related data analysis problems, stimulate the development of algorithms and computational codes, and demonstrate the feasibility of scientific exploitation of the data. LDCs are the ideal framework for evaluating the impact of artifacts on simulated data. Particular attention will be paid to the LDC2b called "Spritz" containing 1 year of pseudo-data, 36 galactic binary systems, and a certain amount of randomly distributed glitches. This work will be organized in two steps:
1. The use of the methods developed for the management of gapped data in LISA . This involves identifying glitches and removing the affected data blocks, thus creating gaps. Two different methods have been proposed but their performance has not yet been compared.
2. The study of non-parametric methods based on the machine learning of waveforms using the catalog of glitches measured on LISA Pathfinder. This approach considers glitches and gravitational waves emitted by physical systems as two different types of signals that will be distinguished by their respective shapes.

The respective merits of each of the above two steps will have to be evaluated and compared. In principle, the second approach would allow to separate glitches and signatures of galactic binaries, and would limit the loss of exploitable signal in the data analysis. A natural extension of this work program would be to treat the case of supermassive black hole mergers.

Overall, it should be noted that if this subject includes an important part of signal processing and aspects of careful programming, an effort should be made on the physics, the fine understanding of the characteristics of the various signals, and the means to be implemented for the realization of the physics objectives of the LISA mission.

Contacts:
• Hervé Moutarde herve.moutarde@cea.fr
• Jérôme Bobin jerome.bobin@cea.fr
Mots clés/Keywords
Ondes gravitationnelles, statistiques, apprentissage automatique, représentation parcimonieuse
Gravitational waves, statistics, machine learning, sparse representation
Logiciels
Python
PDF
Développement d'un algorithme pour trouver les vertex déplacés pour l'expérience CLAS12
Development of an algorithm to find displaced vertices for the CLAS12 experiment

Spécialité

Physique nucléaire

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

05/06/2023

Durée

6 mois

Poursuite possible en thèse

oui

Contact

DEFURNE Maxime
+33 1 69 08 32 37

Résumé/Summary
The main objective of the internship is to implement an algorithm able to resolve displaced vertices. This algorithm will significantly improve the reconstruction of long-lived particles decaying a few centimeter away from the beam. It may even make possible the study of new physics channels, key to the understanding of the proton structure.
The main objective of the internship is to implement an algorithm able to resolve displaced vertices. This algorithm will significantly improve the reconstruction of long-lived particles decaying a few centimeter away from the beam. It may even make possible the study of new physics channels, key to the understanding of the proton structure.
Sujet détaillé/Full description
Deep inelastic collisions of electrons off protons are the cleanest way to investigate the inner structure of nucleons and nuclei. With a 10.6 GeV electron beam colliding with protons at rest, the CLAS12 experiment aims at understanding how valence quarks and gluons (i.e. carrying more than 10% of the proton momentum) organize themselves to form a proton.
From these collisions, strange particles are sometimes produced: these strange particles are composed a strange quark and often have relatively long lifetime as they decay through the weak interaction. As the produced strange particles travel in the lab almost at the speed of light, their decay occurs a few centimeters away from the electron-proton collision site also known as vertex. As the reconstruction software assumes that all particles are coming from the beam, the 4-momenta of the decay products are misreconstructed and the strange particle consequently not detected.
The goal of the intenrship is to implement an algorithm able to find intersections (verticies) between the trajectory of particles and derive the 4-momenta of the particles at this intersection. With the correct momenta, the strange particle will be properly reconstructed and identified.
The student will have the opportunity to report in international meetings about his/her progress. If fast enough, this algorithm may become an official tool of the CLAS12 collaboration and lead to a technical publication.
Deep inelastic collisions of electrons off protons are the cleanest way to investigate the inner structure of nucleons and nuclei. With a 10.6 GeV electron beam colliding with protons at rest, the CLAS12 experiment aims at understanding how valence quarks and gluons (i.e. carrying more than 10% of the proton momentum) organize themselves to form a proton.
From these collisions, strange particles are sometimes produced: these strange particles are composed a strange quark and often have relatively long lifetime as they decay through the weak interaction. As the produced strange particles travel in the lab almost at the speed of light, their decay occurs a few centimeters away from the electron-proton collision site also known as vertex. As the reconstruction software assumes that all particles are coming from the beam, the 4-momenta of the decay products are misreconstructed and the strange particle consequently not detected.
The goal of the intenrship is to implement an algorithm able to find intersections (verticies) between the trajectory of particles and derive the 4-momenta of the particles at this intersection. With the correct momenta, the strange particle will be properly reconstructed and identified.
The student will have the opportunity to report in international meetings about his/her progress. If fast enough, this algorithm may become an official tool of the CLAS12 collaboration and lead to a technical publication.
Mots clés/Keywords
Physique des particules, software, reconstruction de particules
Particle physics, software, particle reconstruction
Logiciels
C++, Python, Java... choice is yours as long as the code is efficient and fast.
PDF
L'anomalie des antineutrinos de réacteur à l’épreuve de la fonction force bêta.
The reactor antineutrino anomaly and the beta strength function.

Spécialité

Physique nucléaire

Niveau d'étude

Bac+4/5

Formation

Ingenieur/Master

Unité d'accueil

Candidature avant le

28/02/2023

Durée

6 mois

Poursuite possible en thèse

oui

Contact

LETOURNEAU Alain
+33 1 69 08 76 01

Résumé/Summary
L'objet du stage est de mettre en place un modèle de fonction force bêta pour les produits de fission, basée sur une analyse multivariée des données existantes. Ce travail servira à améliorer la modélisation de la désintégration bêta et des spectres d'antineutrinos de réacteur.
The purpose of the internship is to set up a beta-strength function model for fission products, based on a multivariate analysis of existing data. This work will be used to improve the modeling of beta decay and reactor antineutrino spectra.
Sujet détaillé/Full description
L’anomalie des antineutrinos de réacteur est un problème qui perdure depuis une dizaine d’années en physique du neutrino. Elle consiste en des déviations de quelques pourcents entre les spectres en énergie des antineutrinos mesurés auprès de réacteurs nucléaires et la modélisation à partir de nos connaissances de la radioactivité bêta. Elles pourraient être le signe de l’existence d’états stériles du neutrino et de l’hypothèse d’une physique au-delà du modèle standard, mais cette hypothèse est aujourd’hui rejetée par les expériences les plus récentes [1]. L’explication la plus actuelle se trouverait dans un biais dans les données expérimentales qui ont servis à établir la prédiction [2]. Pour confirmer cette explication, il est nécessaire d’exclure tous biais dans la modélisation de la désintégration bêta.

Dans ce stage, nous proposons de travailler au développement d’un modèle de fonction force bêta, la quantité qui permet de calculer l’intensité des transitions vers l’état final. Il s’agira d’établir la fonction force bêta de chaque fragment de fission en s’appuyant sur des techniques d’analyse empruntées à l’intelligence artificielle (IA) afin d’extraire les informations pertinentes de l’ensemble des données disponibles. Ces fonctions seront validées et utilisées pour calculer les transitions bêtas inconnues de certains noyaux.

Le travail consistera, dans un premier temps, à mettre en place le code d’analyse multivariée et à sélectionner l’approche d’IA la plus adaptée à notre problématique. Les données expérimentales de fonction force seront utilisées pour entraîner le réseau de neurone et l’analyse sera menée sur l’ensemble des données disponibles. Les fonctions forces ainsi obtenues seront utilisées pour calculer les transitions inconnues dans un modèle de désintégration bêta et générer des spectres électrons et antineutrinos qui seront comparés aux spectres mesurés.

[1] H. Almazán, et al (Stereo Collaboration), Improved Sterile Neutrino Constraints from the STEREO Experiment with 179 Days of Reactor-On Data, arXiv:1912.06582 (2020).
[2] A. Letourneau et al., On the origin of the reactor antineutrino anomalies in light of a new summation model with parameterized ?? transitions, arXiv:2205.14954 (2022).
The reactor antineutrino anomaly is an ongoing problem in neutrino physics. It consists in deviations of a few percent between the energy spectra of antineutrinos measured at nuclear reactors and the modeling based on our knowledge of beta radioactivity. They could be a sign of the existence of sterile neutrino states and of the hypothesis of a physics beyond the standard model, but this hypothesis is now rejected by the most recent experiments [1]. The most actual explanation would be found in a bias in the experimental data that were used to establish the prediction [2]. To confirm this explanation, it is necessary to exclude any bias in the modeling of beta decay.

In this internship, we propose to work on the development of a model of the beta strength function, the quantity that allows to calculate the intensity of the transitions to the final state. We will establish the beta strength function of each fission fragment using analysis techniques borrowed from artificial intelligence (AI) in order to extract the relevant information from the available data set. These functions will be validated and used to calculate the unknown beta transitions of some nuclei.

The work will consist, in a first step, in setting up the multivariate analysis code and in selecting the AI approach the most adapted to our problem. The experimental strength function data will be used to train the neural network and the analysis will be carried out on all the available data. The resulting force functions will be used to calculate unknown transitions in a beta decay model and generate electron and antineutrino spectra that will be compared to measured spectra.

[1] H. Almazán, et al (Stereo Collaboration), Improved Sterile Neutrino Constraints from the STEREO Experiment with 179 Days of Reactor-On Data, arXiv:1912.06582 (2020).
[2] A. Letourneau et al, On the origin of the reactor antineutrino anomalies in light of a new summation model with parameterized ?- transitions, arXiv:2205.14954 (2022).
Compétences/Skills
Analyse multivariée.
Multivariate analysis
Logiciels
C++
PDF
Marches Aléatoires Branchantes et Mécanique Quantique.
Branching Random Walks and Quantum Mechanics

Spécialité

Physique théorique, mécanique quantique

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

15/03/2023

Durée

6 mois

Poursuite possible en thèse

non

Contact

DUMONTEIL Eric
+33 1 69 08 56 02

Résumé/Summary
On étudie formellement et numériquement l'équivalence entre l'équation de Schrödinger (utilisée en mécanique quantique non relativiste) et l'équation de la diffusion critique (utilisée notamment en théorie du transport des neutrons).
Formal and numerical study of the equivalence between the Schrödinger equation used in non relativistic quantum mechanics and a critical diffusion equation (used noticeably in neutron transport theory).
Sujet détaillé/Full description
L'étude des marches aléatoires branchantes permet de décrire de nombreux phénomènes tels que la propagation des épidémies, la transmission génétique au sein de populations, ou le transport des neutrons dans les milieux fissiles pour n'en citer que quelques-uns. Dans ce dernier domaine par exemple, des travaux récents ont montré que des structures spatiales (phénomène de "clustering") pouvaient émerger au sein de la population de neutron présente dans un réacteur nucléaire [1], que l'on caractérise à l'aide de la fonction de corrélation spatiale (ou fonction à deux points).

Dans ce stage, on se propose d'explorer les similitudes entre la mécanique quantique (équation de la diffusion à temps complexe) et la neutronique (équation de la diffusion critique à temps réel). En effet, certains codes numériques permettant de calculer l'état fondamental de systèmes quantiques (Diffusion Monte Carlo [2]) sont très proches des codes de neutroniques permettant de calculer la distribution d'un gaz de neutron en réacteur (Monte Carlo Criticality Codes). On formalisera cette proximité par l'étude d'un changement de variable reliant les deux équations, en on en profitera pour généraliser la méthode au calcul des états excités des systèmes quantiques. Ces travaux formels seront appuyés numériquement par des développements informatiques ad hoc dans un code Monte-Carlo simplifié. Ils permettront notamment de réaliser une analyse spectrale de quelques configurations simples (calcul des états quantiques de l'ion H+ ou du dihydrogène) qui confirmeront la validité de cette approche. Des perspectives seront ouvertes quant à son extension aux états non stationnaires (Monte Carlo Quantum Dynamics) ou à l'étude du lien entre théorie quantique des champs et théorie statistique des champs pour les processus de réaction-diffusion [3,4].

Le candidat recherché doit être en dernière année d'école d'ingénieur ou en master recherche de physique théorique, de physique fondamentale ou de neutronique. Il doit avoir des connaissances de base en modélisation mathématique et en physique statistique (ex: probabilités, calcul stochastique, marches aléatoires, transitions de phase) et être capable de réaliser des développements informatiques en C++ ou en Python.

Ce travail sera basé sur le centre de Saclay du CEA (Orme des Merisiers).

[1] E. Dumonteil et al. Nature Commun Phys 4, 151 (2021).
[2] https://arxiv.org/abs/physics/9702023
[3] M. Doi, J. Phys. A: Math. Gen. 9, 1465 (1976).
[4] L. Peliti, J. Phys. (Paris) 46, 1469 (1985).
The study of branching random walks allows to describe many phenomena such as the propagation of epidemics, genetic transmission within populations, or neutron transport in fissile media, just to name a few. In this last field, for example, recent works have shown that spatial structures (clustering phenomenon) can emerge within the neutron population present in a nuclear reactor [1], which can be characterized using the spatial correlation function (or two-point function).

In this internship, we propose to explore the similarities between quantum mechanics (complex time diffusion equation) and neutronics (real time critical diffusion equation). Indeed, some numerical codes allowing to compute the ground state of quantum systems (Diffusion Monte Carlo [2]) are very close to neutronics codes allowing to compute the distribution of a neutron gas in a reactor (Monte Carlo Criticality Codes). We will formalize this proximity by studying a change of variable linking the two equations, and we will take advantage of this to generalize the method to the calculation of excited states of quantum systems. This formal work will be supported numerically by ad hoc computer developments in a simplified Monte-Carlo code. In particular, they will allow to perform a spectral analysis of some simple configurations (calculation of the quantum states of the H+ ion or of dihydrogen) which will confirm the validity of this approach. Prospects will be opened for its extension to non-stationary states (Monte Carlo Quantum Dynamics) or for the study of the link between quantum field theory and statistical field theory for reaction-diffusion processes [3,4].

The candidate must be in the last year of engineering school or in a research master (theoretical physics, fundamental physics or neutron transport theory). He/she must have basic knowledge in mathematical modeling and statistical physics (e.g. probabilities, stochastic calculus, random walks, phase transitions) and be able to develop software in C++ or Python.

This work will be based at the CEA Saclay center (Orme des Merisiers).

[1] E. Dumonteil et al. Nature Commun Phys 4, 151 (2021).
[2] https://arxiv.org/abs/physics/9702023
[3] M. Doi, J. Phys. A: Math. Gen. 9, 1465 (1976).
[4] L. Peliti, J. Phys. 46, 1469 (1985).
Mots clés/Keywords
Neutronique, physique statistique, marches aléatoires, processus branchants
Neutron transport theory, statistical physics, random walks, branching processes
Compétences/Skills
Equation de la diffusion critique Analyse spectrale Simulation Monte Carlo de marches aléatoires branchantes Monte Carlo diffusif
Critical diffusion equation Spectral analysis Monte Carlo simulation of branching random walks Diffusion Monte Carlo
Logiciels
C++ Python Notebook Jupyter
PDF
Mesure de la production double de charme dans les collisions Pb-Pb à 5 TeV au CERN avec LHCb
Measurement of double charm production in Pb-Pb collisions at 5 TeV at CERN with LHCb.

Spécialité

Physique nucléaire

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

01/03/2023

Durée

3 mois

Poursuite possible en thèse

oui

Contact

AUDURIER Benjamin
+33 1 69 08 73 08

Résumé/Summary
Le projet du stage porte sur l’étude et la mesure de la production double charme avec les données Pb-Pb enregistrées en 2018 par la collaboration LHCb. La majeure partie du stage consistera à analyser les données en utilisant de code d’analyse ROOT et les différents outils PYTHON existants. Une seconde partie concernera l’interprétation des résultats du stage, qui serviront de base pour l’analyse des futures données Pb-Pb prévues pour 2023. Cette analyse sera l’un des aspects d’une future thèse, en parallèle d’études de trajectographie basées sur l’utilisation de Graph Neural Network.
The internship project is to study the double charm production in the 2018 Pb-Pb sample with the LHCb detector. A large part of the internship will be dedicated to data analysis using the ROOT framework together with PYTHON analysis tools. Another part will focus on the interpretation of the analysis’s results. Finally, this work will serve later to analyze the forthcoming 2023 ion run, which will be one of the aspects of the future thesis project, alongside tracking studies based on Graph Neural Networks.
Sujet détaillé/Full description
# SYNOPSIS

Les collisions d'ions lourds constituent un laboratoire privilégié pour étudier le plasma de quark et de gluons (QGP), un état exotique de la matière qui aurait existé quelques micro-secondes après le Big Bang. Parmi les outils de traque du QGP, les hadrons contenant un quark charmé (comme le méson D0) ont très tôt joué un rôle de premier plan. Produites aux premiers instants de la collision, ces particules traversent/interagissent avec le QPG si celui-ci se forme. Elles en sont alors affectées, et nous renseignent alors sur ce milieu. Ainsi, l'étude de la double production simultanée de charme est sensible aux propriétés de transport du QGP. Cette étude est d'autant plus intéressante qu'elle n'a encore jamais été conduite en collisions ion-ion au LHC. L'atout de LHCb réside dans son appareillage spécialisé dans la détection des particules composées de quarks lourds.

En 2018, la collaboration LHCb a enregistrer un large lot de données utilisé pour les premières publications de la collaboration avec des collisions Pb-Pb à haute-énergie. En 2023, de nouvelles données seront enregistrées, enrichies par les améliorations de l'appareillage expérimental mises en place lors des derniers upgrades de LHCb. Elles comprennent un nouveau système de trajectographie plus efficace et plus robuste dans l'environnement à fort taux d'occupation de ce détecteur en collisions ion-ion.

#Projet de stage

Le projet du stage porte sur l’étude et la mesure de la production double charme avec les données Pb-Pb enregistrées en 2018 par la collaboration LHCb en s’inspirant de travaux publiés[1]. La majeure partie du stage consistera à analyser les données en utilisant de code d’analyse ROOT et les différents outils PYTHON existants. Une seconde partie concernera l’interprétation des résultats du stage, qui serviront de base pour l’analyse des futures données Pb-Pb prévues pour 2023. Cette analyse sera l’un des aspects d’une future thèse[2], en parallèle d’études de trajectographie basées sur l’utilisation de Graph Neural Network. Enfin, le ou la candidate participera et présentera ses travaux aux réunions de la collaboration LHCb pendant son stage.

#References:

1. Phys. Rev. Lett. 125 (2020) 212001
2. https://instn.cea.fr/these/mesure-de-la-production-double-de-charme-dans-les-collisions-pb-pb-a-5-tev-au-cern-avec-lhcb/
# Research overview

Heavy-ion collisions are the golden system to study the quark-gluon plasma (QGP), an exotic state of matter that presumably existed a few microseconds after the Big Bang. Among the probes to study the QGP, the production of hadrons containing charm quark (e.g D0 mesons) is one of the historical smoking guns. Indeed, being produced in the very first stages of the collisions, these particles keep track of their subsequent interactions with the QGP. In particular, the study of simultaneous double charm production, never carried out in ion-ion collisions at the LHC, could shed a light on the transport properties of the QGP.

In 2018, the LHCb collaboration has recorded Pb-Pb data leading to the first publications of the collaboration in ion-ion collisions. A new Pb-Pb sample is foreseen for 2023. These new data will benefit from the latest LHCb upgrade which increases the detector capability thanks to the new tracking system.


# INTERNSHIP project

The internship project is to study the double charm production in the 2018 Pb-Pb sample with the LHCb detector, following the methodology of Ref[1]. A large part of the internship will be dedicated to data analysis using the ROOT framework together with PYTHON analysis tools. Another part will focus on the interpretation of the analysis’s results. Finally, this work will serve later to analyze the forthcoming 2023 ion run, which will be one of the aspects of the future thesis project[2], alongside tracking studies based on Graph Neural Networks. The selected candidate will participate and report to the LHCb meeting during the internship, and his/her report will be used by the collaboration.

1. Phys. Rev. Lett. 125 (2020) 212001
2. https://instn.cea.fr/these/mesure-de-la-production-double-de-charme-dans-les-collisions-pb-pb-a-5-tev-au-cern-avec-lhcb/
Mots clés/Keywords
Plasma de quark et gluon, physique des hautes énergies
Quark-Gluon plasma, High-energy physics
Logiciels
ROOT, PYTHON, C++
PDF
Réduction de variance multi-particules multi-détecteurs dans le code Monte-Carlo Geant4
Multiparticles and multidetectors variance reduction within the Geant4 Monte Carlo code

Spécialité

Physique nucléaire

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

06/04/2023

Durée

6 mois

Poursuite possible en thèse

oui

Contact

THULLIEZ Loïc
+33 1 69 08 74 53

Résumé/Summary
L'objectif de ce stage est d'étendre la méthode de réduction de variance appelée AMS (de type une particule que l'on pousse vers un détecteur) au cas de l'étude d'événements rares corrélés, i.e. au cas multi-particules/multi-détecteurs. Ces développements seront réalisés dans le code Monte Carlo Geant4 développé par le CERN et seront utilisés par plusieurs communautés scientifiques comme la physique médicale, spatiale, nucléaire et des particules.
The objective of this internship is to extend the variance reduction method called AMS (such as a particle that is pushed towards a detector) to the case of the study of correlated rare events, i.e. to the multi-particle/multi-detector case. These developments will be carried out in the Monte Carlo Geant4 code developed by CERN and will be used by several scientific communities such as medical, space, nuclear and particle physics.
Sujet détaillé/Full description
Responsables du stage :
Loic Thulliez, loic.thulliez@cea.fr, 01 69 08 56 02
Eric Dumonteil, eric.dumonteil@cea.fr, 01 69 08 56 02

La simulation Monte Carlo du transport des particules est devenue aujourd’hui centrale dans de nombreux domaines tels que la physique fondamentale, la physique médicale ou les applications spatiales pour n'en citer que quelques-uns. Afin de pallier les temps de calculs inhérents à cette méthode, des techniques dites "de réduction de variance" sont développées, dont l'objectif est de "pousser" les particules vers le(s) détecteur(s) sans induire de biais sur les résultats du calcul. Récemment, une méthode de réduction de variance dite Adaptative Multilevel Splitting (AMS) [1,2], s'intéressant aux événements rares, a été conçue et implémentée dans différents codes de calculs, tels que le code Monte Carlo TRIPOLI4 développé au CEA ou le code Monte Carlo Geant4 développé au CERN par une collaboration internationale. Cette méthode offre des perspectives très intéressantes car elle permet de préserver les corrélations entre les particules contribuant à la mesure, ce que ne permettent pas les méthodes standards de réduction de variance comme par exemple l'Importance Sampling.
Ce sujet de stage propose d'évaluer l'intérêt de cette approche dans le contexte de la physique fondamentale, où les simulations cherchent à détecter des événements rares, comme par exemple dans les expériences visant à mettre en évidence la matière noire ou la désintégration double béta sans émissions de neutrinos. En effet, ces expériences mettent régulièrement en œuvre des méthodes de détection en coïncidence permettant d’augmenter le rapport signal sur bruit (à titre illustratif on peut imaginer la détection d'un neutron dans un détecteur A et d'un photon dans un détecteur B). Elles représentent un challenge en termes de calcul numérique car leur simulation nécessite l'échantillonnage d'un nombre souvent rédhibitoire d'événements (de sorte à ce qu'une fraction très faible d'entre eux contribuent à la mesure).
Le sujet de ce stage consiste donc à utiliser l'AMS implémenté dans le code Geant4 et à en optimiser les paramètres dans des configurations dites "multi-particules/multi-détecteurs", afin de pouvoir simuler des événements rares corrélés. Le/la stagiaire devra pour ce faire finaliser les développements déjà entrepris puis à en vérifier l'efficacité sur différents cas physiques simples représentatifs. Des benchmarks expérimentaux pourront également être envisagés à l'aide de dispositif de détection simples dont dispose le laboratoire. Ce travail pourra éventuellement donner lieu à une poursuite en thèse de doctorat. Il sera basé sur le centre de Saclay du CEA (Orme des Merisiers).
Tutors :
Loic Thulliez, loic.thulliez@cea.fr,  01 69 08 56 02
Eric Dumonteil, eric.dumonteil@cea.fr, 01 69 08 56 02

The Monte Carlo simulation of particle transport has become central in many fields such as fundamental physics, medical physics or space applications just to name a few. In order to overcome the computation time inherent to this method, so-called "variance reduction" techniques are developed, whose objective is to "push" the particles towards the detector(s) without inducing bias on the computation results. Recently, a variance reduction method called Adaptive Multilevel Splitting (AMS) [1,2], which focuses on rare events, has been designed and implemented in different calculation codes, such as the Monte Carlo code TRIPOLI4 developed at CEA or the Monte Carlo code Geant4 developed at CERN by an international collaboration. This method offers very interesting perspectives because it allows to preserve the correlations between the particles contributing to the measurement, which is not possible with standard variance reduction technics such as Importance Sampling.
This internship topic proposes to evaluate the interest of this approach in the context of fundamental physics, where simulations seek to detect rare events, as for example in experiments aiming to reveal dark matter or double beta decay without neutrino emission. Indeed, these experiments regularly use coincidence detection methods to increase the signal-to-noise ratio (as an example, one can imagine the detection of a neutron in detector A and a photon in detector B). They represent a challenge in terms of numerical calculation because their simulation requires the sampling of an often-prohibitive number of events (so that a very small fraction of them contribute to the measurement).
The subject of this internship is therefore to use the AMS implemented in the Geant4 code and to optimize its parameters in so-called "multi-particle/multi-detector" configurations, in order to be able to simulate rare correlated events. The trainee will have to finalize the developments already undertaken and to verify their efficiency on different simple representative physical cases. Experimental benchmarks could also be considered using simple detection devices available in the laboratory. This work could eventually lead to a PhD thesis. It will be based at the CEA Saclay center (Orme des Merisiers).
Mots clés/Keywords
Transport de particles, méthode de réduction de variance, AMS
Particle transport, variance reduction technics, AMS
Compétences/Skills
• Stage de fin d’étude pour un(e) étudiant(e) de M2/école d’ingénieur d’une durée de 5 à 6 mois • Connaissances en physique nucléaire, des particules, mécanique quantique, neutronique
• Physics master student (eg fundamental physics, particle physics, nuclear physics, neutronics) • Knowledge in nuclear and particle physics, quantum mechanics, neutronics
Logiciels
C++, Python, ROOT (est un plus), Geant4 (est un plus)
PDF
Simulation d’un dispositif pour la mesure des spectres beta de fission dans le contexte des antineutrinos de réacteurs
Simulation of a detection setup for the measurement of fission beta spectra in the context of reactor antineutrinos

Spécialité

Physique nucléaire

Niveau d'étude

Bac+4/5

Formation

Ingenieur/Master

Unité d'accueil

Candidature avant le

31/03/2023

Durée

3 ans

Poursuite possible en thèse

non

Contact

Materna Thomas
+33 1 69 08 40 91

Résumé/Summary
Le stage consistera à optimiser, à l’aide de simulations sous GEANT-4, la géométrie d’un nouveau système de détection des électrons émis lors de la désintégration des fragments de fission.
The internship will consist in optimizing, with the help of GEANT-4 simulations, the geometry of a new detection system for electrons emitted during the decay of fission fragments.
Sujet détaillé/Full description
L'anomalie des antineutrinos de réacteur, à savoir un déficit significatif, de 5.5 +/- 1.2 % dans le nombre d’antineutrinos détectés à courte distance des réacteurs reste une énigme. Les résultats de plusieurs expériences de grande envergure, dont celle menée par notre laboratoire avec le détecteur STEREO auprès du réacteur à haut flux de Grenoble, confirment l’anomalie mais rejette l’hypothèse proposée initialement, celle d’une oscillation des antineutrinos vers un état stérile. L’hypothèse actuellement retenue est l’existence de biais dans la prédiction obtenue à partir des spectres beta de référence, mesurés dans les années 80 avec le spectromètre magnétique BILL auprès du réacteur de Grenoble. La prédiction de spectres des antineutrinos directement à partir des données nucléaires actuelles, et donc sans utiliser les mesures BILL, est également possible mais les incertitudes sont dominées par des erreurs et/ou des lacunes dans les données de décroissance beta (effet Pandémonium).

Le stage consistera à simuler un nouveau dispositif permettant de mesurer les spectres beta des fragments de fission et d’améliorer à terme la prédiction du spectre des antineutrinos. Ce dispositif devrait être installé dans un premier temps sur le spectromètre de fragments de fission Lohengrin de l’ILL puis dans un deuxième temps sur le spectromètre FIPPS de l’ILL. Le travail de stage sera d’implémenter la géométrie des détecteurs avec la librairie GEANT-4 et d’optimiser leurs dimensions.

De bonnes connaissances en physique nucléaire et un attrait marqué pour l’expérimentation sont indispensables. La simulation sera implémentée en C++ sur GEANT4. Ce stage dont la durée peut être adaptée de 3 à 6 mois requière de très bonnes compétences en programmation.
The reactor antineutrino anomaly, namely a significant deficit of 5.5 +/- 1.2 % in the number of antineutrinos detected at short distance from the reactors remains an enigma. The results of several large-scale experiments, including the one carried out by our laboratory with the STEREO detector at the high flux reactor of Grenoble, confirm the anomaly but reject the hypothesis initially proposed, an oscillation of antineutrinos towards a sterile state. The current hypothesis is the existence of biases in the prediction obtained from reference beta spectra, measured in the 1980s with the BILL magnetic spectrometer at the Grenoble reactor. The prediction of antineutrino spectra directly from actual nuclear data, and thus without using the BILL measurements, is also possible but the uncertainties are dominated by errors and/or gaps in the beta decay data (Pandemonium effect).

The internship will consist in simulating a new device allowing to measure the beta spectra of fission fragments and to improve the prediction of the antineutrino spectrum. This device will be installed first on the Lohengrin fission fragment spectrometer of the ILL and then on the FIPPS spectrometer of the ILL. The internship work will be to implement the geometry of the detectors with the GEANT-4 library and to optimize their dimensions.

A good background in nuclear physics and a pronounced interest in experimental work is essential. The simulation will be implemented in C++ on GEANT4. This internship, whose duration may be adapted from 3 to 6 months, requires very good programming skills.
Mots clés/Keywords
simulation numérique
Compétences/Skills
- Programmation en C++ avec l'environnement, les librairies ROOT (CERN). - Simulation avec GEANT 4
- C++ using ROOT (CERN) libraries. - Simulation with GEANT4.
Logiciels
C++, ROOT, GEANT4
PDF
Simulation numérique d'un dispositif de mesure des réactions de capture et de fission à n_TOF (CERN)
Numerical simulation of an experimental setup for measuring capture and fission reactions at n_TOF (CERN)

Spécialité

Physique nucléaire

Niveau d'étude

Bac+5

Formation

Ingenieur/Master

Unité d'accueil

Candidature avant le

01/02/2023

Durée

6 mois

Poursuite possible en thèse

oui

Contact

DUPONT Emmeric
+33 1 69 08 75 53

Résumé/Summary
L'objet du stage est de réaliser les simulations numériques nécessaires à la mesure des rendements de capture et de fission du plutonium-241 auprès de l’installation n_TOF du CERN
The goal of the internship is to perform the numerical simulations necessary for the measurement of the capture and fission yields of plutonium-241 at the n_TOF facility at CERN
Sujet détaillé/Full description
Le plutonium (Pu) est produit dans les réacteurs à eau actuels qui utilisent de l'uranium (U) pour combustible. Le Pu-239 est produit par capture neutronique sur U-238 puis double décroissance β (U-238(n,γ)U-239 --> Np-239 --> Pu-239). Les Pu-240 et Pu-241 sont produits par captures successives sur le Pu-239. En fin de cycle, lorsque le combustible est usé, les isotopes fissiles du plutonium (Pu-239, Pu-241) contribuent significativement à la production d'énergie. Dans le cas d'un réacteur utilisant du plutonium pour combustible la contribution du Pu-241 est importante dès le début de cycle. Le Pu-241 est mal connu en raison des difficultés inhérentes à son étude, d'une part du fait de sa courte demi-vie (~14 ans) et d'autre part de sa décroissance en Am-241 dont la section de capture très élevée perturbe la mesure. L'Agence pour l'Énergie Nucléaire recommande donc d'améliorer la précision des sections de capture et de fission du Pu-241.
La section de capture du Pu-241 est environ 4 fois plus faible que celle de fission dans le domaine en énergie d'intérêt. Afin de réaliser une mesure précise de la capture il faut donc développer un dispositif permettant de détecter les gammas et d'identifier ceux provenant de la fission. Dans l'expérience proposée auprès de la source de neutrons n_TOF du CERN, les gammas issus des réactions (n,γ) et (n,f) sont détectés par un calorimètre 4pi (TAC – Total Absorption Calorimeter) tandis que les événements de fission sont identifiés par une chambre à fission (CaF) contenant les échantillons de Pu-241 placée au centre du TAC. Cette mesure permettra d’améliorer la précision de la section efficace de capture tout en apportant des informations complémentaires sur la réaction de fission (gammas prompts et section efficace).
Afin de concevoir les éléments du dispositif expérimental (CaF et échantillons notamment) et de démontrer la faisabilité de la mesure il est nécessaire de réaliser des simulations numériques. Au cours du stage le/la candidat/e contribuera à la préparation de l'expérience au sein de l'équipe d'accueil. Il/Elle réalisera les simulations numériques du dispositif expérimental (TAC + Chambre à Fission + échantillons) au moyen du code Geant4 et proposera des spécifications préliminaires pour le design de la Chambre à fission et des échantillons de Pu-241.
Le stage a vocation à être suivi d’une thèse de doctorat sur le même sujet, sous réserve d’acceptation du dossier (sujet, candidat, financement...).
Plutonium (Pu) is produced in current power reactors that use uranium (U) for fuel. Pu-239 is produced by neutron capture on U-238 and then double ? decay (U-238(n,?)U-239 --> Np-239 --> Pu-239). Pu-240 and Pu-241 are produced by successive captures on Pu-239. At the end of a cycle, when the fuel is spent, the fissile isotopes of plutonium (Pu-239, Pu-241) contribute significantly to energy production. In the case of a reactor using plutonium as fuel, the contribution of Pu-241 is important from the beginning of the cycle. Pu-241 is not well known because of the difficulties inherent to its study, on the one hand because of its short half-life (~14 years) and on the other hand because of its decay into Am-241 whose very high capture cross-section disturbs the measurement. The Nuclear Energy Agency therefore recommends to improve the accuracy of the capture and fission cross sections of Pu-241.
The capture cross section of Pu-241 is about 4 times smaller than the fission cross section in the energy range of interest. In order to realize an accurate measurement of the capture it is thus necessary to develop a device for the detection of gammas and the identification of those coming from the fission. In the proposed experiment at the CERN n_TOF neutron source, gammas from the (n,?) and (n,f) reactions are detected by a 4pi calorimeter (TAC) while fission events are identified by a fission chamber (CaF) containing Pu-241 samples placed in the center of the TAC. This measurement will improve the accuracy of the capture cross section while providing additional information on the fission reaction (prompt gammas and cross section).
In order to design the elements of the detectors (CaF and samples in particular) and to demonstrate the feasibility of the measurement, it is necessary to carry out numerical simulations. During the internship, the candidate will contribute to the preparation of the experiment within the host team. The candidate will carry out numerical simulations of the experimental set-up (TAC + Fission Chamber + samples) using the Geant4 code and will propose preliminary specifications for the design of the Fission Chamber and the Pu-241 samples.
The internship is intended to be followed by a PhD thesis on the same subject, pending approval of the subject, candidate, funding, etc…
Mots clés/Keywords
Physique nucléaire, Neutronique, Réaction nucléaire, Structure nucléaire, Données nucléaires
Nuclear physics, Neutronics, Nuclear reaction, Nuclear structure, Nuclear data
Compétences/Skills
Codes de transport des particules (Geant4) et d'évolution; Programmation en ROOT et C/C++; Techniques de mesures
Geant4 simulation code; Programmation with ROOT and C/C++ languages; Experimental techniques
Logiciels
Geant4, ROOT, C/C++

 

Retour en haut