PDF
Deep Plug-and-Play Optical Priors for Ground-Based Point Spread Function Models

Spécialité

Astrophysique

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

30/09/2024

Durée

6 mois

Poursuite possible en thèse

oui

Contact

Tobias LIAUDAT
+33 1 69 08

Résumé/Summary
Nous proposons de construire un antécédent fondé sur les données des aberrations optiques du télescope grâce à des techniques d'apprentissage profond.
We propose to build a data-driven prior of the telescope’s optical aberrations with the help of deep learning techniques.
Sujet détaillé/Full description
L'effet de lentille gravitationnelle faible [1] est une sonde puissante de la structure à grande échelle de notre univers. Les cosmologistes utilisent l'effet de lentille faible pour étudier la nature de la matière noire et sa distribution spatiale. Les missions d'observation de l'effet de lentille faible nécessitent des mesures très précises de la forme des images de galaxies. La réponse instrumentale du télescope, ou fonction d'étalement du point (PSF), produit une déformation des images observées. Cette déformation peut être confondue avec les effets d'un faible effet de lentille sur les images de galaxies, ce qui constitue l'une des principales sources d'erreur systématique lors de la recherche sur les faibles effets de lentille. Par conséquent, l'estimation d'un modèle de PSF fiable et précis est cruciale pour le succès de toute mission de faible lentille. Le champ de la PSF peut être interprété comme un noyau convolutionnel qui affecte chacune de nos observations d'intérêt et qui varie spatialement, spectralement et temporellement. Le modèle de PSF doit être capable de gérer chacune de ces variationsNous utilisons des étoiles spécifiques considérées comme des sources ponctuelles dans le champ de vision pour contraindre notre modèle PSF. Ces étoiles, qui sont des objets non résolus, nous fournissent des échantillons dégradés du champ de la PSF. Les observations subissent différents types de dégradations en fonction des propriétés du télescope. Certaines de ces dégradations comprennent le sous-échantillonnage, une intégration sur la bande passante de l'instrument et le bruit additif. Nous construisons finalement le modèle de la PSF en utilisant ces observations dégradées et utilisons ensuite le modèle pour déduire la PSF à la position des galaxies. Cette procédure constitue le problème inverse mal posé de la modélisation de la PSF. Voir [2] pour un examen récent de la modélisation de la PSF. Il existe plusieurs sources de variations spatiales de la FSP. Certaines couvrent le plan focal, comme les aberrations optiques du télescope et de l'atmosphère, tandis que d'autres sont spécifiques à chaque puce CCD (Charge-Coupled Device). Le plan focal des caméras d'imagerie à grand champ actuelles comprend un grand nombre de CCD. La plupart des modèles PSF actuels sont construits indépendamment sur chaque CCD, ce qui est une solution simple pour prendre en compte les deux types de variations. Cependant, ce choix présente quelques inconvénients. Il limite le nombre d'étoiles disponibles pour contraindre le modèle, ce qui favorise les modèles les plus simples. Ensuite, ces modèles simples par morceaux définis dans chaque CCD ne peuvent pas modéliser correctement les variations spatiales couvrant l'ensemble du plan focal. En conséquence, des erreurs de modélisation du PSF apparaissent. Pour résoudre ces deux problèmes simultanément, un nouveau modèle de PSF, appelé MCCD [3], a été récemment proposé. Le MCCD peut modéliser l'ensemble du plan focal et prendre en compte les deux types de variations. Il peut inclure avec succès la géométrie de la caméra dans le modèle PSF. Le MCCD est basé sur un schéma de factorisation matricielle qui utilise différents outils mathématiques, tels que la régularisation éparse pour le débruitage de la PSF et la théorie des graphes pour traiter les variations spatiales localisées, entre autres. L'algorithme d'apprentissage combine les concepts précédents avec la descente de coordonnées par blocs, des méthodes d'optimisation convexe efficaces et des algorithmes proximaux. L'une des limitations les plus importantes des modèles de PSF au sol est que l'atmosphère stochastique et changeante limite le nombre d'étoiles disponibles pour contraindre le modèle. Par conséquent, les modèles de PSF sont construits indépendamment pour chaque exposition de la caméra. Cependant, les différentes publications de données de l'étude sont effectuées par lots au fur et à mesure que la couverture du ciel augmente. Une fois qu'une bonne partie de la zone d'étude a été imagée, on peut calculer l'ellipticité moyenne des étoiles observées en fonction de leur position sur le plan focal. La contribution de l'ellipticité atmosphérique aux observations d'étoiles a une moyenne nulle. Par conséquent, nous pouvons obtenir une caractérisation fine de la contribution à l'ellipticité du système optique du télescope. Au moment de la rédaction du présent document, aucun modèle de PSF n'exploite actuellement cette information. Une seule exposition ne permet pas de récupérer les variations à haute fréquence en raison du manque d'informations contraignantes sur les étoiles disponibles. Nous proposons de construire un a priori sur les aberrations optiques du télescope à l'aide de techniques d'apprentissage profond. L'a priori sera incorporé dans le modèle PSF en exploitant les récentes approches "plug-and-play" [4]. Nous avons créé un ensemble de simulations réalistes basées sur les mesures de 107 étoiles du télescope Canada-France-Hawaï (CFHT). Nous prévoyons d'utiliser ces simulations pour entraîner des débruiteurs basés sur l'apprentissage profond. Ces réseaux peuvent ensuite être inclus en tant qu'opérateurs proximaux dans le cadre d'optimisation du modèle PSF du MCCD.
1
[3]. La manière dont les débruiteurs sont inclus suit l'approche plug-and-play, qui évite l'utilisation dangereuse de la boîte noire des réseaux neuronaux profonds. Le cadre fournit un environnement contrôlé pour exploiter la puissance des débruiteurs basés sur l'apprentissage profond.
Une fois que le nouveau modèle a été validé par des simulations, l'objectif est de démontrer sa performance avec des observations réelles provenant de l'étude sol-espace Canada-France Imaging Survey (CFIS) au TCFH. Pour ce faire, nous utiliserons le pipeline de mesure de forme, ShapePipe [5], qui intègre déjà le modèle PSF du MCCD.

[1] R. Mandelbaum. “Weak Lensing for Precision Cosmology”. In: Annual Review of Astronomy and Astro- physics 56 (2018), pp. 393–433. doi: 10.1146/annurev-astro-081817-051928. arXiv: 1710.03235.
[2] T. Liaudat, J.-L. Starck, M. Kilbinger, and P.-A. Frugier. “Point spread function modelling for astronomical
telescopes: a review focused on weak gravitational lensing studies”. In: arXiv e-prints, arXiv:2306.07996
(June 2023), arXiv:2306.07996. doi: 10.48550/arXiv.2306.07996. arXiv: 2306.07996 [astro-ph.IM].
[3] Liaudat, T., Bonnin, J., Starck, J.-L., Schmitz, M. A., Guinot, A., Kilbinger, M., and Gwyn, S. D. J. “Multi-CCD modelling of the point spread function”. In: A&A 646 (2021), A27. doi: 10.1051/0004-
6361/202039584.
[4] U. S. Kamilov, C. A. Bouman, G. T. Buzzard, and B. Wohlberg. “Plug-and-Play Methods for Integrating
Physical and Learned Models in Computational Imaging: Theory, algorithms, and applications”. In: IEEE Signal Processing Magazine 40.1 (Jan. 2023), pp. 85–97. doi: 10.1109/MSP.2022.3199595. arXiv: 2203. 17061 [eess.IV].
[5] Farrens, S., Guinot, A., Kilbinger, M., Liaudat, T., Baumont, L., Jimenez, X., Peel, A., Pujol, A., Schmitz, M., Starck, J.-L., and Vitorelli, A. Z. “ShapePipe: A modular weak-lensing processing and analysis pipeline”. In: A&A 664 (2022), A141. doi: 10.1051/0004-6361/202243970.
Context. Weak gravitational lensing [1] is a powerful probe of the Large Scale Structure of our Universe. Cosmologists use weak lensing to study the nature of dark matter and its spatial distribution. Weak lensing missions require highly accurate shape measurements of galaxy images. The telescope’s instrumental response, or point spread function (PSF), produces a deformation of the observed images. This deformation can be mistaken for the effects of weak lensing in the galaxy images, thus being one of the primary sources of systematic error when doing weak lensing science. Therefore, estimating a reliable and accurate PSF model is crucial for the success of any weak lensing mission. The PSF field can be interpreted as a convolutional kernel that affects each of our observations of interest that varies spatially, spectrally, and temporally. The PSF model needs to be able to cope with each of these variations. We use specific stars considered as point sources in the field-of-view to constrain our PSF model. These stars, which are unresolved objects, provide us with degraded samples of the PSF field. The observations go through different types of degradations depending on the properties of the telescope. Some of these degradations include undersampling, an integration over the instrument’s passband, and additive noise. We finally build the PSF model using these degraded observations and then use the model to infer the PSF at the position of galaxies. This procedure constitutes the ill-posed inverse problem of PSF modelling. See [2] for a recent review on PSF modelling.
There are several sources of spatial variations of the PSF. Some cover the focal plane like the optical aberrations of the telescope and the atmosphere, while others are specific for each Charge-Coupled Device (CCD) chip. The focal plane of current wide-field imaging cameras comprises a large array of CCDs. Most of the current PSF models are built independently on each CCD, which is a simple solution to account for both types of variations. However, this choice has some drawbacks. It limits the number of available stars to constrain the model, thus favouring simpler models. Then, these simple piecewise models defined in each CCD cannot correctly model spatial variations covering the entire focal plane. As a consequence, PSF modelling errors arise. To tackle both problems simultaneously, a new PSF model coined MCCD [3] was recently proposed. MCCD can model the full focal plane and that considers both types of variations. It can successfully include the camera geometry in the PSF model. MCCD is based on a matrix factorisation scheme that uses different mathematical tools, such as sparse regularisation for PSF denoising and graph theory to handle localised spatial variations, among others. The training algorithm combines the previous concepts with block coordinate descent, efficient convex optimization methods and proximal algorithms.
Goals. One of the most significant limitations of ground-based PSF models is that the fast-changing and stochastic atmosphere limits the number of stars available to constrain the model. As a consequence, PSF models are built independently for each camera exposure. However, the different survey data releases are done in batches as the sky coverage increases. Once a good part of the survey area has been imaged, one can compute the average ellipticity of the observed stars as a function of their position on the focal plane. The atmospheric ellipticity contribution to the star observations has a zero mean. Therefore, we can obtain a fine- sampled characterisation of the ellipticity contribution of the telescope’s optical system. At the time of writing, no PSF model is currently exploiting this information. A single exposure does not allow for recovering the high-frequency variations due to the lack of constraining information on the available stars.
We propose to build a data-driven prior of the telescope’s optical aberrations with the help of deep learning techniques. The prior will be incorporated into the PSF model by exploiting recent plug-and-play approaches [4]. We have created a set of realistic simulations based on the measurements of 107 stars from the Canada- France-Hawaii Telescope (CFHT). We plan to use the simulations to train deep learning-based denoisers. These networks can then be included as proximal operators in the optimisation framework of the MCCD PSF model
1
[3]. The way the denoisers are included follows the plug-and-play approach, which avoids the dangerous black- box usage of deep neural networks. The framework provides a controlled environment to exploit the power of the deep learning-based denoisers.
Once the new model has been validated with simulations, the goal is to demonstrate its performance with real observations from the ground-space survey Canada-France Imaging Survey (CFIS) at the CFHT. To accomplish this task we will make use of the shape measurement pipeline, ShapePipe [5], which already incorporates the MCCD PSF model.
The candidate
The candidate must be pursuing a Master 2 degree (or equivalent) and should have a background in signal/image processing. The candidate should be comfortable with the Python programming language, and ideally with a deep learning framework (e.g. TensorFlow, PyTorch, JAX) and open-source and collaborative development tools (e.g. GitHub). Knowledge of machine learning and experience processing astronomical images is not required but is beneficial.
The candidate will acquire expertise in sparse image processing, convex optimisation techniques, machine learn- ing and deep learning. In addition, the intern will learn to work in a collaborative development environment and contribute to existing software packages. The knowledge acquired during the internship applies to a wide range of applications in various fields, e.g., biomedical imaging, and astrophysics.
Contact
The internship will take place in the LILAS lab (CEA Saclay), which is working on signal (and image) processing and machine learning applied to physics applications.

[1] R. Mandelbaum. “Weak Lensing for Precision Cosmology”. In: Annual Review of Astronomy and Astro- physics 56 (2018), pp. 393–433. doi: 10.1146/annurev-astro-081817-051928. arXiv: 1710.03235.
[2] T. Liaudat, J.-L. Starck, M. Kilbinger, and P.-A. Frugier. “Point spread function modelling for astronomical
telescopes: a review focused on weak gravitational lensing studies”. In: arXiv e-prints, arXiv:2306.07996
(June 2023), arXiv:2306.07996. doi: 10.48550/arXiv.2306.07996. arXiv: 2306.07996 [astro-ph.IM].
[3] Liaudat, T., Bonnin, J., Starck, J.-L., Schmitz, M. A., Guinot, A., Kilbinger, M., and Gwyn, S. D. J. “Multi-CCD modelling of the point spread function”. In: A&A 646 (2021), A27. doi: 10.1051/0004-
6361/202039584.
[4] U. S. Kamilov, C. A. Bouman, G. T. Buzzard, and B. Wohlberg. “Plug-and-Play Methods for Integrating
Physical and Learned Models in Computational Imaging: Theory, algorithms, and applications”. In: IEEE Signal Processing Magazine 40.1 (Jan. 2023), pp. 85–97. doi: 10.1109/MSP.2022.3199595. arXiv: 2203. 17061 [eess.IV].
[5] Farrens, S., Guinot, A., Kilbinger, M., Liaudat, T., Baumont, L., Jimenez, X., Peel, A., Pujol, A., Schmitz, M., Starck, J.-L., and Vitorelli, A. Z. “ShapePipe: A modular weak-lensing processing and analysis pipeline”. In: A&A 664 (2022), A141. doi: 10.1051/0004-6361/202243970.
Mots clés/Keywords
Astrophysique, machine learning
Astrophysics, Machine learning
Compétences/Skills
Deep learning, plug and play methods
Deep learning, plug and play methods

 

Retour en haut