20 research outputs found

    Rethinking data-driven point spread function modeling with a differentiable optical model

    Full text link
    In astronomy, upcoming space telescopes with wide-field optical instruments have a spatially varying point spread function (PSF). Specific scientific goals require a high-fidelity estimation of the PSF at target positions where no direct measurement of the PSF is provided. Even though observations of the PSF are available at some positions of the field of view (FOV), they are undersampled, noisy, and integrated into wavelength in the instrument's passband. PSF modeling represents a challenging ill-posed problem, as it requires building a model from degraded observations that can infer a super-resolved PSF at any wavelength and position in the FOV. Our model, coined WaveDiff, proposes a paradigm shift in the data-driven modeling of the point spread function field of telescopes. We change the data-driven modeling space from the pixels to the wavefront by adding a differentiable optical forward model into the modeling framework. This change allows the transfer of complexity from the instrumental response into the forward model. The proposed model relies on stochastic gradient descent to estimate its parameters. Our framework paves the way to building powerful, physically motivated models that do not require special calibration data. This paper demonstrates the WaveDiff model in a simplified setting of a space telescope. The proposed framework represents a performance breakthrough with respect to the existing state-of-the-art data-driven approach. The pixel reconstruction errors decrease 6-fold at observation resolution and 44-fold for a 3x super-resolution. The ellipticity errors are reduced at least 20 times, and the size error is reduced more than 250 times. By only using noisy broad-band in-focus observations, we successfully capture the PSF chromatic variations due to diffraction. Code available at https://github.com/tobias-liaudat/wf-psf.Comment: Submitted. Without appendix: 42 pages, 10 figures, 4 table

    Point spread function modelling for astronomical telescopes: a review focused on weak gravitational lensing studies

    Full text link
    The accurate modelling of the Point Spread Function (PSF) is of paramount importance in astronomical observations, as it allows for the correction of distortions and blurring caused by the telescope and atmosphere. PSF modelling is crucial for accurately measuring celestial objects' properties. The last decades brought us a steady increase in the power and complexity of astronomical telescopes and instruments. Upcoming galaxy surveys like Euclid and LSST will observe an unprecedented amount and quality of data. Modelling the PSF for these new facilities and surveys requires novel modelling techniques that can cope with the ever-tightening error requirements. The purpose of this review is three-fold. First, we introduce the optical background required for a more physically-motivated PSF modelling and propose an observational model that can be reused for future developments. Second, we provide an overview of the different physical contributors of the PSF, including the optic- and detector-level contributors and the atmosphere. We expect that the overview will help better understand the modelled effects. Third, we discuss the different methods for PSF modelling from the parametric and non-parametric families for ground- and space-based telescopes, with their advantages and limitations. Validation methods for PSF models are then addressed, with several metrics related to weak lensing studies discussed in detail. Finally, we explore current challenges and future directions in PSF modelling for astronomical telescopes.Comment: 63 pages, 14 figures. Submitte

    Modélisation guidée par les données des fonctions d'étalement du point des télescopes terrestres et spatiaux

    No full text
    L'effet de lentille gravitationnel est la distorsion des images de galaxies lointaines par des objets massifs et constitue une sonde puissante de la structure à grande échelle de notre Univers. Les cosmologistes utilisent la lentille (gravitationnelle) faible pour étudier la nature de la matière noire et sa distribution spatiale. Ces études nécessitent des mesures très précises des formes des galaxies, mais la réponse instrumentale du télescope, ou fonction d'étalement du point (PSF), déforme nos observations. Cette déformation peut être confondue avec des effets de lentille faible dans les images de galaxies, ce qui constitue l'une des principales sources d'erreur systématique. Par conséquent, l'estimation d'un modèle de PSF fiable et précis est cruciale pour le succès de toute mission de lentille faible. Le champ de PSF peut être interprété comme un noyau de convolution qui affecte chacune de nos observations d'intérêt et qui varie spatialement, spectralement et temporellement. Le modèle de PSF doit faire face à ces variations et est contraint par des étoiles spécifiques dans le champ observé. Ces étoiles, considérées comme des sources ponctuelles, nous fournissent des échantillons dégradés du champ de PSF. Les observations subissent différentes dégradations en fonction des propriétés du télescope, notamment un sous-échantillonnage, une intégration sur la bande passante de l'instrument et un bruit additif. Nous construisons finalement le modèle de PSF en utilisant ces observations dégradées, puis nous utilisons le modèle pour déduire les PSFs aux positions des galaxies. Cette procédure constitue le problème inverse mal posé de la modélisation de la PSF. Le cœur de cette thèse a été le développement de nouveaux modèles non-paramétriques pour estimer les PSFs à partir des étoiles observées dans les images acquises. Nous avons développé un nouveau modèle de PSF pour les télescopes terrestres, appelé MCCD, qui peut modéliser simultanément l'ensemble du plan focal. Par conséquent, MCCD dispose de plus d'étoiles pour contraindre un modèle plus complexe. La méthode est basée sur un schéma de factorisation matricielle, les représentations parcimonieuses et une procédure d'optimisation alternée. Nous avons inclus le modèle de PSF dans un pipeline de mesure de forme à haute performance et l'avons utilisé pour traiter ~3500 deg² d'observations en bande r provenant du Canada-France Imaging Survey. Un catalogue de formes a été produit et sera bientôt publié. L'objectif principal de cette thèse a été de développer un modèle de PSF basé sur les données qui puisse répondre aux défis soulevés par l'une des missions les plus ambitieuses en matière de lentille faible, la mission spatiale Euclid. Les principales difficultés liées à la mission Euclid sont que les observations sont sous-échantillonnées et intégrées dans une large bande passante unique. Par conséquent, il est difficile de récupérer et de modéliser les variations chromatiques de la PSF à partir de ces observations. Notre principale contribution est un nouveau cadre pour la modélisation de la PSF basée sur un modèle optique différentiable permettant de construire un modèle de front d'onde basé sur les données. Le nouveau modèle, appelé WaveDiff, est basé sur un schéma de factorisation matricielle et des polynômes de Zernike. Le modèle s'appuie sur des méthodes modernes basées sur le gradient et la différenciation automatique pour l'optimisation, qui n'utilise que des observations dégradées et bruitées. Les résultats montrent que WaveDiff peut modéliser les variations chromatiques des PSF et gérer la super-résolution avec une grande précision.Gravitational lensing is the distortion of the images of distant galaxies by intervening massive objects and constitutes a powerful probe of the Large Scale Structure of our Universe. Cosmologists use weak (gravitational) lensing to study the nature of dark matter and its spatial distribution. These studies require highly accurate measurements of galaxy shapes, but the telescope's instrumental response, or point spread function (PSF), deforms our observations. This deformation can be mistaken for weak lensing effects in the galaxy images, thus being one of the primary sources of systematic error when doing weak lensing science. Therefore, estimating a reliable and accurate PSF model is crucial for the success of any weak lensing mission. The PSF field can be interpreted as a convolutional kernel that affects each of our observations of interest that varies spatially, spectrally, and temporally. The PSF model needs to cope with these variations and is constrained by specific stars in the field of view. These stars, considered point sources, provide us with degraded samples of the PSF field. The observations go through different degradations depending on the properties of the telescope, including undersampling, an integration over the instrument's passband, and additive noise. We finally build the PSF model using these degraded observations and then use the model to infer the PSF at the position of galaxies. This procedure constitutes the ill-posed inverse problem of PSF modelling. The core of this thesis has been the development of new data-driven, also known as non-parametric, PSF models. We have developed a new PSF model for ground-based telescopes, coined MCCD, which can simultaneously model the entire focal plane. Consequently, MCCD has more available stars to constrain a more complex model. The method is based on a matrix factorisation scheme, sparsity, and an alternating optimisation procedure. We have included the PSF model in a high-performance shape measurement pipeline and used it to process ~3500 deg² of r-band observations from the Canada-France Imaging Survey. A shape catalogue has been produced and will be soon released. The main goal of this thesis has been to develop a data-driven PSF model that can address the challenges raised by one of the most ambitious weak lensing missions so far, the Euclid space mission. The main difficulties related to the Euclid mission are that the observations are undersampled and integrated into a single wide passband. Therefore, it is hard to recover and model the PSF chromatic variations from such observations. Our main contribution has been a new framework for data-driven PSF modelling based on a differentiable optical forward model allowing us to build a data-driven model for the wavefront. The new model coined WaveDiff is based on a matrix factorisation scheme and Zernike polynomials. The model relies on modern gradient-based methods and automatic differentiation for optimisation, which only uses noisy broad-band in-focus observations. Results show that WaveDiff can model the PSFs' chromatic variations and handle super-resolution with high accuracy

    Modélisation guidée par les données des fonctions d'étalement du point des télescopes terrestres et spatiaux

    No full text
    Gravitational lensing is the distortion of the images of distant galaxies by intervening massive objects and constitutes a powerful probe of the Large Scale Structure of our Universe. Cosmologists use weak (gravitational) lensing to study the nature of dark matter and its spatial distribution. These studies require highly accurate measurements of galaxy shapes, but the telescope's instrumental response, or point spread function (PSF), deforms our observations. This deformation can be mistaken for weak lensing effects in the galaxy images, thus being one of the primary sources of systematic error when doing weak lensing science. Therefore, estimating a reliable and accurate PSF model is crucial for the success of any weak lensing mission. The PSF field can be interpreted as a convolutional kernel that affects each of our observations of interest that varies spatially, spectrally, and temporally. The PSF model needs to cope with these variations and is constrained by specific stars in the field of view. These stars, considered point sources, provide us with degraded samples of the PSF field. The observations go through different degradations depending on the properties of the telescope, including undersampling, an integration over the instrument's passband, and additive noise. We finally build the PSF model using these degraded observations and then use the model to infer the PSF at the position of galaxies. This procedure constitutes the ill-posed inverse problem of PSF modelling. The core of this thesis has been the development of new data-driven, also known as non-parametric, PSF models. We have developed a new PSF model for ground-based telescopes, coined MCCD, which can simultaneously model the entire focal plane. Consequently, MCCD has more available stars to constrain a more complex model. The method is based on a matrix factorisation scheme, sparsity, and an alternating optimisation procedure. We have included the PSF model in a high-performance shape measurement pipeline and used it to process ~3500 deg² of r-band observations from the Canada-France Imaging Survey. A shape catalogue has been produced and will be soon released. The main goal of this thesis has been to develop a data-driven PSF model that can address the challenges raised by one of the most ambitious weak lensing missions so far, the Euclid space mission. The main difficulties related to the Euclid mission are that the observations are undersampled and integrated into a single wide passband. Therefore, it is hard to recover and model the PSF chromatic variations from such observations. Our main contribution has been a new framework for data-driven PSF modelling based on a differentiable optical forward model allowing us to build a data-driven model for the wavefront. The new model coined WaveDiff is based on a matrix factorisation scheme and Zernike polynomials. The model relies on modern gradient-based methods and automatic differentiation for optimisation, which only uses noisy broad-band in-focus observations. Results show that WaveDiff can model the PSFs' chromatic variations and handle super-resolution with high accuracy.L'effet de lentille gravitationnel est la distorsion des images de galaxies lointaines par des objets massifs et constitue une sonde puissante de la structure à grande échelle de notre Univers. Les cosmologistes utilisent la lentille (gravitationnelle) faible pour étudier la nature de la matière noire et sa distribution spatiale. Ces études nécessitent des mesures très précises des formes des galaxies, mais la réponse instrumentale du télescope, ou fonction d'étalement du point (PSF), déforme nos observations. Cette déformation peut être confondue avec des effets de lentille faible dans les images de galaxies, ce qui constitue l'une des principales sources d'erreur systématique. Par conséquent, l'estimation d'un modèle de PSF fiable et précis est cruciale pour le succès de toute mission de lentille faible. Le champ de PSF peut être interprété comme un noyau de convolution qui affecte chacune de nos observations d'intérêt et qui varie spatialement, spectralement et temporellement. Le modèle de PSF doit faire face à ces variations et est contraint par des étoiles spécifiques dans le champ observé. Ces étoiles, considérées comme des sources ponctuelles, nous fournissent des échantillons dégradés du champ de PSF. Les observations subissent différentes dégradations en fonction des propriétés du télescope, notamment un sous-échantillonnage, une intégration sur la bande passante de l'instrument et un bruit additif. Nous construisons finalement le modèle de PSF en utilisant ces observations dégradées, puis nous utilisons le modèle pour déduire les PSFs aux positions des galaxies. Cette procédure constitue le problème inverse mal posé de la modélisation de la PSF. Le cœur de cette thèse a été le développement de nouveaux modèles non-paramétriques pour estimer les PSFs à partir des étoiles observées dans les images acquises. Nous avons développé un nouveau modèle de PSF pour les télescopes terrestres, appelé MCCD, qui peut modéliser simultanément l'ensemble du plan focal. Par conséquent, MCCD dispose de plus d'étoiles pour contraindre un modèle plus complexe. La méthode est basée sur un schéma de factorisation matricielle, les représentations parcimonieuses et une procédure d'optimisation alternée. Nous avons inclus le modèle de PSF dans un pipeline de mesure de forme à haute performance et l'avons utilisé pour traiter ~3500 deg² d'observations en bande r provenant du Canada-France Imaging Survey. Un catalogue de formes a été produit et sera bientôt publié. L'objectif principal de cette thèse a été de développer un modèle de PSF basé sur les données qui puisse répondre aux défis soulevés par l'une des missions les plus ambitieuses en matière de lentille faible, la mission spatiale Euclid. Les principales difficultés liées à la mission Euclid sont que les observations sont sous-échantillonnées et intégrées dans une large bande passante unique. Par conséquent, il est difficile de récupérer et de modéliser les variations chromatiques de la PSF à partir de ces observations. Notre principale contribution est un nouveau cadre pour la modélisation de la PSF basée sur un modèle optique différentiable permettant de construire un modèle de front d'onde basé sur les données. Le nouveau modèle, appelé WaveDiff, est basé sur un schéma de factorisation matricielle et des polynômes de Zernike. Le modèle s'appuie sur des méthodes modernes basées sur le gradient et la différenciation automatique pour l'optimisation, qui n'utilise que des observations dégradées et bruitées. Les résultats montrent que WaveDiff peut modéliser les variations chromatiques des PSF et gérer la super-résolution avec une grande précision

    Modélisation guidée par les données des fonctions d'étalement du point des télescopes terrestres et spatiaux

    No full text
    Gravitational lensing is the distortion of the images of distant galaxies by intervening massive objects and constitutes a powerful probe of the Large Scale Structure of our Universe. Cosmologists use weak (gravitational) lensing to study the nature of dark matter and its spatial distribution. These studies require highly accurate measurements of galaxy shapes, but the telescope's instrumental response, or point spread function (PSF), deforms our observations. This deformation can be mistaken for weak lensing effects in the galaxy images, thus being one of the primary sources of systematic error when doing weak lensing science. Therefore, estimating a reliable and accurate PSF model is crucial for the success of any weak lensing mission. The PSF field can be interpreted as a convolutional kernel that affects each of our observations of interest that varies spatially, spectrally, and temporally. The PSF model needs to cope with these variations and is constrained by specific stars in the field of view. These stars, considered point sources, provide us with degraded samples of the PSF field. The observations go through different degradations depending on the properties of the telescope, including undersampling, an integration over the instrument's passband, and additive noise. We finally build the PSF model using these degraded observations and then use the model to infer the PSF at the position of galaxies. This procedure constitutes the ill-posed inverse problem of PSF modelling. The core of this thesis has been the development of new data-driven, also known as non-parametric, PSF models. We have developed a new PSF model for ground-based telescopes, coined MCCD, which can simultaneously model the entire focal plane. Consequently, MCCD has more available stars to constrain a more complex model. The method is based on a matrix factorisation scheme, sparsity, and an alternating optimisation procedure. We have included the PSF model in a high-performance shape measurement pipeline and used it to process ~3500 deg² of r-band observations from the Canada-France Imaging Survey. A shape catalogue has been produced and will be soon released. The main goal of this thesis has been to develop a data-driven PSF model that can address the challenges raised by one of the most ambitious weak lensing missions so far, the Euclid space mission. The main difficulties related to the Euclid mission are that the observations are undersampled and integrated into a single wide passband. Therefore, it is hard to recover and model the PSF chromatic variations from such observations. Our main contribution has been a new framework for data-driven PSF modelling based on a differentiable optical forward model allowing us to build a data-driven model for the wavefront. The new model coined WaveDiff is based on a matrix factorisation scheme and Zernike polynomials. The model relies on modern gradient-based methods and automatic differentiation for optimisation, which only uses noisy broad-band in-focus observations. Results show that WaveDiff can model the PSFs' chromatic variations and handle super-resolution with high accuracy.L'effet de lentille gravitationnel est la distorsion des images de galaxies lointaines par des objets massifs et constitue une sonde puissante de la structure à grande échelle de notre Univers. Les cosmologistes utilisent la lentille (gravitationnelle) faible pour étudier la nature de la matière noire et sa distribution spatiale. Ces études nécessitent des mesures très précises des formes des galaxies, mais la réponse instrumentale du télescope, ou fonction d'étalement du point (PSF), déforme nos observations. Cette déformation peut être confondue avec des effets de lentille faible dans les images de galaxies, ce qui constitue l'une des principales sources d'erreur systématique. Par conséquent, l'estimation d'un modèle de PSF fiable et précis est cruciale pour le succès de toute mission de lentille faible. Le champ de PSF peut être interprété comme un noyau de convolution qui affecte chacune de nos observations d'intérêt et qui varie spatialement, spectralement et temporellement. Le modèle de PSF doit faire face à ces variations et est contraint par des étoiles spécifiques dans le champ observé. Ces étoiles, considérées comme des sources ponctuelles, nous fournissent des échantillons dégradés du champ de PSF. Les observations subissent différentes dégradations en fonction des propriétés du télescope, notamment un sous-échantillonnage, une intégration sur la bande passante de l'instrument et un bruit additif. Nous construisons finalement le modèle de PSF en utilisant ces observations dégradées, puis nous utilisons le modèle pour déduire les PSFs aux positions des galaxies. Cette procédure constitue le problème inverse mal posé de la modélisation de la PSF. Le cœur de cette thèse a été le développement de nouveaux modèles non-paramétriques pour estimer les PSFs à partir des étoiles observées dans les images acquises. Nous avons développé un nouveau modèle de PSF pour les télescopes terrestres, appelé MCCD, qui peut modéliser simultanément l'ensemble du plan focal. Par conséquent, MCCD dispose de plus d'étoiles pour contraindre un modèle plus complexe. La méthode est basée sur un schéma de factorisation matricielle, les représentations parcimonieuses et une procédure d'optimisation alternée. Nous avons inclus le modèle de PSF dans un pipeline de mesure de forme à haute performance et l'avons utilisé pour traiter ~3500 deg² d'observations en bande r provenant du Canada-France Imaging Survey. Un catalogue de formes a été produit et sera bientôt publié. L'objectif principal de cette thèse a été de développer un modèle de PSF basé sur les données qui puisse répondre aux défis soulevés par l'une des missions les plus ambitieuses en matière de lentille faible, la mission spatiale Euclid. Les principales difficultés liées à la mission Euclid sont que les observations sont sous-échantillonnées et intégrées dans une large bande passante unique. Par conséquent, il est difficile de récupérer et de modéliser les variations chromatiques de la PSF à partir de ces observations. Notre principale contribution est un nouveau cadre pour la modélisation de la PSF basée sur un modèle optique différentiable permettant de construire un modèle de front d'onde basé sur les données. Le nouveau modèle, appelé WaveDiff, est basé sur un schéma de factorisation matricielle et des polynômes de Zernike. Le modèle s'appuie sur des méthodes modernes basées sur le gradient et la différenciation automatique pour l'optimisation, qui n'utilise que des observations dégradées et bruitées. Les résultats montrent que WaveDiff peut modéliser les variations chromatiques des PSF et gérer la super-résolution avec une grande précision

    Distributed sparse BSS for large-scale datasets

    Get PDF
    Blind Source Separation (BSS) [1] is widely used to analyze multichannel data stemming from origins as wide as astrophysics to medicine. However, existent methods do not efficiently handle very large datasets. In this work, we propose a new method coined DGMCA (Distributed Generalized Morphological Component Analysis) in which the original BSS problem is decomposed into subproblems that can be tackled in parallel, alleviating the large-scale issue. We propose to use the RCM (Riemannian Center of Mass-[6][7]) to aggregate during the iterative process the estimations yielded by the different subproblems. The approach is made robust both by a clever choice of the weights of the RCM and the adaptation of the heuristic parameter choice proposed in [4] to the parallel framework. The results obtained show that the proposed approach is able to handle large-scale problems with a linear acceleration performing at the same level as GMCA and maintaining an automatic choice of parameters. I. LARGE-SCALE BLIND SOURCE SEPARATION Given m row observations of size t stacked in a matrix Y assumed to follow a linear model Y = AS + N, the objective of BSS [1] is to estimate the matrices A (size m × n) and S (size n × t) up to a mere permutation and scaling indeterminacy. In this model, A mixes the n row sources in S, the observations being entached by some unknwown noise N (size m × t). We will assume that n ≤ m. While ill-posed, this problem can be regularized assuming the sparsity of S [2]. The estimation will then turn into the minization of: ˆ A, ˆ S = arg min A,S 1 2 Y − AS 2 F +Λ S 1 +i X:X k 2 =1, ∀k (A) , (1) with ·· F the Frobenius norm, Λ the regularization parameters and iC(·) the indicator function of the set C. The first term is a data fidelity one, the second enforces the sparsity and the last avoids degenerated solutions with A 2 F → 0 by enforcing unit columns. To tackle Eq. (1), the GMCA [4] algorithm has known a tremendous success due to an automatic decreasing parameter strategy making it robust. However, in this work we will assume that the data Y are large-scale in the sense that t can have huge values (e.g. up to 10 9 samples), which make the treatement of Y as a whole intractable. In this context, using GMCA or most other algorithms is prohibitive. II. PROPOSED METHOD This difficulty motivates the construction of J subproblems (j) of the type Yj = ASj + Nj where j denotes a subset of tj columns of the corresponding matrices. We use disjoints sets with j |tj| = t

    Semi-Parametric Wavefront Modelling for the Point Spread Function

    No full text
    International audienceWe introduce a new approach to estimate the point spread function (PSF) field of an optical telescope by building a semi-parametric model of its wavefront error. This method is particularly advantageous because it does not require calibration observa- tions to recover the wavefront error and it naturally takes into account the chromaticity of the optical system. The model is end-to-end differentiable and relies on a diffraction operator that allows us to compute monochromatic PSFs from the wavefront information.Nous présentons une nouvelle approche pour estimer le champ de la fonction d'étalement du point d'un télescope optique en construisant un modèle semi-paramétrique de son erreur de front d'onde. Cette méthode est particulièrement avantageuse car elle ne nécessite pas d'observations de calibration pour récupérer l'erreur de front d'onde et elle prend naturellement en compte la chromaticité du système optique. Le modèle est différentiable de bout en bout et s'appuie sur un opérateur de diffraction qui nous permet de calculer les fonction d'étalement du point monochromatiques à partir des informations du front d'onde

    Point spread function modelling for astronomical telescopes: a review focused on weak gravitational lensing studies

    No full text
    International audienceThe accurate modelling of the Point Spread Function (PSF) is of paramount importance in astronomical observations, as it allows for the correction of distortions and blurring caused by the telescope and atmosphere. PSF modelling is crucial for accurately measuring celestial objects' properties. The last decades brought us a steady increase in the power and complexity of astronomical telescopes and instruments. Upcoming galaxy surveys like Euclid and LSST will observe an unprecedented amount and quality of data. Modelling the PSF for these new facilities and surveys requires novel modelling techniques that can cope with the ever-tightening error requirements. The purpose of this review is three-fold. First, we introduce the optical background required for a more physically-motivated PSF modelling and propose an observational model that can be reused for future developments. Second, we provide an overview of the different physical contributors of the PSF, including the optic- and detector-level contributors and the atmosphere. We expect that the overview will help better understand the modelled effects. Third, we discuss the different methods for PSF modelling from the parametric and non-parametric families for ground- and space-based telescopes, with their advantages and limitations. Validation methods for PSF models are then addressed, with several metrics related to weak lensing studies discussed in detail. Finally, we explore current challenges and future directions in PSF modelling for astronomical telescopes

    Point spread function modelling for astronomical telescopes: a review focused on weak gravitational lensing studies

    No full text
    International audienceThe accurate modelling of the Point Spread Function (PSF) is of paramount importance in astronomical observations, as it allows for the correction of distortions and blurring caused by the telescope and atmosphere. PSF modelling is crucial for accurately measuring celestial objects' properties. The last decades brought us a steady increase in the power and complexity of astronomical telescopes and instruments. Upcoming galaxy surveys like Euclid and LSST will observe an unprecedented amount and quality of data. Modelling the PSF for these new facilities and surveys requires novel modelling techniques that can cope with the ever-tightening error requirements. The purpose of this review is three-fold. First, we introduce the optical background required for a more physically-motivated PSF modelling and propose an observational model that can be reused for future developments. Second, we provide an overview of the different physical contributors of the PSF, including the optic- and detector-level contributors and the atmosphere. We expect that the overview will help better understand the modelled effects. Third, we discuss the different methods for PSF modelling from the parametric and non-parametric families for ground- and space-based telescopes, with their advantages and limitations. Validation methods for PSF models are then addressed, with several metrics related to weak lensing studies discussed in detail. Finally, we explore current challenges and future directions in PSF modelling for astronomical telescopes
    corecore