Réduction de dimension non linéaire pour l’approximation en grande dimension et les problèmes inverses

Abstract

This thesis is concerned with two types of nonlinear dimension reduction.In a first part we focus on a model reduction framework for parameter dependent partial differential equations.In particular in Chapter 2 we introduce a dictionary-based approach to approximate a solution of such equation in the context of an inverse problem, where only few linear measurements on the solution are given.We introduce a new selection criterion based on random sketching for adaptively selecting a space generated by a few elements of the dictionary.We show near-optimality with high probability and we provide the practical details to ensure computational efficiency for both building and evaluating this new criterion.In Chapter 3 we consider an operator interpolation method recently introduced for preconditioning linear model reduction based on Galerkin projection.This is of particular interest for problems admitting good linear approximation but whose associated projection operator is ill-conditioned.The contribution of this thesis is to propose a practical construction of these preconditioners, illustrated with numerical experiments.In a second part we consider low dimensional featuring for approximating high dimensional functions.In particular in Chapter 4 we consider gradient-based construction of nonlinear feature maps, which leverages Poincar\'e inequalities on nonlinear manifolds to derive a computable objective function.However, optimizing the latter is in general a difficult non-convex problem.We thus introduce new quadratic surrogates to this objective function.Leveraging concentration inequalities, we provide sub-optimality results for a class of feature maps, including polynomials, and a wide class of input probability measures.In Chapter 5 we extend the approach from the previous chapter to dimension reduction for a family of high dimensional functions (collective dimension reduction).We then investigate structured forms of feature maps, aiming to leverage the aforementioned gradient-based method and surrogates to learn compositional function networks.For every chapter we provide open-source implementation of the methods presented therein.Cette thèse traite de deux types de réduction de dimension non linéaire.Dans une première partie, nous nous concentrons sur un cadre de réduction de modèle pour les équations différentielles partielles dépendantes des paramètres.En particulier, dans le Chapitre 2, nous introduisons une approche basée sur un dictionnaire pour approximer une solution d'une telle équation dans le contexte d'un problème inverse, où seules quelques mesures linéaires sur la solution sont connues.Nous introduisons un nouveau critère de sélection basé sur l'algèbre linéaire aléatoire pour sélectionner de manière adaptative un espace généré par quelques éléments du dictionnaire.Nous montrons une quasi-optimalité avec forte probabilité et nous fournissons les détails pratiques pour garantir l'efficacité computationnelle tant pour la construction que pour l'évaluation de ce nouveau critère.Dans le Chapitre 3, nous considérons une méthode d'interpolation d'opérateurs récemment introduite pour le préconditionnement de la réduction de modèle linéaire basée sur la projection de Galerkin.Cela présente un intérêt particulier pour les problèmes admettant une bonne approximation linéaire mais dont l'opérateur de projection associé est mal conditionné.La contribution de cette thèse est de proposer une construction pratique de ces préconditionneurs, illustrée par des expériences numériques.Dans une deuxième partie, nous considérons des caractéristiques de faible dimension pour approximer les fonctions en grande dimension.En particulier, dans le Chapitre 4, nous considérons la construction de caractéristiques non linéaires basée sur le gradient, qui exploite les inégalités de Poincaré sur les variétés non linéaires pour obtenir une fonction objective calculable.Cependant, l'optimisation de cette dernière est en général un problème non convexe difficile.Nous introduisons donc de nouveaux substituts quadratiques à cette fonction objective.En tirant parti des inégalités de concentration, nous fournissons des résultats de sous-optimalité pour une classe de caractéristiques, comprenant les polynômes, et une large classe de mesures de probabilité des variables d'entrée.Dans le Chapitre 5, nous étendons l'approche du chapitre précédent à la réduction de dimension pour une famille de fonctions en grande dimension (réduction de dimension collective).Nous étudions ensuite des formes structurées de caractéristiques, dans le but d'exploiter la méthode basée sur le gradient et les substituts mentionnés ci-dessus pour apprendre des réseaux de fonctions compositionnelles.Pour tous les chapitres nous fournissons une implémentation open source des méthodes qui y sont présentées

Similar works

Full text

thumbnail-image

Thèses en Ligne

redirect
Last time updated on 25/01/2026

This paper was published in Thèses en Ligne.

Having an issue?

Is data on this page outdated, violates copyrights or anything else? Report the problem now and we will take corresponding actions after reviewing your request.

Licence: info:eu-repo/semantics/OpenAccess