thèses en ligne de ParisTech
Not a member yet
9327 research outputs found
Sort by
Approche matricielle de la microscopie optique en régime de diffusion multiple
This work focuses on a matrix-based approach to microscopy, which relies experimentally on measuring the reflection matrix of the inspected medium. Post-processing operations are then applied to this matrix in order to compensate for aberrations and to image the medium in depth. To study this approach and understand its limitations, a numerical simulation tool was developed to simulate light propagation in biological tissues. This allowed us to identify various phenomena occurring in the multiple scattering regime (such as coherent backscattering and anisoplanatism) that hinder matrix-based imaging in such conditions. To overcome these issues, we developed a multi-conjugate approach that enables control over multiple forward scattering paths, thereby extending the penetration depth of label-free optical microscopy techniques. Moreover, this approach paves the way for more quantitative imaging, as it allows mapping of the medium's refractive index in reflection.Le travail est porté sur une approche matricielle de de la microscopie quirepose expérimentalement sur la mesure de la matrice de réflexion dumilieu inspecté et qui consiste ensuite à lui appliquer un ensembled'opérations en post-traitement afin de compenser les phénomènesd'aberrations et d'imager le milieu en profondeur . Pour étudiercette approche et comprendre ses limites, a été développé un outilde simulation numérique permettant de simuler la propagation de lalumière dans les tissus biologiques. Ont ainsi pu être identifiésdifférents phénomènes en régime de diffusion multiple(rétrodiffusion cohérente, anisoplanétisme) qui faisaient échouerl'imagerie matricielle dans ce régime. Pour s'affranchir de cesproblèmes, nous avons développé une approche multi-conjuguée permettantde maîtriser les chemins de diffusion multiple vers l'avant et ainsirepousser la profondeur de pénétration des techniques de microscopieoptique sans marquage. En outre, cette approche ouvre une nouvellevoie vers une imagerie plus quantitative puisqu'elle permet decartographier l'indice de réfraction du milieu en réflexion
Etude de la consolidation hors-autoclave (OoA) des stratifiés carbone / PAEK par le procédé sous bâche à vide (VBO) avec outillage chauffant
In the aerospace industry, carbon/PAEK composites provide advantages compared to thermoset resin matrix ones, especially in terms of recyclability, reparability and reduced manufacturing time.Usually, after Automated Fibre Placement (AFP), the laminates are consolidated in a high-pressure and high-temperature autoclave. However, this process involves high costs (maintenance, operation, energy), especially for large parts such as aircraft fuselages. It is in this context that there is a growing interest in Out-of-Autoclave (OoA) consolidation processes. The results seem promising, but they require a better understanding of the physical phenomena involved in consolidation in order to achieve the quality standards required in the aerospace industry, especially in terms of porosity levels.This thesis, carried out in the MSMP laboratory of ENSAM Lille in collaboration with the Méaulte site of Airbus Atlantic, within a CIFRE agreement, is fully aligned with this issue. Its main aim was to analyse the impact of VBO consolidation on the characteristics of laminate, laid by AFP, with the aim of optimising the associated thermal cycle. The laminates studied were made from unidirectional carbon tapes impregnated with a thermoplastic matrix, suitable for AFP processes for structural applications.To achieve this, preliminary characterisation work was carried out on the tape and the laminates after laying, in order to provide a basis for comparison with the results obtained after consolidation. The consolidation tests were carried out using an instrumented test bench specifically developed for this work. This tool, with integrated heating, allows the main functions of the industrial process but at a laboratory scale.After defining a test matrix combining the various parameters which could influence the quality of the laminates after consolidation, a test campaign was carried out using this test bench. During each consolidation, the temperatures and thickness variations of each specimen were recorded over time. The material results were then analysed using various methods (optical microscopy, density measurement, ultrasonic inspection, etc.). This highlighted the influence of the number of layers and the temperature on the porosity rate after compaction, showing that the latter, above a given temperature, is significantly reduced while remaining below the maximum acceptable porosity level.Based on all the collected data, a model has been suggested, particularly aimed at predicting the porosity level after consolidation. Coupled with the thermal modelling of the test bench, this constitutes a first step towards a better understanding of the behaviour of the laminate during VBO consolidation.This work opens up control strategies for this process, allowing for the optimisation of thermal cycles while ensuring the final quality of composite parts, without having to use an autoclave. They also provide a sound basis for future investigations on the consolidation of laminates laid by AFP, which could use more comprehensive multiphysics models incorporating, for example, crystallisation kinetics.Dans l’industrie aéronautique, les composites carbone PAEK offrent de réels avantages par rapport à ceux à matrice thermodurcissable, principalement en termes de recyclabilité, de réparabilité et de réduction du temps de fabrication.Traditionnellement, après drapage par placement de fibre automatisé (AFP), les stratifiés sont consolidés en autoclave à haute température et sous pression. Cependant, ce procédé implique des coûts élevés (maintenance, exploitation, énergie), en particulier pour les pièces de grande dimension telles que les fuselages d’avion. C’est donc dans ce contexte que les procédés de consolidation hors autoclave (OoA), et plus précisément ceux sous bâche à vide, dits VBO (Vacuum Bag Only), suscitent un intérêt croissant. Bien que prometteurs, ils nécessitent néanmoins une meilleure compréhension des phénomènes physiques liés à la consolidation afin d’atteindre les standards de qualité requis dans l’industrie aéronautique, notamment en termes de taux de porosité.Cette thèse, conduite au sein du laboratoire MSMP de l’ENSAM de Lille en collaboration avec le site de Méaulte d’Airbus Atlantic, dans le cadre d’une convention CIFRE, s’inscrit pleinement dans cette problématique. Elle avait principalement pour objectif d’analyser l’impact de la consolidation VBO sur les caractéristiques des stratifiés drapés par AFP, dans le but d’optimiser le cycle thermique associé. Les stratifiés étudiés ont été fabriqués à partir de rubans unidirectionnels carbone imprégnés d’une matrice thermoplastique LMPAEK, adaptés aux procédés de placement automatisé (AFP) concernant les applications structurelles.Pour cela, un travail préliminaire de caractérisation a été effectué sur le ruban et les stratifiés en sortie de drapage afin de disposer d’une base de comparaison avec les résultats obtenus après consolidation. Les essais de consolidation ont été menés à l’aide d’un banc instrumenté développé spécifiquement dans le cadre de ce travail et qui a permis, à l’échelle du laboratoire, de reproduire les principales fonctionnalités du procédé industriel qui utilise un outillage avec chauffage intégré.Après avoir défini une matrice d’essais regroupant les différents paramètres susceptibles d’influer sur la qualité des stratifiés après consolidation, une campagne d’essais a été menée à l’aide de ce banc. Au cours de chaque consolidation, les températures ainsi que les variations d’épaisseur de chaque éprouvette ont été enregistrées au cours du temps. Puis les résultats sur le matériau ont été analysés à l’aide de différentes méthodes (microscopie optique, mesure de densité, contrôle par ultrasons, etc.). Cela a permis de mettre en évidence l’influence du nombre de couches et de la température de palier sur le taux de porosité après compactage, en montrant que ce dernier, au-delà d’une température de palier donnée, est réduit de façon significative tout en étant inférieur au niveau de porosité maximal acceptable.A partir de l’ensemble des données collectées, une modélisation, visant notamment à prédire le taux de porosité après consolidation, a été proposée. Couplée à une modélisation thermique du banc d’essais, elle constitue une première étape vers une meilleure compréhension du comportement du stratifié lors de sa consolidation VBO.Ces travaux ouvrent donc la voie à des stratégies de pilotage plus fines de ce procédé, permettant d’optimiser les cycles thermiques tout en garantissant la qualité finale des pièces composites, sans avoir recours à l’autoclave. Ils constituent également une base solide pour de futures investigations sur la consolidation des stratifiés drapés par AFP qui pourraient utiliser des modèles multi-physiques plus complets intégrant par exemple la cinétique de cristallisation
Prédiction améliorée de l'écoulement proche paroi en combinant la méthode de frontières immergées avec l'assimilation de données
Immersed Boundary Methods (IBMs) encompass all those methods in which we simulate viscous flows with embedded boundaries on grids that do not conform to those boundaries. One of the main advantages of IBMs is that the mesh elements near the immersed boundaries do not need to be deformed, which could compromise the accuracy and computational efficiency of the numerical algorithms in the near-wall regions. Furthermore, when simulating moving objects, the grid does not need to be updated at each time step, which can otherwise be prohibitively expensive. However, accurately capturing near-wall turbulence remains a challenge, especially when compared with traditional body-conformal or body-fitted approaches. This work addresses this challenge by combining data-informed and data-driven tools to improve near-wall flow predictions. Specifically, we integrate a stochastic Data Assimilation (DA) method based on the Ensemble Kalman Filter (EnKF) with an ensemble machine learning (ML) approach using Random Forest Regression (RFR) to enhance low-fidelity IBM models. The DA method follows a two-step procedure—state estimation and parameter optimisation—that is executed "on the fly" thanks to the application developed by our research group, called CONES. This allows corrections to be made within the simulation without stopping and restarting it. The DA algorithm uses sparse, high-fidelity measurements from experiments or higher-fidelity simulations to improve the whole system's prediction. These high-fidelity fields obtained via DA can be used to train some ML models, which learn the corrections applied by the DA algorithm and perform effectively under similar conditions without incurring the additional computational costs associated with ensemble approaches. Notably, the computational costs remain close to those of the low-fidelity model.Through a selection of various test cases, results show significant improvements in flow field predictions achieved by this synergistic approach of state estimation combined with parameter optimisation, comparable to results from high-fidelity approaches. This development paves the way for real-time optimisation of IBMs using streaming data, which could be critical for applications such as digital twins, control systems, and models designed to mitigate extreme conditions.Les méthodes de frontières immergées (IBMs) regroupent l’ensemble des approches permettant de simuler des écoulements visqueux autour de géométries immergées, en utilisant des maillages qui ne sont pas conformes à ces frontières. L’un des principaux avantages de ces méthodes est que les mailles proches des frontières immergées n’ont pas besoin d’être déformées, ce qui permet de préserver la précision et l’efficacité numérique dans les régions proches des parois. De plus, dans le cas de la simulation d’objets en mouvement, le maillage n’a pas à être mis à jour à chaque pas de temps, ce qui représenterait sinon un coût computationnel très élevé. Toutefois, capturer avec précision la turbulence proche de la paroi reste un défi majeur, notamment par rapport aux approches traditionnelles à maillage conforme. Ce travail s’attaque à ce problème en combinant des outils fondés sur les données («data-informed») et des approches d’apprentissage automatique («data-driven») afin d’améliorer la prédiction des écoulements proche de paroi. Plus précisément, nous intégrons une méthode d’assimilation de données (DA) stochastique, basée sur le filtre de Kalman d’ensemble (EnKF), avec une approche d’apprentissage automatique (ML) de régression par forêt d'arbres décissionnels (RFR), pour corriger un modèle de frontières immergées de basse fidélité. La méthode d’assimilation de données suit une procédure en deux étapes—estimation de l’état et optimisation de paramètres—exécutées «online», grâce à l’application développée par notre groupe de recherche, appelée CONES. Cela permet d’introduire des corrections directement au cours de la simulation, sans avoir à l’interrompre. Des mesures de haute fidélité, issues d’expériences ou de simulations plus précises, sont utilisées pour améliorer la prédiction globale du système. Ces champs corrigés peuvent ensuite servir à l'entraînement de modèles d’apprentissage automatique, capables de reproduire les corrections effectuées par l’algorithme d’assimilation dans des conditions similaires, tout en évitant les coûts computationnels supplémentaires associés aux approches d'ensemble. Les coûts de calcul restent ainsi comparables à ceux du modèle initial de basse fidélité. À travers une série de cas de tests, les résultats montrent une nette amélioration des prédictions des champs d’écoulement, grâce à cette combinaison synergique entre l'estimation d’état et l'optimisation de paramètres, atteignant une précision proche de celle des approches de haute fidélité. Ce développement ouvre la voie à une optimisation en temps réel des méthodes de frontières immergées à l’aide de données en flux continu, ce qui est essentiel pour des applications telles que les jumeaux numériques, les systèmes de contrôle, ou les modèles destinés à anticiper des conditions extrêmes
Augmentation de l'efficacité d'antiviraux protéiques contre le SARS-CoV-2
The SARS-CoV-2 pandemic emerged in 2019 with over 7 million deaths and at least 700 million people infected. Unprecedented research efforts have led to the development of vaccines and antivirals. Vaccination has greatly reduced the number of severe cases of COVID-19 and hospitalizations, but has not been able to block transmission of the virus between individuals. Antivirals could provide a solution to this problem. Indeed, as the nasal cavity is the main site of early SARS-CoV-2 replication, it is the ideal target for antiviral treatments of contact cases to block infection by transmission. Our team has already developed artificial nanobinders, called αReps, that target the Spike protein of SARS-CoV-2. One αRep, C2, has demonstrated strong neutralization activity in vitro. However, it has a low intranasal residence time in vivo (<1h) due to an extensive absorption by the nasal epithelium. The main objective of my PhD was to increase the residence time of this antiviral in the nasal cavity. Nasal mucus is composed of mucins, which are large glycoproteins secreted or present on the cell membrane. In the nasal cavity, the main mucins are MUC5B and MUC5AC. Our strategy is to anchor C2 to the mucins to increase its nasal retention. Some bacterial enzymes possess domains capable of binding to mucins, notably the X domain of a protease secreted by E. coli. X has been shown to bind to MUC5AC and to glycans on other mucins. We designed an X-linked C2 chimera called C2X. This synthetic antiviral showed increased residence time in the nasal cavity for up to 6 hours after instillation.Furthermore, we evaluated three different C2X prophylaxis strategies in hamsters cohoused with infected peers for 12 hours: low and high doses of free C2X and a low dose of formulated C2X (gel formulation). Treatment with formulated C2X and low-dose free C2X resulted in a more than one-log reduction in viral load in the olfactory turbinates, with 4 and 3 hamsters remaining uninfected in each condition, respectively. Unexpectedly, the high dose of free C2X was less effective in reducing infection in the nasal cavity. Interestingly, all treatments, even the highest dose, significantly reduced inflammation in the olfactory turbinates and lungs, with a more than 3-log reduction in IFN Lambda expression levels. In addition, all three treatment strategies reduced the spread of infection to the lungs. Virus dissemination was also reduced with formulated C2X and high-dose free C2X, but low-dose free C2X showed no effect. Finally, we assessed the toxicity of C2X in zebrafish and its immunogenic potential in mice. Taken together, these experiments showed no negative effect of repeated C2X treatment.Overall, the strategy of anchoring nanobinders, such as C2, to mucins represents a promising and safe approach to improving prophylactic treatments that ensure protection of the nasal cavity and, effectively, limit viral spread to the lungs.La pandémie de SARS-CoV-2 a émergé en 2019 avec plus de 7 millions de morts et au minimum 700 millions de personnes infectées. Des efforts de recherche sans précédent ont permis de développer des vaccins et des antiviraux. La vaccination a fortement réduit le nombre de cas graves de COVID-19 et d'hospitalisations, mais n'a pas permis de bloquer la transmission du virus entre individus. Des antiviraux pourraient répondre à cette problématique. En effet, la cavité nasale étant le principal site de réplication précoce du SARS-CoV-2, elle constitue la cible idéale pour des traitements antiviraux de cas contact pour bloquer l'infection par transmission. Notre équipe a déjà mis au point des nanobinders artificiels, appelés αReps, qui ciblent la protéine Spike du SARS-CoV-2. Une αRep, C2, a démontré une forte activité de neutralisation in vitro. Cependant, elle présente un faible temps de résidence intranasale in vivo (<1h) en raison d'une absorption importante par l'épithélium nasal. L'objectif principal de mon doctorat était d'augmenter le temps de séjour de cet antiviral dans la cavité nasale. Le mucus nasal est composé de mucines qui sont de grandes glycoprotéines sécrétées ou présentes sur la membrane cellulaire. Dans le nez, on retrouve principalement les mucines MUC5B et MUC5AC. Notre stratégie consiste à ancrer C2 aux mucines afin d'augmenter sa rétention nasale. Certaines enzymes bactériennes possèdent des domaines capables de se lier aux mucines, notamment le domaine X d'une protéase sécrétée par E. coli. Il a été démontré que le X se lie à MUC5AC et à des glycanes présents sur d'autres mucines. Nous avons conçu une chimère de C2 liée au X appelé C2X. Cet antiviral synthétique a présenté un temps de résidence accru dans la cavité nasale jusqu'à 6 heures après l'instillation.En outre, nous avons évalué trois stratégies différentes de traitement prophylactique au C2X chez des hamsters cohabitant avec des congénères infectés pendant 12 heures : des doses faibles et élevées de C2X libre et une faible dose de C2X formulé (formulation sous forme de gel). Les traitements par C2X formulé et par C2X libre à faible dose ont entraîné une réduction de plus d'un log de la charge virale dans les cornets olfactifs, 4 et 3 hamsters restant non infectés pour chaque condition, respectivement. De manière inattendue, la forte dose de C2X libre a été moins efficace pour réduire l'infection dans la cavité nasale. Il est intéressant de noter que tous les traitements, même la dose la plus élevée, ont considérablement réduit l'inflammation dans les cornets olfactifs et les poumons, avec une réduction de plus de 3 log du niveau d'expression de l'IFN Lambda. En outre, les trois stratégies de traitement ont permis de réduire la dissémination de l'infection dans les poumons. La dissémination du virus a également été réduite avec le C2X formulé et la dose élevée de C2X libre, mais le C2X libre à faible dose n'a montré aucun effet. Enfin, nous avons évalué la toxicité des C2X chez le poisson zèbre et leur potentiel immunogène chez la souris. L'ensemble de ces expériences n'a pas montré d'effet négatif d'un traitement répété par C2X.Dans l'ensemble, la stratégie d'ancrage des nanobinders, tels que C2, aux mucines représente une approche prometteuse et sûre pour améliorer les traitements prophylactiques qui assurent la protection de la cavité nasale et, limitent efficacement, la propagation virale aux poumons
Modélisation biomécanique du membre supérieur couplé à l'exosquelette ABLE 7 axes pour la rééducation et la réadaptation de la personne tétraplégique.
Tetraplegia results from injury to the spinal cord at the cervical level and significantly affects an individual's autonomy and overall quality of life. To help patients regain some of that quality of life, rehabilitative effort is usually focused on improving mobility in the upper limb, which is frequently considered one of the priorities by patients, conventional manual therapies however have certain limitations regarding therapist availability, patient engagement, precision, intensity, and improvement monitoring. Using exoskeletons to perform robotic rehabilitation offers a promising solution to these shortcomings but their clinical adoption still faces challenges, the main concern being the safety of the user.This thesis therefore focuses on developing a biomechanical model of the human-exoskeleton interaction, specifically tailored to the ABLE 7-axes exoskeleton. This model aims at ensuring patient safety by monitoring joint angles and joint torques in real-time, as well as paving the way towards a tool to optimize rehabilitation exercises based on individual capabilities and goals and track patient progress.The research begins with a detailed review of upper limb functional anatomy and the state-of-the-art in exoskeleton technologies. Challenges such as restricted degrees of freedom, control inefficiencies, and patient-specific adaptability are identified. The thesis then analyzes the potential of using the ABLE 7-axes exoskeleton as a kinematic measurement tool and its impact of natural upper limb kinematics. Kinematic interaction models to estimate the human arm position from exoskeleton data (without relying on external measurement systems) are then developed. The thesis continues to study the impact of the exoskeleton on the upper limb dynamics and develops a dynamic model to compute the human joint torques still based on data acquired only by the exoskeleton.This work contributes to advancing the understanding of the human-exoskeleton interaction and provides a foundation for safer, more effective robotic rehabilitation systems that can significantly improve patient outcomes and quality of life.La tétraplégie, due à une lésion de la moëlle épinière au niveau des vertèbres cervicales, affecte considérablement l’indépendance et la qualité de vie d’une personne. Afin d'aider les patients à regagner une part de leur qualité de vie, la rééducation vise généralement à améliorer la fonctionnalité du membre supérieur, un objectif souvent jugé prioritaire par les patients. Les thérapies manuelles conventionnelles présentent toutefois certaines limites liées à la disponibilité du praticien, l'implication du patient, la précision et l'intensité des exercices ainsi que le suivi efficace de l'évolution du patient. L'utilisation d'exosquelettes dans le cadre de cette rééducation présente des solutions prometteuses à ces lacunes, mais leur adoption en milieu clinique reste confrontée à des défis, la principale préoccupation étant la sécurité de l'utilisateur. Cette thèse se concentre donc sur le développement d'un modèle biomécanique de l'interaction homme-exosquelette, spécifiquement adapté à l'exosquelette ABLE à 7 axes. Ce modèle vise à assurer la sécurité du patient en contrôlant les angles et les couples articulaires du membre supérieur en temps réel, ainsi qu'à ouvrir la voie à un outil permettant d'optimiser les exercices de rééducation en fonction des capacités et des objectifs individuels et d’améliorer le suivi des progrès du patient.L’étude commence par un examen détaillé de l'anatomie fonctionnelle du membre supérieur et de l'état de l'art des exosquelettes de rééducation. Les défis tels que les degrés de liberté restreints, les complexités de contrôle et l'adaptabilité spécifique au patient sont identifiés. La thèse analyse ensuite le potentiel de l'utilisation de l'exosquelette ABLE 7-axes comme outil de mesure cinématique et son impact sur la cinématique naturelle des membres supérieurs. Des modèles d'interaction cinématique permettant d'estimer la position du bras humain à partir des données de l'exosquelette (sans dépendre de systèmes de mesure externes) sont ensuite développés. La thèse se poursuit en étudiant l'impact de l'exosquelette sur la dynamique du membre supérieur et développe un modèle dynamique pour calculer les couples des articulations humaines toujours sur la base des données acquises uniquement par l'exosquelette.Ce travail contribue à faire progresser la compréhension de l'interaction homme-exosquelette et fournit une base pour des systèmes de rééducation robotique plus sûrs et plus efficaces qui peuvent améliorer de manière significative les résultats et la qualité de vie des patients
Application des techniques d’IA aux problèmes d’ordonnancement dynamique d’ateliers de type « job shop flexible » dans le contexte d’Industrie 5.0
This thesis focuses on the development of scheduling solutions for dynamic and flexible job shops, balancing economic (makespan), environmental (energy consumption, carbon footprint), and social objectives (OCRAmax, worker preferences). The approaches developed aim to optimize these three dimensions simultaneously, providing sustainable and efficient solutions for modern production systems. The proposed models incorporate practical and realistic constraints, such as task precedence, intra-workshop transport times, machine setups, and worker movements. Dynamic disruptions, like worker absences and renewable energy source fluctuations, are handled through adaptive strategies and AI-based approaches, particularly Deep Q-Learning, which has proven to be highly effective.The results demonstrate the models' ability to reduce ergonomic risks, minimize carbon emissions, and enhance system adaptability in the face of disruptions. Future research includes applying the models to real industrial data, integrating diverse renewable energy sources, improving the management of unforeseen dynamic events, and extending to more complex scenarios such as machine maintenance and inter-site logistics. This work contributes to more sustainable, adaptive, and human-centered production systems, aligned with Industry 5.0 objectives.Cette thèse se concentre sur le développement de solutions d'ordonnancement pour les job shops dynamiques et flexibles, en équilibrant les objectifs économiques (makespan), environnementaux (consommation d'énergie, empreinte carbone) et sociaux (OCRAmax, préférences des travailleurs). Les approches développées visent à optimiser ces trois dimensions simultanément, en fournissant des solutions durables et efficaces pour les systèmes de production modernes. Les modèles proposés intègrent des contraintes pratiques et réalistes, telles que la priorité des tâches, les temps de transport au sein de l'atelier, la configuration des machines et les mouvements des travailleurs. Les perturbations dynamiques, telles que les absences des travailleurs et les fluctuations des sources d'énergie renouvelable, sont gérées par des stratégies adaptatives et des approches basées sur l'IA, en particulier le Deep Q-Learning, qui s'est avéré très efficace.Les résultats démontrent la capacité des modèles à réduire les risques ergonomiques, à minimiser les émissions de carbone et à améliorer l'adaptabilité du système face aux perturbations. Les recherches futures portent sur l'application des modèles à des données industrielles réelles, l'intégration de diverses sources d'énergie renouvelables, l'amélioration de la gestion des événements dynamiques imprévus et l'extension à des scénarios plus complexes tels que la maintenance des machines et la logistique intersites. Ce travail contribue à des systèmes de production plus durables, adaptatifs et centrés sur l'humain, alignés sur les objectifs de l'Industrie 5.0
Contributions à la détection non supervisée d'anomalies visuelles
This thesis addresses visual anomaly detection, focusing on unsupervised defect identification in industrial inspection applications. Motivated by recent advances in the field, this work presents contributions to (1) the evaluation standards of anomaly localization, (2) usability of models via post-processing techniques, and (3) model-specific improvements. First, we introduce AUPIMO, a novel evaluation metric that addresses limitations of existing benchmarks. It imposes a hard minimization of false positives on normal samples, encouraging a more challenging and trustworthy evaluation. Experiments across 27 datasets and eight state-of-the-art models demonstrate that AUPIMO provides a more reliable and detailed performance assessment than previous benchmarks. Second, we propose an unsupervised, image-specific threshold selection method for anomaly localization. This method avoids biases introduced by statistics-based thresholds, offering an alternative to color-coded heatmaps. Third, we analyze Gaussian distribution-based models through a novel dimensionality reduction method. This analysis leads to findings that challenge prevailing notions in the field, such as the correlation between variance and model performance. This novel subspace-based dimensionality reduction method, combined with synthetic anomalies, is shown to consistently improve performance. Additionally, we introduce a visualization tool enabling anomaly localization for image-wise Gaussian models. The thesis also presents an incremental improvement to a pixel-wise one-class classification model, enabling more effective use of pixel-wise annotations and faster training. The proposed contributions aim to bridge the gap between research and real-world applications, offering model-agnostic solutions to improve benchmarking and model usability, and model-specific improvements to Gaussian-based models.Cette thèse traite de la détection d'anomalies visuelles, en particulier appliquée à l'identification non supervisée de défauts en applications d'inspection industrielle. Motivé par les récentes avancées dans le domaine, ce travail présente des contributions (1) à d'évaluation de la localisation des anomalies, (2) à la facilité d'utilisation des modèles via des techniques de post-traitement, et (3) à des améliorations spécifiques à des modèles basés sur les distributions gaussiennes. D'abord, nous présentons AUPIMO, une nouvelle mesure d'évaluation qui s'attaque aux limites des emph{benchmarks} actuels. Elle impose une minimisation stricte des faux positifs sur les échantillons normaux, encourageant ainsi une évaluation plus difficile. Des expériences menées sur 27 ensembles de données et huit modèles de l'état de l'art démontrent qu'AUPIMO fournit une évaluation plus fiable et plus détaillée des performances. Deuxièmement, nous proposons une méthode de sélection non supervisée de seuil et spécifique à l'image pour la localisation des anomalies. Cette méthode évite des biais introduits par les seuils basés sur des statistiques et offre une alternative aux emph{heatmaps} codées en couleur. Troisièmement, nous analysons les modèles basés sur distributions gaussiennes à l'aide d'une nouvelle méthode de réduction de la dimensionnalité. Cette analyse aboutit à des résultats qui remettent en question des notions dominantes dans le domaine, telles que la corrélation entre la variance et la performance en détection d'anomalies. Cette nouvelle méthode de réduction de la dimensionnalité basée sur les sous-espaces, combinée à des anomalies synthétiques, permet d'améliorer les performances de manière consistante. Nous présentons également un outil de visualisation permettant de localiser les anomalies pour les modèles gaussiens conçu pour des images entières. La thèse présente également une amélioration incrémentale d'un modèle de classification à une classe, permettant une utilisation plus efficace des annotations au niveau des pixels et un entrainement plus rapide. Les contributions proposées visent à combler l'écart entre la recherche et les applications du monde réel, en offrant des solutions agnostiques aux modèles pour améliorer l'analyse comparative et la facilité d'utilisation des modèles, ainsi que des améliorations spécifiques aux modèles basés sur les gaussiennes
Interaction Réglable de Champ Moyen et au-delà du Champ Moyen pour un Condensat de Bose-Einstein dans un mélange cohérent de spin
This thesis explores mean-field and beyond mean-field interactions in a coherently coupled two-component Bose-Einstein condensate (BEC) of K atoms. We first establish the theoretical framework describing the atomic structure of potassium-39, interatomic interactions, and Feshbach resonances. We then introduce the mean-field and beyond mean-field theories relevant to ultracold Bose gases. In addition, we describe the physics of coherently coupled two-level systems, including radio-frequency coupling, adiabatic sweeps, and scattering lengths in the dressed-state basis. A major part of the experimental work focuses on developing a high-precision magnetic field stabilization system, essential for accurate and reliable measurements in spinor BECs. We investigate the mean-field interaction energy of a coherently coupled two-component BEC in the lower dressed-state basis, both theoretically and experimentally. The results reveal nonlinearities and saturation effects as functions of density. We then explore the regime of quantum droplets, aiming at observing self-bound states stabilized by quantum fluctuations beyond the mean-field approximation. Finally, we present an experiment on BEC tunneling through optical barriers created using a Digital Micromirror Device and a blue-detuned laser, demonstrating the transition from classical to quantum tunneling and revealing Fabry-Pérot-like interference in matter waves.Cette thèse explore les interactions de champ moyen et au-delà du champ moyen dans un condensat de Bose-Einstein (BEC) à deux composantes de K couplé de manière cohérente. Nous établissons d'abord le cadre théorique décrivant la structure atomique du potassium-39, les interactions interatomiques et les résonances de Feshbach. Nous présentons ensuite les théories de champ moyen et les corrections au-delà du champ moyen pertinentes pour les gaz de Bose ultrafroids. Nous décrivons également la physique des systèmes à deux niveaux couplés de manière cohérente, y compris le couplage radiofréquence, les balayages adiabatiques et les longueurs de diffusion dans la base des états habillés. Une grande partie du travail expérimental porte sur le développement d'un système de stabilisation du champ magnétique à haute précision, essentiel pour des mesures fiables et précises dans un BEC à deux composantes. Nous étudions l'énergie d'interaction de champ moyen dans un BEC à deux composantes couplé de manière cohérente, préparé dans l'état habillé, à la fois théoriquement et expérimentalement. Les résultats révèlent des non-linéarités et des effets de saturation en fonction de la densité. Nous explorons ensuite le régime des gouttelettes quantiques, dans le but d'observer des états autoliés stabilisés par les fluctuations quantiques au-delà de l'approximation de champ moyen. Enfin, nous présentons une expérience de tunneling d'un BEC à travers des barrières optiques créées à l'aide d'un dispositif à micromiroirs numériques (DMD) et d'un laser désaccorder vers le bleu, démontrant la transition entre les régimes de l'effet tunnel classique et quantique, ainsi que l'apparition d'interférences de type Fabry-Pérot dans les ondes de matière
Modeler la lumière en milieux complexes résonants
This work presents a theoretical and numerical study of the propagation of light waves through disordered media composed of resonant point-like scatterers. It falls within the framework of the recent development of wavefront shaping techniques, which open up new perspectives for controlling light transport in complex environments.First, we investigate the statistical properties of the transmission matrix as well as those of the dwell time operator of light within a resonant complex medium. The study is conducted in a two-dimensional waveguide under a scalar approximation (TM polarization). We show that the introduction of resonators enables the exploration of different transport regimes — ballistic, diffusive, and localized — by tuning only the frequency of the incident light. The study of the eigenvalue distribution of the transmission matrix across these regimes reveals that it is entirely governed by a mesoscopic parameter, the mean free path, in addition to the system's geometric characteristics. The open and closed channels observed in the diffusive regime are similar to those found in non-resonant media. In the localized regime, the channels of maximal transmission adopt a "necklace" structure, optimizing transmission through the coupling of exponentially localized eigenmodes. Regarding the dwell time operator, whose eigenvalues reflect dynamic aspects of transport, its distribution highlights the impact of the reduced energy propagation speed due to the presence of resonators, thus revealing a phenomenon of light trapping. We further demonstrate that the use of optimized wavefronts significantly enhances both transmission and dwell time.In a second part, we show that the total electromagnetic energy stored in a disordered set of resonators decomposes into two contributions: one associated with radiation, the other with matter. For resonators with high quality factors, the matter energy largely dominates, and their ratio tends toward a universal value in the thermodynamic limit. Using multiple scattering theory, we establish that, in this limit, the energy transport velocity is entirely determined by the ratio between the matter and radiation energies. Finally, the potential for energy deposition modulation is explored via wavefront shaping, an approach that allows manipulation of the dynamic degrees of freedom of the scattered wave by acting solely on its spatial components.As an exploratory study, the case of vector waves is considered to assess the influence of polarization on the transport properties in disordered media.Ce travail présente une étude numérique et théorique de la propagation des ondes lumineuses dans des milieux désordonnés constitués d'obstacles ponctuels résonants. Il s'inscrit dans le cadre du développement récent des techniques de façonnage de fronts d'onde, qui ouvrent de nouvelles perspectives pour le contrôle du transport lumineux dans des environnements complexes.Dans un premier temps, nous étudions les propriétés statistiques de la matrice de transmission ainsi que celles de l'opérateur de temps de séjour de la lumière au sein d'un milieu complexe résonant. L'analyse est réalisée dans un guide d'onde bidimensionnel, en régime scalaire (polarisation TM). Nous montrons que l'introduction de résonateurs permet d'explorer les différents régimes de transport — balistique, diffus et localisé — en modulant uniquement la fréquence de la lumière incidente. L'étude de la distribution des valeurs propres de la matrice de transmission à travers ces régimes révèle qu'elle est entièrement gouvernée par un paramètre mésoscopique, le libre parcours moyen, en plus des caractéristiques géométriques du système. Les canaux ouverts et fermés observés dans le régime diffus sont similaires à ceux des milieux non résonants. En régime localisé, les canaux de transmission maximale adoptent une structure en collier de perles, optimisant la transmission par couplage de modes propres localisés de manière exponentielle. Concernant l'opérateur de temps de séjour, dont les valeurs propres traduisent des aspects dynamiques du transport, sa distribution révèle l'impact de la réduction de la vitesse de propagation de l'énergie due aux résonateurs, mettant ainsi en évidence un phénomène de piégeage lumineux. Nous démontrons finalement que l'utilisation de fronts d'onde optimisés permet d'accroître significativement à la fois la transmission et le temps de séjour.Dans un second temps, nous montrons que l'énergie électromagnétique totale stockée dans un ensemble désordonné de résonateurs se décompose en deux contributions : l'une associée au rayonnement, l'autre à la matière. Pour des résonateurs de haut facteur de qualité, l'énergie de matière domine nettement, et leur rapport tend vers une valeur universelle dans la limite thermodynamique. À l'aide de la théorie de la diffusion multiple, nous établissons que, dans cette même limite, la vitesse de transport de l'énergie est entièrement déterminée par le rapport entre les énergies de matière et de rayonnement. Enfin, le potentiel de modulation du dépôt d'énergie est exploré via le façonnage de fronts d'onde, approche permettant d'agir sur les degrés de liberté dynamiques de l'onde diffusée en manipulant uniquement ses composantes spatiales.À titre exploratoire, le cas des ondes vectorielles est étudié afin d'évaluer l'influence de la polarisation sur les propriétés de transport dans les milieux désordonnés
Développement de méthodes computationnelles pour la transcriptomique spatiale basée sur l'image
Spatial transcriptomics methods provide crucial insights into the cellular heterogeneity and spatial organization of complex multicellular systems. Combining molecular and spatial information helps elucidate tissue architecture during development and disease. Although several commercial approaches are available, they are expensive and offer limited flexibility. In contrast, homebuilt methods provide cost-effective and customizable alternatives. Still, Both commercial and homebuilt pose analytical challenges. One the crucial analysis step is to identify RNA expression profiles at the single-cell level. Therefore, precise cell segmentation is critical, as accurate RNA profiles depend on correctly segmented cells.In the first part of this thesis, I present as a step-by-step guide to implement and perform homebuilt spatial transcriptomics. This guide spans the entire life cycle of a project,from its initial definition to experimental choices, wet lab approaches, instrumentation,and analysis. Beyond a litteratrue ressource, I present two of my contribution. First a data analysis pipeline for our recently submitted manuscript, where we present autoFISH, a complete toolbox to perform automated single molecule FISH (smFISH). Second I present a simulation environment to guide the choice of marker genes by anticipating analysis challenges.In a second part I describe my work on cell segmentation in image-based spatialtranscriptomics (IST). I present two novel segmentation methods, each tailored fora different experimental set-up. First, I developed Comseg, apoint-cloud segmentation method based on a graph of RNA nodes weighted by co-expression. ComSeg can be used on IST data missing cell staining. Secondly, we developed RNAseg, a cell staining-based method taking advantage of RNA position to identify cell on various cell staining quality.Les méthodes de transcriptomique spatiale offrent des informations essentielles sur l'hétérogénéité cellulaire et l'organisation spatiale des systèmes multicellulaires complexes. La combinaison d'informations moléculaires et spatiales aide à étudier l'architecture des tissus pendant le développement et les maladies. Bien que plusieurs approches commerciales soient disponibles, elles sont coûteuses et offrent une flexibilité limitée. En revanche, les méthodes développées en laboratoire "open source" offrent des alternatives économiques et personnalisables. Cependant, tant les approches commerciales que celles "open source" développées en laboratoire posent des défis analytiques. L'une des étapes d'analyse cruciales consiste à identifier les profils d'expression de l'ARN au niveau de la cellule unique. Par conséquent, une segmentation cellulaire précise est essentielle, car des profils d'ARN fiables dépendent de cellules correctement segmentées.Dans la première partie de cette thèse, je propose un guide étape par étape pour mettre en œuvre et réaliser une transcriptomique spatiale développée en laboratoire. Ce guide couvre l'ensemble du cycle de vie d'un projet, depuis sa définition initiale jusqu'aux choix expérimentaux,, à l'instrumentation et à l'analyse. Au-delà d'une ressource bibliographique, je présente deux de mes contributions. Tout d'abord, un pipeline d'analyse de données pour notre manuscrit récemment soumis, où nous présentons autoFISH, une boîte à outils complète pour effectuer des expériences automatisées de FISH à molécule unique (smFISH). Ensuite, je présente un environnement de simulation conçu pour guider le choix des gènes marqueurs en anticipant les défis analytiques.Dans une deuxième partie, je décris mon travail sur la segmentation cellulaire pour transcriptomique spatiale basée sur l'image (IST). Je présente deux nouvelles méthodes de segmentation, chacune adaptée à un type IST. Premièrement, j'ai développé ComSeg, une méthode de segmentation basée sur un nuage de points et utilisant un graphe de nœuds d'ARN pondérés par co-expression. ComSeg peut être utilisé sur des données IST ne comportant pas de coloration cellulaire. Deuxièmement, nous avons développé RNAseg, une méthode basée sur la coloration cellulaire qui exploite la position de l'ARN pour identifier les cellules dans des données où la coloration cellulaire est de qualité variable