Thèses en Ligne
Not a member yet
164023 research outputs found
Sort by
Résolution du problème de découpe avec revalorisation des matériaux
This thesis focuses on optimizing cutting processes in the manufacturing industry, with a particular emphasis on industrial joinery. It aims to reduce material waste through reuse, a fundamental principle of the circular economy, thereby addressing contemporary environmental, economic, and legislative challenges. This research is based on a comprehensive state-of-the-art review of the Cutting Stock Problem with Usable Leftovers (CSPUL), which focuses on reusing industrial leftovers. The method employed combines column generation with diving heuristics to refine solutions and ensure their feasibility in industrial settings. The developed models demonstrate that even limited reuse of leftovers can generate significant benefits. These approaches have been integrated into the REEVERSE software, which provides industrial users with tools to diagnose losses, optimize production, and valorize secondary raw materials. Experimental results validate these solutions, showing that they substantially improve material yield while meeting growing expectations for sustainability and competitiveness. This contribution represents a major step forward in the sustainable optimization of industrial resources.Cette thèse traite de l’optimisation des processus de découpe dans l’industrie manufacturière, en particulier la menuiserie industrielle. Elle vise à réduire les pertes de matière par le réemploi, principe de base de l’économie circulaire, répondant ainsi aux enjeux environnementaux, économiques et législatifs contemporains. Cette thèse s’appuie sur un état de l’art approfondi du Cutting Stock Problem with Usable Leftovers (CSPUL), un problème centré sur la réutilisation des chutes. La méthode employée combine la génération de colonnes avec des heuristiques de type diving pour affiner les solutions et garantir leur faisabilité dans des contextes industriels. Les modèles développés démontrent qu’une réutilisation même limitée des chutes peut générer des gains significatifs. Ces approches ont été intégrées au logiciel REEVERSE, qui fournit aux industriels des outils pour diagnostiquer les pertes, optimiser la production, et valoriser les matières de seconde vie. Les résultats expérimentaux valident ces solutions, montrant qu’elles permettent d’améliorer substantiellement le rendement matière tout en répondant aux attentes croissantes en matière de durabilité et de compétitivité. Cette contribution représente une avancée majeure dans l’optimisation durable des ressources industrielles
Le rôle des échelles de longueur dans la ruine des matériaux
Most materials exhibit markedly different behaviors at the micro-scalecompared to the macro-scale, particularly when it comes to failure. At very small scales, solids tend to be significantly stronger than at the structural level. This difference is typically attributed to the presence of defects. While fracture mechanics provides an adequate framework for describing structural resistance in the presence of large defects, structures are rarely designed with intentional cracks. Most defects, whether introduced during manufacturing or as a result of wear over the material’s lifetime, are relatively small and fall within a transitional scale. At this length scale, neither stress-based analysis nor traditional fracture mechanics are fully applicable.The manuscript explores the critical role of length scales in material failure, offering new insights into the mechanical behavior of solids across different scales. The primary objective is to bridge the gap between theoretical fracture models and practical applications through the use of advanced computational techniques such as phase-field methods and atomic-scale simulations. By integrating multi-scale modeling approaches with experimental analysis, the study focuses on understanding fracture processes in brittle materials.The manuscript presents several key findings that advance the understanding of fracture mechanics and material behavior across multiple scales. It establishes correlations between fracture toughness and other material properties, such as tensile strength in various fracture modes. It also reveals that material length scales differ from the size of instabilities observed in complex geometries. Furthermore, the study shows that the limiting velocities of cracks in dynamic fractures are linked to the average stiffness around the crack tip, where the finite-sized, regularized stress zone helps align simulations with experimentalobservations. The research demonstrates how different length scales in atomic structures manifest in elasticity, plasticity, and fracture, providing new insights into material behavior.Additionally, the study introduces failure criteria inspired by atomic-scale processes in silicate glasses, which are crucial for accurately predicting both their fracture and ductile responses. The critical role of diffuse damage in differentiating between free surface energy and fracture surface energy is also emphasized. Finally, the study shows that periodic beam lattices possess a unique fracture toughness determined by their elementary structure and tensile strength, while establishing that Cosserat theory is both necessary and sufficient for optimizing the mechanical performance of these structures.The implications of these findings are profound, offering new pathways for optimizing fracture-resistant materials. The research suggests that local toughness can be homogenized. By applying advanced optimization techniques, the global resistance of materials can be significantly enhanced, paving the way for the development of customized, fractureresistant mechanical metamaterials tailored to specific applications.Les matériaux se comportent souvent de manière très différente à l'échelle microscopique par rapport à l'échelle macroscopique, particulièrement en ce qui concerne la ruine. À de petites échelles, les solides sont bien plus résistants que lorsqu'ils sont évalués à l'échelle structurelle. Cette différence est généralement attribuée à la présence de défauts. Si la mécanique de la rupture offre un cadre adéquat pour comprendre la résistance en présence de grands défauts, les structures ne sont presque jamais conçues volontairement avec des fissures. La plupart des défauts, qu'ils résultent de la fabrication ou de l'usure au fil du temps, sont relativement petits et se trouvent dans une échelle de longueur transitoire où ni l'analyse des contraintes ni la mécanique classique de la rupture ne s'appliquent pleinement.Le manuscrit explore l'importance des échelles de longueur dans la ruine des matériaux et offre de nouvelles perspectives sur le comportement mécanique des solides. Il cherche à combler l'écart entre les modèles théoriques de rupture et leurs applications pratiques en s'appuyant sur des techniques de calcul avancées comme les méthodes de champ de phase et les simulations atomiques. L'approche intègre modélisation multi-échelles et analyses expérimentales pour mieux comprendre la rupture dans les matériaux fragiles.Le manuscrit présente plusieurs résultats clés sur la mécanique de la rupture et le comportement des matériaux à différentes échelles. Il montre des corrélations entre la ténacité à la rupture et des propriétés telles que la résistance à la traction dans divers modes de fracture. Il révèle que les échelles de longueur des matériaux diffèrent des tailles d'instabilités observées dans des géométries complexes. De plus, il met en évidence que les vitesses limites des fissures dynamiques sont liées à la rigidité moyenne autour de la pointe de la fissure, où la zone de contrainte régularisée permet d'aligner simulations et observations expérimentales. La recherche montre également comment les échelles de longueur atomiques influencent l'élasticité, la plasticité et la rupture, offrant ainsi de nouvelles perspectives sur le comportement des matériaux. L’étude développe des critères de ruine basés sur les processus atomiques dans les verres de silicate, essentiels pour prévoir avec précision leurs comportements en rupture et en plasticité. Le rôle crucial des endommagements diffus dans la distinction entre l’énergie de surface libre et l’énergie de surface de rupture est également souligné. Enfin, l'étude démontre que les réseaux périodiques de poutres possèdent une ténacité unique, déterminée par leur structure élémentaire et leur résistance à la traction, et prouve que la théorie de Cosserat est à la fois nécessaire et suffisante pour optimiser les performances mécaniques de ces structures.Ces résultats offrent de nombreuses perspectives pour l’optimisation de matériaux résistants à la rupture. Ils suggèrent que la ténacité locale peut être homogénéisée. Grâce à des techniques avancées d'optimisation, la résistance globale des matériaux peut être augmentée, permettant ainsi le développement de métamatériaux mécaniques sur mesure, adaptés à des applications spécifiques
Hyperbolicité complexe : méthodes algébriques et transcendantes, et application à des problèmes d’uniformisation
The word "hyperbolic" is a polysemic term commonly used in geometry to qualify objects "with negative curvature" properties. In complex algebraic geometry, this term has a more specialized meaning : we essentially designate as hyperbolic the complex projective varieties that do not admit any entire curve, i.e. non-constant holomorphic maps starting from the complex plane, taking their values in the given variety. The main conjectures of the field (and in particular the celebrated Green-Griffiths-Lang conjecture) predict that complex projective varieties of "general type" should admit only "few" such entire curves. This thesis presents several approaches to the study of this conjecture for several classes of complex varieties, using a spectrum of both algebraic and transcendental techniques.Among the algebraic methods, we describe several techniques for constructing jet differential equations, well suited to the study of hyperbolicity of hypersurfaces in the projective spaces. We also present several methods applicable in the quasi-projective setting, in particular to study the varieties admitting "big" representations of their fundamental group. Perhaps somewhat surprisingly, these last transcendental techniques – jointly with the theory of Campana’s special varieties and orbifolds – can be applied to problems of uniformization by the ball in a singular or quasi-projective setting : these last results are described in the final chapter of this thesis.Le mot "hyperbolique" est un terme polysémique usuellement employé en géométrie pour qualifier les objets "à courbure négative". En géométrie algébrique complexe, le terme a un sens plus précis : on qualifie essentiellement d’hyperboliques les variétés projectives complexes n’admettant pas de courbes entières, c’est-à-dire d’applications holomorphes non constantes partant du plan complexe, et à valeurs dans la variété donnée. Les conjectures centrales du domaine (dont la célèbre conjecture de Green-Griffiths-Lang) prédisent que les variétés projectives dites "de type général" devraient admettre "peu" de telles courbes entières.Ce mémoire présente quelques approches à l’étude de cette conjecture pour diverses classes de variétés complexes, utilisant un spectre de techniques tant algébriques que transcendantes. Parmi les méthodes algébriques, on décrit notamment des techniques de construction d’équations différentielles de jets, très adaptées à l’étude de l’hyperbolicité des hypersurfaces de l’espace projectif. On présente aussi quelques méthodes transcendantes applicables dans le cas quasi-projectif, notamment pour étudier les variétés admettant de "grosses" représentations du groupe fondamental.De façon peut-être un peu surprenante, ces dernières techniques – jointes à la théorie des orbifoldes et des variétés spéciales de Campana – trouvent une application à des problèmes d’uniformisation par la boule dans un cadre singulier ou quasi-projectif : ces résultats sont présentés dans la dernière partie du présent mémoire
Approche computationnelle pour le repositionnement de médicament au travers d’une perspective holistique avec les graphes de connaissances (OREGANO)
Drug discovery is a long and costly process. Drug repositioning is a promising alternative which involves finding new indications for existing drugs. By comparing large quantities of information on drugs that have failed in the final phases of clinical trials, or that have been granted marketing authorization and are now on the market, it is possible to find candidate repositioning drugs capable of treating a condition for which they were not initially developed. To compare all these drugs, computational methods, based on large databases, are favored for their efficiency, speed and ability to analyze large quantities of information. Knowledge graphs are ideal structures for integrating this heterogeneous information. A knowledge graph organizes its information into triplets consisting of a subject, an object and a predicate explaining the relationship between the subject and the object. This graph, combined with embedding techniques (machine learning), can be used to predict new relationships between subjects and objects (which are nodes in the graph). It is therefore possible to transform the problem of repositioning into a problem of discovering new links in a graph. This thesis addresses these issues in the context of the OREGANO project, which aims to build a large knowledge graph on drugs and apply node-plotting techniques for drug repositioning. These techniques “project” the graph into a vector space where each entity is represented by a vector. One of OREGANO’s innovations is also to include data on natural compounds whose medicinal properties are exploited in many countries, and whose repositioning potential has been little explored. First, we present the way in which we designed the OREGANO knowledge graph, considering two distinct integration approaches. We then describe the evolutions that have been made to the graph over the years. Thirdly, we demonstrate the ability of the OREGANO knowledge graph to predict new links using embedding techniques. Predictions are evaluated with the usual metrics and empirically in the context of drug repositioning. The OREGANO graph as well as the algorithm and code developments are made available to the community at https://gitub.u-bordeaux.fr/erias/oregano.La découverte de médicaments est un processus long et coûteux. Le repositionnement de médicaments est une alternative prometteuse qui consiste à trouver de nouvelles indications pour des médicaments existants. En comparant de grandes quantités d’informations sur les médicaments qui ont échoué aux dernières phases des essais cliniques ou qui ont obtenu une autorisation de mise sur le marché, et donc commercialisés, il est possible de trouver des médicaments candidats au repositionnement capables de traiter une affection pour laquelle ils n’ont pas été développés initialement. Pour comparer tous ces médicaments, les méthodes computationnelles s’appuyant sur de grandes bases de données sont privilégiées pour leur efficacité, leur rapidité et leur capacité à croiser de grandes quantités d’informations. Les graphes de connaissances sont des structures appropriées pour intégrer ces informations de nature hétérogène. Un graphe de connaissances organise ces informations en triplets composés d’un sujet, d’un objet et d’un prédicat explicitant la relation entre le sujet et l’objet. Ce graphe, combiné à des techniques de plongement de nœuds (apprentissage automatique), permet de prédire de nouvelles relations entre sujets et objets (qui sont des nœuds du graphe). Il est donc possible de transformer le problème de repositionnement en un problème de découverte de nouveaux liens dans un graphe. Cette thèse s’intéresse à ces problématiques dans le cadre du projet OREGANO visant à construire un large graphe de connaissances sur les médicaments et à appliquer des techniques de plongement de nœuds pour le repositionnement de médicaments. Ces techniques "projettent" le graphe dans un espace vectoriel où chaque entité est représentée par un vecteur. Une des innovations apportées par OREGANO est également d’inclure des données sur des composés naturels dont les propriétés médicinales sont exploitées dans de nombreux pays et dont les potentialités de repositionnement ont été peu explorées. Dans un premier temps, nous présentons la manière dont nous avons conçu le graphe de connaissances OREGANO, en considérant deux approches d’intégration distinctes. Nous exposons ensuite les évolutions qui ont été apportées au graphe au fil des versions. Dans un troisième temps, nous exposons la capacité du graphe de connaissances OREGANO à prédire de nouveaux liens grâce à des techniques de plongement de nœuds. Les prédictions sont évaluées avec les métriques habituelles et empiriquement dans le cadre du repositionnement de médicaments. Le graphe OREGANO ainsi que les développements des algorithmes et du code sont disponibles pour la communauté scientifique à l’adresse suivante : https://gitub.u-bordeaux.fr/erias/oregano
Opacité, analystes financiers et évaluation optimisée du risque dans l'industrie bancaire et les FinTech.
This thesis provides a comprehensive investigation into the intricate interactions between bank opacity, financial analyst influence, and risk optimization, focusing on the dual contexts of banking and FinTech. Through three detailed studies, it explores how opacity and analyst behavior shape financial stability across varied regulatory environments and introduces an innovative, adaptive approach to optimizing credit risk assessment in FinTech lending.The first chapter rigorously examines the destabilizing effects of bank opacity, particularly during periods of market overvaluation and economic uncertainty, with a focus on U.S. and European banks. Using analyst forecast errors and dispersion as forward-looking measures of opacity, the study reveals that high opacity significantly heightens risk, especially in smaller, opaque U.S. institutions where analyst coverage paradoxically amplifies market sensitivity to negative earnings signals. By contrast, the effects in European banks are less pronounced, reflecting differences in regulatory frameworks and market structures. Additionally, high dividend payouts are shown to intensify opacity-driven risks, highlighting the intricate relationship between transparency, market discipline, and financial prudence in shaping bank stability.The second chapter investigates the role of financial analyst characteristics and career incentives in forecasting accuracy, boldness, and career trajectories across global banking markets, comparing trends in the U.S., Europe, and Asia. The findings demonstrate that experience, firm affiliation, and portfolio breadth significantly influence forecasting behavior, with distinct regional patterns. In the U.S., experienced analysts at leading firms provide bold and accurate forecasts, while younger analysts tend toward herding. In Europe, larger portfolios reduce forecasting accuracy, and younger analysts employ boldness to stand out, often at the expense of precision. These results highlight how regional labor market dynamics and career incentives shape analysts' forecasting contributions and their impact on market discipline.The third chapter addresses the challenges of credit risk assessment in FinTech lending, introducing EFSGA, an evolutionary-based ensemble learning framework that integrates genetic algorithms with machine learning. EFSGA is designed for dynamic, application-specific credit risk classification, balancing predictive accuracy with interpretability while adapting to evolving market conditions in real time. The model significantly outperforms traditional methods in handling unbalanced datasets and providing timely, actionable insights for credit risk management, establishing itself as a powerful tool for post-loan monitoring and risk mitigation in digital finance.Together, these studies offer a holistic analysis of opacity, financial analyst behavior, and advanced risk assessment techniques within banking and FinTech contexts. By clarifying the role of opacity and analyst pressures in shaping stability across financial systems and presenting cutting-edge tools for managing credit risk in emerging digital markets, this thesis provides crucial insights for financial institutions, regulators, and policymakers striving to foster systemic resilience and transparency in an increasingly interconnected financial landscape.Cette thèse examine les interactions entre l'opacité bancaire, l'influence des analystes financiers et l'optimisation du risque, avec un double focus sur le secteur bancaire et celui des FinTech. Composée de trois études, elle explore la stabilité systémique, les comportements des analystes et des outils novateurs de gestion du risque de crédit. Le premier chapitre analyse les banques américaines et européennes, démontrant que l'opacité, mesurée via les erreurs et dispersions des prévisions des analystes, exacerbe les risques, particulièrement dans les petites banques opaques aux États-Unis. La couverture par les analystes amplifie la sensibilité du marché aux signaux négatifs, tandis que les dividendes élevés intensifient les risques liés à l'opacité. Le deuxième chapitre explore les comportements des analystes à l’échelle mondiale, montrant que l’expérience, l’ampleur des portefeuilles et les incitations régionales influencent la précision et l’audace des prévisions. Les analystes américains allient précision et audace, tandis que les analystes européens privilégient l’audace au détriment de la précision. Le troisième chapitre introduit le modèle EFSGA, un modèle d’apprentissage évolutif combinant algorithmes génétiques et apprentissage automatique pour optimiser dynamiquement le risque de crédit dans les FinTech, équilibrant précision et interprétabilité. Cette thèse offre des perspectives essentielles sur l’opacité, le rôle des analystes et des outils de gestion du risque, contribuant à la résilience des systèmes financiers modernes
Implication du système nerveux autonome sympathique dans la sclérose latérale amyotrophique
Amyotrophic lateral sclerosis (ALS) was initially defined by Jean-Martin Charcot in 1869 as a disease exclusively affecting motor neurons. It is now recognized as a multisystem neurodegenerative disease with clinical, genetic, and neuropathological heterogeneity. Despite significant progress in understanding Charcot's disease, few treatments are currently available to slow or halt its progression. Although various symptoms related to autonomic nervous system (ANS) dysfunctions have been described, few research projects have explored its role in the development of ALS. The work presented in this thesis aimed to study alterations in the sympathetic autonomic nervous system in ALS, using the SOD1G93A mouse model. We specifically focused on the sympathetic preganglionic neurons (SPNs) of the ANS, which share numerous molecular and functional characteristics with motor neurons. SPNs represent the final spinal relay of autonomic control. By combining genetic, biochemical, anatomical techniques with telemetry and behavioral approaches, we demonstrated that alterations in the ANS are present in SOD1 mice at presymptomatic stages of the disease.La sclérose latérale amyotrophique (SLA) a été initialement définie par Jean-Martin Charcot en 1869 comme une maladie affectant exclusivement les motoneurones. Elle est maintenant reconnue comme une maladie neurodégénérative multisystémique, présentant une hétérogénéité clinique, génétique et neuropathologique. Malgré les avancées croissantes dans la compréhension de la maladie de Charcot, peu de traitements sont aujourd’hui disponibles pour freiner ou arrêter la progression de la maladie. Bien que divers symptômes liés à des dysfonctionnements du système nerveux autonome (SNA) aient été décrits, peu de projets de recherche s’interrogent sur son implication dans le développement de la SLA. Les travaux de cette thèse ont eu pour but d’étudier les altérations du système nerveux sympathique autonome dans la SLA, en utilisant le modèle de souris SOD1G93A. Nous nous sommes plus particulièrement intéressés aux neurones sympathiques préganglionnaires (SPNs) du SNA qui partagent de nombreuses caractéristiques moléculaires et fonctionnelles communes avec les motoneurones. Les SPNs constituent le dernier relais spinal de la commande autonome. En combinant des techniques génétiques, biochimiques, anatomiques avec des approches télémétriques et comportementales, nous avons montré que des altérations du SNA étaient présentes chez la souris SOD1 dans des stades présymptomatiques de la maladie
Endommagement, fragmentation et combustion d’un matériau explosif comprimé
In the context of the safety of pyrotechnic structures, it is important to evaluate by simulation the level of reaction reached during thermal or mechanical aggressions (impact). Nowadays, there is no unified approach approved by the international scientific community to describe the complex process leading to violent reactions such as the Combustion-Deflagration-Detonation transition (CoDDT). The objective of this thesis is to study the influence of the damage, resulting from low velocity impact damage on the combustion of a pressed explosive.First, we will study the influence of mechanical loading on the combustion behavior of our material. We will show that the burning surface plays an important role in the TCoDD phenomenon, and we will seek to determine this surface from manometer bomb tests. Next, we will quantify the damage within the microstructure (crack density, porosity, etc.) following mechanical loading. Finally, we will model the mechanical behavior of our material and relate its damage to the crack density influencing material combustion.Dans le cadre de la sécurité des structures pyrotechniques, il est important de prédire le niveau de réaction atteint lors d’agressions thermiques ou mécaniques (impact). À ce jour, il n’existe pas de démarche unifiée et approuvée par la communauté scientifique internationale permettant de décrire le processus complexe menant à des réactions violentes telles que la transition Combustion-Déflagration-Détonation (TCoDD). Cette thèse a pour objectif d’étudier l’influence de l’endommagement dû à un impact à basse vitesse sur la combustion d’un explosif comprimé.Dans un premier temps, nous étudierons l’influence d’une sollicitation mécanique sur le comportement en combustion de notre matériau. Nous montrerons que la surface en combustion joue un rôle important dans le phénomène de la TCoDD, et nous chercherons à déterminer cette surface à partir des essais en bombe manométrique. Ensuite, nous nous attacherons à quantifier l’endommagement au sein de la microstructure (densité de fissures, porosité, etc.) suite à une sollicitation mécanique. Enfin, nous modéliserons le comportement mécanique de notre matériau et relierons l’endommagement de celui-ci à la densité de fissures ayant une influence sur la combustion du matériau
Réactivité du graphite, magnésium et uranium, déchets nucléaires des réacteurs UNGG, dans des hydroxydes fondus
This thesis is part of the SELF France 2030 project, which proposes a water-based oxidative pretreatment of metallic nuclear waste in a NaOH-KOH-H₂O salt melted at 225⁰C before conditioning in cementitious matrices. This process inserts the metal waste and ensures the safety of the disposal package. The thesis work was therefore devoted to studying the reactivity of the main metallic nuclear wastes - graphite, magnesium, and uranium - in molten NaOH-KOH salt at 225⁰C. The first part concerns the NaOH-KOH mixture (51.5 - 48.5 mol%) melted at 225⁰C to acquire thermodynamic and experimental data on its chemical and electrochemical stability. Gravimetric and electrochemical studies show that the mixture contains 15 mol% water at 225⁰C, which is characteristic of high water solvation in this medium. The redox properties of the salt were studied by electrochemistry coupled with gas-phase micro-chromatography (μGC). Reactions at the anodic and cathodic limits are strongly influenced by water content: in hydrated media, the cathodic limit corresponds to the reduction of H₂O to H₂, whereas in dehydrated media, it is the reduction of Na⁺ that limits the electroactivity range. The anodic limit is attributed to the oxidation of OH⁻ to O₂ in media with water contents above 8.7 mol% and to the oxidation of OH- to O₂⁻ for lower contents. The electrochemical study enabled us to calculate the water activity coefficient in the molten hydroxide mixture at 225⁰C. The result confirms the high solvation of water in this medium. Water is the oxidizing element in the medium, so it was important to monitor its content in situ. Therefore, a calibration line based on measuring the water reduction peak current - Ipc =f([H₂O]) - was established, enabling water to be measured in the various experiments. The activity coefficient of NaOH was also determined electrochemically. This set of experimental data was used to calculate the stability diagram of the NaOH-KOH salt as a function of potential and water content. Finally, controlling and maintaining the amount of water was proposed to ensure continuous oxidation of metallic waste. The second part of this thesis was dedicated to studying the reactivity of graphite, magnesium, and uranium in molten hydroxides containing water at 225⁰C. This study showed that graphite is stable in molten hydroxides. This study showed that graphite is stable in molten hydroxides. According to thermodynamic data, magnesium can be oxidized by water or Na⁺ ions, forming a pyrophoric compound of H₂ or Na. However, experimental studies show that H₂O continuously oxidizes magnesium, and electrochemically, magnesium oxidation is observed at a higher potential than Na⁺ ion reduction. Furthermore, Mg oxidation kinetics are proportional to water concentration at lower water contents, characteristic of cathodic dissolution control. At higher water contents, the oxidation kinetics reach a limit that depends on the active surface of the magnesium, giving anodic control of the dissolution. For industrial implementation and to manage waste dissolution kinetics and H₂ formation, it is recommended to start with a dehydrated molten salt and continuously add water. We calculated a stability diagram for magnesium in the medium based on all these experimental data. Concerning the behavior of uranium in molten salt, thermodynamic calculations show that uranium is preferentially oxidized to K₂UO₄. Gas chromatography analyses confirmed uranium oxidation by water, and experimental studies proposed a reaction mechanism.Cette thèse s’inscrit dans le cadre du projet SELF France 2030, qui propose un prétraitement oxydant par l’eau des déchets métalliques nucléaires dans un sel NaOH-KOH-H₂O fondu à 225⁰C, avant leur conditionnement en matrices cimentaires. Ce procédé permet d’inerter les déchets métalliques et assure la sûreté du colis de stockage. Le travail de thèse a donc été consacré à l’étude de la réactivité des principaux déchets nucléaires métalliques – graphite, magnésium et uranium – dans le sel fondu NaOH-KOH à 225⁰C. Une première partie concerne le mélange NaOH-KOH (51,5 – 48,5 mol%) fondu à 225⁰C pour acquérir des données thermodynamiques et expérimentales sur sa stabilité chimique et électrochimique. Les études gravimétriques et électrochimiques montrent que le mélange contient 15 mol% d’eau à 225⁰C, ce qui est caractéristique d’une forte solvatation de l’eau dans ce milieu. Les propriétés redox du sel ont été étudiées par électrochimie couplée à la micro-chromatographie en phase gazeuse (μGC). Les réactions aux limites anodique et cathodique sont fortement influencées par la teneur en eau : en milieu hydraté, la limite cathodique correspond à la réduction de H₂O en H₂, alors qu'en milieu déshydraté, c’est la réduction de Na⁺ qui limite le domaine d’électroactivité. Quant à la limite anodique, elle est attribuée à l’oxydation de OH⁻ en O₂ dans les milieux contenant des teneurs en eau supérieures à 8,7 mol% et à l’oxydation de OH⁻ en O₂⁻ pour des teneurs inférieures. L’étude électrochimique a permis de calculer le coefficient d’activité de l’eau dans le mélange d’hydroxydes fondus à 225⁰C. Le résultat confirme une forte solvatation de l’eau dans ce milieu. L’eau étant l’élément oxydant dans le milieu, il était important de pouvoir suivre sa teneur in-situ. C’est ainsi qu’une droite de calibration basée sur la mesure du courant de pic de réduction de l’eau - Ipc =f([H₂O]) - a été établie pour pouvoir doser l’eau lors des différentes expériences. Le coefficient d’activité de NaOH a également été déterminé par électrochimie. Cet ensemble de données expérimentales a permis de calculer le diagramme de stabilité du sel NaOH-KOH en fonction du potentiel et de la teneur en eau. Enfin, un moyen de contrôle et de maintien de la quantité d’eau a été proposé pour assurer une oxydation continue des déchets métalliques. La deuxième partie de cette thèse a été dédiée à l'étude de la réactivité du graphite, du magnésium et de l’uranium dans les hydroxydes fondus à 225⁰C contenant de l’eau. Cette étude a montré que le graphite est stable dans les hydroxydes fondus. D’après les données thermodynamiques, le magnésium peut être oxydé par l’eau ou les ions Na⁺, conduisant respectivement à la formation de H₂ ou de Na, composé pyrophorique. Cependant, les études expérimentales montrent que le magnésium est toujours oxydé par H₂O et, par électrochimie, on montre que l’oxydation du magnésium est observée à un potentiel supérieur à celui de la réduction des ions Na⁺. Par ailleurs, la cinétique d’oxydation de Mg est proportionnelle à la concentration en eau pour les plus faibles teneurs en eau, ce qui est caractéristique d’un contrôle cathodique de la dissolution. A des teneurs élevées en eau, la cinétique d’oxydation atteint une limite qui dépend de la surface active du magnésium, on a alors un contrôle anodique de la dissolution. Pour la mise en œuvre industrielle et afin de gérer la cinétique de dissolution des déchets et la formation de H₂, il est donc préconisé de partir d’un sel fondu déshydraté et d’ajouter l’eau en continu. L’ensemble des données expérimentales a permis de calculer le diagramme de stabilité du magnésium dans le milieu. Concernant le comportement de l’uranium dans le sel fondu, les calculs thermodynamiques montrent que l'uranium est oxydé préférentiellement en K₂UO₄. Les analyses par chromatographie gazeuse ont confirmé l’oxydation de l’uranium par l’eau et l’étude expérimentale a permis de proposer un mécanisme réactionnel
Étude fonctionnelle des domaines d'adressage aux Gouttelettes Lipidiques (GL)pour améliorer la purification de protéines recombinantes
The production of hydrophobic recombinant proteins, such as transmembrane proteins, is complex due to their association with lipid environments, making their purification costly and difficult, accounting for up to 80% of production costs. This thesis proposes an innovative approach exploiting the properties of plant lipid droplets (GLs) to facilitate the folding and flotation purification of hydrophobic proteins, via anchoring by AtOLE1 oleosin, a major protein in seed GLs. While this method has been validated for soluble proteins, it remains unexplored for transmembrane proteins.GLs are dynamic structures composed of a core of triacylglycerols (TAGs) surrounded by a monolayer of phospholipids, with which proteins from the endoplasmic reticulum (ER) or cytosol are associated. Some of these proteins, involved in GL biogenesis, attach early to their surface. Addressing of proteins to GLs does not depend on a conserved domain, but rather on specific structural motifs. However, as these motifs are also present on proteins not associated with GLs, the study of their specificity remains complex.This thesis explored protein-GL interactions, identifying the factors influencing their specificity and affinity for the GL surface, with the aim of developing biotechnological applications. Proof of concept was achieved using SARS-CoV-2 transmembrane proteins E and M fused to AtOLE1. In Nicotiana benthamiana, which transiently overproduces GLs, microscopic observation showed that E and M proteins specifically target GLs through AtOLE1. A colocalization pipeline was developed to quantify this specificity.The E and M proteins were then expressed in Camelina sativa seeds. Analysis of purified GLs confirmed their surface presence, enhanced by fusion to AtOLE1. This work has shown that GL addressing efficiency varies according to the plant frame used, revealing mechanisms that are still poorly understood.To investigate these mechanisms further, the interaction specificity of various proteins and domains was assessed by microscopy in N. benthamiana. The results were then compared with the structural properties of the proteins, such as charge and hydrophobicity. No direct correlation was observed, suggesting that protein specificity for GLs is more influenced by their function in GL biogenesis or their arrival kinetics. Proteins that localize early to the GL surface show increased specificity.Assessing the affinity of proteins for GLs, defined by their ability to remain associated despite increasingly stringent washings, required the production of a new N. benthamiana chassis stably overaccumulating GLs, with a 22- to 23-fold increase in the number of GLs compared with the wild type. Isolated GLs were subjected to rigorous washing conditions, and associated proteins were detected by biochemical techniques. The results showed that some proteins, in the form of oligomers, remained attached, regardless of the stringency of the treatments.These observations were validated in C. sativa seeds, notably with the production of HsFGF2, a commercial growth factor. The results highlight the key role of arrival kinetics and protein function in GL biogenesis in determining their specificity and affinity. This understanding of the mechanisms of interaction between proteins and GLs opens the way to optimizations for biotechnological applications, notably in the production and purification of hydrophobic proteins.La production de protéines recombinantes hydrophobes, telles que les protéines transmembranaires, est complexe en raison de leur association avec des environnements lipidiques, rendant leur purification coûteuse et difficile, représentant jusqu'à 80 % des coûts de production. Cette thèse propose une approche innovante exploitant les propriétés des gouttelettes lipidiques (GLs) végétales pour faciliter le repliement et la purification par flottaison de protéines hydrophobes, via un ancrage par l'oléosine AtOLE1, protéine majeure des GLs de graines. Si cette méthode a été validée pour des protéines solubles, elle reste inexplorée pour les protéines transmembranaires.Les GLs sont des structures dynamiques composées d'un cœur de triacylglycérols (TAGs) entouré d'une monocouche de phospholipides, à laquelle s'associent des protéines issues du réticulum endoplasmique (RE) ou du cytosol. Certaines de ces protéines, impliquées dans la biogenèse des GLs, s'attachent précocement à leur surface. L'adressage des protéines aux GLs ne dépend pas d'un domaine conservé, mais plutôt de motifs structurels spécifiques. Cependant, ces motifs étant également présents sur des protéines non associées aux GLs, l'étude de leur spécificité reste complexe.Cette thèse a permis d'explorer les interactions protéines-GLs, en identifiant les facteurs influençant leur spécificité et leur affinité pour la surface des GLs, avec pour objectif de développer des applications biotechnologiques. Une preuve de concept a été réalisée en utilisant les protéines transmembranaires E et M du SARS-CoV-2 fusionnées à AtOLE1. Dans Nicotiana benthamiana, surproduisant transitoirement des GLs, l'observation par microscopie a montré que les protéines E et M ciblent spécifiquement les GLs grâce à AtOLE1. Un pipeline de colocalisation a été développé pour quantifier cette spécificité.Ensuite, les protéines E et M ont été exprimées dans des graines de Camelina sativa. L'analyse des GLs purifiées a confirmé leur présence en surface, améliorée par la fusion à AtOLE1. Ce travail a montré que l'efficacité d'adressage aux GLs varie selon le châssis végétal utilisé, révélant des mécanismes encore mal compris.Pour approfondir ces mécanismes, la spécificité d'interaction de diverses protéines et domaines a été évaluée par microscopie dans N. benthamiana. Les résultats ont ensuite été comparés aux propriétés structurales des protéines, comme la charge et l'hydrophobicité. Aucune corrélation directe n'a été observée, suggérant que la spécificité des protéines pour les GLs est davantage influencée par leur fonction dans la biogenèse des GLs ou leur cinétique d'arrivée. Les protéines qui se localisent tôt à la surface des GLs montrent une spécificité accrue.L'évaluation de l'affinité des protéines pour les GLs, définie par leur capacité à rester associées malgré des lavages de plus en plus stringents, a nécessité la production d'un nouveau châssis de N. benthamiana suraccumulant de manière stable des GLs, avec une augmentation de 22 à 23 fois du nombre de GLs par rapport au type sauvage. Les GLs isolées ont été soumises à des conditions de lavage rigoureuses, et les protéines associées ont été détectées par des techniques biochimiques. Les résultats ont montré que certaines protéines, sous forme d'oligomères, restaient attachées, quelle que soit la stringence des traitements.Ces observations ont été validées dans des graines de C. sativa, notamment avec la production de HsFGF2, un facteur de croissance commercial. Les résultats mettent en évidence le rôle clé de la cinétique d'arrivée et de la fonction des protéines dans la biogenèse des GLs pour déterminer leur spécificité et leur affinité. Cette compréhension des mécanismes d'interaction entre protéines et GLs ouvre la voie à des optimisations pour des applications biotechnologiques, notamment dans la production et la purification de protéines hydrophobes
Modéliser l’induction de stress social dans des simulations immersives en réalité virtuelle
Virtual reality has shown promise in treating social anxiety through virtual reality exposure therapies. In these therapies, users are exposed to stressful situations and gradually learn to adjust their affective responses. Exposing users to a stressful but safe environment is crucial for a successful exposure. This requires controlling the level of stress induced by the virtual environments. Literature shows that virtual reality applications are capable of inducing stress; however, it remains unclear how designers can precisely control this level of stress. To address this gap, we propose a model of stress that outlines a mechanism through which stress can be controlled during virtual social evaluation scenarios. The model suggests that users’ stress levels are influenced by the friendliness and dominance levels of the virtual agents, with this effect mediated by the users’ sense of social presence. To test this model, three studies involving 141 participants in social tasks, such as public speaking and job interviews, were conducted. The results indicate that agents’ friendliness and dominance levels influence users’ stress levels, however, further investigations are needed to address the limitations encountered and verify the model.La réalité virtuelle se présente comme un outil prometteur pour le traitement de l’anxiété sociale notamment à travers des thérapies d’exposition en réalité virtuelle. Dans ces thérapies, les utilisateurs sont confrontés à des situations stressantes et apprennent progressivement à ajuster leurs réactions affectives. Cela nécessite un certain niveau de stress essentiel à la réussite de l’entraînement. La littérature montre que les applications de réalité virtuelle sont capables de provoquer du stress ; toutefois, la manière dont les concepteurs peuvent contrôler avec précision ce niveau de stress reste floue. Pour répondre à ce problème, nous proposons un modèle décrivant un mécanisme permettant de contrôler le stress durant une évaluation sociale en réalité virtuelle. Ce modèle suggère que le stress est influencé par l’amicalité et la dominance des agents virtuels, et que la présence sociale joue un rôle médiateur dans leur impact sur le stress. Afin de tester ce modèle, nous avons mené trois études expérimentales impliquant 141 participants dans des tâches sociales telles que la prise de parole en public et les entretiens d’embauche. Les résultats montrent que le niveau de stress est impacté par le niveau d’amicalité et de dominance des agents virtuels, toutefois, des analyses supplémentaires sont nécessaires afin remédier aux limitations rencontrées et valider le modèle