Thèses en Ligne
Not a member yet
    170080 research outputs found

    Étude expérimentale de la corrosion abiotique et biotique de nanofilms de fer : initiation-propagation, mouillage et produits issus de la corrosion.

    No full text
    Iron corrosion is mostly a surface phenomenon; its initiation involving the interfacial iron oxide layer and the underlying metallic iron atoms layers. This study emphasizes surface phenomena associated with the corrosion of iron nanolayers (10nm), which are deposited on glass substrates thanks to a 5-nm titanium adhesion layer. These nanolayers offer a defect-free surface in addition to the advantage of limiting corrosion products accumulation on the surface. Under an aerated aqueous, chloride ions-containing droplet, corrosion initiates locally by aggressive ions but propagates radially around the pit as a 2D corrosion front. As soon as this front reaches the triple contact line, it deforms it and slowly drives the droplet wetting of the corroded surface. The weak amount of substance of corroded iron allows any corrosion product nano-scale analysis. Physico-chemical analysis performed on both surface and solution show that corrosion products are mainly iron (III) oxo-hydroxides, that grew as lepidocrocite sheets on the titanium nanolayer and in suspension. In the case of microbially induced corrosion (MIC), more specifically iron nanolayers corrosion initiated by Shewanella Oneidensis MR1 bacterium, oxygen quantities are diminished because of cellular respiration. In such conditions, we can find on the surface iron oxides that co-precipitated with phosphates from the culture medium. By experimentally limiting gas diffusion, hydrogen formation may be detected from iron nanolayers biotic corrosion, witness of water's involvement in iron oxidation reactions that occur at lower electrochemical potentials. Finally, a preliminary study has revealed the appearance of dendritic structures during the corrosion of iron-titanium nanolayers under a drop of salt containing water (without bacteria). These structures, with notable optical properties, form at the titanium-iron oxy-hydroxides interface, and are composed of both metallic and oxidized iron.La corrosion du fer est principalement un phénomène de surface; en particulier son initiation met en jeu la couche interfaciale d'oxydes native du fer ainsi que les premières couches d'atomes à l'état métallique sous-jacente. Cette étude se focalise sur les phénomènes de surface lors de la corrosion de nanocouches (10 nm) de fer, déposées sur substrat de verre, avec une nanocouche d'accroche de 5 nm de titane. Ces nanocouches présentent l'intérêt de former une surface sans défauts et de limiter l'accumulation de produits de corrosion à la surface. Sous une goutte aérée de solution aqueuse contenant des ions chlorures, la corrosion est initiée localement et se propage de façon radiale autour de la piqûre sous forme d'un front de corrosion 2D. Lorsque ce front de corrosion atteint la ligne triple de la goutte, il la déforme et entraîne l'étalement de cette dernière sur la surface ainsi corrodée. La faible quantité de matière en fer corrodé permet l'analyse à l'échelle nanométrique des produits de corrosion. Les analyses physico-chimiques de la surface et de la phase aqueuse montrent alors que les produits de corrosion sont majoritairement composés d'oxy-hydroxydes de fer (III), qui ont crû sous forme de feuillets de lépidocrocite à la surface de la nanocouche de titane et en suspension dans la goutte. Dans le cas de la corrosion induite par bactéries (ou MIC), plus particulièrement par la bactérie Shewanella Oneidensis MR1, la quantité de dioxygène accessible est diminuée par la respiration cellulaire. On retrouve alors à la surface des coprécipités d'oxydes de fer et de phosphates présents dans le milieu de culture. En limitant la diffusion des gaz de façon expérimentale, on peut observer la formation de dihydrogène lors de la corrosion du nanofilm de fer dans ces conditions biotiques, produit témoin de l'implication de l'eau dans les réactions d'oxydation du fer, qui ont lieu à plus bas potentiel électrochimique. Enfin, une étude préliminaire a permis de mettre en évidence l'apparition de structures dendritiques lors de la corrosion du nanofilm de fer-titane sous une goutte d'eau salée (sans bactéries). Ces structures, aux propriétés optiques bien particulières, semblent se former à l'interface entre la couche de titane et celle d'oxy-hydroxydes de fer, et être composées de fer oxydé et métallique

    Du Low Code au Green Code : concepts, méthodes et outils

    No full text
    L'ingénieur logiciel contemporain est placé sous une double contrainte : économique et écologique. La première impose de minimiser le coût de développement et de maintenance, quand la seconde impose de minimiser le coût environnemental. Cette HDR vise à équiper le praticien logiciel de concepts, méthodes et outils pour lui permettre de travailler à l'intérieur des limites qui lui sont posées.Le premier chapitre traite d'un génie du logiciel économique cherchant à réduire les coûts et les délais engendrés par le cycle de vie du logiciel. Les approches à basse intensité de code (low code) dont l'ingénierie dirigée par les modèles fait partie offrent cette possibilité. La première contribution porte sur la modernisation des logiciels vieillissants (legacy software), typiquement vers des environnements Cloud via une approche d'ingénierie arrière (ou rétro-ingénierie). La seconde contribution traite du cas spécifique des langages dédiés directement exécutables (xDSL), de leur intérêt pour les systèmes réactifs comme les applications Android et de leur rôle dans la quête du Graal de l'auto-adaptation logicielle. La dernière contribution propose de maîtriser le développement mobile multiplateforme via une approche d'ingénierie avant.Le second chapitre traite d'un génie du logiciel écologique cherchant à réduire les coûts environnementaux cachés engendrés par le cycle de vie du logiciel. Au-delà de la consommation immédiate d'énergie électrique en phase d'usage, l'idée est d'augmenter la durée de vie du matériel hôte grâce à l'optimisation en masse des logiciels. À l'aide d'un état de l'art et de la pratique, la contribution centrale s'attaque au verdissement des productions logicielles, notamment des applications Android, une ligne de code après l'autre (green code). Il s'agit d'une approche d'assurance qualité logicielle basée sur un catalogue d'odeurs nauséabondes de code et sur des outils d'analyse automatique permettant de les repérer et, en fin de compte, de les corriger. Enfin, les progrès obtenus peuvent en principe être mesurés par un tout nouveau wattmètre logiciel pour la plateforme Android.Deux chapitres supplémentaires complètent ce mémoire d'HDR. Le premier dresse la liste des différents types d'actions entreprises pour faire rayonner les contributions scientifiques, tandis que le second explore les pistes de recherche qui en découlent

    Estimation des températures d’air en milieu urbain à l’aide de modèles physiques et de réseaux de neurones

    No full text
    This thesis is set within the context of climate change and its impacts on urban environments, focusing on the phenomenon of the UHI. The goal is to provide tools for identifying vulnerable areas to implement targeted measures, particularly through neighborhoodscale air temperature maps. This work introduces an innovative methodological framework that combines physical simulations and statistical approaches. The UWG model was employed to construct an urban air temperature database using rural data and surface parameters. A neural network-based model, NUWG-City, was developed. Pre-trained on simulations generated by UWG, it was finetuned using meteorological station data from Toulouse. This city, characterized by its diverse urban fabric and extensive meteorological records, enabled robust training and validation of the model. NUWG-City improves UWG’s performance by 30% and increases simulation speed by 33%, while providing better spatial variability by incorporating the specific characteristics of urban environments.Cette thèse s’inscrit dans le contexte du changement climatique et de l’étude de ses impacts sur les environnements urbains en se concentrant sur le phénomène d’ICU. L’objectif est de fournir des outils permettant d’identifier les zones vulnérables afin de mettre en oeuvre des mesures ciblées, notamment grâce à des cartes de température de l’air à l’échelle des quartiers. Ce travail propose un cadre méthodologique innovant, combinant des simulations physiques et des approches statistiques s’appuyant sur des mesures in-situ. Le modèle Urban UWG a été utilisé pour construire une base de données de températures d’air en milieux urbains en s’appuyant sur des données rurales et des paramètres de surface. Un modèle basé sur les réseaux de neurones, NUWG-City, a été développé. Pré-entraîné sur les simulations issues de UWG, il a été affiné avec des données issues de stations météorologiques de Toulouse. Cette ville, caractérisée par son tissu urbain diversifié et ses riches données météorologiques, a permis un entraînement et une validation robustes du modèle. NUWG-City améliore les performances d’UWG de 30% et offre une rapidité de simulation supérieure de 33%, tout en offrant une meilleure variabilité spatiale grâce à la prise en compte des spécificités des environnements urbains

    La confiance au sein d'une plateforme collaborative : antécédents, conceptualisation et conséquences

    No full text
    Driven by the rapid expansion of the collaborative economy, the issue of trust in peer-to-peer exchanges has become crucial. Collaborative platforms must compensate for the absence of physical interaction, anonymity and uncertainty, so that consumers are willing to place themselves in a vulnerable position vis-à-vis each other. This thesis therefore aims to understand the mechanisms of trust building within collaborative platforms, and analyze its effects on consumer behavioral intention (i.e., intention to book, intention to bypass). Based on the theory of interpersonal influence, this research proposes an integrative model of the construction of interpersonal and institutional trust, and its consequences on consumer behavior. The model is tested in the context of Airbnb, a leading platform in the short-term accommodation sharing sector. The results of three studies - qualitative, experimental and benchmarking - show that several elements favor the building of trust on collaborative platforms. Some of these elements stem from informational influence (the “Superhost” badge and the informativeness of photos) and others from normative influence (the consistency of reviews). The results reveal that the “Superhost” badge has no significant effect on trust, while review consistency has a powerful effect on user trust. Counter-intuitively, photo informativeness has a negative effect on trust. Finally, interpersonal and institutional trust boost consumers' intention to book. These results enable us to put forward theoretical and managerial contributions, via an understanding of trust-building mechanisms in the context of collaborative platforms, but also contribute to improving the performance of players in the collaborative economy. By strengthening interpersonal and institutional trust, these platforms can better promote exchanges between peers and support the development of this economic modelPortée par l’essor rapide de l’économie collaborative, la question de la confiance dans les échanges entre pairs est devenue cruciale. Les plateformes collaboratives doivent pallier l’absence d’interaction physique, l’anonymat et l’incertitude pour que les consommateurs soient prêts à se placer dans une position vulnérable les uns vis-à-vis des autres. Cette thèse vise donc à comprendre les mécanismes de construction de la confiance au sein des plateformes collaboratives, et analyser ses effets sur l’intention comportementale du consommateur (i.e., intention de réserver, intention de contourner). En se basant sur la théorie de l’influence interpersonnelle, cette recherche propose un modèle intégrateur de la construction de la confiance interpersonnelle et institutionnelle, et de ses conséquences sur le comportement du consommateur. Le modèle est testé dans le contexte d’Airbnb, plateforme leader dans le secteur du partage d’hébergement de courte durée. Les résultats de trois études – qualitative, expérimentale et benchmarking – montrent que plusieurs éléments favorisent la construction de la confiance sur les plateformes collaboratives. Parmi ces éléments, certains sont issus de l’influence informationnelle (le badge « Superhost » et l’informativité des photos) et d’autres de l’influence normative (la cohérence des avis). Les résultats révèlent que le badge « Superhost » n’a pas d’effet significatif sur la confiance, tandis que la cohérence des avis a un effet puissant sur la confiance des utilisateurs. De manière contre-intuitive, l’informativité des photos a un effet négatif sur la confiance. Finalement, la confiance interpersonnelle et institutionnelle favorisent l’intention de réserver du consommateur. Ces résultats mettent en lumière non seulement des contributions théoriques et managériales, en offrant une meilleure compréhension des mécanismes de construction de la confiance au sein des plateformes collaboratives, mais participent également à l’amélioration de la performance des acteurs de l’économie collaborative. En renforçant la confiance interpersonnelle et institutionnelle, ces plateformes peuvent mieux promouvoir les échanges entre pairs, et soutenir le développement de ce modèle économiqu

    Développement d'une méthode de SHM de structures en matériaux composites fondée sur la propagation d'ondes et l'élaboration d'un jumeau numérique

    No full text
    In recent years, the integration of digital twins has emerged as a promising strategy for improving structural health monitoring (SHM). This technology enables more accurate real-time predictions of potential failures, thereby enhancing system reliability, particularly in the aerospace industry. As part of this thesis, a digital twin is developed to detect defects caused by impacts on composite structures in-service.The adopted approach combines finite element models with data from Macro Fiber Composite (MFC) piezoelectric transducers, which are used for the emission and/or reception of elastic waves. The propagation of these waves is disrupted by the presence of damage. Numerically, two finite element models are developed: the first simulates various damage scenarios, while the second models wave propagation and records the signature of each post-damage scenario. These signatures, derived from the continuous wavelet transforms (CWT) of the signals received by the sensors, are stored in a time-frequency database.Both the physical structure and the numerical models are excited in the same way. A CWT is computed for each excitation and compared with the signatures stored in the digital twin's database. Machine learning algorithms based on neural networks are used to compare the matrix representations of the transforms. When a match is found, the associated damage scenario is identified, allowing for the determination of the impact's location and extent. If no match is found, the neural network generates a prediction.To ensure the reliability of the numerical models, they were correlated with tests on an instrumented glass/epoxy composite plate. The damage numerical model, based on the Hashin criterion, was accurately correlated with impact test results. Similarly, validation of the wave propagation numerical model was performed through comparison with experimental measurements.Ces dernières années, l'intégration des jumeaux numériques s'est imposée comme une stratégie prometteuse pour améliorer la surveillance de la santé des structures (SHM). En temps réel, cette technologie permet de prédire avec plus de précision les défaillances potentielles, renforçant ainsi la fiabilité des systèmes, notamment dans l'industrie aéronautique.Dans le cadre de cette thèse, un jumeau numérique est développé dans un objectif de détection de défauts causés par un impact subi par une structure composite en cours d'exploitation. L'approche adoptée combine des modèles éléments finis et des mesures issues de transducteurs piézoélectriques de type Macro Fiber Composite (MFC) utilisés en émission et/ou réception des d'ondes élastiques dont la propagation est perturbée par la présence de dommages. Sur le plan numérique, deux modèles éléments finis sont élaborés : le premier simule divers scénarios de dommages, tandis que le second modélise la propagation des ondes et enregistre la signature de chaque scénario post-dommage.Ces signatures, issues des transformées en ondelettes continues (CWT) des signaux reçus par les capteurs, alimentent une base de données temps-fréquence. La structure physique et les modèles numériques sont excités de la même façon, une CWT est calculée pour chaque excitation puis comparée aux signatures stockées dans la base de données du jumeau numérique. Des algorithmes d'apprentissage automatique, fondés sur des réseaux de neurones, sont utilisés pour comparer les représentations matricielles des transformées. Lorsqu'une correspondance est trouvée, le scénario de dommage associé est identifié, ce qui permet de déterminer l'emplacement et l'ampleur de l'impact. Dans le cas contraire, une prédiction est réalisée à l'aide du réseau de neurones. Afin de garantir la fiabilité des modèles numériques, ces derniers ont été corrélés avec des essais sur une plaque composite en verre/époxy instrumentée. Le modèle numérique de dommage, basé sur le critère de Hashin, a été ainsi pu être corrélé correctement par essais d'impact. De même, la validation du modèle numérique de propagation des ondes a été menée par une confrontation avec les mesures expérimentales

    L’Immanence du cinéma, Ozu, Kurosawa, Mizoguchi et Tarkovski: Essai sur l’expression du cinéma

    No full text
    This dissertation aims to clarify the rationality of cinema through the concept of time in Bergson, by reconstructing Deleuze’s expression of cinema using Deleuze’s own philosophical concepts. The rationality of fictional cinema is best understood through its relationship to Bergsonian time. However, this relationship is not articulated through “montage” or “mobile camera.” Montage, in itself, is not an expression of time. Therefore, there is no need to posit a dualism within cinema—between indirect and direct expression, movement-image and time-image, prewar and postwar cinema. Any classification based on such oppositions is thus rendered obsolete. From this perspective, the two regimes of images are connected in a monistic way. What links them is the principle of immanence. Films should not be categorized according to historical breaks, but rather according to their degree of internal autonomy, regardless of the era in which they were produced. What defines such classification is not concepts, but rather ideas that permeate each work. And only one thing determines an idea in a film: duration. The expression of time lies in duration, for example in the long take, as opposed to Eisenstein’s montage which cuts and interrupts. We speak of “duration” here because the long take can adopt various forms depending on style. These styles express ideas through duration—which in turn defines the film’s immanent style. It is precisely this: a new expression of time that reconnects the disjunctions within cinema. The origin of this notion of “duration” can be found in Japanese cinema. In the films of Ozu, Kurosawa, and Mizoguchi, multiplicity is not juxtaposed but generated within and through duration, and it is shaped by the idea of cruelty. In modern cinema, this lineage finds its synthesis in Tarkovsky, a filmmaker who stood between Europe and Asia, where the central idea becomes that of the dream.Cette thèse a pour objet de clarifier la rationalité du cinéma à partir du concept de temps chez Bergson, en reconstituant l’expression deleuzienne du cinéma à travers les concepts mêmes de Deleuze. La rationalité propre au cinéma de fiction s’éclaire, selon nous, dans son rapport au temps bergsonien. Toutefois, ce rapport ne passe ni par le « montage », ni par la « caméra mobile ». Le montage, en tant que tel, n’est pas une expression du temps. Il n’y a donc pas lieu d’établir un dualisme au sein du cinéma — entre expression indirecte et directe, image-mouvement et image-temps, ou encore entre cinéma d’avant-guerre et d’après-guerre. Toute classification fondée sur ce type d’opposition se trouve ainsi dépassée. Dans cette perspective, les deux régimes d’image sont liés de manière moniste. Ce qui les relie, c’est le principe d’immanence. Les films peuvent être classés non pas selon une rupture historique, mais selon leur degré d’autonomie interne, indépendamment de leur époque. Ce qui fonde cette classification, ce ne sont pas les concepts, mais les idées qui traversent chaque œuvre. Or, une seule chose détermine l’idée dans un film : la longueur. L’expression du temps réside dans la longueur, par exemple dans le plan-séquence, par opposition au montage eisensteinien, qui fragmente et interrompt. On parle ici de « longueur » parce que le plan-séquence peut prendre des formes variées, selon les styles. Ce sont ces styles qui expriment les idées à travers la longueur — laquelle définit le style immanent du film. C’est précisément cela : une nouvelle expression du temps, qui vient relier les disjonctions du cinéma. L’origine de cette « longueur » se retrouve notamment dans le cinéma japonais. Chez Ozu, Kurosawa ou Mizoguchi, la multiplicité n’est pas juxtaposée mais engendrée dans et par la longueur, et se pense sous le signe de la cruauté. Dans le cinéma moderne, cette ligne trouve une synthèse chez Tarkovski, cinéaste situé à la croisée de l’Europe et de l’Asie, où l’idée centrale devient celle du rêv

    Modèle numérique du propulseur de satellite PEGASES

    No full text
    The electric spacecraft propulsion industry is actively transitioning to new propellants.Until recently, the favoured propellant was xenon. It is the heaviest stable noble gas, characteristics that enhance the thrust-to-power ratio of electric thrusters. However, the limited supply cannot satisfy the growing demand as space industrializes.New propulsion systems are designed around lighter noble gases, trading efficiency for affordability.Others make use of molecular propellants, namely iodine. Despite being reactive, this element, a neighbour of xenon in the periodic table, can offer similar performances with the benefit of a higher storage density.The development of the next propulsion systems requires design and simulation tools adapted to alternative propellants. In this work, we propose using a 1D Particle-In-Cell code coupled with a fluid model as a fast way to simulate the low-pressure discharges found in electric thrusters.We implemented an analytical model to emulate the particle transport in the unsimulated directions.This method allows the simulation of simple geometries with a 1D model. In addition, the vacuum permittivity scaling technique allows to speed up whole device simulations.To ensure the accuracy of our model, we extensively validated it using the diagnostic data measured on the PEGASES thruster. This validation process covered a range of noble gases and iodine ICP discharges, including argon, krypton, xenon.Noble gas validation showed that the code could reproduce the trends in the electron parameters as the pressure and power evolved. However, its reduced dimensionality and the fluid model hinder its predictive power at low pressure and high power. In iodine, the low-pressure simulations are in good agreement with the experimental data. However, the model struggles to maintain the delicate balance between the numerous species at high pressure.L'industrie de la propulsion spatial électrique est en train de transitionner vers de nouveaux ergols.Jusqu'à récemment, le xénon était privilégié. Il s'agit du plus lourd des gaz nobles stable, caractéristiques qui bénéficient au rapport poussée/puissance des propulseurs électriques.Cependant, l'offre limitée ne peut satisfaire la demande croissante à mesure que l'espace s'industrialise.De nouveaux systèmes de propulsion sont conçus autour de gaz nobles plus légers, sacrifiant l'efficacité pour le prix. D'autres utilisent des ergols moléculaires, notamment l'iode.Bien que réactif, cet élément voisin du xénon dans le tableau périodique peut offrir des performances similaires avec l'avantage d'une plus grande densité de stockage.Le développement des prochains systèmes de propulsion nécessite des outils de conception et de simulation adaptés aux ergols alternatifs. Dans ce travail, nous proposons d'utiliser un code 1D Particle-In-Cell couplé à un modèle de fluide comme moyen rapide de simuler les décharges à basse pression que l'on trouve dans les moteurs électriques. Nous avons mis en œuvre un modèle analytique pour émuler le transport des particules dans les directions non simulées.Cette méthode permet de simuler des géométries simples avec un modèle 1D. En outre, la technique de changement d'échelle de la permittivité du vide permet de simuler rapidement des systèmes complets.Pour garantir la précision de notre modèle, nous l'avons validé de manière approfondie en utilisant les diagnostic mesurées sur le propulseur PEGASES. Ce processus de validation a couvert des décharges inductives avec de l'iode et divers gaz nobles, l'argon, le krypton et le xénon.La validation des gaz rares a montré que le code pouvait reproduire les tendances des variations des paramètres électroniques au fur et à mesure de l'évolution de la pression et de la puissance.Cependant, sa dimensionnalité réduite et le modèle fluide, entravent son pouvoir prédictif aux plus basses pressions et a trop haute puissance. Pour l'iode, les simulations à basse pression sont en bon accord avec les données expérimentales. Cependant, le modèle peine à maintenir l'équilibre délicat entre les nombreuses espèces à haute pression

    Contrôle et imagerie du profil énergetique dans des dispositifs à base de nanocristaux pour la détection infrarouge

    No full text
    Colloidal nanocrystals exhibit size tunable optical and electronic properties thanks to quantum confinement,. Mercury telluride (HgTe) narrow band gap nanocrystals, offer a unique tunability of optical properties covering the entire infrared spectrum. These nanocrystals can be integrated into thin films to create infrared photodetectors, with potential applications for cost-effective infrared cameras. Knowledge of the electronic structure of these materials is crucial for rational device design. However, most studies rely on techniques that neglect the actual device environment. In this work, I used scanning photoemission microscopy to map the energy landscape of nanocrystal-based devices in operando, providing direct insights into their electronic properties under operating conditions. In parallel, I developed an alternative strategy to control carrier density in nanocrystal films by coupling them to ferroelectric materials, taking advantage of their inherent remnant polarization. This approach enabled the formation of ferroelectric-induced p-n junctions within the device channel, allowing for planar photodiode operation that does not rely on gate bias application.Les nanocristaux colloïdaux présentent des propriétés optiques et électroniques accordables grâce au confinement quantique. Les nanocristaux semiconducteurs à faible bande interdite de tellurure de mercure (HgTe), offrent une accordabilité des propriétés optiques couvrant l'ensemble du spectre infrarouge. Ces nanocristaux peuvent être intégrés dans des films minces pour créer des photodétecteurs infrarouges, avec des applications potentielles dans des caméras infrarouges. La connaissance de la structure électronique de ces matériaux est cruciale pour permettre un design rationnel. Cependant, la plupart des études reposent sur des techniques qui négligent l'environnement réel du dispositif. Dans ce travail, j'ai utilisé la microscopie de photoémission pour cartographier in operando le profil énergétique des dispositifs à base de nanocristaux. Cette méthode donne un accès aux propriétés électroniques dans des conditions de fonctionnement. Parallèlement, j'ai développé une stratégie pour contrôler la densité de porteurs dans les films de nanocristaux en les couplant à des matériaux ferroélectriques en tirant parti de leur polarisation résiduelle inhérente. Cette approche a permis la formation de jonctions p-n induites par la ferroélectricité dans le canal du dispositif. Cette stratégie génère une photodiode planaire sans avoir recours à une tension de grille

    Prévention de l'insuffisance rénale aiguë après chirurgie cardiaque : comparaison de l'efficacité des interventions non-pharmacologiques et facteurs de risque périoperatoires dans le cas particulier de la transplantation cardiaque

    No full text
    Cardiac surgery-associated acute kidney injury (CSA-AKI) is a common and severe complication that significantly impacts patient outcomes, particularly after heart transplantation (HTx). Despite advancements in cardiac surgery, no preventive strategy has yet been established, highlighting the need to better understand the available interventions and risk factors associated with CSA-AKI. In our first study, we conducted a systematic review and meta-analysis to evaluate non-pharmacological interventions for the prevention of CSA-AKI. We identified two effective interventions with a moderate level of evidence. Goal-Directed Perfusion (GDP) focuses on optimizing oxygen delivery during cardiopulmonary bypass, while Remote Ischemic Preconditioning (RIPc) involves inducing brief episodes of controlled ischemia before surgery using a blood pressure cuff. In our second study, we conducted a retrospective analysis to identify risk factors associated with CSA-AKI in the specific context of HTx. The incidence of CSA-AKI following HTx was 64%. We identified three risk factors significantly associated with the occurrence of CSA-AKI: a high body mass index, prolonged cold ischemia time, and increased inotropic support with dobutamine during surgery. Our work provides evidence supporting the integration of non-pharmacological strategies, such as GDP and RIPc, into perioperative protocols to reduce the incidence of CSA-AKI. Additionally, in the context of heart transplantation, identifying specific risk factors offers promising perspectives for developing targeted preventive strategies, thereby contributing to improved patient outcomes.L'insuffisance rénale aiguë après chirurgie cardiaque ou « cardiac surgery associated-acute kidney injury » (CSA-AKI) est une complication fréquente et sévère, altérant le pronostic des patients, notamment après une transplantation cardiaque (TCO). Malgré les avancées en chirurgie cardiaque, aucune stratégie préventive n'a encore été établie, soulignant la nécessité de mieux comprendre les interventions disponibles et les facteurs de risque associés au CSA-AKI.Dans notre premier travail, nous avons réalisé une revue systématique et méta-analyse afin d'évaluer les interventions non-pharmacologiques pour prévenir le CSA-AKI. Nous avons identifié deux interventions efficaces avec un niveau de preuve modéré. La "Goal Directed Perfusion" (GDP), qui repose sur l'optimisation de la délivrance en oxygène pendant la circulation extracorporelle et le préconditionnement ischémique à distance (RIPc), dont le principe est d'induire de brefs épisodes d'ischémie contrôlée avant la chirurgie, à l'aide d'un brassard à tension. Dans notre second travail, nous avons mené une étude rétrospective afin d'identifier les facteurs de risque associés au CSA-AKI dans le contexte spécifique de la TCO. L'incidence du CSA-AKI après TCO était de 64 %. Nous avons mis en évidence trois facteurs de risque associés à la survenue d'un CSA-AKI : un indice de masse corporelle élevé, un temps d'ischémie froide prolongé et un support inotrope par dobutamine plus important durant la chirurgie. Nos travaux apportent des éléments en faveur de l'intégration de stratégies non pharmacologiques, telles que la GDP et le RIPc, dans les protocoles périopératoires pour réduire l'incidence du CSA-AKI. En transplantation cardiaque, l'identification des facteurs de risque spécifiques offre des perspectives prometteuses pour le développement de stratégies préventives ciblées, contribuant ainsi à l'amélioration du pronostic des patients

    Modélisation de la turbulence pour les équations RANS compressibles assistée par assimilation de données et apprentissage automatique

    No full text
    This work addresses non-linear inverse problems using high-order numerical methods and machine learning (ML) models to enhance turbulence closure within the Reynolds-averaged Navier-Stokes (RANS) equations. We present an adjoint-based approach for optimizing control parameters to minimize a cost-functional, with the governing equations discretized via the modal discontinuous Galerkin (DG) method. The inverse problem is tackled using both quasi-Newton and stochastic optimization methods, particularly the novel V-N-ADAM-DG optimizer, which outperforms traditional algorithms like L-BFGS in solving complex non-convex problems. The methodology is tested in several flow scenarios. First, a laminar flow around a circular cylinder is examined, with a DG discretization at different approximation orders. Next, turbulent flow around a square cylinder is studied, where the impact of various corrective parameters is compared. Finally, the shock-wave/turbulent boundary-layer interaction (SWTBLI) configuration is assessed, where the velocity field and wall variables, such as skin friction and pressure coefficients, are effectively corrected, achieving high precision in complex supersonic regions. Additionally, the design of input features (IFs) for ML-augmented models is examined, addressing challenges related to invariance, normalization, and adaptability in turbulent flows. Using artificial neural networks (ANNs) and tensor basis neural networks (TBNNs), results show significant improvements in accuracy and generalization through optimized IF design and a stabilized loss function. We showed that the TBNN based model is more robust and efficient, compared to the ANN. These advancements in optimization strategies and ML-driven turbulence modeling show significant promise for improving the accuracy and robustness of CFD simulations.Ce travail aborde les problèmes inverses non linéaires en utilisant des méthodes numériques d'ordre élevé et des modèles d'apprentissage automatique (ML) pour améliorer la fermeture de la turbulence dans les équations de Navier-Stokes moyennées par Reynolds (RANS). Nous présentons une approche basée sur l'adjoint pour optimiser les paramètres de contrôle afin de minimiser une fonctionnelle coût, avec les équations de gouvernance discrétisées via la méthode de Galerkin discontinue (DG). Le problème inverse est traité à l'aide de méthodes d'optimisation quasi-Newtoniennes et stochastiques, en particulier le nouveau optimiseur V-N-ADAM-DG, qui surpasse les algorithmes traditionnels comme L-BFGS pour résoudre des problèmes complexes et non convexes. La méthodologie est testée sur plusieurs écoulements: un écoulement laminaire autour d'un cylindre circulaire, où la discrétisation DG avec différents ordres d'approximation est examinée; un écoulement turbulent autour d'un cylindre carré, où l'impact de divers paramètres correctifs est étudié; et une configuration d'interaction onde de choc/couche limite turbulente (SWTBLI), où le champ de vitesse et les variables de paroi, telles que le frottement de paroi et le coefficient de pression, sont efficacement corrigés. En outre, la conception des paramètres d'entrée (IF) pour les modèles augmentés par ML est étudiée, abordant les défis liés à l'invariance, la normalisation et la généralité dans les écoulements turbulents. En utilisant des réseaux neuronaux artificiels (ANN) et des réseaux neuronaux basés sur des tenseurs (TBNN), les résultats montrent des améliorations significatives en termes de précision et de généralisation grâce à une conception optimisée des IF et une fonction coût stabilisée. Nous avons montré que le modèle basé sur le TBNN est plus robuste et efficace que le modèle basé sur l'ANN. Ces avancées dans les stratégies d'optimisation et la modélisation de la turbulence basée sur le ML montrent un potentiel prometteur pour améliorer la précision et la robustesse des simulations CFD

    8,181

    full texts

    170,085

    metadata records
    Updated in last 30 days.
    Thèses en Ligne is based in France
    Access Repository Dashboard
    Do you manage Open Research Online? Become a CORE Member to access insider analytics, issue reports and manage access to outputs from your repository in the CORE Repository Dashboard! 👇