Theses.fr
Not a member yet
175004 research outputs found
Sort by
New Athens : on the possibility of an encounter between the Polis and contemporary democratic aspirations
Cette thèse de philosophie politique s'intéresse à l'Athènes des historiens, dont les débats et les avancées théoriques depuis une trentaine d'années jettent une lumière nouvelle sur certains aspects de la démocratie athénienne, envisagée comme un système à la fois institutionnel, social et épistémique. La réception inaboutie, par la théorie politique, de ces déplacements du côté de l'historiographie de l'Athènes classique est l'un des deux constats initiaux ayant donné lieu à ce projet de thèse. L'autre constat se situe de plain-pied dans le XXIe siècle, à l'intersection entre, d'un côté, un contexte de prolifération des expérimentations participatives et délibératives, s'accompagnant d'une production de données inédite jusqu'ici sur la délibération et, d'un autre côté, une difficulté à monter en généralité et à structurer ces expériences sur le plan normatif et en termes de projet politique, faute d'un précédent, de modèles éprouvés ou peut-être du paradigme adéquat. C'est ainsi que l'intuition d'un dialogue nécessaire, bien que malaisé, entre ces deux champs a mené à proposer un concept intégré de « démocratie radicale » qui permette une synthèse entre le précédent historique que représenterait l'Athènes classique et les aspirations contemporaines à une démocratisation, encore mal définie mais idéalement non anecdotique, de nos régimes électoraux. Ce travail de théorie politique, assorti d'une dimension empirique, s'appuie donc symétriquement sur deux « cas » que tout semble séparer : la démocratie athénienne, d'une part, selon l'analyse qu'en donne l'historiographie actuelle, et dont on cherche à défendre l'idée qu'il s'agit d'une forme aboutie, mais seulement partiellement connue, de régime de démocratie radicale ; et un dispositif délibératif contemporain, d'autre part, la Convention citoyenne sur la fin de vie (CESE, 2022-2023), qui présente à l'inverse une forme embryonnaire - à la fois d'un point de vue normatif et d'un point de vue procédural - d'un système de démocratie radicale à toute petite échelle, mais dont l'observation ethnographique a permis d'avoir une connaissance approfondie et une quantité de données significative, permettant en retour d'éclairer certains angles morts de l'étude de la démocratie ancienne. Le pari qui justifie ce travail de recherche est celui d'une normativité endogène des pratiques collectives, qui peut mener deux systèmes historiques, sociaux, philosophiques distincts, en l'absence de toute relation directe ou même indirecte entre ces systèmes, à produire des valeurs, des normes et des réflexes collectifs apparentés. C'est sur cette base que cette thèse se propose d'ébaucher une nouvelle conceptualisation de la démocratie radicale. Qu'il s'agisse d'un type de régime politique ou d'un espace décisionnel plus circonscrit aux règles spécifiques, on en vient à proposer l'idée que la démocratie radicale, comme autogouvernement populaire effectif, doit reposer de manière essentielle sur la décision collective, sur une importante rotation des charges de pouvoir, sur la centralité de la notion d'intelligence collective et sur un contrôle social au moins partiellement autonome.This thesis in political philosophy focuses on the Athens of historians, whose debates and theoretical advances over the past thirty years have shed new light on certain aspects of Athenian democracy, seen as an institutional, social and epistemic system. The unfinished reception by political theory of these shifts in the historiography of classical Athens is one of the two initial observations that gave rise to this thesis project. The other is that we are firmly in the 21st century, at the intersection between, on the one hand, a proliferation of participatory and deliberative experiments, accompanied by a hitherto unprecedented production of data on deliberation and, on the other hand, a difficulty in raising the generality and structuring these experiments on a normative level. These difficulties stem from the absence of a precedent, tried and tested models or perhaps the right paradigm. Thus, the intuition of a necessary, if uneasy, dialogue between these two fields has led to the proposal of an integrated concept of 'radical democracy' that would enable a synthesis between the historical precedent represented by classical Athens and contemporary aspirations for a democratization - as yet ill-defined, but ideally not trivial - of our electoral systems. This work of political theory, combined with an empirical dimension, is based symmetrically on two 'cases' that seem to have nothing in common: Athenian democracy, on the one hand, according to the current historiographical analysis, which seeks to defend the idea that it is a completed, but only partially known, form of radical democracy; and a contemporary deliberative mechanism, on the other hand, the Citizens' Convention on the End of Life (CESE, 2022-2023). The latter, in contrast, presents an embryonic form - both normatively and procedurally - of a system of radical democracy on a very small scale, but of which ethnographic observation has provided in-depth knowledge and a significant amount of data, in turn shedding light on certain blind spots in the study of ancient democracy. The bet that justifies this research work is that of an endogenous normativity of collective practices, which can lead two distinct historical, social and philosophical systems, in the absence of any direct or even indirect relationship between these systems, to produce related values, norms and collective reflexes. It is on this basis that this thesis sets out to sketch out a new conceptualization of radical democracy. Whether we're talking about a type of political regime or a more circumscribed decision-making space with specific rules, we come to propose the idea that radical democracy, as effective popular self-government, must be based essentially on collective decision-making, on a significant rotation of power, on the centrality of the notion of collective intelligence and on at least partially autonomous social control
The PLATO space mission : Double-aperture photometry and Centroid Shifts to detect False Positives
La mission PLAnetary Transits and Oscillations of stars (PLATO) est la mission M3 de l’Agence spatiale européenne(ESA) dans le cadre de son programme Cosmic Vision (2015-205). PLATO sera capable de détecter des exoplanètes en utilisant les transits ainsi que de caractériser les étoiles hôtes des exoplanètes grâce à l’astérosismologie. En raison de la luminosité des cibles d’PLATO, c’est la première mission spatiale à inclure un programme d’observation spectroscopique de suivi au sol pour caractériser les atmosphères des exoplanètes et mesurer les masses planétaires à l’aide de mesures de la vitesse radiale (VR). En fait, les cibles d’PLATO sont divisées en plusieurs échantillons en fonction de l’analyse ultérieure à laquelle elles seront soumises. Les échantillons stellaires PLATO sont : P1, P2, P4 et P5, l’échantillon P5 étant le plus important d’entre eux. Cela signifie qu’PLATO observera des centaines de milliers d’étoiles. Pour cette raison et en raison du budget de télémétrie de la mission, les mesures photométriques de la plupart des cibles P5 doivent être effectuées à bord. Pour ce faire, une photométrie basée sur l’ouverture a été adoptée. Cependant, des signaux de transit de type planétaire provenant d’étoiles d’arrière-plan peuvent également être détectés par une ouverture donnée.Ces événements sont appelés faux positifs (FPS) et leur étude est le point principal de cette thèse. Étant donné que les confirmations RV au sol ne peuvent pas être effectuées pour un grand nombre de cibles, les méthodes embarquées de détection des PF sont obligatoires. Une méthode classique de détection des FP est la méthode du centroïde. En outre, dans cette thèse, nous présentons une nouvelle procédure de détection des FP appelée photométrie à double ouverture. Nous l’avons présentée dans ses deux versions : masques étendus et masques secondaires. Nous avons étudié l’efficacité des deux méthodes dans le contexte de PLATO afin de trouver la meilleure option pour la mission. Nos résultats montrent que la méthode du centroïde est, en moyenne, la méthode la plus efficace pour détecter les PF pour PLATO. Cependant, la photométrie à double ouverture peut également être utilisée en raison de son efficacité comparable et de son coût moindre en termes de ressources embarquées. Enfin, nous mentionnons qu’il s’agit du premier travail où l’efficacité globale de la méthode du centroïde a été évaluée. En outre, cette thèse est un travail important pour le développement actuel de la mission PLATO, en particulier pour les segments de pipeline au sol et à bord consacrés à la détection correcte des véritables transits planétaires. Cependant, d’autres études sur la façon dont les masques étendus peuvent être obtenus de manière plus optimale seraient utiles.The PLAnetary Transits and Oscillations of stars (PLATO) is the European Space Agency (ESA) M3 mission for itsCosmic Vision Program (2015-205). PLATO will be able to detect exoplanets using transits as well as to characterize the exoplanet hosting stars through asteroseismology. Due to the brightness of PLATO targets, it is the first space mission to include an on-ground spectroscopic follow-up observation program to both characterize exoplanet atmospheres as wellas to measure planetary masses with radial velocity (RV) measurements. In fact, PLATO targets are divided into several samples depending on the further analysis they are going to be subjected to. PLATO stellar samples are: P1, P2, P4 andP5, being P5 the largest of them. This implies that PLATO will observe hundred of thousand of stars. Thanks to this andto the mission telemetry budget, photometric measurements for most P5 targets have to be performed on-board. For this purpose aperture-based photometry was adopted. However, planetary-like transit signals coming from background starscould also be detected by a given aperture. Such events are called False Positives (FPs) and their study is the main pointof this thesis. Given that on-ground RV confirmations cannot be performed for a big number of targets, on-board methodsfor FP detection are mandatory. A classical method for FP detection is the centroid method. Additionally, in this thesis we present a novel procedure for FP detection called double-aperture photometry. We introduced it in its two versions:extended and secondary masks. We studied the efficiency of both methods in the context of PLATO in order to find thebest option for the mission. Our results show that centroid method is, in average, the most efficient method to detectFPs for PLATO. However, double-aperture photometry can be used as well given its comparable efficiency and less costin terms of on-board resources. We finally mention that this is the first work where the overall efficiency of the centroid method has been assessed. Furthermore, this thesis is an important work for the current development of the PLATO mission, specially for the on-ground and on-board pipeline segments devoted to the correct detection of true planetaryt ransits. However, further studies about how extended masks can be obtained in more optimal ways would be good
Study and modelling of phenomena at the interface between a lithium metal electrode and an electrolyte
Les électrodes en lithium métal sont des candidates de choix pour la prochaine génération de batterie tout-solide. Cependant, la formation de dendrite de lithium reste un problème majeur qui entrave la commercialisation de cette nouvelle technologie. La croissance dendritique reste un phénomène mal compris et semble liée à une mauvaise distribution de la densité de courant locale du fait des inhomogénéités de l'interface lithium/électrolyte. La formation d'une couche de passivation hétérogène, appelée Solid Electrolyte Interphase (SEI), en surface des électrodes en lithium métal favorise l'apparition de structure dendritique. Une meilleure compréhension de la relation entre hétérogénéité de la SEI et phénomènes de nucléation et de croissance des dendrites reste un verrou pour apporter des solutions à ce problème. Plusieurs approches numériques multi-échelles ont été proposées pour étudier les mécanismes de croissance dendritique. La complexité du système lithium/SEI reste un dé majeur pour la modélisation que les approches numériques négligent.L'objectif de cette thèse est de proposer, pour la première fois, une approche basée sur le formalisme multi-champs de phase, à partir duquel il est possible de rendre compte de l'hétérogénéité de la SEI à la surface de l'électrode en lithium métal. Des hypothèses ont été effectuées sur la base d'une étude bibliographique des éléments nécessaires pour la construction d'un modèle numérique.Les modèles multi-champs de phase reposent sur la définition de régions modèles avec des propriétés physiques, chimiques et mécaniques identiques appelées phases. La dynamique du système est alors pilotée par la minimisation de leurs interfaces. Avec la construction d'une SEI modèle, il a été possible d'identifier quatre comportements caractéristiques de l'interface pendant un cycle de plating. En particulier, à faible régime (inférieur à la dizaine de μA/cm²), une croissance homogène de l'électrode est obtenue. A des régimes usuels (de l'ordre du mA/cm²), trois réponses de la SEI ont été caractérisées, donnant lieu à des fractures entre les domaines de SEI ou au sein des domaines. Il a été montré que la nature de ces réponses est fortement couplée au régime de déposition et aux propriétés géométriques et physiques de la SEI. Des travaux visant à complexifier la physique et la géométrie de la SEI ont été réalisés an d'identifier les axes d'améliorations du modèle pour tendre vers une interface plus réaliste. Egalement, des études expérimentales préliminaires ont été effectuées afin de proposer un couplage quantitatif entre les résultats numériques issus du modèle et les caractérisations expérimentales effectuées par spectroscopie XPS, AES et par NI-AFM.Lithium metal electrodes are good candidates for the next generation of all-solid-state batteries. However, lithium dendrite formation remains a major problem hampering the commercialization of this new technology. Dendritic growth remains a poorly understood phenomenon and appears to be linked to poor local current density distribution due to inhomogeneities in the lithium/electrolyte interface. The formation of a heterogeneous passivation layer, called Solid Electrolyte Interphase (SEI), on the surface of lithium metal electrodes favors the appearance of dendritic structures. A better understanding of the relationship between SEI heterogeneity and dendrite nucleation and growth phenomena remains a key to finding solutions to this problem. Several multi-scale numerical approaches have been proposed to study the mechanisms of dendritic growth. The complexity of the lithium/SEI system remains a major modelling challenge that numerical approaches overlook.The aim of this thesis is to propose, for the first time, an approach based on the multi-phase field formalism, from which it is possible to account for the heterogeneity of the SEI at the surface of the lithium metal electrode. Assumptions have been made on the basis of a literature review of the elements required for the construction of a numerical model.Multi-phase field models are based on the definition of model regions with identical physical, chemical and mechanical properties, known as phases. System dynamic is then driven by minimizing the phases interfaces. With the construction of a model SEI, it was possible to identify four characteristic interface behaviors during a plating cycle. In particular, at low deposition speed (less than ten μA/cm²), homogeneous electrode growth is obtained. At typical regimes (of the order of mA/cm²), three SEI responses were characterized, giving rise to fractures between or within SEI domains. It has been shown that the nature of these responses is strongly coupled to the deposition regime and to the geometric and physical properties of the SEI. Work has been carried out to make the physics and geometry of the SEI more complex, in order to identify ways of improving the model towards a more realistic interface. Preliminary experimental studies have also been carried out to propose a quantitative coupling between the numerical results obtained from the model and the experimental characterizations carried out by XPS, AES and NI-AFM
Formulation of hybrid solutions for texturing hydrophobic surfaces using UV-NIL technique
Cette recherche porte sur le développement de solutions innovantes réticulées sous UV pour la fabrication de revêtements hydrophobes, en utilisant la technique UV-NIL (Lithographie par Nano-Impression UV) pour la texturation de motifs à l’échelle micrométrique. Ces solutions ont été formulées à base de SilSesquioxane Oligomérique Polyédrique (POSS) pour des applications liées au contrôle du mouillage de surface, en particulier l’hydrophobie. Le développement de ces solutions a été guidé par un cahier des charges prenant en compte des critères tribologiques, chimiques et mécaniques, avec des objectifs vis-à-vis de leur stabilité temporelle, la durabilité des revêtements, ainsi que leur adhésion sur les substrats. Des systèmes basés sur un mélange de Glycidyl POSS (GPOSS) et de Methacryloxypropyl POSS (MPOSS) ont été formulés, en utilisant deux voies simultanés de polymérisation : cationique et radicalaire. Les solutions ont été caractérisées (par spectroscopie IR, viscosimétrie) et appliquées par spin-coating sur des substrats en verre ou en polycarbonate. Les revêtements issus des solutions ont ensuite été réticulés par exposition aux rayons UV et caractérisés selon plusieurs critères : morphologiques (microscopie optique et microscopie électronique à balayage), chimiques (IR), tribologiques (profilomètre) et mécaniques (nanoindentation, test de rayure, test de quadrillage), afin de répondre aux spécifications du cahier des charges. Pour évaluer la mouillabilité de ces revêtements, des mesures d’énergie de surface, d'angle de contact, et d’hystérésis angulaire ont été réalisées. Une analyse de leur mouillabilité après vieillissement a permis d'étudier la durabilité des revêtements vis à vis leurs propriétés hydrophobes. De plus, les solutions ont été suivies au fil du temps afin d’étudier leur durée de vie (shelf-life) lors des méthodes de dépôt et d’embossage. Les revêtements issus de nos travaux présentent un fort potentiel d'application pour la création de surfaces hydrophobes, et ils pourraient également offrir des solutions efficaces pour générer des surfaces antigivre et antigel.This research focuses on the development of innovative UV-crosslinked solutions for creating hydrophobic coatings using UV-NIL technology (UV Nano-Impression Lithography) to texture micrometric patterns. The formulation of these solutions has been based on Polyhedral Oligomeric Silsesquioxane (POSS) and oriented towards surface wetting control applications, more specifically hydrophobicity. The development of these solutions followed ambitious specification requirements considering tribological, chemical, and mechanical aspects, with a focus on long-term stability, durable coatings, and adhesion to substrates. Systems based on a mixture of Glycidyl POSS (GPOSS) and Methacryloxypropyl POSS (MPOSS) were formulated, characterized (IR spectroscopy, viscosimetry), and applied by spin-coating on glass or polycarbonate substrates. These coatings were then crosslinked using UV exposure and characterized visually (optical microscopy, SEM), chemically (IR), tribologically (profilometry), and mechanically (nanoindentation, scratch test, grid test) to meet the requirements of the specification. To assess the wettability of these coatings, measurements of surface energy, contact angle, and hysteresis were performed to achieve optimal hydrophobic solutions. Additionally, aging tests were conducted to study the durability of the coatings while maintaining hydrophobic properties. The behavior of the solutions also was monitored over time (measurements every 3 months along 1 year) to study the shelf-life of the solutions regarding their deposition and embossing performance. The development of coatings with strong hydrophobic potential was based on the formulation of solution families with cationic, radical, and cationic/radical polymerization routes, for various applications such as hydrophobicity, optical effects, antifreeze, and antigel properties, especially on complex and thermally sensitive substrates
Improvement of diffusion bonding assembly process for large exchangers manufacturing : modeling of void closure kinetics
Le soudage diffusion, en s’appuyant sur le procédé de la compression isostatique à chaud, est employé pour la réalisation d’échangeurs de chaleur compacts à plaques. Lors d’un cycle de soudage, les aspérités initialement présentes sur les surfaces à joindre forment des cavités. Celles-ci peuvent nuire à la tenue mécanique d’un échangeur. L’augmentation de la température, de la pression et de la durée d’un cycle facilitent la disparition de ces défauts microscopiques. Néanmoins, ces augmentations peuvent conduire à une déformation macroscopique des éléments à souder ainsi qu’à une évolution néfaste de la microstructure du matériau, et par conséquent à des écarts de performances par rapport au fonctionnement de l’échangeur tel que conçu initialement. La recherche d’un compromis en temps, température et pression passe par des campagnes expérimentales impliquant l’assemblage de nombreuses maquettes. La modélisation du procédé de soudage diffusion peut donc faciliter l'optimisation de ces paramètres en réduisant les campagnes expérimentales à mener.Cette thèse se consacre en particulier à la modalisation de la fermeture des cavités. La plupart des modèles de fermeture des cavités lors du soudage diffusion de la littérature sont analytiques, en 2D et s’appuient sur une cavité représentative régulière dont l’évolution doit représenter les évolutions des différentes cavités présentes le long d’une interface soudée. L’étude d’un tel modèle montre leur limite : la définition d’une cavité modèle qui soit représentative d’une interface est délicate. Afin de contourner cette difficulté, un modèle 2D pouvant décrire l’évolution d’une cavité à la géométrie quelconque et discrétisée a été développé. Les prédictions de ce modèle ont été comparées aux résultats d’une campagne expérimentale. Celle-ci consiste dans l’observation de l’évolution d’une série de cavités initialement calibrées, au cours de cycles de soudage diffusion interrompus.Diffusion bonding, through the hot isostatic compression process, is used to make compact heat exchangers. During a bonding cycle, the initial roughness of the surfaces to be joined forms voids. These can be detrimental to the mechanical performance of an exchanger. Increasing temperature, pressure and cycle time facilitate the disappearance of these microscopic defects. However, these increases can lead to macroscopic deformation of the elements to be bonded as well as an unfavorable evolution of the microstructure of the material, and consequently to performance gaps compared to the initial design of the exchanger. The search for a compromise in time, temperature and pressure involves experimental campaigns requiring numerous test assemblies. Modeling of diffusion bonding can therefore facilitate the optimization of these parameters by reducing the experimental runs to be carried out.This dissertation is particularly focused on modelling void closure. Most literature models of void closure during diffusion bonding are analytical, 2D and are based on a regular and representative void geometry whose evolution must represent the evolutions of the multiple voids along a bonded interface. The study of such a model shows their limit: the definition of a model void which is representative of an interface is delicate. In order to bypass this difficulty, a 2D model able of describing the evolution of a void with any discretized geometry was developed. The predictions of this model were compared to the results of an experimental campaign. This campaign consists of observing the evolution of a series of initially calibrated voids, during interrupted diffusion bonding cycles
The impact of functional inhibition of Netrin-1 on tumour neutrophils
Les neutrophiles jouent un rôle central dans le microenvironnement tumoral (TME), où ils peuvent favoriser ou inhiber la progression tumorale en fonction des signaux locaux. La Nétrine-1, une protéine initialement impliquée dans le guidage axonal, est surexprimée dans divers cancers, contribuant à la survie tumorale, à la transition épithélio-mésenchymateuse (TEM) et à l'inflammation. Dans cette étude, l'inhibition de la Nétrine-1 à l'aide de l'anticorps monoclonal NP137 dans un modèle murin de cancer mammaire EMT6 a spécifiquement réduit le nombre de neutrophiles infiltrant les tumeurs, sans affecter leur présence dans le sang ou la moelle osseuse. L'analyse transcriptomique des neutrophiles infiltrant les tumeurs et traités avec le NP137 a révélé une régulation négative des gènes liés à leur migration ainsi qu'une réduction des voies associées à l'inflammation. De plus, l'inhibition de la Nétrine-1 dans les cellules tumorales in vitro a entraîné une diminution significative de la sécrétion de CXCL1 et de CXCL2, les principales chimiokines responsables du recrutement des neutrophiles. Ces résultats démontrent que le blocage de la Nétrine-1 dans les tumeurs a le potentiel de remodeler l'inflammation et représente une stratégie intéressante pour moduler le microenvironnement tumoral. De plus, l'inhibition de la Netrin-1 dans les cellules tumorales in vitro a entraîné une baisse significative de la sécrétion de CXCL1 et CXCL2, les principales chimiokines responsables du recrutement des neutrophiles. Ces résultats montrent que le blocage de la Netrin-1 dans les tumeurs est capable de remodeler l’inflammation et représente une stratégie interesente pour moduler le microenvirpenemtn tumorale.Neutrophils play a central role in the tumor microenvironment (TME), where they can either promote or inhibit tumor progression depending on local signals. Netrin-1, a protein initially involved in axon guidance, is overexpressed in various cancers that contributes to tumor survival, epithelial-mesenchymal transition (EMT), and inflammation. In this study, the inhibition of Netrin-1 using the monoclonal antibody NP137 in a murine model of EMT6 mammary cancer specifically reduced tumor-infiltrating neutrophils without affecting their presence in the blood or bone marrow. Transcriptomic analysis of tumoral-infiltrating neutrophils treated with NP137 revealed a downregulation of genes related to their migration and a reduction in inflammation-associated pathways. Furthermore, the inhibition of Netrin-1 in tumor cells in vitro resulted in a significant decrease in the secretion of CXCL1 and CXCL2, the key chemokines responsible for neutrophil recruitment. These findings demonstrate that Netrin-1 blockade in tumors has the potential to remodel inflammation and represents an interesting strategy for modulating the tumor microenvironment
Impact of tool wear mechanisms on the thermomechanical damage of Ti6Al4V/CFRP stacks
Cette thèse permet d’approfondir la compréhension des mécanismes d’usure des forets lors du perçage des empilages Ti6Al4V/CFRP, en analysant leur impact sur les chargements thermomécaniques et, par conséquent, sur les défauts générés dans l’assemblage usiné. L’étude met en évidence l’effet de l’usure abrasive, causée par le CFRP, sur la micro-géométrie de l’outil, tout en prenant en compte les paramètres opératoires et les angles de coupe. Elle s’intéresse ensuite à l’évolution des efforts mécaniques et des flux thermiques additionnels dues à l’usure. Ces travaux explorent également la formation de défauts, tels que la bavure dans le Ti6Al4V et le délaminage dans le CFRP, en les reliant aux efforts thermomécaniques mesurés en sortie de perçage. Enfin, l’assistance par CO2 supercritique (scCO2) est étudiée comme une solution prometteuse pour améliorer le régime thermique lors du perçage, afin de réduire ces défauts. Ces avancées ouvrent la voie à l’optimisation de l’opération de perçage et à l’amélioration de la qualité des empilages, avec des applications potentielles dans des secteurs tels que l’aéronautique.This thesis aims to improve the understanding of tool wear during the drilling of Ti6Al4V/CFRP stacks by analyzing its impact on thermomechanical loads and the defects generated in the machined assembly. The study highlights the effect of abrasive wear, caused by CFRP, on the tool’s micro-geometry, while considering operating parameters and cutting angles. It also examines how mechanical forces and additional heat fluxes evolve as wear progresses. Furthermore, it explores the formation of defects, such as burrs in Ti6Al4V and delamination in CFRP, by linking them to the thermomechanical forces measured at the drill exit. Finally, supercritical CO2 (scCO2) assistance is investigated as a promising solution to better control the thermal conditions during drilling and reduce these defects. These findings contribute to optimizing the drilling process and improving the quality of the stacks, with potential applications in aerospace
Systemic design of electrical machines for the magnetocaloric refrigeration
La réfrigération magnétique exploite l'effet magnétocalorique pour produire du chaud et du froid via des cycles magnéto-thermiques. Son potentiel environnemental et énergétique suscite un intérêt croissant depuis plusieurs années, notamment dans des applications à température ambiante. L'amélioration des dispositifs passe par la recherche de matériaux plus performants, l’amélioration de l’efficacité de la source de champ magnétique et l'optimisation de leur conception.Les modèles multiphysiques sont essentiels pour l’étude et l'amélioration des performances. Ces modèles doivent inclure divers phénomènes physiques interdépendants. Plusieurs axes de modélisation sont abordés au cours des travaux de thèse, avec pour objectif de modéliser l'évolution de la distribution de température au sein des régénérateurs.Nos travaux de thèse s’inscrivent dans cette problématique en proposant de développer un modèle analytique en deux dimensions, afin d’allier la vitesse de résolution des modèles analytiques et de conserver une bonne précision dans la prédiction des phénomènes.Les échanges thermiques entre le fluide et le solide sont fortement influencés par la vitesse du fluide, elle-même dépendante de plusieurs paramètres tels que la fréquence de fonctionnement, le taux de balayage, le gradient de pression et les dimensions des canaux. Un modèle analytique en trois dimensions a été proposé pour modéliser avec précision ce comportement. Ce modèle est développé grâce à la résolution des équations différentielles de Navier-Stokes en trois dimensions par l’utilisation des séries de Fourier. Plusieurs hypothèses sont faites afin de simplifier les équations à résoudre, en considérant un fluide incompressible et un écoulement laminaire. Validé par des simulations numériques, le modèle démontre de bonnes performances, tant en termes de précision que de temps de calcul.Les phénomènes thermo-fluidiques sont essentiels dans la modélisation des dispositifs magnétocaloriques. Les couplages complexes entre régions fluides et solides introduisent des équations d'advection-diffusion difficiles à résoudre de façon analytique. L’apparition d’un coefficient non constant pousse à chercher une simplification forte afin de pallier ce problème. De plus, la connexion entre les régions, combinée à la prise en compte des phénomènes transitoires, entraîne l'apparition d'équations transcendantes, rendant impossible une résolution purement analytique.Une méthodologie de développement d'un modèle analytique a donc été proposée, visant à modéliser les échanges thermiques au sein des régénérateurs à plaques parallèles. Des hypothèses simplificatrices permettent de réduire le domaine d’étude et de traiter séparément les discontinuités adiabatiques. La complexité des phénomènes d’advection-diffusion, liée à des coefficients non constants, a limité la résolution analytique directe. Des cas d’étude progressifs devraient permettre de développer des outils mathématiques adaptés. Certains de ces cas d’études ont été résolues, en régime établi et deux dimensions ou en régime transitoire mais pour une seule dimension.Les travaux futurs devront permettre d'avancer sur la résolution de l'équation d'advection-diffusion afin de coupler les modèles. Une meilleure prise en compte des variations de température adiabatique, via un modèle magnétostatique, devrait permettre d’affiner la modélisation de l’effet magnétocalorique.Ces travaux ont permis plusieurs contributions, dont la réalisation d’une conférence nationale, d’une conférence internationale, ainsi que la publication de deux articles.Magnetic refrigeration exploits the magnetocaloric effect to produce both heat and cold through magneto-thermal cycles. Its environmental and energy potential has been attracting increasing interest in recent years, particularly for applications at ambient temperature. Improving these devices involves researching more efficient materials, enhancing the effectiveness of the magnetic field source, and optimizing their design.Multiphysics models are essential for studying and improving performance. These models must include various interdependent physical phenomena. Several modeling approaches are addressed during the thesis work, with the goal of modeling the evolution of the temperature distribution within regenerators.A synthesis of the state of research in the field of modeling has allowed to highlight that the majority of models developed for the study of magnetocaloric regenerators are solved in one dimension and numerically. One-dimensional solutions are faster to develop and offer shorter computation times. However, the results are often less accurate. Numerical models are easier to develop but have longer computation times. One-dimensional numerical models are therefore a good compromise but often present poor accuracy. Transitioning these models to two or three dimensions improves their accuracy but significantly increases computation times, making optimization studies difficult.Our thesis work is part of this issue by proposing to develop a two-dimensional analytical model, aiming to combine the resolution speed of analytical models while maintaining good accuracy in predicting the phenomena.Thermal exchanges between the fluid and the solid are strongly influenced by the fluid velocity, which depends on several parameters such as operating frequency, sweep rate, pressure gradient, and channel dimensions. A three-dimensional analytical model has been proposed to accurately model this behavior. This model is developed by solving the three-dimensional Navier-Stokes differential equations using Fourier series. Several assumptions are made to simplify the equations to be solved, considering an incompressible fluid and laminar flow. Validated by numerical simulations, the model demonstrates good performance in terms of both accuracy and computation time.Thermo-fluidic phenomena are crucial in modeling magnetocaloric devices. The complex couplings between fluid and solid regions introduce advection-diffusion equations that are difficult to solve analytically. The appearance of a non-constant coefficient pushes the need for a strong simplification to address this issue. Moreover, the connection between regions, combined with transient phenomena, leads to the appearance of transcendental equations, making purely analytical solutions impossible.A methodology for developing an analytical model has therefore been proposed, aiming to model thermal exchanges within parallel plate regenerators. Simplifying assumptions allow reducing the study domain and separately handling adiabatic discontinuities. The complexity of advection-diffusion phenomena, linked to non-constant coefficients, has limited direct analytical resolution. Progressive case studies should help develop suitable mathematical tools.Future work should focus on advancing the resolution of the advection-diffusion equation to couple the models. A better consideration of adiabatic temperature variations, through a magnetostatic model, should refine the modeling of the magnetocaloric effect.These works have led to several contributions, including the presentation of a national conference, an international conference, and the publication of two articles
Laser frequency locking and spectral transfer of coherence with a fiber interferometer
La thèse vise à explorer les deux aspects de la stabilisation de la fréquence laser à l'aide d'un interféromètre à ligne à retard à fibre. Premièrement, le bruit associé au processus de verrouillage lui-même, et deuxièmement, la capacité de transférer la cohérence temporelle entre les lasers à différentes longueurs d'onde.Dans la première partie de la thèse, le bruit de fréquence du battement de deux lasers à 1542 nm verrouillés sur le même interféromètre est mesuré pour étudier le bruit de verrouillage. Dans nos études, la technique Pound-Drever-Hall est utilisée pour le verrouillage de la fréquence des lasers, car elle offre l'avantage de permettre le verrouillage simultané de plusieurs lasers sur l'interféromètre commun. Un plancher de bruit de verrouillage inférieur à 0,1 Hz/√Hz est obtenu pour une fréquence de Fourier comprise entre 50 Hz et 12 kHz. Cela représente une amélioration d'un facteur deux par rapport aux expériences précédentes, grâce à une augmentation d'un ordre de grandeur de la largeur de bande de verrouillage. La limite du plancher de bruit de verrouillage est étudiée. Nous considérons l'hypothèse que le plancher de bruit de verrouillage est limité par l'effet de la non-linéarité du discriminateur de fréquence optique. Des simulations numériques sont réalisées pour quantifier cet effet et sont comparées aux résultats expérimentaux. Les simulations concordent très bien avec les expériences pour une longueur de fibre de 500 mètres. Cependant, avec un délai plus court et une largeur de bande de verrouillage plus grande, le niveau de bruit simulé semble plus faible que le niveau expérimental. Le niveau de bruit de la technique de verrouillage Pound-Drever-Hall est également comparé à la technique de verrouillage hétérodyne utilisée dans la partie suivante.Dans la deuxième partie, nous étudions le verrouillage du bruit de fréquence d'un laser sur le bruit de fréquence d'un laser maître avec une longueur d'onde différente (ou transfert spectral de cohérence) en utilisant un interféromètre hétérodyne à fibre de Mach-Zehnder. Le signal d'erreur est généré en soustrayant les deux signaux interférométriques hétérodynes à l'aide d'un mélangeur et est appliqué au laser esclave à l'aide d'un système d'asservissement analogique. Pour étudier la limite de bruit de la technique de transfert, nous verrouillons d'abord le laser esclave sur un laser maître avec une différence de fréquence de seulement 400 MHz, ce qui permet d'effectuer une caractérisation directe du bruit du transfert avec la note de battement. Dans un deuxième temps, nous considérons le transfert de cohérence entre deux lasers de 1,5 µm avec une différence de longueur d'onde de 18 nm. La caractérisation du bruit de transfert est réalisée par comparaison avec un autre système similaire. Nous obtenons un bruit de transfert inférieur à 1 Hz/√Hz pour des fréquences de Fourier comprises entre 6 Hz et 30 kHz, atteignant un bruit de fond de 0,1 Hz/√Hz à 3 kHz. Nous démontrons que le bruit de transfert est lié au bruit de fréquence du laser maître. Nous observons que le niveau de bruit de transfert est influencé par les propriétés de polarisation du coupleur à fibre utilisé dans l'interféromètre. En outre, nous constatons que les puissances RF d'entrée du mélangeur doivent être optimisées pour obtenir un bruit de transfert plus faible. Nous étudions également la susceptibilité au bruit acoustique et le comportement temporel à court terme. Les performances obtenues sont très prometteuses pour rendre cette technique compatible avec le transfert spectral sur des dizaines de nanomètres de la pureté de fréquence d'un laser stabilisé sur une cavité Fabry-Perot ultra-stable dans la bande de fréquence 10 Hz - 10 kHz.The thesis aims to explore two aspects of laser frequency stabilization using a fiber delay line interferometer. First, the noise associated with the locking process itself, and second, the capability to transfer the temporal coherence between lasers at different wavelengths.In the first part of the thesis, the frequency noise of the beat note of two 1542 nm lasers locked onto the same interferometer is measured to study the locking noise. In our studies, the Pound-Drever-Hall technique is utilized for laser frequency locking, as it offers the advantage to allow to lock simultaneously multiple lasers to the common interferometer. A locking noise floor below 0.1 Hz/√Hz is achieved for Fourier frequency between 50 Hz and 12 kHz. This represents an improvement by a factor of two compared to previous experiments, thanks to a one order of magnitude increase in the locking bandwidth. The limit of the locking noise floor is investigated. We consider the hypothesis that the locking noise floor is limited by the effect of the optical frequency discriminator nonlinearity. Numerical simulations are performed to quantify this and are compared with the experimental results. Simulations agree very well with experiments for 500 m fiber length. However, with shorter delay and larger locking bandwidths, the simulated noise level appeared smaller than the experimental one. The noise level of the Pound-Drever-Hall locking technique is also compared with the heterodyne locking technique which is used in the following part.In the second part, we investigate the locking of the frequency noise of a laser onto the frequency noise of a master laser with a different wavelength (or spectral transfer of coherence) using a heterodyne Mach-Zehnder fiber interferometer. The error signal is generated by subtracting the two heterodyne interferometric signals with a mixer and is applied to the slave laser with an analog servo system. To investigate the noise limit of the transfer technique, we first lock the slave laser onto a master laser with a frequency difference of only 400 MHz, allowing to perform a direct characterization of the noise of the transfer with the beat note. In a second step we consider the transfer of coherence between two 1.5 µm lasers with a wavelength difference of 18 nm. The characterization of the noise of the transfer is achieved by comparison with another similar system. We obtain a transfer noise below 1 Hz/√Hz for Fourier frequencies between 6 Hz and 30 kHz, reaching a noise floor of 0.1 Hz/√Hz at 3 kHz. We demonstrate that the transfer noise is related to the frequency noise of the master laser. We observe that the transfer noise level is impacted by the polarization properties of the fiber coupler used in the interferometer. Moreover, we find that the input RF powers of the mixer have to be optimized to achieve a lower transfer noise. We also investigate the susceptibility to acoustic noise and the short-term temporal behavior. The performances obtained are very promising to make this technique compatible with the spectral transfer over tens of nanometer of the frequency purity of commercial ultra-stable Fabry Perot cavity stabilized lasers in the 10 Hz - 10 kHz frequency band
Generative Artificial Intelligence (AI) for the conception of therapeutic proteins
Depuis l'approbation du premier médicament à base d'anticorps monoclonal (mAb) en 1986, les anticorps monoclonaux sont devenus l'une des classes de médicaments les plus largement utilisées, avec 162 autorisations à ce jour et des centaines d'autres en développement. Ils sont utilisés dans le traitement de divers cancers (p. ex. lymphomes, leucémies, cancer du sein), de maladies auto-immunes et inflammatoires (p. ex. sclérose en plaques, maladie de Crohn, asthme), de maladies cardiovasculaires, de maladies infectieuses et d'autres affections.Actuellement, la plupart des anticorps monoclonaux sont développés à l'aide de protocoles expérimentaux (« wet-lab ») coûteux en temps et en ressources. Ces protocoles sont de nature itérative et génèrent une quantité importante de données à chaque étape. Récemment, différentes méthodes d'apprentissage automatique ont été élaborées pour exploiter ces données et compléter ces processus de développement. Les modèles de régression et de classification permettent de caractériser les anticorps à partir de leurs séquences d'acides aminés, tandis que les méthodes génératives peuvent proposer de nouveaux candidats à tester lors des itérations suivantes du processus de développement. Dans cette thèse, je mets au point des méthodes basées sur l'apprentissage automatique pour suggérer de nouveaux anticorps monoclonaux à valider par des expériences de laboratoire. Plus précisément, je m'intéresse aux modèles auto-régressifs basés sur l'énergie (« energy-based autoregressive models ») pour la génération de séquences d'anticorps optimisées en fonction de propriétés déterminantes dans le développement d'anticorps monoclonaux, ainsi qu'aux méthodes de « flow matching » pour la génération de nouveaux anticorps à partir d'informations structurelles.Le développement d'anticorps monoclonaux constitue un problème d'optimisation multi-objectifs. Les candidats doivent présenter une forte affinité pour l'antigène cible, tout en étant optimisés pour d'autres propriétés relatives à leur développabilité, telles que la solubilité ou l'immunogénicité. Nous montrons que des méthodes d'apprentissage automatique peuvent construire des prédicteurs basés sur les séquences pour ces propriétés, en exploitant des jeux de données représentatifs de ceux disponibles pendant la mise au point d'anticorps monoclonaux. Concrètement, nous entraînons un processus gaussien pour prédire l'affinité vis-à-vis d'un peptide présent dans la protéine Spike du SARS-CoV-2, à partir d'un ensemble de données comprenant environ 22 000 séquences dont l'affinité a été mesurée. Nous utilisons également des jeux de données publics et des modèles préentraînés pour enrichir les informations disponibles. Nous recourons notamment à des plongements (« embeddings ») pré-calculés grâce à des modèles de langage protéique comme entrées du processus gaussien, et nous tirons parti de structures accessibles publiquement pour entraîner un prédicteur de solubilité. Par ailleurs, nous mettons en œuvre des méthodes d'échantillonnage basées sur l'énergie (« energy-based sampling ») afin de générer de nouvelles séquences le long du front de Pareto défini par les scores prédits par nos modèles, et nous les comparons à des modèles auto-régressifs qui amorcent l'exploration de l'espace de séquences dès la phase d'entraînement, afin d'accélérer la génération lors de l'inférence.Enfin, nous étudions l'utilisation d'algorithmes de « flow matching » pour générer des structures d'anticorps, en mettant en évidence les défis rencontrés lors de l'entraînement de ces modèles.Since the approval of the first monoclonal antibody (mAb)-based drug in 1986, monoclonal antibodies have become one of the most widely used classes of drugs, with 162 approved to date and hundreds more in development. They are used in the treatment of cancers (e.g., lymphomas, leukemias, breast cancer), autoimmune and inflammatory diseases (e.g., multiple sclerosis, Crohn's disease, asthma), cardiovascular diseases, infectious diseases, and other conditions.Currently, most monoclonal antibodies are developed using labor- and cost-intensive wet-lab pipelines. These pipelines are iterative in nature and generate significant amounts of data at every step. Recently, various machine learning methods have been developed to leverage this data and complement these development pipelines. Regression and classification models can be used to characterize antibodies based on their amino acid sequences, while generative methods can propose new candidates for testing in subsequent iterations of the development pipeline. In this thesis, I develop machine learning-based methods to help propose new monoclonal antibody candidates for validation in wet-lab experiments. In particular, I focus on energy-based autoregressive models for generating antibody sequences optimized for properties of interest in the development of monoclonal antibodies and flow-matching methods for generating novel antibodies based on structural information.The development of monoclonal antibodies constitutes a multi-objective optimization problem. Candidates must exhibit a high affinity for the target antigen while being optimized for other properties related to their developability, such as solubility or immunogenicity. We demonstrate that machine learning methods can build sequence-based predictors for properties of interest, leveraging datasets representative of those available during the development of monoclonal antibodies. Specifically, we train a Gaussian process to predict affinity to a peptide found in the spike protein of SARS-CoV-2 using a dataset containing approximately 22,000 sequences with measured affinity. We also utilize publicly available datasets and pretrained models to augment the available information. We use embeddings pre-computed from protein language models as inputs to the Gaussian process and publicly available structures to train a solubility predictor. Additionally, we employ energy-based sampling methods to generate new sequences along the Pareto front specified by the scores predicted by our models, comparing them to autoregressive models that amortize the exploration of sequence space during training to speed up sampling.Finally, we explore the use of flow-matching algorithms to generate antibody structures, focusing on the challenges encountered when training such models