Thèses en Ligne
Not a member yet
    170080 research outputs found

    Simulation d'écoulements diphasiques avec des modèles multifluides pour la propulsion cryogénique spatiale

    No full text
    Numerical simulation of liquid rocket engines raises several difficulties, particularly regarding the wide array of operating conditions and its consequences on the two-phase topology of the flow. The objective of the present thesis is to evaluate the ability of the multifluid class of two-phase models to accurately represent compressible flows, while accounting for molecular diffusion within each phase and interface exchanges between them. From the existing literature, a general out-of-equilibrium model is derived, accounting for all aforementioned phenomena, and is then reduced towards equilibrium to yield a hierarchy of models, each with different equilibrium hypotheses between phases. Finite-Volume numerical methods, and the challenges linked to their adaption to the complex multifluid models, are presented and evaluated in multiple elementary cases. Various existing models and numerical methods are compared in terms of robustness and accuracy, unveiling potential issues related to the equation system or its numerical treatment. Particular attention is given to their behavior in the presence of interface exchanges, molecular diffusion, and multiple species in the gas phase.La simulation numérique de l'injection liquide pour des moteurs fusée présente un certain nombre de difficultés, notamment à cause de la grande variété de conditions de fonctionnement existantes, avec des conséquences sur la topologie de l'écoulement diphasique en résultant. L'objectif de cette thèse est d'évaluer la capacité des modèles dits multifluides à décrire des écoulements diphasiques, compressibles, en prenant en compte les effets de diffusion moléculaire et les échanges entre phases. A partir de l'état de l'art, la dérivation d'un modèle multifluide hors-équilibre est effectuée ici. Le modèle résultant est ensuite réduit à une série d'hypothèses d'équilibre entre les phases, menant à une hiérarchie de modèles multifluides différents par leurs hypothèses d'équilibre. Des méthodes numériques Volumes Finis sont présentées, avec les défis liés à leur adaptation aux modèles multifluides. Elles sont également évaluées sur un ensemble de cas de validation élémentaires. Les modèles sont comparés en termes de robustesse et de précision, mettant en lumière de potentielles difficultés liées soit au système d'équations soit à la méthode numérique associée. Une attention particulière est accordée à leur comportement en présence d'échanges interfaciaux entre les phases, de phénomènes diffusifs, ainsi que de plusieurs espèces différentes dans la phase gazeuse

    Hyperbolicité complexe : méthodes algébriques et transcendantes, et application à des problèmes d’uniformisation

    No full text
    The word "hyperbolic" is a polysemic term commonly used in geometry to qualify objects "with negative curvature" properties. In complex algebraic geometry, this term has a more specialized meaning : we essentially designate as hyperbolic the complex projective varieties that do not admit any entire curve, i.e. non-constant holomorphic maps starting from the complex plane, taking their values in the given variety. The main conjectures of the field (and in particular the celebrated Green-Griffiths-Lang conjecture) predict that complex projective varieties of "general type" should admit only "few" such entire curves. This thesis presents several approaches to the study of this conjecture for several classes of complex varieties, using a spectrum of both algebraic and transcendental techniques.Among the algebraic methods, we describe several techniques for constructing jet differential equations, well suited to the study of hyperbolicity of hypersurfaces in the projective spaces. We also present several methods applicable in the quasi-projective setting, in particular to study the varieties admitting "big" representations of their fundamental group. Perhaps somewhat surprisingly, these last transcendental techniques – jointly with the theory of Campana’s special varieties and orbifolds – can be applied to problems of uniformization by the ball in a singular or quasi-projective setting : these last results are described in the final chapter of this thesis.Le mot "hyperbolique" est un terme polysémique usuellement employé en géométrie pour qualifier les objets "à courbure négative". En géométrie algébrique complexe, le terme a un sens plus précis : on qualifie essentiellement d’hyperboliques les variétés projectives complexes n’admettant pas de courbes entières, c’est-à-dire d’applications holomorphes non constantes partant du plan complexe, et à valeurs dans la variété donnée. Les conjectures centrales du domaine (dont la célèbre conjecture de Green-Griffiths-Lang) prédisent que les variétés projectives dites "de type général" devraient admettre "peu" de telles courbes entières.Ce mémoire présente quelques approches à l’étude de cette conjecture pour diverses classes de variétés complexes, utilisant un spectre de techniques tant algébriques que transcendantes. Parmi les méthodes algébriques, on décrit notamment des techniques de construction d’équations différentielles de jets, très adaptées à l’étude de l’hyperbolicité des hypersurfaces de l’espace projectif. On présente aussi quelques méthodes transcendantes applicables dans le cas quasi-projectif, notamment pour étudier les variétés admettant de "grosses" représentations du groupe fondamental.De façon peut-être un peu surprenante, ces dernières techniques – jointes à la théorie des orbifoldes et des variétés spéciales de Campana – trouvent une application à des problèmes d’uniformisation par la boule dans un cadre singulier ou quasi-projectif : ces résultats sont présentés dans la dernière partie du présent mémoire

    Comportement tribologique lors du formage à chaud d'alliage d'aluminium: performance tribologique des revêtements PVD commerciaux et mécanismes de transfert de l'aluminium

    No full text
    Thèse sous embargo de l’auteur jusqu’au 10-09-2025.The aims of this PhD thesis were to find effective surface coatings to prevent the material transfer issue and to study the mechanisms of material transfer in the hot forming of aluminum alloy. The workpiece material was AA 6082-T6 aluminum alloy, which is widely used to produce automotive components.The warm and hot upsetting sliding test (WHUST) was selected as the main tribometer in this study. To control the testing temperatures precisely, a scaled-down apparatus of the WHUST was designed to integrate into the heating chamber of the Bruker UMT TriboLab platform. The preliminary experiments of the new apparatus found that the pile-up material significantly occurred in front of the contactor due to the high friction at the interface and the deformation characteristic of the aluminum alloy at high temperatures. From this point, the pile-up material was considered as a new parameter in analytical equations used to identify the Coulomb coefficient of friction (COF) and the shear friction factor.The new apparatus of the WHUST was then used to evaluate the tribological performance of three commercial PVD coatings: AlCrN, TiAlN, and Arc-DLC. The experiments were performed at temperatures between 300˚C and 500˚C, at 0.5 mm/s of sliding speed under non-lubrication contact conditions. Those conditions led to the mean contact pressure between 40 MPa and 100 MPa. The results showed that the Arc-DLC coating had better efficiency in alleviating the aluminum transfer issue than the AlCrN and TiAlN coatings. The Arc-DLC coating caused less adhesive to the aluminum alloy and less transferred aluminum, especially in the initial period. Moreover, these findings were consolidated under higher contact pressure by using the hot V-groove compression test (HVGCT).Following that, the Arc-DLC coating was selected to study the mechanisms of aluminum transfer on the forming tool in detail. The WHUST was performed with the specific short sliding distance (2 mm) to investigate the initial stage of aluminum transfer, while the full sliding distance (38 mm) was used to examine the evolution of aluminum transfer. The experiments were conducted at the same testing temperatures with two different sliding speeds, 0.5 mm/s and 5.0 mm/s, under non-lubrication contact conditions. It was found that the aluminum transfer in the initial stage was mainly caused by mechanical plowing. Then, during the grow-up stage, the aluminum transfer was dominated by mechanical plowing and/or adhesive bonding, depending on the testing temperatures and the sliding velocities. Additionally, the different transfer mechanisms caused dissimilar COFs, surface characteristics along the friction track of the specimen, as well as transferred aluminum.In the last part of this PhD thesis, Machine Learning (ML) was involved to study the mechanisms of aluminum transfer. The previous part found that the wear characteristics along the friction track could be a significant indicator to differentiate the transfer mechanisms. Thus, the surface topographies and the SEM images along the friction track were used to classify by five simple ML algorithms and a custom Convolutional Neural Network (CNN) architecture, respectively. It was proved that the ML with topographic data and the CNN with SEM image data had the potential to identify the wear mode accurately.Les objectifs de cette thèse de doctorat étaient de caractériser l’efficacité des revêtements de surface développé pour lutter contre les problèmes de transfert de matière rencontrés lors de la mise en forme de l’aluminium à chaud, et d'étudier ces mécanismes de transfert. Le matériau utilisé était un alliage d'aluminium AA 6082-T6, largement employé dans la fabrication de composants automobiles.Le test de Compression-Translation à chaud (WHUST) a été retenu comme tribomètre principal pour cette étude. Afin de contrôler précisément les températures des essais, un dispositif miniaturisé du WHUST a été conçu afin être intégré dans la chambre chauffante de la plateforme Bruker UMT TriboLab. Les tests préliminaires avec ce nouvel appareil ont montré un empilement significatif de matière devant le contacteur. De nouvelles équations analytiques ont donc été développées pour identifier le coefficient de frottement de Coulomb (COF) et le facteur de frottement (loi de Tresca) en tenant compte de cet empilement de matière.Le WHUST a ensuite été utilisé pour évaluer les performances tribologiques de trois revêtements PVD commerciaux : un AlCrN, un TiAlN et un Arc-DLC. Les expériences ont été menées sans lubrifiant, à des températures variant de 300 °C à 500 °C, sous des pressions de contact comprises entre 40 et 100 MPa, avec une vitesse de glissement égale à 0,5 mm/s. Les résultats ont montré que le revêtement Arc-DLC était plus efficace que les revêtements AlCrN et TiAlN pour atténuer les problèmes de transfert d’aluminium. En particulier, le revêtement Arc-DLC provoquait moins d'adhésion et moins de transfert d'aluminium, notamment lors du début du glissement. Ces résultats ont été confirmés par des essais sous des pressions de contact plus élevées, réalisés à l’aide l’essai de forgeage en T à chaud (HVGCT).Dans la deuxième partie de cette thèse, le revêtement Arc-DLC a été sélectionné pour étudier en détail les mécanismes de transfert d’aluminium sur les outils de mise en forme. Des essais ont été réalisés avec une courte distance de glissement (2 mm) pour examiner les premières étapes du transfert d’aluminium, tandis que des tests avec une distance de glissement de 38 mm ont permis d’étudier l’évolution du transfert. Les expériences ont été conduites aux mêmes températures d’essai (300-500°C), avec deux vitesses de glissement différentes, 0,5 mm/s et 5,0 mm/s, et toujours sans lubrifiant. Les topographies de surface et les images SEM prises le long de la piste de frottement ont montré que le transfert d'aluminium se produit en deux étapes principales : une phase initiale principalement due au labourage mécanique, suivie d'une phase de croissance dominée, en fonction des températures et des vitesses de glissement, par du labourage mécanique ou par de l'adhésion.Dans la dernière partie de cette thèse, l'apprentissage automatique (ML) a été utilisé pour étudier les mécanismes de transfert d’aluminium. Les topographies de surface et les images SEM prises le long de la piste de frottement ont été analysées. Elles ont été classifiées à l’aide de cinq algorithmes d’apprentissage automatique simples et d'une architecture de réseau neuronal convolutif (CNN) personnalisée. Il a été démontré que le ML appliqué aux données topographiques et le CNN appliqué aux images SEM permettaient tous deux d’identifier les modes d’usure avec précision

    Vers une réelle prise en compte des besoins sociaux dans l’appropriation langagière : de la recherche théorique à l’intervention

    No full text
    Mémoire d'Habilitation à Diriger des Recherches Vers une réelle prise en compte des besoins sociaux dans l'appropriation langagière : de la recherche théorique à l'intervention </div

    Démystifier les applications de l'apprentissage machine en médecine générale: une exploration de l'aide à la décision automatisée pour les consultations non programmées

    No full text
    The widespread adoption of Electronic Health Records (EHRs) in clinical databases, alongside the rapid advances in machine learning (ML) and natural language processing (NLP) technologies in recent years, has expanded the opportunities for innovative and exploratory applications of sophisticated computational techniques to provide practical aid to medical practitioners. This thesis explores the potential applicability of automated decision support tools to unscheduled general consultations, an area which remains under-explored by the medical AI research community. In the context of a multi-disciplinary project uniting NLP research, EHR system developers, and medical practitioners, we bridge the gap between biomedical NLP research and general medical practice by using a database of SOS Médecins consultation records to build, evaluate and implement two different ML-based tools that are capable of carrying out real-time predictive inference based on textual information entered by the practitioner during a consultation. Beginning in an NLP research framework, we first developed and evaluated various biomedical BERT models, using a variety of information sources including scientific text, structured ontological knowledge from the UMLS metathesaurus, and proprietary text from SOS Médecins consultation records. We then adapted these models to two novel document classification applications, designed in collaboration with a medical practitioner: 1) binary classification for hospitalisation and/or serious diagnosis risk, and 2) diagnosis prediction. Having developed and validated these classification algorithms, we then integrated them into the SOMELOG clinical data management software used by a number of SOS Médecins practices. This enabled us to evaluate the gap between experimental evaluation and practical utility, and also to collect feedback on the perception of this kind of tool among practitioners. We find that many technical and conceptual challenges remain to be addressed before technologies like these can be fully integrated into generalist clinical workflows in a useful way. In summary, the main contributions of this work are 1) software tools and language models adapted for the domain of unscheduled general consultations and 2) quantitative studies of the applicability of artificial intelligence tools for clinical decision support in the SOS Médecins context. We hope that our work will provide useful experimental frameworks and practical insights for future work in this area.L'adoption généralisée des dossiers médicaux électroniques (DME) dans les bases de données cliniques, ainsi que les progrès rapides des technologies d'apprentissage machine (ML) et de traitement automatique du langage naturel (TAL) au cours des dernières années, ont élargi les possibilités d'applications innovantes et exploratoires de techniques informatiques sophistiquées afin de fournir une aide pratique aux praticiens médicaux. Cette thèse explore l'applicabilité potentielle des outils d'aide à la décision automatisés aux consultations générales non programmées, un domaine qui est loin d'être pleinement exploré par la communauté de recherche en IA médicale. Dans le cadre d'un projet multidisciplinaire réunissant des praticiens du TAL, des développeurs de systèmes de DME et des médecins, nous comblons le fossé entre la recherche biomédicale en TAL et la pratique médicale générale en utilisant une base de données de dossiers de consultation de SOS Médecins pour construire, évaluer et mettre en œuvre deux outils différents basés sur la ML qui sont capables d'effectuer une inférence prédictive en temps réel sur la base d'informations textuelles saisies par le praticien au cours d'une consultation. En partant d'un cadre de recherche TAL, nous avons d'abord développé et évalué divers modèles BERT biomédicaux, en utilisant une variété de sources d'information, y compris des textes scientifiques, des connaissances ontologiques structurées et des textes provenant des dossiers de consultation de SOS Médecins. Nous avons ensuite adapté ces modèles à deux nouvelles applications de classification de documents, conçues en collaboration avec un médecin : 1) la classification binaire pour le risque d'hospitalisation et/ou de diagnostic grave, et 2) la prédiction de diagnostic.Après avoir développé et validé ces algorithmes de classification, nous les avons intégrés dans le logiciel de gestion des données cliniques SOMELOG utilisé par plusieurs cabinets SOS Médecins. Cela nous a permis d'évaluer l'écart entre l'évaluation expérimentale et l'utilité pratique, mais aussi de recueillir des retours sur la perception de ce type d'outil par les praticiens. Nous constatons que de nombreux défis techniques et conceptuels doivent encore être relevés avant que des technologies comme celles-ci puissent être pleinement intégrées dans le travail des médecins généralistes de manière utile.En résumé, les principales contributions de ce travail sont 1) des outils logiciels et des modèles de langage adaptés au domaine des consultations générales non programmées et 2) des études quantitatives de l'applicabilité des outils d'intelligence artificielle pour l'aide à la décision clinique dans le contexte de SOS Médecins. Nous espérons que notre travail fournira des cadres expérimentaux utiles et des idées pratiques pour les travaux futurs dans ce domaine

    Développement d'une méthode numérique originale pour la simulation du cycle de vie d'une traînée de condensation

    No full text
    Condensation trails, or contrails, are long ice clouds visible in aircraft wakes on clear days. Their radiative forcing impact is estimated to be twice that of carbon dioxide emissions. However, this estimate is currently debated due to significant uncertainties surrounding the value. These uncertainties highlight the need for further studies to better understand the formation and evolution of contrails, from the creation of initial ice crystals to their possible transition into induced cirrus clouds that can persist for several hours in the troposphere. Such studies are challenging due to the wide range of spatial and temporal scales involved in the life cycle of a contrail.This thesis proposes a numerical methodology for simulating contrails, from the formation of the initial crystals to the dissipation of wingtip vortices. The originality of this method lies in its ability to simulate the formation and evolution of contrails without relying on analytical formulations to initialize the calculations, as is commonly done in the literature. This approach allows for a comprehensive consideration of near-field effects on contrail evolution in the far field, particularly by accounting for the influence of aircraft geometry on the aerodynamic wake.The application of this methodology to a realistic aircraft geometry under standard atmospheric conditions highlighted the significant impact of horizontal tailplane vortices, through the development of short-wavelength instabilities on the wingtip vortices, profoundly altering the structure of the secondary wake. Comparisons with classical approaches showed that contrails obtained using the method developed in this thesis are opaque and wider, potentially having a greater warming effect.Les traînées de condensation sont les longs nuages de glace visibles dans les sillages d'avion les jours de temps clair. Leur impact en termes de forçage radiatif est estimé à deux fois celui des émissions de dioxyde de carbone. Néanmoins, cette estimation est aujourd'hui controversée en raison des fortes incertitudes entourant cette valeur. Ces incertitudes traduisent en réalité le besoin de mener d'avantage d'études pour mieux comprendre la formation et l'évolution des traînées de condensation, de la création des premiers cristaux jusqu'à la transition possible de la traînée en cirrus induit pouvant persister plusieurs heures dans la troposphère. Ces études sont rendues difficiles en raison de la grande diversité d'échelles spatiales et temporelles relative au cycle de vie d'une traînée de condensation. Cette thèse propose alors une méthodologie numérique pour la simulation des traînées de condensation de la formation des premiers cristaux jusqu'à la destruction des tourbillons marginaux. L'originalité de cette méthode tient dans sa capacité à simuler la formation et l'évolution d'une traînée de condensation sans avoir recours à une formulation analytique pour initialiser les différents calculs, comme cela est réalisé classiquement dans la littérature. Une telle approche permet alors de pleinement considérer les effets du champ proche sur l'évolution de la traînée dans le champ lointain, notamment via l'influence de la géométrie de l'avion sur le sillage aérodynamique. L'application de la méthodologie à une géométrie réaliste d'avion et pour des conditions atmosphériques standards a permis de mettre en évidence l'impact significatif des tourbillons d'empennage horizontal via le développement d'instabilités de courte longueur d'onde sur les tourbillons marginaux, modifiant alors profondément la structure du sillage secondaire. La comparaison avec les approches classiques a montré que les traînées de condensation obtenues via la méthode développée dans cette thèse sont plus opaques et plus larges, avec potentiellement un effet réchauffant plus important

    Vers un laser superradiant : ensembles atomiques d’ytterbium et développements métrologiques pour des références de fréquence ultra-stables

    No full text
    This thesis presents the initial steps toward the realization of an ultra-stable superradiant oscillator. It explores the use of the quantum phenomenon of superradiance, which leverages the coherence and indistinguishability of an atomic ensemble to enhance coherent optical radiation. A superradiant laser consists of atoms collectively coupled to a Fabry-Perot cavity, operating in the bad-cavity regime to minimize sensitivity to cavity fluctuations.In this work, the first realization and characterization of a cold ytterbium atomic ensemble are demonstrated, laying the foundation for future superradiant operation. The experimental setup for atomic transport into the cavity has been planned, enabling sequential loading of atoms for quasi-continuous superradiant emission.To support the future characterization of the superradiant laser, a compensated optical fiber link for local ultra-stable frequency transfer has been implemented. This system features fully digital signal processing and a novel characterization method that does not require access to the remote fiber end. The achieved fractional frequency instability reaches the 10^{-18} range, demonstrating its suitability for high-precision frequency dissemination within an institute.Cette thèse présente les premières étapes vers la réalisation d’un oscillateur superradiant ultra-stable. Elle explore l’utilisation du phénomène quantique de superradiance, qui repose sur la cohérence et l’indistinguabilité d’un ensemble atomique pour produire une émission optique cohérente. Un laser superradiant est constitué d’atomes couplés collectivement à une cavité Fabry-Perot, fonctionnant dans le régime dit de ``mauvaise cavité'' afin de minimiser la sensibilité aux fluctuations de cavité.Dans ce travail, la première réalisation et caractérisation d’un ensemble atomique d’ytterbium refroidi sont démontrées, jetant les bases d’un futur fonctionnement superradiant. L’installation expérimentale pour le transport des atomes dans la cavité a été planifiée, permettant un chargement séquentiel des atomes pour une émission superradiant quasi-continue.Afin de soutenir la future caractérisation du laser superradiant, une liaison optique fibrée compensée a été mise en place pour le transfert local de fréquence ultra-stable. Ce système intègre un traitement du signal entièrement numérique et une méthode de caractérisation innovante ne nécessitant pas d’accès à l’extrémité distante de la fibre. L’instabilité relative de fréquence obtenue atteint l’ordre de 10^{-18}, démontrant ainsi son adéquation pour la dissémination de fréquence de haute précision au sein d’un institut

    Dans l'ombre de la géométrie algébrique : études d'articulations disciplinaires au XIXe siècle

    No full text
    Ce mémoire consiste en une synthèse des recherches que j'ai menées depuis le début de ma thèse et qui portent principalement sur les enjeux et les modalités de la mise en place d'interfaces entre géométrie des courbes et des surfaces algébriques, théorie des fonctions elliptiques et abéliennes, théorie des invariants, théorie des équations algébriques et théorie des substitutions dans la deuxième moitié du XIXe siècle. Ces articulations disciplinaires, qui préfigurent d'une certaine façon la constitution de la géométrie algébrique, ont notamment été portées par le mathématicien allemand Alfred Clebsch (1833-1872), dont j'ai examiné plusieurs textes clés.L'introduction du mémoire est une synthèse de la synthèse. Elle présente mes choix méthodologiques transversaux, consistant à articuler des analyses locales de textes, exécutées au plus près de la technique mathématique, avec des études visant à saisir des phénomènes de circulation et d'évolution du savoir à plus grande échelle. Elle rappelle aussi que la plupart des situations historiques abordées ont été marquées a posteriori par Felix Klein, et en expose quelques conséquences historiographiques. Les trois chapitres suivants reprennent les résultats que j'ai obtenus relativement à trois types de configurations disciplinaires : groupes, équations et géométrie ; fonctions abéliennes et géométrie ; théorie des invariants et géométrie. Un autre chapitre est dévolu à mes travaux utilisant les outils issus de la textométrie, grâce auxquels j'ai étudié, d'une part, un corpus de textes relevant de la théorie des surfaces algébriques et, d'autre part, le style d'écriture mathématique de Charles Hermite. Enfin, le dernier chapitre décrit des travaux en cours et à venir sur certaines recherches de Georges Humbert (1859-1921), à l'interface entre géométrie, analyse et théorie des nombres

    Etude de colmatage de prises d'eau ichtyocompatibles de centrales hydroélectriques : influences des conditions d'écoulement

    No full text
    Thèse CIFRE - France Hydro Electricité Référents : Cécile Bellot et Xavier CasiotSmall and medium-size hydroelectric power plants, which are an essential part of the energy mix, have been enhanced to minimize their impact on the ecological continuity of rivers. Fish-friendly water intakes, particularly inclined bar racks with narrow bar spacings and bypasses at the water surface, facilitate the downstream migration of fishes. However, the evolution of these protection systems has introduced operational challenges. During the fall season, these systems are particularly prone to clogging due to the accumulation of leaves and other debris, leading to significant production losses and increased operational constraints. The objective of this thesis is to better understand and quantify the effects of clogging on inclined narrow bar racks during the leaf-fall period and to provide key insights for improving the management of this natural phenomenon.An experimental study was conducted in a free-surface hydraulic channel to predict the effects of clogging on head losses using artificial materials to simulate natural clogging. These experiments were complemented by field measurements on inclined bar racks subjected to natural and artificial clogging. They facilitate the correlation of laboratory results with those obtained from production sites. The experiments highlighted the negative impact of clogging on head losses, which increased with the obstruction ratio, whether the clogging was homogeneous or partial. The rapid evolution of head losses with increasing clogging has underscored the necessity of implementing automatic cleaning procedures before reaching critical clogging thresholds. A predictive model for head losses induced by clogging was developed based on laboratory experiments and validated through field measurements. Additionally, a numerical study was performed using CFD (Computational Fluid Dynamics) simulations to optimize the water intake protection system (bar form and bypasses). Regarding the bar rack system, an optimization of bar form was performed with a genetic algorithm, considering mechanical and design constraints, resulting in a set of new bar profiles that minimize head losses. These profiles were then validated through experimental testing using a pressurized duct and an open channel flow. Finally, the numerical parametric study of the flow on bypass design revealed insights into existing solutions and led to the development of optimized design recommendations to ensure optimum flow distribution between each bypass.This thesis has increased our understanding of clogging on inclined narrow bar racks, enabling the prediction of its impact on power hydroelectric station performance and contributing to operational improvements. New recommendations have been proposed to assist operators in designing protection systems that integrate inclined bar racks and surface bypasses.Les centrales hydroélectriques de petite et moyenne tailles, part essentielle du mix énergétique, ont fait l’objet d’améliorations pour limiter leur impact sur la continuité écologique dans les rivières. Les prises d’eau ichtyocompatibles, notamment les grilles fines inclinées équipées d’exutoires en surface, permettent de faciliter la dévalaison des poissons. Cependant, l’évolution de ces systèmes de protection a engendré des difficultés d’exploitation avec l’accumulation importante de feuilles et de petits débris en période automnale, entraînant des pertes de production significatives et des contraintes opérationnelles accrues. L’objectif de cette thèse est de mieux comprendre et quantifier l’effet du colmatage sur les grilles inclinées de faible espacement entre les barreaux en période de chute de feuilles, afin de fournir des éléments d’amélioration pour la gestion de ce phénomène naturel.Une étude expérimentale a été menée dans un canal à surface libre pour prédire les effets du colmatage sur la perte de charge, en utilisant des surfaces artificielles simulant un colmatage naturel. Ces essais ont été complétés par des mesures de terrain sur des grilles colmatées naturellement et artificiellement. Ils permettent de corréler les résultats obtenus en laboratoire avec ceux des sites de production. Les essais ont mis en évidence l’impact négatif du colmatage sur la perte de charge en fonction du taux d’obstruction des grilles, qu’il soit sur une partie ou sur la totalité de la surface de la grille. La progression rapide des pertes de charge en fonction de l’augmentation du colmatage souligne l’importance d’opérer un nettoyage automatique des grilles avant d’atteindre un seuil critique de colmatage. Un modèle prédictif des pertes de charge induites par le colmatage a été développé à partir des essais réalisés en laboratoire et validé par les mesures de terrain. Par ailleurs, une étude numérique a été réalisée grâce à des simulations d’écoulements (CFD : Computational Fluid Dynamics) pour optimiser le système de prise d’eau (barreaux de la grille et exutoires). Concernant le système de grille, une optimisation de la forme des barreaux de grille à partir d’un algorithme génétique, prenant en compte les contraintes mécaniques et de dimensionnement, a permis de définir un ensemble de nouveaux profils réduisant les pertes de charge. Ces profils ont finalement été validés par des essais expérimentaux dans une veine en charge et dans un canal à surface libre. Enfin, une étude paramétrique numérique d’écoulements pour différentes formes d’exutoires et de goulottes de dévalaison a permis l’analyse des solutions existantes et de proposer des recommandations de dimensionnement pour obtenir une répartition optimale des débits entre les exutoires.Ces travaux de thèse ont ainsi permis de mieux comprendre la problématique du colmatage des grilles inclinées à faible espacement, de prédire son effet sur la production d’énergie des centrales hydroélectriques, et d’ouvrir la voie à des améliorations opérationnelles. De nouvelles recommandations de dimensionnement ont été formulées pour accompagner les exploitants dans la conception de systèmes de protection intégrant des grilles inclinées et des exutoires en surface

    Optimisation parallèle des hyperparamètres des réseaux impulsionnels

    No full text
    Artificial Neural Networks (ANNs) are a machine learning technique that has become indispensable. By learning from data, ANNs make it possible to solve certain complex cognitive tasks. Over the last three decades, ANNs have seen numerous major advances. These include convolution networks and attention mechanisms. These advances have enabled the development of image recognition, large language models, and text-to-image conversion. Undeniably, ANNs have become an invaluable tool for many applications, such as chemistry with AlphaFold, translation with DeepL, archaeology, healthcare, and recently, in February 2024, video generation with Sora.In 1943, McCulloch and Pitt's work on the formal neuron allowed Rosenblatt to give birth to the first ANNs known as perceptrons in 1958. Machine learning then went through periods of disinterest, due to theoretical obstacles such as the NP-completeness of the problems tackled, technological issues such as limited computing power, and budgetary constraints. Since the 1990s, we've seen an exponential revival of interest in ANNs thanks to the democratization of graphics processing units (GPUs). This growing interest led to the first artificial intelligence spring in the 2010s, and since 2020 to the boom of generative models. However, several new barriers could put the brakes on the interest in these models.The first is the end of Moore's Law, due to the physical limits reached by transistors. The second is energy consumption. Indeed, while research has long focused largely on the predictive performances of ANNs, other aspects have been neglected. These include energy efficiency, robustness, security, interpretability, transparency, and so on.This is why we need to go beyond von Neumann architectures, which currently slow down calculation throughput because of the separation of processing and memory units. The neuromorphic approach is a serious breakthrough candidate for reducing the energy footprint of machine learning. Indeed, this mode of calculation is based on Spiking Neural Networks (SNNs), which are closer to the biological brain. The human brain consumes only 20 watts to perform numerous complex cognitive tasks simultaneously. So, the challenge of neuromorphic computing is to considerably reduce the energy consumption of current models through biomimicry. Neuromorphic computing could also enable advances in other cross-disciplinary research fields, such as neuroscience.Today, SNNs are struggling to outperform conventional methods. As they are more recent and therefore less studied, a better approach to their design could make it possible to combine performance and low-energy cost. That is why the automatic design of SNNs is studied within this thesis, with a focus on HyperParameter Optimization (HPO). A hyperparameter is a parameter controlling various aspects of the training phase of a SNN, but whose value cannot be determined by training.Thus, we study the impact of HPO on SNNs and the impact of SNNs on HPO. The aim is to improve the HPO algorithms and to better understand the behavior of SNNs regarding their hyperparameters.In the literature, the HPO is treated in the same way, whether for ANNs or SNNs. However, the ``No Free Lunch theorem'' specifies that there is no universal algorithm that is significantly efficient for all optimization problems. A consequence of this theorem is that, without prior knowledge of the problem, it is impossible to optimize efficiently. That is, we need a clear definition of the problem before selecting an HPO algorithm. So, while ANNs and SNNs share common properties, SNNs are known for their unique behaviors. In particular, the literature shows that the performances of SNNs are highly sensitive to their architecture and hyperparameters.Consequently, blindly applying the same methodologies to both ANNs and SNNs could negatively affect the performances of the HPO algorithm, and hence the best solution obtained.Les Réseaux de Neurones Artificiels (RNAs) sont des modèles prédictifs permettant de résoudre certaines tâches complexes par un apprentissage automatique. Depuis ces trois dernières décennies, les RNAs ont connu de nombreuses avancées majeures. Notamment avec les réseaux de convolution ou les mécanismes d'attention. Ces avancées ont permis le développement de la reconnaissance d'images, des modèles de langage géants ou de la conversion texte-image.En 1943, les travaux de McCulloch et Pitt sur le neurone formel faciliteront la naissance des premiers RNAs appelés perceptrons, et décrits pour la première fois par Rosenblatt en 1958. L'apprentissage machine a par la suite connu des périodes de désintérêt dues à des freins, théoriques comme la NP-complétude des problèmes abordés, technologiques comme la limitation de la puissance de calcul, ou encore budgétaires. Depuis les années 1990 et aidé par la démocratisation des processeurs graphiques (GPUs), nous observons un regain d'intérêt exponentiel pour les RNAs menant au printemps de l'intelligence artificielle dans les années 2010, et depuis 2020 au boom des modèles générationnels. Cependant, de nouvelles barrières pourraient freiner l'intérêt pour ces modèles.Le premier frein est la fin de la loi de Moore due aux limites physiques atteintes par les transistors. Le second frein est la consommation énergétique. En effet, tandis que la recherche s'est longtemps concentrée en grande partie sur les performances prédictives des RNAs, d'autres aspects ont été relégués au second plan. C'est le cas de l'efficacité énergétique, mais également de la robustesse, de la sécurité, de l'interprétabilité, de la transparence, etc.C'est pourquoi il faut aller au-delà des architectures de von Neumann qui, à cause de la séparation des unités de calcul et de mémoire, ralentissent le débit des calculs. Ainsi, l'approche neuromorphique est un candidat de rupture sérieux afin de réduire l'empreinte énergétique de l'apprentissage machine. En effet, ce mode de calcul repose sur les Réseaux de Neurones à Impulsions (RNIs), plus fidèles au cerveau biologique. En effet, le cerveau humain consomme uniquement 20 watts pour effectuer simultanément de nombreuses tâches cognitives complexes.Aujourd'hui, les RNIs peinent à surpasser les performances des méthodes classiques. Ceux-ci étant plus récents, et donc moins étudiés, une meilleure approche de leur conception pourrait permettre d'allier performances et faible coût énergétique. C'est pourquoi la conception automatique des RNIs est étudiée dans cette thèse. L'intérêt est notamment porté sur l'Optimisation des HyperParamètres (OHP). Un HyperParamètre (HP) est un paramètre contrôlant divers aspects de l'apprentissage des RNIs, mais dont la valeur ne peut pas être déterminée par l'apprentissage.Ainsi, nous étudions l'impact de l'OHP sur les RNIs et l'impact des RNIs sur l'OHP. Le but étant d'améliorer les algorithmes utilisés et de mieux comprendre le comportement des RNIs au regard de leurs HPs.Dans la littérature, que ce soit pour les RNAs ou RNIs, l'OHP est traité de la même manière. Or, le "No Free Lunch theorem" spécifie qu'il n'existe pas d'algorithme universel significativement efficace pour tous les problèmes d'optimisation. Une conséquence de ce théorème est que, sans connaissances préalables du problème, il est impossible d'optimiser efficacement. On ne peut donc pas choisir un algorithme d'OHP avant d'avoir réellement défini le problème. Ainsi, bien que RNAs et RNIs partagent des propriétés communes, les RNIs sont connus pour leurs propriétés uniques. La littérature fait notamment état d'une extrême sensibilité des performances des RNIs par rapport à leur architecture et à leurs HPs.Par conséquent, appliquer aveuglément les mêmes méthodologies aux RNAs et RNIs pourrait nuire aux performances de l'OHP, et donc de la meilleure solution obtenue

    8,181

    full texts

    170,085

    metadata records
    Updated in last 30 days.
    Thèses en Ligne is based in France
    Access Repository Dashboard
    Do you manage Open Research Online? Become a CORE Member to access insider analytics, issue reports and manage access to outputs from your repository in the CORE Repository Dashboard! 👇