207 research outputs found

    Méthodes de modélisation statistique de la durée de vie des composants en génie électrique

    Get PDF
    La fiabilité constitue aujourd’hui un enjeu important dans le contexte du passage aux systèmes plus électriques dans des secteurs critiques tels que l’aéronautique, l’espace ou le nucléaire. Il s’agit de comprendre, de modéliser et de prédire les mécanismes de vieillissement susceptibles de conduire les composants à la défaillance et le système à la panne. L’étude des effets des contraintes opérationnelles sur la dégradation des composants est indispensable pour la prédiction de leur durée de vie. De nombreux modèles de durée de vie ont été développés dans la littérature dans le contexte du génie électrique. Cependant, ces modèles présentent des limitations car ils dépendent du matériau étudié et de ses propriétés physiques et se restreignent souvent à un ou deux facteurs de stress, sans intégrer les interactions pouvant exister entre ces facteurs. Cette thèse présente une nouvelle méthodologie pour la modélisation de la durée de vie des composants du génie électrique. Cette méthodologie est générale ; elle s’applique à différents composants sans a priori sur leurs propriétés physiques. Les modèles développés sont des modèles statistiques estimés sur la base de données expérimentales issues de tests de vieillissement accéléré où plusieurs types de stress sont considérés. Les modèles visent alors à étudier les effets des différents facteurs de stress ainsi que de leurs différentes interactions. Le nombre et la configuration des tests de vieillissement nécessaires à construire les modèles (bases d’apprentissage) sont optimisés de façon à minimiser le coût expérimental tout en maximisant la précision des modèles. Des points expérimentaux supplémentaires aléatoirement configurés sont réalisés pour valider les modèles (bases de test). Deux catégories de composants sont testées : deux types d’isolants couramment utilisés dans les machines électriques et des sources de lumière OLED. Différentes formes des modèles de durée de vie sont présentées : les modèles paramétriques, non paramétriques et les modèles hybrides. Tous les modèles développés sont évalués à l’aide de différents outils statistiques permettant, d’une part, d’étudier la pertinence des modèles et d’autre part, d’évaluer leur prédictibilité sur les points des bases de test. Les modèles paramétriques permettent de quantifier les effets des facteurs et de leurs interactions sur la durée de vie à partir d’une expression analytique prédéfinie. Un test statistique permet ensuite d’évaluer la significativité de chacun des paramètres inclus dans le modèle. Ces modèles sont caractérisés par une bonne qualité de prédiction sur leurs bases de test. La relation entre la durée de vie et les contraintes est également modélisée par les arbres de régression comme méthode alternative aux modèles paramétriques. Les arbres de régression sont des modèles non paramétriques qui permettent de classifier graphiquement les points expérimentaux en différentes zones dans lesquelles les contraintes sont hiérarchisées selon leurs effets sur la durée de vie. Ainsi, une relation simple, graphique, et directe entre la durée de vie et les contraintes est obtenue. Cependant, à la différence des modèles paramétriques continus sur le domaine expérimental étudié, les arbres de régression sont constants par morceaux, ce qui dégrade leur qualité de prédiction sur la base de test. Pour remédier à cet inconvénient, une troisième approche consiste à attribuer un modèle linéaire à chacune des zones identifiées avec les arbres de régression. Le modèle résultant, dit modèle hybride, est donc linéaire par morceaux et permet alors de raffiner les modèles paramétriques en évaluant les effets des facteurs dans chacune des zones tout en améliorant la qualité de prédiction des arbres de régression

    L'identité algébrique d'une pratique portée par la discussion sur l'équation à l'aide de laquelle on détermine les inégalités séculaires des planètes (1766-1874).

    Get PDF
    Il s'agit d'une version pré publication antérieure de plusieurs mois à la version publiée (référence jointe). Les commentaires du comité de lecture et le travail d'édition ont amené une évolution importante du contenu de cet article dans la version finale. Se reporter à la version publiée.International audienceWhat did "algebra" mean before the development of the algebraic theories of the 20th century ? This paper stresses the identities taken by the algebraic practices developped during the century long discussion around the equation around the equation of secular inequalities (1766- 1874). In 1874, a strong controversy on the theory of bilinear and quadratic forms opposed Camille Jordan and Leopold Kronecker. The arithmetical ideal of Kronecker faced Jordan's claim for the simplicity of his algebraic canonical form. As the controversy combined mathematical and historical arguments, it gave rise to the writing of a history of the methods used by Lagrange, Laplace and Weierstrass in a century long mathematical discussion around the "equation of secular inequalities".Cet article questionne l'identité algébrique d'une pratique propre à un corpus de textes publiés sur une période antérieure à l'élaboration des théories algébriques, comme la théorie des matrices ou, plus généralement, l'algèbre linéaire, qui donneront à cette pratique l'identité d'une méthode de transformation d'un système linéaire par la décomposition de la forme polynomiale de l'équation caractéristique associée. Dans les années 1760-1770, Lagrange élabore une pratique algébrique spécifique à la mathématisation des problèmes mécaniques des petites oscillations de cordes chargées d'un nombre quelconque de masses ou de planètes sur leurs orbites. La spécificité de cette pratique s'affirme par opposition à la méthode des coefficients indéterminés, elle consiste à exprimer les solutions des systèmes linéaires par des factorisations polynomiales d'une équation algébrique particulière, l'équation à l'aide de laquelle on détermine les inégalités séculaires des planètes. Elaborée en un jeu sur les primes et les indices des coefficients des systèmes linéaires, la pratique de Lagrange est à l'origine d'une caractéristique des systèmes issus de la mécanique, la disposition en miroirs des coefficients de systèmes que nous désignons aujourd'hui comme symétriques. Elle est également à l'origine d'une discussion sur la nature des racines de l'équation à l'aide de laquelle on détermine les inégalités séculaires qui se développera sur plus d'un siècle. Nous questionnerons l'identité algébrique de cette discussion en étudiant les héritages, permanences et évolutions de la pratique élaborée par Lagrange aux seins de différentes méthodes élaborées dans des cadres théoriques différents par des auteurs comme Laplace, Cauchy, Weierstrass, Jordan et Kronecker. Nous verrons que, préalablement à l'élaboration d'une théorie des formes dont la nature, algébrique ou arithmétique, suscitera une vive controverse entre Jordan et Kronecker en 1874, le caractère algébrique de la discussion renvoie davantage à l'identité historique d'un corpus cohérent qu'à une identité théorique et s'avère indissociable d'une constante revendication de généralité. Entre 1766 et 1874, la discussion sur l'équation à l'aide de laquelle on détermine les inégalités séculaires permet de mettre en évidence différentes représentations associées à une même pratique algébrique ainsi que des évolutions dans les philosophies internes portées par les auteurs du corpus sur la généralité de l'algèbre

    Etude d'un procédé d'élimination de résine époxy par pyrolyse applicable au désenrobage de combustibles nucléaires

    Get PDF
    Cette étude s’inscrit dans le cadre de la mise au point d'un procédé de traitement thermique d’échantillons de combustibles nucléaires irradiés enrobés dans de la résine époxy. Ces combustibles doivent être séparés de la résine avant entreposage afin d’éviter la formation de gaz par radiolyse. Pour garantir la sûreté et l’universalité du procédé d’élimination de la résine époxy, un traitement de pyrolyse sous argon est proposé. L’enjeu majeur de ce traitement est d'atteindre des teneurs finales en hydrogène dans le résidu les plus faibles possibles tout en conservant l'intégrité du combustible afin d’éviter le relâchement des produits de fission et le foisonnement du matériau. Une méthodologie générale est proposée afin d’approfondir la compréhension des phénomènes physico-chimiques intervenant lors de pyrolyse de la résine époxy et d’acquérir les données nécessaires pour le développement du procédé. Cette méthodologie repose sur différents outils et méthodes expérimentaux et numériques. Au cœur du dispositif expérimental se trouve un four pilote dans lequel sont réalisés les essais de pyrolyse. A ce four pilote est couplée une baie de filtration afin de récupérer les produits de pyrolyse et les analyser. Les gaz permanents sont analysés avec les colonnes de chromatographie en phase gaz. Pour quelques essais du four, un dispositif d’IRTF a été couplé afin d’ajouter une information sur les composés plus lourds et nitrés des gaz de pyrolyse. La résine, les goudrons et les résidus solides sont caractérisés par analyse élémentaire C, H, O, N. Les mesures des compositions CHON et des masses permettent d’établir, après réconciliation de données, un bilan matière précis, de définir des molécules modèles pour les goudrons et le résidu solide, sous la forme CxHyOzNw, et de déterminer les coefficients stoechiométriques i de la réaction globale de pyrolyse. Les pourcentages massiques des produits obtenus à 450 °C sont les suivants : 78,74% de goudrons, 5,82% d’eau, 12,84% de résidu solide et 2,60% de gaz permanents. Les études paramétriques réalisées vis-à-vis du taux de résidu et de sa teneur en hydrogène ont mis en évidence que les paramètres prédominants sont, par ordre d’importance : la température, le temps de palier et la vitesse de chauffe. L'influence du débit d'argon et de la masse de résine initiale est négligeable. Pour aller plus loin dans la caractérisation des produits, des analyses par spectroscopie RMN ont été appliquées au résidu solide pour identifier les évolutions de la structure moléculaire du polymère en fonction de la température. Les analyses des goudrons par la TD-GC/MS révèlent quatre composés principaux : le dodécanol, le tetradécanol, le phénol et le 4-isopropylphénol. L’ensemble des résultats tant quantitatifs que qualitatifs constitue une aide à la définition des conditions d’élimination de la résine époxy par pyrolyse afin d’atteindre les objectifs en termes de taux d’hydrogène dans le résidu tout en respectant les contraintes de sécurité

    Application de la validation de données dynamiques au suivi de performance d'un procédé

    Full text link
    La qualité des mesures permettant de suivre l'évolution de procédés chimiques ou pétrochimiques peut affecter de manière significative leur conduite. Malheureusement, toute mesure est entachée d'erreur. Les erreurs présentes dans les données mesurées peuvent mener à des dérives significatives dans la conduite du procédé, ce qui peut avoir des effets néfastes sur la sécurité du procédé ou son rendement. La validation de données est une tâche très importante car elle transforme l'ensemble des données disponibles en un jeu cohérent de valeurs définissant l'état du procédé. La validation de données permet de corriger les mesures, d'estimer les valeurs des variables non mesurées et de calculer les incertitudes a posteriori de toutes les variables. À l'échelle industrielle, elle est régulièrement appliquée à des procédés fonctionnant en continu, représentés par des modèles stationnaires. Cependant, pour le suivi de phénomènes transitoires, les algorithmes de validation stationnaires ne sont plus efficaces. L'étude abordée dans le cadre de cette thèse est l'application de la validation de données dynamiques au suivi des performances des procédés chimiques.L'algorithme de validation de données dynamiques développé dans le cadre de cette thèse, est basé sur une résolution simultanée du problème d'optimisation et des équations du modèle. Les équations différentielles sont discrétisées par une méthode des résidus pondérés : les collocations orthogonales. L'utilisation de la méthode des fenêtres de temps mobiles permet de conserver un problème de dimension raisonnable. L'algorithme d'optimisation utilisé est un algorithme « Successive Quadratic Programming » à point intérieur. L'algorithme de validation de données dynamiques développé a permis la réduction de l'incertitude des estimées.Les exemples étudiés sont présentés du plus simple au plus complexe. Les premiers modèles étudiés sont des cuves de stockages interconnectées. Ce type de modèle est composé uniquement de bilans de matière. Les modèles des exemples suivants, des réacteurs chimiques, sont composés des bilans de matière et de chaleur. Le dernier modèle étudié est un ballon de séparation liquide vapeur. Ce dernier est composé de bilans de matière et de chaleur couplés à des phénomènes d'équilibre liquide-vapeur.L'évaluation de la matrice de sensibilité et du calcul des variances a posteriori a été étendue aux procédés représentés par des modèles dynamiques. Son application a été illustrée par plusieurs exemples. La modification des paramètres de fenêtre de validation influence la redondance dans celle-ci et donc le facteur de réduction de variances a posteriori. Les développements proposés dans ce travail offrent donc un critère rationnel de choix de la taille de fenêtre pour les applications de validation de données dynamiques.L'intégration d'estimateurs alternatifs dans l'algorithme permet d'en augmenter la robustesse. En effet, ces derniers permettent l'obtention d'estimées non-biaisées en présence d'erreurs grossières dans les mesures.Organisation de la thèse :La thèse débute par un chapitre introductif présentant le problème, les objectifs de la recherche ainsi que le plan du travail.La première partie de la thèse est consacrée à l'état de l'art et au développement théorique d'une méthode de validation de données dynamiques. Elle est organisée de la manière suivante : -Le premier chapitre est consacré à la validation de données stationnaires. Il débute en montrant le rôle joué par la validation de données dans le contrôle des procédés. Les différents types d'erreurs de mesure et de redondances sont ensuite présentés. Différentes méthodes de résolution de problèmes stationnaires linéaires et non linéaires sont également explicitées. Ce premier chapitre se termine par la description d'une méthode de calcul des variances a posteriori.-Dans le deuxième chapitre, deux catégories des méthodes de validation de données dynamiques sont présentées : les méthodes de filtrage et les méthodes de programmation non-linéaire. Pour chaque type de méthode, les principales formulations trouvées dans la littérature sont exposées avec leurs principaux avantages et inconvénients.-Le troisième chapitre est consacré au développement théorique de l'algorithme de validation de données dynamiques mis au point dans le cadre de cette thèse. Les différents choix stratégiques effectués y sont également présentés. L'algorithme choisi se base sur une formulation du problème d'optimisation comprenant un système d'équations algébro-différentielles. Les équations différentielles sont discrétisées au moyen d'une méthode de collocations orthogonales utilisant les polynômes d'interpolation de Lagrange. Différentes méthodes de représentation des variables d'entrée sont discutées. Afin de réduire les coûts de calcul et de garder un problème d'optimisation résoluble, la méthode des fenêtres de temps mobiles est utilisée. Un algorithme « Interior Point Sucessive Quadratic Programming » est utilisé afin de résoudre de manière simultanée les équations différentielles discrétisées et les équations du modèle. Les dérivées analytiques du gradient de la fonction objectif et du Jacobien des contraintes sont également présentées dans ce chapitre. Pour terminer, un critère de qualité permettant de comparer les différentes variantes de l'algorithme est proposé.-Cette première partie se termine par le développement d'un algorithme original de calcul des variances a posteriori. La méthode développée dans ce chapitre est similaire à la méthode décrite dans le premier chapitre pour les procédés fonctionnant de manière stationnaire. Le développement est réalisé pour les deux représentations des variables d'entrée discutées au chapitre 3. Pour terminer le chapitre, cette méthode de calcul des variances a posteriori est appliquée de manière théorique sur un petit exemple constitué d'une seule équation différentielle et d'une seule équation de liaison.La seconde partie de la thèse est consacrée à l'application de l'algorithme de validation de données dynamiques développé dans la première partie à l'étude de plusieurs cas. Pour chacun des exemples traités, l'influence des paramètres de l'algorithme sur la robustesse, la facilité de convergence et la réduction de l'incertitude des estimées est examinée. La capacité de l'algorithme à réduire l'incertitude des estimées est évaluée au moyen du taux de réduction d'erreur et du facteur de réduction des variances.-Le premier chapitre de cette deuxième partie est consacré à l'étude d'une ou plusieurs cuves de stockage à niveau variable, avec ou sans recyclage de fluide. Ce premier cas comporte uniquement des bilans de matière.- Le chapitre 6 examine le cas d'un réacteur à cuve agitée avec échange de chaleur. L'exemple traité dans ce chapitre est donc constitué de bilans de matière et d'énergie.-L'étude d'un ballon flash au chapitre 7 permet de prendre en compte les équilibres liquide-vapeur.- Le chapitre 8 est consacré aux estimateurs robustes dont la performance est comparée pour les exemples étudiés aux chapitres 5 et 6.La thèse se termine par un chapitre consacré à la présentation des conclusions et de quelques perspectives futures

    Optimisation multidisciplinaire sous incertitude en phase conceptuelle avion

    Get PDF
    Ces travaux de recherche concernent l'optimisation multidisciplinaire déployée lors de la conception de systèmes complexes. Ils sont tout particulièrement centrés sur la conception avion. À ce stade de la conception les incertitudes engendrées sont significatives. De nouvelles méthodes efficaces de modélisation et de propagation des incertitudes sont donc proposées afin de concevoir un système fiable et robuste. Elles font appel à des techniques de modélisation adaptatives, à des algorithmes d'optimisation classiques et à des techniques basées sur l'intelligence artificielle (systèmes multi-agent).These researches concern multidisciplinary optimization deployed in the design of complex systems. They are particularly focused on aircraft design. At this stage of the design, the uncertainties are significant. Effective new methods of modeling and uncertainty propagation are proposed to develop a reliable and robust system. They use techniques of adaptive modeling, optimization algorithms and classical techniques based on artificial intelligence (multi-agent systems)

    Méthodes de séparation aveugle de sources pour l'imagerie hyperspectrale : application à la télédétection urbaine et à l'astrophysique

    Get PDF
    Au cours de cette thèse nous avons développé des méthodes de Séparation Aveugle de Sources (SAS) pour des images hyperspectrales, dans le cadre de deux champs d'application : la télédétection urbaine et l'astrophysique. Dans la première partie de la thèse nous nous sommes intéressés au démélange hyperspectral pour des images urbaines, le but étant de retrouver d'une manière non supervisée les matériaux présents sur la scène en extrayant leurs spectres et leurs proportions. La plupart des méthodes de la littérature sont basées sur un modèle linéaire, qui n'est pas valide en milieu urbain à cause des structures 3D. Une première étape a donc été d'établir un modèle de mélange adapté aux milieux urbains, en partant d'équations physiques basées sur la théorie du transfert radiatif. Le modèle final de forme linéaire quadratique invariant spectralement, ainsi que les possibles hypothèses sur les coefficients de mélange, sont justifiés par les résultats obtenus sur des images simulées réalistes. Nous avons ensuite proposé, pour le démélange, des méthodes de SAS fondées sur la FMN (Factorisation en Matrices Non-négatives). Ces méthodes sont basées sur un calcul de gradient qui tient compte des termes quadratiques. La première méthode utilise un algorithme de gradient à pas fixe, à partir de laquelle une version de Newton a aussi été proposée. La dernière méthode est un algorithme FMN multiplicatif. Les méthodes proposées donnent de meilleures performances qu'une méthode linéaire de la littérature. En astrophysique nous avons développé des méthodes de SAS pour des images de champs denses d'étoiles du spectro-imageur MUSE. A cause de la PSF (Point Spread Function), les informations contenues dans les pixels peuvent résulter des contributions de plusieurs étoiles. C'est là que réside l'intérêt de la SAS : extraire, à partir de ces signaux qui sont des mélanges, les spectres des étoiles qui sont donc nos "sources". Le modèle de mélange est linéaire non invariant spectralement. Nous avons proposé une méthode de SAS basée sur la positivité des données. Cette approche exploite le modèle paramétrique de la FSF (Field Spread Function) de MUSE. La méthode mise en place est itérative et alterne l'estimation des spectres par moindres carrés (avec contraintes de positivité) et estimation des paramètres de la FSF par un algorithme de gradient projeté. La méthode proposée donne de bonnes performances sur des images simulées de MUSE.In this work, we developed Blind Source Separation methods (BSS) for hyperspectral images, concerning two applications : urban remote sensing and astrophysics. The first part of this work concerned spectral unmixing for urban images, with the aim of finding, by an unsupervised method, the materials present in the scene, by extracting their spectra and their proportions. Most existing methods rely on a linear model, which is not valid in urban environments because of 3D structures. Therefore, the first step was to derive a mixing model adapted to urban environments, starting from physical equations based on radiative transfer theory. The derived linear-quadratic model, and possible hypotheses on the mixing coefficients, are justified by results obtained with simulated realistic images. We then proposed, for the unmixing, BSS methods based on NMF (Non-negative Matrix Factorization). These methods are based on gradient computation taking into account the quadratic terms.The first method uses a gradient descent algorithm with a constant step, from which we then derived a Newton version. The last proposed method is a multiplicative NMF algorithm. These methods give better performance than a linear method from the literature. Concerning astrophysics, we developed BSS methods for dense field images of the MUSE instrument. Due to the PSF (Point Spread Function) effect, information contained in the pixels can result from contributions of many stars. Hence, there is a need for BSS, to extract from these signals that are mixtures, the star spectra which are our "sources". The mixing model is linear but spectrally non-invariant. We proposed a BSS method based on positivity. This approach uses the parametric model of MUSE FSF (Field Spread Function). The implemented method is iterative and alternates spectra estimation using least squares (with positivity constraint) and FSF parameter estimation by a projected gradient descent algorithm. The proposed method yields good performance with simulated MUSE images
    • …
    corecore