4 research outputs found

    La décomposition en polynôme du chaos pour l'amélioration de l'assimilation de données ensembliste en hydraulique fluviale

    Get PDF
    Ce travail porte sur la construction d'un modèle réduit en hydraulique fluviale avec une méthode de décomposition en polynôme du chaos. Ce modèle réduit remplace le modèle direct afin de réduire le coût de calcul lié aux méthodes ensemblistes en quantification d'incertitudes et assimilation de données. Le contexte de l'étude est la prévision des crues et la gestion de la ressource en eau. Ce manuscrit est composé de cinq parties, chacune divisée en chapitres. La première partie présente un état de l'art des travaux en quantification des incertitudes et en assimilation de données dans le domaine de l'hydraulique ainsi que les objectifs de la thèse. On présente le cadre de la prévision des crues, ses enjeux et les outils dont on dispose pour prévoir la dynamique des rivières. On présente notamment la future mission SWOT qui a pour but de mesurer les hauteurs d'eau dans les rivières avec un couverture globale à haute résolution. On précise notamment l'apport de ces mesures et leur complémentarité avec les mesures in-situ. La deuxième partie présente les équations de Saint-Venant, qui décrivent les écoulements dans les rivières, ainsi qu'une discrétisation numérique de ces équations, telle qu'implémentée dans le logiciel Mascaret-1D. Le dernier chapitre de cette partie propose des simplifications des équations de Saint-Venant. La troisième partie de ce manuscrit présente les méthodes de quantification et de réduction des incertitudes. On présente notamment le contexte probabiliste de la quantification d'incertitudes et d'analyse de sensibilité. On propose ensuite de réduire la dimension d'un problème stochastique quand on traite de champs aléatoires. Les méthodes de décomposition en polynômes du chaos sont ensuite présentées. Cette partie dédiée à la méthodologie s'achève par un chapitre consacré à l'assimilation de données ensemblistes et à l'utilisation des modèles réduits dans ce cadre. La quatrième partie de ce manuscrit est dédiée aux résultats. On commence par identifier les sources d'incertitudes en hydraulique que l'on s'attache à quantifier et réduire par la suite. Un article en cours de révision détaille la validation d'un modèle réduit pour les équations de Saint-Venant en régime stationnaire lorsque l'incertitude est majoritairement portée par les coefficients de frottement et le débit à l'amont. On montre que les moments statistiques, la densité de probabilité et la matrice de covariances spatiales pour la hauteur d'eau sont efficacement et précisément estimés à l'aide du modèle réduit dont la construction ne nécessite que quelques dizaines d'intégrations du modèle direct. On met à profit l'utilisation du modèle réduit pour réduire le coût de calcul du filtre de Kalman d'Ensemble dans le cadre d'un exercice d'assimilation de données synthétiques de type SWOT. On s'intéresse précisément à la représentation spatiale de la donnée telle que vue par SWOT: couverture globale du réseau, moyennage spatial entre les pixels observés. On montre notamment qu'à budget de calcul donné les résultats de l'analyse d'assimilation de données qui repose sur l'utilisation du modèle réduit sont meilleurs que ceux obtenus avec le filtre classique. On s'intéresse enfin à la construction du modèle réduit en régime instationnaire. On suppose ici que l'incertitude est liée aux coefficients de frottement. Il s'agit à présent de juger de la nécessité du recalcul des coefficients polynomiaux au fil du temps et des cycles d'assimilation de données. Pour ce travail seul des données in-situ ont été considérées. On suppose dans un deuxième temps que l'incertitude est portée par le débit en amont du réseau, qui est un vecteur temporel. On procède à une décomposition de type Karhunen-Loève pour réduire la taille de l'espace incertain aux trois premiers modes. Nous sommes ainsi en mesure de mener à bien un exercice d'assimilation de données. Pour finir, les conclusions et les perspectives de ce travail sont présentées en cinquième partie

    Analyse de l'exposition aux ondes électromagnétiques des enfants dans le cadre des nouveaux usages et nouveaux réseaux

    Get PDF
    Dans un contexte d'évolution incessante des moyens de communications sans fil, les inquiétudes perdurent malgré les législations existantes. L'accroissement d'usages divers et variés des téléphones mobiles impliquent des questionnements sur l'exposition induite par ces nouveaux usages. Ce manuscrit permet d'enrichir les connaissances en dosimétrie numérique en prenant en considération la variabilité des conditions d'utilisation. Pour une évaluation précise de l'exposition, la méthode des Différences Finies dans le Domaine Temporel (FDTD) qui a prouvé son efficacité, est employée. L'objectif est de quantifier précisément le Débit d'Absorption Spécifique (DAS) induit dans des organes comme le cerveau et les organes reproducteurs. Dans cette analyse, une attention particulière sera portée sur les usages potentiels des téléphones portables par les enfants. Le choix des configurations couvre différentes technologies, usages et bandes de fréquences permettant d'étudier la sensibilité du DAS à la variabilité de ces paramètres, pour une meilleure maîtrise de l'exposition réelle, au-delà du problème de la conformité. Le nombre important des variables oblige à simplifier les modèles de simulation par la construction de méta-modèles statistiques afin de réduire les coûts de calcul. La méthode spectrale par Chaos Polynomial (CP) dédiée à la gestion des incertitudes et à l'analyse de sensibilité est adoptée pour la mise en place d'un modèle approché du DAS. Afin d'aboutir à une représentation par CP fiable et peu coûteuse en termes de simulations, l'utilisation par CP creux et adaptatif est appliquée. Seuls les termes les plus significatifs sont retenus dans la décomposition par CP. Cette approche est appliquée aux problèmes en dosimétrie numérique afin de propager les incertitudes portant sur les paramètres d'entrée dans les simulations et de quantifier l'impact de ces incertitudes sur l'exposition (e.g. impact de la localisation du téléphone sur la dispersion du DAS) avec un faible coût de calculNowadays, wireless communication are being more and more developed, however, concern about their effects persist, despite of existing legislations. Indeed, the increasing use of mobile phone leads to address exposure issues to these devices. The objective of this thesis is to give better insights on numerical dosimetry, based on its configurations' variability. In order to evaluate the real exposure, we employ the well-known Finite-difference time-domain method (FDTD), which has already proven its efficiency. We aim at quantifying precisely the generated Specific absorption rate (SAR) on some human organs such as the brain and reproductive organs. In this work, we particularly focus, among other aspects, on the impact of mobile phones on children. We investigate different configurations involving various technologies, usages and frequency bands, such that we can study the SAR sensitivity to these parameters and, consequently, has the best possible estimate of the actual exposure level, independently of conformity issues. Due to the large number of parameters to be considered to deal with such an analysis, we simplify our simulation model by building statistical meta-models that enable us to reduce the calculation cost. Regarding the SAR modeling, we opt for Polynomial Chaos (PC) spectral methodology to deal with both uncertainty management and sensitivity analysis. To simplify the model and reduce simulation costs, we used parsimonious approximations, which aim to automatically identify the most significant terms in the PC decomposition, by a sparse and adaptive conception. Such approximations are applied to numerical dosimetry problems, where uncertainties are introduced on input parameters of the simulation and their impact is studied at the outputs, using low calculus cost. Using this approach, we analyze for example the position effect of the mobile phone on the SAR dispersionPARIS-EST-Université (770839901) / SudocSudocFranceF

    Recherche de la performance en simulation thermique dynamique : application à la réhabilitation des bâtiments

    Get PDF
    The building sector is evolving and has to meet the current environmental issues in both new construction and rehabilitation. The thermal simulation provides the mean to address this problem, but the estimated performance is limited to a specific set of parameters that have been defined. This thesis proposes a methodology based on the increased computing power to assess the building behaviour on different ranges of the inputs variation. Depending on the properties allocated to them, the changes of the variations will allow to seek solutions to restore or to assess the uncertainty in the outputs of the thermal model. To achieve this, effective sensitivity analysis methods are used across an analysis tool specifically developed for the simulation software EnergyPlus. This tool allows an almost automatic evaluation of the energy model building thanks to the proven sampling techniques such as LHS and LP-Tau; the efficient analysis techniques like RBD-FAST and RBD-SOBOL in order to reduce the number of simulations; an advanced management of the inputs and the outputs for a detailed assessment of the building regardless of its geometry. The sensitivity analysis techniques are used to provide an accurate picture of these key relationships within the model. To meet the constraints of the computational cost, the search for a solution is achieved through a metamodel from a Polynomial Chaos Expansion PCE. A GUI uses the approximation of the complex model of the building to provide instantly a clear vision of the behaviour of each entry on the outputs, their trends and their ideal ranges of variation to choose solutions. It is possible to couple the search for a solution to the uncertainty analysis to provide robust solutions and identify the main reason for the gap between simulation and reality. The methodology of the PhD work promotes the optimization of the model understanding more than looking for a specific solution. The purpose of the approach is to provide analytical tools to assist the expert in the search for a solution and so, develop graphical representations that facilitate the understanding of the building system for a gain in transparency and integration of many design constraints.Le secteur du bâtiment est en évolution et se doit de répondre aux problématiques environnementales actuelles aussi bien dans la construction neuve que dans la réhabilitation. La simulation thermique offre le moyen de répondre à cette problématique, mais se limite à une estimation des performances spécifiques aux paramètres qui ont été définis. Ce travail de thèse propose une méthodologie basée sur les puissances de calcul actuelles pour évaluer le comportement du bâtiment sur différentes plages de variation des entrées. Ces variations permettront, en fonction des propriétés qui leur sont attribuées, de rechercher des solutions de réhabilitation ou d'évaluer l'incertitude sur les sorties du modèle thermique. Afin de réaliser cela, des méthodes d'analyse de sensibilité performantes sont utilisées à travers un outil d'analyse spécifiquement développé pour le logiciel de simulation EnergyPlus. Cet outil permet une évaluation quasi automatique du modèle énergétique de bâtiment via : des techniques d'échantillonnage éprouvées LHS et LP-Tau, des techniques d'analyse performante pour un nombre de simulations réduit RBD-FAST et RBD-SOBOL, une gestion avancée des entrées et sorties permettant une évaluation détaillée du bâtiment, quelle que soit sa géométrie. Les techniques d'analyse de sensibilité sont employées pour proposer une vision précise des principales relations présentes au sein du modèle. Pour répondre à la contrainte du coût de calcul, la recherche de solution est réalisée à travers un méta-modèle issu d'une décomposition en polynôme de chaos. Une interface graphique utilise cette approximation du modèle complexe du bâtiment pour proposer de façon instantanée une vision claire du comportement de chaque entrée sur les sorties, ainsi que leurs tendances et les plages de variation idéales afin de choisir des solutions. Il est possible de coupler la recherche de solution à l'analyse d'incertitude afin de proposer des solutions robustes et identifier les principales raisons d'un écart entre simulation et réalité. La méthodologie des travaux de thèse encourage à l'optimisation de la compréhension du modèle plus qu'à la recherche d'une solution particulière.L'objectif de la démarche est de fournir des outils d'analyse afin d'aider l'expert dans la recherche de solution et ainsi de mettre en place des représentations graphiques qui facilitent la compréhension du système bâtiment, pour un gain en transparence et l'intégration de nombreuses contraintes de projet

    Contribution à la conception préliminaire robuste en ingéniérie de produit.

    Get PDF
    Les travaux présentés dans cette thèse portent sur la conception robuste de produit et plus particulièrement sur la phase de pré-dimensionnement dans le cas où un modèle de dimensionnement et un cahier des charges sont déjà définis. Une approche pour réaliser de l optimisation robuste est proposée pour réduire la dispersion de la fonction objectif du cahier des charges du produit lorsque les paramètres de conception sont sujets aux incertitudes, conserver une bonne performance du produit et assurer une faisabilité des contraintes. Nous proposons ainsi la formulation d un cahier des charges dit robuste transformant la fonction objectif et les contraintes du cahier des charges initial afin d intégrer une notion de robustesse préalablement définie. La seconde contribution est une analyse des méthodes trouvées dans la littérature pour la propagation d incertitudes à travers des modèles de dimensionnement. Les variations des paramètres sont alors modélisées par des dispersions probabilistes. L analyse théorique du fonctionnement de chaque méthode est complétée par des tests permettant d étudier la précision des résultats obtenus et de sélectionner la méthode utilisée par la suite. L approche pour l optimisation robuste de produit proposée dans ce travail est finalement mise en œuvre et testée sur deux études de cas. Elle intègre la méthode de propagation d incertitudes dans une boucle de l algorithme d optimisation de manière à automatiser la recherche d une solution optimale robuste pour le dimensionnement du produit.The work presented in this thesis deals with the robust design of products. Particularly, it focuses on the design process preliminary phase where design models and specifications are already defined. A robust optimization approach is proposed. It aims to: reduce the scattering of the objective function included in the product specifications when the uncertainties reach the design parameters, maintain good performance of the product and ensure the constraints feasibility. We propose a new robust product specification that changes the objective function and the constraints of the initial specification in order to integrate the concept of robustness previously defined. The second contribution is an analysis of methods found in literature to propagate uncertainties across design models. Design parameter variations are modeled by probability distributions. The theoretical analysis of these methods is completed by numerous tests to investigate the accuracy of the results and to select the method used thereafter. The robust product optimization approach proposed in this work is finally implemented and tested on two case studies. It incorporates the propagation of uncertainties within the optimization loop to automate the search of a robust optimal solution for the design product.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF
    corecore