4,078 research outputs found

    Méthodologie d'analyse détaillée de la contamination par tronçon du fleuve Saint-Laurent par modélisation numérique : le cas du lac Saint-Pierre

    Get PDF
    Dans le cadre du Plan d'Action Saint-Laurent, une méthodologie détaillée d'analyse de la contamination par tronçon faisant appel à la modélisation numérique a été développée. Une méthode de simulation utilisant le mouvement aléatoire de particules a servi à élaborer le logiciel PANACHE. Les concentrations sont obtenues en post-traitement en attribuant une masse de contaminant aux particules du modèle. Les champs de vitesses servant à calculer leurs mouvements sont produits à l'aide d'un modèle bidimensionnel aux éléments finis. Une nouvelle approche pour l'analyse de la contamination est proposée. Celle-ci s'inspire de la méthodologie de modélisation des micro-habitats populaire dans le domaine de l'hydrobiologie. Le résultat apparaît sous la forme d'Aires Pondérées Inutilisables (API), c'est-à-dire, des surfaces où certains critères de qualité de l'eau ne sont pas respectés dans les zones de mélange. Ce système Informatisé a été élaboré sur une plate-forme INTEL/386-486 - OS2/PM.ContextThe St-Lawrence Center, part of Environment Canada, undertook a few years ago the very ambitious project of studying the toxic contamination of the St-Lawrence River. In collaboration with the Institut National de la Recherche Scientifique - Eau, a sub-project based on numerical modeling was defined in order to analyze contaminant propagation from industrial and municipal effluents into the river system.GoalsThe specific goals of the project were the following :1) to provide a precise quantification of contaminant concentrations in the effluent plume al a convenient scale;2) to analyze areas influenced by main tributaries and different water masses entering the river reach;3) to map and quantify areas as compared to water quality criteria ;4) to provide a method to select relevant hydrological events as a significant part of the analysis frameworkMethodologySome basic choices were made at the beginning of the project :1) the analysis framework emphasis the instream water quality instead of the effluent water quality;2) numerical modelling was the main tool used to evaluate the water quality;3) as far as possible references to public regulations were incorporated;4) a strong complementarity of different computer tools was favoured : Geographical Information Systems, Database management systems, simulation models;5) the numerical solution method for the transport diffusion model is typically Lagrangian : the Random Walk Method;6) the contamination analysis uses the so-called « Weighted Unusable Area » method to quantify areas that do not respect some water quality criteria.A typical contamination analysis project based on numerical modelling includes the following steps (fig 2) :1) a preliminary study to determine the main characteristics of the problem and to choose the best strategy to analyze it;2) field measurements essential to the calibration and validation of the computer model;3) hydrodynamic modelling provides the basic data on the flow field; this step includes the calibration and the validation of the model, as well as the prediction of the flow fields corresponding to well-defined and contamination relevant hydrological events;4) hydrological analysis identifies the relevant flow events chat will further be used in the mode) prediction ; this approach allows standardization of this very important input data set and avoids arbitrary choices of flow field;5) transport-diffusion modelling constitutes the main step; it provides the chemical species concentrations downstream from the effluent discharge and affords an estimate of the overall water quality of the reach, as influenced by the main tributaries. This step includes the calibration and the validation of the model which precedes the prediction exercise;6) contamination analysis necessitates the choice of appropriate and relevant water quality criteria ; we propose a new approach, inspired by the Instream Flow Incremental Methodology often used to define the quality and availability of fish habitat in river reaches, to implement this step.Numerical methodsAs previously mentioned, the project included the development of a Lagrangian model to simulate the transport of solutes in a two-dimensional steady-state river flow. We will emphasize this point. The main objective of the software development was to provide an efficient and user-friendly management tool for the public agencies. Many analytical test cases helped in the choice of the best numerical algorithms, non-physical related parameters, and in the validation of the computer code. Furthermore, the results of two dye tracing experiments performed in conjunction with airborne remote sensing techniques provided data to validate the model on the St-Lawrence River (fig. 5, 6, land 8 illustrate different simulation results corresponding to the different tasks mentioned previously). In the next paragraphs, we will summerize the basic mathematical and numerical concepts implemented in the simulations.To simulate solute transport in water media (porous or free surface), one usually uses eulerian methods which lead directly to concentration values. The solution algorithm presented here is rather based on a Lagrangian method which offers an explicit control over the additional numerical diffusion associated with every discretization method. This approach, also called the Random Walk Method (illustrated in fig. 3), or Particle Tracking Method, is more and more often used to solve hyperbolic equations. So far, the literature does not provide many applications of this method to solute transport in free surface flow. Oil spin modeling is a domain where many applications have been reported.The propagation of solute matter in free surface flow is mathematically described with momentum, mass and solute conservation equations. Since the Random Walk solution method of the transport-diffusion equation (equ. 1) requires hydrodynamic data to calculate the mean transport on streamlines along with dispersion, independent simulations providing the necessary flow field data (velocities, diffusivities, depths) have to be performed before undertaking the transport-diffusion tasks. For this purpose, the Navier-Stokes shallow water equations have become a well known tool to represent flow field in shallow waters. However, one should be aware of some often neglected but important aspects of such models, such as moving boundaries and turbulence closure. Solution techniquesTwo main goals were kept in mind during the implementation of the various algorithms : precision of results and fast computation. The following choices were made to achieve these objectives :1) A finite element discretization and solution method provides and carries hydrodynamic Information, but particles are tracked on a finite-difference grid (mixed discretization principle).2) The convective component of the movement is realized by moving the grid instead of the particles (shifted grid principle).3) Computation of concentrations optimizes smoothing while minimizing artificial diffusion (controlled effusive smoothing principle).4) When a section of the plume is described in a steady state « regime », it is mot necessary to continue the simulation on that section to proceed downstream ; the simulation is divided in almost independent sections (convolution principle).5) The particles have an a priori nondimensional weight and a unit concentration is calculated from these (unit plume principle).6) The real concentration is linearly dependent on the pollutant loads introduced into the milieu (linearity principle).The Weighted Unusable Area MethodThe Weighted Unusable Area method provides a convenient means to compare effluent plume water quality to water quality criteria as well as to quantify areas that do not comply to them. A comparable method is widely used to define the quality and availability of fish habitat downstream from regulation reservoirs, with the purpose of establishing minimum guaranteed flow discharge to protect target species (the Instream Flow Incremental Methodology : IFIM). The method consists essentially of computing areas within the analysis domain weighted by a certain factor that represents the exceedence of certain water quality, criteria. Among different options to define the weighting factor, all incorporating the effective contaminant concentration, we defined the following :1) the ratio of the concentration to the water quality criterion without consideration of exceedence or compliance;2) weighting factor equal to 1 only if the concentration exceeds the criterion (non-compliance);3) option #1, but using the concentration results corresponding only to the effluent plumes excluding the ambient water quality of the reach ; this emphasizes individual corporate responsibility (proposed for implementation);4) option 11, but with the ratio increased by a power « n », a procedure that emphasizes the non-linear increase of toxicity related to the exceedence of the criterion (could be useful for academic purposes).We also propose a Global Weighted Unusable Area concept to combine all the different chemical species present in an effluent plume. The combination is made possible using the specific criterion corresponding to each species. This procedure leads to a new state variable that represents Contamination Standard Units

    Couplage par composants logiciels de codes d'hydrogéologie

    Get PDF
    National audienceNotre objectif est d'étudier la modélisation de phénomènes couplés et leur mise en oeuvre sur une grille de calcul, en développant quatre applications. Les deux premiers couplages sont de type physico-chimique et physico-physique (couplage algébrique d'équations). Ils sont appliqués respectivement à la contamination d'aquifères et à l'intrusion d'eau salée. Les deux autres couplages sont géométriques de type multidomaines ou multi-échelles et sont appliqués au stockage profond de déchets radioactifs, d'une part dans un milieu peu fracturé, d'autre part dans un réseau de fractures.Nous choisissons une approche par composants logiciels, qui permet d'encapsuler chaque code modélisant un phénomène physique. Les interfaces des composants permettent d'eectuer les échanges de données nécessaires au couplage numérique.L'exécutif PadicoTM garantit un calcul à haute performances sur une grille de calcul avec différents types de réseaux, grâce notamment à un modèle de composants parallèles, qui permet de passer à l'échelle

    Simulation numérique d'écoulement autour d'une vanne papillon: travail de bachelor : diplôme 2016

    Get PDF
    L’objectif de ce projet est de prédire les caractéristiques d’une vanne papillon, organe de sécurité dans les installations hydroélectriques. Afin d’évaluer le couple exercé sur la vanne ainsi que son coefficient de perte de charge en fonction de son ouverture, des simulations numériques stationnaire de l’écoulement turbulent ont été réalisées et les résultats obtenus ont été comparés à des valeurs empiriques. Ce projet s’inscrit dans le domaine de la mécanique des fluides, qui étudie le comportement des liquides et des gaz. C’est un domaine d’étude très varié permettant, par exemple, de comprendre l’effet de portance de l’air sur une aile d’avion (aérodynamique), de prévoir l’évolution du climat (météorologie), ou encore de dimensionner des infrastructures pour des stations hydroélectriques

    Les Principes de base de la modélisation des procédés de Mise en Forme des Polymères

    No full text
    National audienceDans le passé, le développement de nouveaux polymères était motivé par de nouvelles propriétés ou par des propriétés améliorées que l'on recherchait. On stipulait que les procédés de Mise en Forme s'adapteraient via quelques ajustements réalisés par une démarche d'essais-erreurs. Cela a fonctionné dans un certain nombre de cas, mais dans d'autres, on a découvert rapidement que ces nouveaux polymères, aux propriétés " merveilleuses " étaient très difficiles à mettre en oeuvre, soit parce que les pressions ou les couples nécessaires étaient incompatibles avec les machines de mise en oeuvre existantes, soit parce qu'ils présentaient des instabilités d'écoulement ou d'étirage à des vitesses de production incompatibles avec leur rentabilité économique. On se souvient à cet égard du développement des premiers Polyéthylènes metallocènes qui présentaient des défauts d'extrusion à des taux de cisaillement de l'ordre de quelques s-1. Plus récemment, les producteurs de polymères ont intégré le procédé dans le développement de leurs nouveaux matériaux en utilisant dés les premiers stades de leur développement des mini-machines de transformation (extrudeuses ou presses à injecter) qui permettent de discerner d'éventuels problèmes de mise en oeuvre avec quelques centaines de grammes de polymère. Malheureusement l'extrapolation à des machines de taille industrielle s'est révélée parfois hasardeuse , en particulier du fait que la " mise à l'échelle " n'obéit pas à la même homothétie selon que l'on considère les phénomènes mécaniques ou thermiques. C'est la raison pour laquelle la modélisation numérique, utilisée essentiellement dans le domaine de la conception des moules d'injection il y a une vingtaine d'années, pénètre aujourd'hui les différents secteurs de la plasturgie. Mais cela n'a un sens que dans la mesure ou les modèles numériques développés sont basés sur une analyse physique pertinente des phénomènes rencontrés dans une machine ou un outillage de mise en oeuvre. L'ambition de cet article est de donner quelques règles qui permettent d'adapter le modèle aux contraintes du procédé de mise en oeuvre et aux questions auxquelles on souhaite apporter une réponse, avant de les illustrer sur quelques exemples. Mais, tout d'abord, nous dressons un " état de l'art " rapide des procédés

    Recherche d'un hydrogramme standard

    Get PDF

    Génèse des débits dans les petits bassins versants ruraux en milieu tempéré : 2 - Modélisation systémique et dynamique

    Get PDF
    La deuxième partie de cette synthèse bibliographique sur la genèse des débits montre comment les connaissances acquises sur le fonctionnement des petits bassins ruraux (cf. Partie 1) peuvent être utilisées pour les modéliser. Elle présente les différents types de modèles hydrologiques (empiriques globaux de type "boîte noire", conceptuels globaux ou semi-spatialisés, physiques spatialisés, physico-conceptuels semi-spatialisés) disponibles pour générer des chroniques événementielles ou continues, et déduit de l'analyse de leurs avantages et limites respectifs certaines recommandations pour leur choix et leur usage. Elle indique ensuite différents problèmes rencontrés dans toute modélisation, et quelques pistes possibles pour les résoudre: incorporation des flux couplés à l'eau dans les modèles hydrologiques, erreurs liées à la structure du modèle (limites et simplifications théoriques, approximations numériques, discrétisations temporelle et spatiale), problèmes métrologiques et méthodologiques limitant la disponibilité des données, hétérogénéités à toutes les échelles limitant l'adéquation des données pour paramétrer les modèles, calage du modèle limitant son aptitude à simuler des scénarios de changement. Elle souligne la nécessité d'une validation multicritère des modèles et d'une estimation de l'incertitude sur les simulations générée par ces diverses sources d'erreurs, ainsi que le besoin d'une meilleure interaction entre expérimentation de terrain et modélisation.The second part of this review on streamflow generation analyses how the knowledge available from field studies (see Part 1) has been used since the 1960s or could be used to improve catchment modelling. After a presentation of the main model types, the various problems encountered during the modelling process are discussed.The large variety of hydrologic models available for event or continuous simulation can be reduced to a few main types according to the ways the functional, spatial and temporal aspects of the catchment behaviour are represented. Lumped "blackbox" models are useful for many engineering problems but can not be used in "extrapolation" and give no information on the internal catchment dynamics. Lumped conceptual models, which consider a catchment as a system of interconnected reservoirs and simulate the main global fluxes, use empirical lumped relationships and parameters that often have no great physical meaning and are not measurable. Semi-distributed conceptual models use the same reservoir description, but at the scale of "homogeneous" units derived from a space discretisation, which allows one to take catchment structure explicitly into account. Physically-based distributed models, which use theoretical equations and measurable parameters, provide a dynamic explanation of catchment behaviour but require too much information and are too complex to be easily used at the catchment scale. Physico-conceptual semi-distributed models try to overcome the limits of the previous types, while keeping their advantages, by simplifying the dynamic approach and discretization using new concepts.Physically-based or conceptual models, which describe or explain the water cycle at the catchment scale, are very useful for research, but their use in practical applications comes up against several problems. It is still difficult to incorporate into catchment models the water-coupled fluxes (energy, sediments, solutes, biomass) because of the poorly-known complexity of their interactions. Even sophisticated models are based on many approximations of the reality: lack of suitable theory for some processes, simplification of the theories available, numerical approximation, space and time discretisation all generate simulation errors related to the chosen model structure. Data availability is limited by measurement problems (differences in measurement scale, lack of appropriate measurement techniques), and methodological problems (sampling and interpolation procedures, ...), even though remote sensing is expected to help solve some of them. Data suitability is limited by space and time heterogeneity at all scales, which reduces the representativity of any measurement and complicates the parameterization and upscaling needed. Model calibration (either manual, automatic, or stochastic), which leads to the numerical equifinality of both model parameterization and structure, limits the validity domain of the model, its transposability to other conditions and catchments, and its ability to simulate change scenarios. The effects of these limitations on model quality could be reduced by using multivariable and multiscale validation procedures and should be quantified using stochastic estimation of the simulation uncertainties associated with model and data uncertainties. In order to further progress in catchment modelling, as needed by a large range of environmental issues, field hydrologists and modelers should reinforce their co-operation, especially through interdisciplinary studies on long-term research catchments and carefully designed field experiments

    Application de la méthode LSPIV pour la mesure de champs de vitesse et de débits de crue sur modèle réduit et en rivière

    Get PDF
    International audienceLSPIV technique enables the measurement of surface flow velocities using image sequence analysis. EDF and Irstea partnership made possible the development of Fudaa‑LSPIV freeware by DeltaCAD Company. Two software applications at flume and field scales are detailed: (i) bed shear stresses were calculated owing to LSPIV velocities, water depth and bathymetry for a physical model of the Old Rhine; (ii) the software was used to optimize the calculation parameters of LSPIV flood discharge measurement stations in Mediterranean rivers.La technique LSPIV (Large Scale Particle Image Velocimetry) permet de mesurer les vitesses de surface d'un écoulement par analyse de séquence d'images. Pour faciliter l'application opérationnelle de la méthode, un logiciel, Fudaa-LSPIV, a été développé par la société DeltaCAD dans le cadre d'une collaboration entre EDF et Irstea. Deux applications en laboratoire et en rivière sont présentées : (i) couplée avec des mesures de hauteur d'eau et de bathymétries, la LSPIV a permis d'estimer des paramètres de Shields sur le modèle physique à fond mobile du Vieux-Rhin ; (ii) le logiciel a été utilisé pour procéder à des analyses de sensibilité pour paramétrer ainsi au mieux les stations LSPIV de mesure de débit en crue de rivières cévenoles

    Une approche unifiée pour la modélisation d'écoulements à surface libre, de leur effet érosif sur une structure et de leur interaction avec divers constituants

    Full text link
    La thèse constitue une juxtaposition de plusieurs contributions originales à l’élaboration et l’analyse de modèles numériques capables de décrire une vaste gamme d’écoulements à surface libre ainsi que les phénomènes de transport associés. Deux axes principaux sous-tendent les recherches entreprises. Il s’agit, d’une part, d’une contribution à l’étude de modèles visant à reproduire adéquatement les interactions du fluide avec divers constituants transportés, tels que de l’air entraîné, un polluant ou des sédiments. Cette phase du travail inclut également la caractérisation et la prédiction du comportement de l’écoulement en présence d’une topographie mobile ou érodable, y compris dans le cas d’un barrage en remblai subissant une surverse. D’autre part, partant du constat qu’une modélisation fidèle des processus de transport, notamment hydrosédimentaires, passe inévitablement par un raffinement du calcul hydrodynamique proprement dit, une partie des travaux effectués dans le cadre de cette thèse est spécifiquement orientée vers un enrichissement de la connaissance des champs hydrodynamiques au sein du modèle
    • …
    corecore