451 research outputs found

    Étude multivariée du collage de poudres pharmaceutiques à échelle industrielle

    Get PDF
    Le collage est l’un des problèmes les plus courants et les plus préjudiciables survenant lors de la fabrication des comprimés. C’est un phénomène qui consiste en l’adhésion de poudres pharmaceutiques sur la surface des outillages de compression. À cause du nombre important de paramètres impliqués dans son occurrence et leurs multiples interactions, l’étude et la compréhension du collage nécessitent une approche intégrative et simultanée où les paramètres interdépendants doivent être étudiés ensemble. La conduite de telles expérimentations simultanées à échelle laboratoire pourrait s’avérer très couteuse. Cependant, une quantité importante de données est générée lors de la production industrielle des comprimés. La présente thèse introduit, évalue et discute une nouvelle approche d’étude du collage basée sur l’analyse des données industrielles. Pour ce faire, deux études de cas furent conduites. La première s’est intéressée à une formulation à base d’ibuprofène où le collage était décrit de façon qualitative. Une centaine de variables prédictives sur 71 lots industriels de cette formulation furent collectées et analysées en utilisant des techniques d’analyse discriminante et nous avons pu en isoler six pour leur rôle dans le collage. En accord avec la littérature, ces six variables confortent le rôle de la lubrification, du contenu en eau des poudres et de la faible température de fusion de l’ibuprofène dans sa propension au collage. La seconde étude de cas a investigué trois fois plus de variables prédictives sur 28 lots industriels d’une formulation différente à base d’ibuprofène et de métocarbamol où le collage était décrit par une variable quantitative liée à sa sévérité. En utilisant la technique de régression sur les moindres carrés partiels, nous avons démontré que l’association de la force de compression et de la durée de granulation permettait d’expliquer 60 % des fluctuations du collage de cette formulation. De façon complémentaire, les résultats de ces deux études de cas font la preuve de concept d’une nouvelle approche d’étude du collage directement à l’échelle industrielle. Comparée à des modèles expérimentaux, celle-ci s’avère moins couteuse, mais surtout plus efficace en permettant l’étude simultanée d’un nombre important de paramètres et en prévenant les problématiques de reproductibilité et de représentativité rencontrées à échelle laboratoire. Cette thèse élabore également sur la méthodologie et des recommandations pratiques à suivre pour un déploiement efficace de cette nouvelle approche prometteuse dans l’étude du collage.Abstract: Sticking is one of the most common and damaging issues that occur during tablet manufacturing. Sticking is the adhesion of powder onto tooling surfaces during compression. Because of the numerous factors involved in its occurrence, understanding tablet sticking requires the simultaneous investigation of these factors to clarify their possible interactions. However, conducting such a study experimentally can present a significant financial and technical burden. Nevertheless, substantial data is usually generated during industrial-scale tablet manufacturing, where sticking is inherently prevalent. This thesis aims to introduce, evaluate, and discuss an industrial data analysis approach to study tablet sticking. This was achieved through two case studies: qualitative and quantitative respectively. The first case study investigates the qualitative sticking descriptor of an ibuprofen-based formulation. A total of 71 industrial lots of this formulation described by a hundred predictor variables were gathered and analyzed using discriminant analysis methods. We have identified six parameters, which in agreement with the literature data, highlight the role of lubrication, water content, and the low melting point of ibuprofen in its sticking tendency. The second case study explored three times more variables on 28 industrial lots of an ibuprofen and methocarbamol-based formulation where sticking severity was described by a quantitative variable. Using a partial least squares regression method, we showed that the association of compression force and granulation duration explains 60% of the sticking fluctuations of the studied formulation. Together, the results of these two case studies demonstrate the proof of concept of a new industrial data analysis approach to tablet sticking. In comparison to experimental models, this is a financially more viable option but also a more efficient approach to the understanding of tablet sticking. It allows simultaneous investigation of an important number of parameters and prevents specific issues encountered at lab scales such as reproducibility and representativity. This thesis also elaborated on the methodology and best practices for an efficient application of this new promising approach to better study, understand, and resolve tablet sticking

    Détection automatique de plantes au sein d’images aériennes de champs par apprentissage non supervisé et approche multi-agents

    Get PDF
    International audienceThis paper focuses on the detection of plants from aerial images captured by drones. An efficient detection method would benefit both farmers who wish to know the state of their crops and predict their yield and agronomists to facilitate the acquisition of experimental data and reduce the cost.We propose a two-step method with, first, an unsupervised learning, then the implementation of a weakly parameterized multi-agent system. In the first step, a clustering system estimates the position of rows and plants based on a priori known geometric constraints, namely that crop rows are globally equidistant from each other and that the same is true for plants within a row. In a second step, the multi-agent system refines the estimation provided by the clustering step and isolates each plant.We demonstrate the performance of the method on sunflower plant counting tasks. The results obtained are comparable to those of the state of the art on easy problems and significantly better on hard problems. We then present results on the identification of density gradients in a field based on the distribution of emerged plants.An important contribution of this work also concerns the development of a tool for generating virtual fields with the game engine Unity. It is thus possible to easily generate realistic datasets corresponding to various situations, thus overcoming the difficulty of obtaining labelled datasets.Cet article a pour objet la détection de plantes à partir d’images aériennes capturées par drones. Une méthode efficace de détection bénéficierait autant aux agriculteurs qui souhaitent connaître l’état de leurs cultures et en prédire le rendement qu’aux agronomes pour faciliter l’acquisition de données expérimentales et en réduire le coût.Nous proposons une méthode en deux étapes avec, d’abord, un apprentissage non supervisé, puis la mise en œuvre d’un système multi-agent faiblement paramétré. Dans un premier temps, un clustering estime la position des rangs et des plantes en s’appuyant sur des contraintes géométriques connues a priori, à savoir que les rangs de cultures sont globalement équidistants entre eux et qu’il en est de même pour les plantes au sein d’un rang. Dans un second temps, le système multi-agent raffine l’estimation fournie par l’étape de clustering et isole chaque plante.Nous démontrons les performances de la méthode sur des tâches de comptage de plants de tournesols. Les résultats obtenus sont comparables à ceux de l’état de l’art sur les problèmes faciles et nettement supérieurs sur les problèmes difficiles. Nous présentons ensuite des résultats sur l’identification de gradients de densité dans un champ en fonction de la répartition des plantes qui ont levées.Une contribution importante de ce travail concerne également la mise au point d’un outil de génération de champs virtuels avec le moteur de jeu Unity. Il devient ainsi possible de générer facilement des jeux de données réalistes correspondant à des situations diverses ce qui permet de contourner la difficulté d’obtenir des jeux de données étiquetés

    Analyse de l'exposition aux ondes électromagnétiques des enfants dans le cadre des nouveaux usages et nouveaux réseaux

    Get PDF
    Dans un contexte d'évolution incessante des moyens de communications sans fil, les inquiétudes perdurent malgré les législations existantes. L'accroissement d'usages divers et variés des téléphones mobiles impliquent des questionnements sur l'exposition induite par ces nouveaux usages. Ce manuscrit permet d'enrichir les connaissances en dosimétrie numérique en prenant en considération la variabilité des conditions d'utilisation. Pour une évaluation précise de l'exposition, la méthode des Différences Finies dans le Domaine Temporel (FDTD) qui a prouvé son efficacité, est employée. L'objectif est de quantifier précisément le Débit d'Absorption Spécifique (DAS) induit dans des organes comme le cerveau et les organes reproducteurs. Dans cette analyse, une attention particulière sera portée sur les usages potentiels des téléphones portables par les enfants. Le choix des configurations couvre différentes technologies, usages et bandes de fréquences permettant d'étudier la sensibilité du DAS à la variabilité de ces paramètres, pour une meilleure maîtrise de l'exposition réelle, au-delà du problème de la conformité. Le nombre important des variables oblige à simplifier les modèles de simulation par la construction de méta-modèles statistiques afin de réduire les coûts de calcul. La méthode spectrale par Chaos Polynomial (CP) dédiée à la gestion des incertitudes et à l'analyse de sensibilité est adoptée pour la mise en place d'un modèle approché du DAS. Afin d'aboutir à une représentation par CP fiable et peu coûteuse en termes de simulations, l'utilisation par CP creux et adaptatif est appliquée. Seuls les termes les plus significatifs sont retenus dans la décomposition par CP. Cette approche est appliquée aux problèmes en dosimétrie numérique afin de propager les incertitudes portant sur les paramètres d'entrée dans les simulations et de quantifier l'impact de ces incertitudes sur l'exposition (e.g. impact de la localisation du téléphone sur la dispersion du DAS) avec un faible coût de calculNowadays, wireless communication are being more and more developed, however, concern about their effects persist, despite of existing legislations. Indeed, the increasing use of mobile phone leads to address exposure issues to these devices. The objective of this thesis is to give better insights on numerical dosimetry, based on its configurations' variability. In order to evaluate the real exposure, we employ the well-known Finite-difference time-domain method (FDTD), which has already proven its efficiency. We aim at quantifying precisely the generated Specific absorption rate (SAR) on some human organs such as the brain and reproductive organs. In this work, we particularly focus, among other aspects, on the impact of mobile phones on children. We investigate different configurations involving various technologies, usages and frequency bands, such that we can study the SAR sensitivity to these parameters and, consequently, has the best possible estimate of the actual exposure level, independently of conformity issues. Due to the large number of parameters to be considered to deal with such an analysis, we simplify our simulation model by building statistical meta-models that enable us to reduce the calculation cost. Regarding the SAR modeling, we opt for Polynomial Chaos (PC) spectral methodology to deal with both uncertainty management and sensitivity analysis. To simplify the model and reduce simulation costs, we used parsimonious approximations, which aim to automatically identify the most significant terms in the PC decomposition, by a sparse and adaptive conception. Such approximations are applied to numerical dosimetry problems, where uncertainties are introduced on input parameters of the simulation and their impact is studied at the outputs, using low calculus cost. Using this approach, we analyze for example the position effect of the mobile phone on the SAR dispersionPARIS-EST-Université (770839901) / SudocSudocFranceF

    National distributional atlases and species inventory: toward a more iterative approach and a taxonomic balancing

    Get PDF
    This synthesis analyses the use and limitations of the distributional atlases data for applied nature conservation studies. From the gaps and opportunities observed in France, we suggest a set of practical and scientific recommendations in order to strengthen their use in systematic conservation planning for terrestrial biodiversity (protected networks, green infrastructure and land settlement). The two main advices are to adopt an iterative approach between field survey and data analysis, and the selection of the species groups to inventory. The iterative process consists of regularly using available valid data to identify spatial and taxonomic gaps in the inventory, to model the potential distribution of each species and to estimate their ecological niche. During the distribution inventory project, this information can enable the sorting of new data according to their plausibility (data validation process) and should be used to identify priority areas for new field surveys. As scientific literature concludes that there is low consistency of biodiversity congruence relationship, we suggest increasing taxonomic representation in new atlases projects in order to provide a more complete view of species distribution for nature conservation initiatives. Ideally, the species groups should be rich in restricted range and low mobility species, or rich in habitat specialist species or contain species playing a recognized role in ecosystem functioning. Taking into account practical and technical criteria, a list of taxa is proposed for new distribution atlases. This proposal would cover about 20 % of known terrestrial species compared to current 5 %, with more effort on invertebrates, plants and fungi.Cette synthèse analyse les utilisations et les limites des atlas nationaux de distribution d’espèces et de leurs données d’inventaires dans le domaine appliqué à la conservation de la nature. À partir des lacunes et des opportunités techniques constatées en France, nous proposons une série de recommandations pratiques et scientifiques afin de renforcer leur utilisation dans les démarches de planification spatiale de la conservation de la biodiversité terrestre (aires protégées, réseaux écologiques, aménagement du territoire). Les deux principaux aspects concernent la mise en place d’une démarche itérative et le choix des groupes d’espèces. La démarche itérative consiste à analyser régulièrement les données disponibles validées afin d’identifier les lacunes de prospection, modéliser la distribution potentielle des espèces et estimer leur niche écologique. Ces informations doivent ensuite faciliter le processus de validation, en triant les nouvelles données selon leur vraisemblance au regard de l’occurrence et de la niche et servir à définir de nouveaux territoires à inventorier prioritairement. Comme la littérature montre que les zones importantes pour la conservation varient suivant les groupes d’espèces, nous proposons d’augmenter la représentativité taxinomique avec de nouveaux atlas, afin d’apporter une vision plus complète de la distribution des espèces pour les dispositifs de conservation. Idéalement, les groupes inventoriés doivent être riches en espèces à répartition restreinte et peu mobiles et/ou présenter une forte proportion d’espèces spécialistes de certains milieux et/ou jouant un rôle reconnu dans les processus écologiques

    Apprentissage de la structure de réseaux bayésiens : application aux données de génétique-génomique

    Get PDF
    Apprendre la structure d'un réseau de régulation de gènes est une tâche complexe due à la fois au nombre élevé de variables le composant (plusieurs milliers) et à la faible quantité d'échantillons disponibles (quelques centaines). Parmi les approches proposées, nous utilisons le formalisme des réseaux bayésiens, ainsi apprendre la structure d'un réseau de régulation consiste à apprendre la structure d'un réseau bayésien où chaque variable représente un gène et chaque arc un phénomène de régulation. Dans la première partie de ce manuscrit nous nous intéressons à l'apprentissage de la structure de réseaux bayésiens génériques au travers de recherches locales. Nous explorons plus efficacement l'espace des réseaux possibles grâce à un nouvel algorithme de recherche stochastique (SGS), un nouvel opérateur local (SWAP), ainsi qu'une extension des opérateurs classiques qui permet d'assouplir temporairement la contrainte d'acyclicité des réseaux bayésiens. La deuxième partie se focalise sur l'apprentissage de réseaux de régulation de gènes. Nous proposons une modélisation du problème dans le cadre des réseaux bayésiens prenant en compte deux types d'information. Le premier, classiquement utilisé, est le niveau d'expression des gènes. Le second, plus original, est la présence de mutations sur la séquence d'ADN pouvant expliquer des variations d'expression. L'utilisation de ces données combinées dites de génétique-génomique, vise à améliorer la reconstruction. Nos différentes propositions se sont montrées performantes sur des données de génétique-génomique simulées et ont permis de reconstruire un réseau de régulation pour des données observées sur le plante Arabidopsis thaliana.Structure learning of gene regulatory networks is a complex process, due to the high number of variables (several thousands) and the small number of available samples (few hundred). Among the proposed approaches to learn these networks, we use the Bayesian network framework. In this way to learn a regulatory network corresponds to learn the structure of a Bayesian network where each variable is a gene and each edge represents a regulation between genes. In the first part of this thesis, we are interested in learning the structure of generic Bayesian networks using local search. We explore more efficiently the search space thanks to a new stochastic search algorithm (SGS), a new local operator (SWAP) and an extension for classical operators to briefly overcome the acyclic constraint imposed by Bayesian networks. The second part focuses on learning gene regulatory networks. We proposed a model in the Bayesian networks framework taking into account two kinds of information. The first one, commonly used, is gene expression levels. The second one, more original, is the mutations on the DNA sequence which can explain gene expression variations. The use of these combined data, called genetical genomics, aims to improve the structural learning quality. Our different proposals appeared to be efficient on simulated genetical genomics data and allowed to learn a regulatory network for observed data from Arabidopsis thaliana

    Intégration de la biodiversité dans l'évaluation environnementale stratégique des aménagements dans le bassin fluvial du programme Kandadji au Niger

    Get PDF
    La surexploitation, la destruction et la dégradation d'habitats, l'invasion des espèces exotiques, et la modification du régime hydrologique des cours d'eau menacent la biodiversité et les avantages qui y sont liés un peu partout dans le monde. Dans les pays en développement, la dégradation de l'environnement est exacerbée par la pauvreté, une forte croissance démographique ainsi que certaines politiques de développement. Cela se traduit par des pertes de biodiversité particulièrement dans les bassins fluviaux comme ceux d'Afrique de l'Ouest. La nécessité de conserver les écosystèmes et les autres éléments de la biodiversité fluviale suggère une évaluation des pratiques anthropiques liées aux ouvrages structurants que sont les barrages. En effet, ces derniers modifient complètement la dynamique d'un bassin et entraînent souvent des conflits d'usage selon les modèles techniques d'aménagement adoptés. Cette étude démontre la possibilité de mieux planifier les actions de développement en s'appuyant sur un dispositif d'évaluation environnementale stratégique et l'application de méthodes d'aide multicritère à la décision dans un contexte multi acteurs. Il s'agit d'intégrer et de tenir compte des intérêts et valeurs de toutes les parties prenantes à la gestion de la biodiversité. Pour ce faire, l'étude s'appuie sur une étude de cas, celle du Programme « Kandadji » au Niger, pour simuler une approche méthodologique en trois (3) phases à savoir la structuration du problème d'évaluation, le développement du modèle d'évaluation (grille d'analyse) et l'élaboration des recommandations. Les approches PROMETHEE et GAIA qui font partie des méthodes de surclassement, l'une des trois approches multicritères, ont été privilégiées et mises en œuvre avec le logiciel D-Sight pour l'agrégation de synthèse. Le processus a permis d'identifier quatre (4) types de préoccupations correspondant à autant de catégories (reliées aux dimensions du développement durable) pour les sept (7) enjeux retenus. En outre, quatre options d'aménagement ont été identifiées puis évaluées à partir de neuf (9) critères et indicateurs de mesure. Les résultats du classement suggèrent une adhésion des seize (16) parties prenantes, à la préservation de la biodiversité sans exclure son utilisation durable dans un cadre de gouvernance participative. Ainsi, l'option de compromis est celle qui minimise les superficies emblavées permettant ainsi de réduire les répercussions sur la biodiversité. Ainsi, l'application des méthodes multicritères dans un contexte multi-acteurs et suivant une logique contributive, est pertinente pour traiter de problèmes de conservation de la biodiversité. Elle permet d'aboutir à une meilleure décision en encadrant et favorisant l'intégration du savoir social et les valeurs des acteurs par l'instauration d'un climat de transparence et de responsabilisation pour la prise de décision.\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : Biodiversité, bassins fluviaux, barrages, évaluation environnementale stratégique, aide multicritère à la décision

    Détermination des fréquences naturelles de structures submergées par la méthode d'intéractions fluide-structure bidirectionnelle

    Get PDF
    RÉSUMÉ La présente recherche vise l'évaluation de la viabilité d'utilisation d'une méthode numérique récemment rendue disponible dans un logiciel commercial pour la prédiction du comportement dynamique de roues de turbine hydraulique en fonctionnement au stade de conception. Contrairement aux méthodes de prédiction classiques, cette méthode temporelle intégrant la simulation des interactions fluide-structure permet d'inclure l'effet de l'écoulement, de la turbulence et de la viscosité du fluide agissant sur le comportement dynamique de la roue. À cet égard, une prédiction plus juste permet d'assurer une fiabilité accrue de cette composante essentielle à la génération d'hydroélectricité. L'objectif principal de la recherche est la validation de la méthode numérique proposée pour la prédiction du comportement dynamique de structures submergées. Cette méthode fait intervenir deux solveurs distincts. Le premier résout le système associé au domaine structurel et le second, le système associé au domaine fluide. La résolution est réalisée de façon séquentielle et le transfert de données d'échange assure le couplage. Pour valider cette façon de faire, une méthodologie est d'abord développée à partir des fonctions logicielles disponibles. Dans un premier temps, celle-ci est appliquée à des cas test faisant intervenir des structures submergées dans l'eau stagnante dont les fréquences naturelles sont connues pour fin de validation. Aucun écoulement moyen n'est donc impliqué. Aussi, leur géométrie est simple et permet une mise en oeuvre relativement aisée. Par la suite, la méthodologie est appliquée à la prédiction des fréquences naturelles d'une roue de turbine en fonctionnement. Ce cas de figure intègre les effets associés à l'écoulement. La méthode numérique utilisée permet de réaliser des simulations temporelles exclusivement. La méthodologie envisagée est donc restreinte à cette contrainte. Concernant les cas test en eau stagnante, un déplacement initial est imposé à la structure puis elle est libre de vibrer dans le fluide. L'analyse du déplacement d'un point attaché à la structure en vibration libre dont l'amplitude est significative permet de déduire les fréquences naturelles des modes excités. Cette analyse consiste en l'ajustement d'un modèle simple de sinusoïdes amorties au signal brut provenant du logiciel. Les fréquences naturelles sont des paramètres directement déterminés lors de l'ajustement.----------ABSTRACT This research aims to assess the viability of using a numerical method recently made available in commercial software for the prediction the dynamic behaviour of hydraulic turbine runners in operation at design stage. Unlike conventional prediction methods, this temporal method integrating the simulation fluid-structure interactions can take into account the effect of the surrounding flow, turbulence and fluid viscosity acting on the dynamic behaviour of the runner. In this regard, a more accurate prediction ensures the increasing of reliability of this essential component for the hydraulic power generation. The main goal of this research is the validation of the numerical method proposed for the prediction of the dynamic behaviour of submerged structures. This method involves two separate solvers. The first one solves the system associated with structural portion and the second solves the fluid portion. The resolution is achieved sequentially by transferring exchange data ensuring the coupling. To validate this approach, a methodology is first developed from the software available features. The first step is to apply the methodology to test cases whose submerged natural frequencies are known for validation purpose. The vibration of these simple systems is carried out in still water, no mean flow is therefore involved. Also, their geometry is simple and can be modelled relatively easily. Subsequently, the methodology is applied for the prediction of natural frequencies of a turbine runner under operation conditions. This simulation incorporates the effects associated with the flow. The numerical method used allows to perform time-dependant simulations only. The proposed methodology is then limited to this constraint. For the test cases in still water, an initial displacement is imposed on the structure and it is to vibrate freely in the fluid. The analysis of displacement of a point attached to the structure whose amplitude is significant allows to deduce the natural frequencies of the modes involved in the resulting free vibration. This analysis consists in the best fitting a simple model of damped sinusoids to the raw signal provided by the software. The natural frequencies are parameters directly determined during the best fit. The first validation test case considered is an infinitely long and rigid cylinder vibrating in a translation degree of freedom through an annular space filled with water. This case possesses a theoretical solution from the potential theory for validation purpose. By its nature, the geometry can be reduced to a two-dimensional modelling and allows the use of relatively small mesh sizes vi

    Indicateur de qualité pour les systèmes orientés objet : vers un modèle unifiant plusieurs métriques

    Get PDF

    Impact des changements climatiques et du développement urbain sur les ressources en eaux du bassin versant de la rivière Saint-Charles

    Get PDF
    La ville de Québec s’approvisionne en grande partie (57 %) en eau potable au sein du bassin versant de la rivière Saint-Charles. La majeure partie est directement prélevée dans la rivière Saint-Charles et une moindre partie est prélevée par des puits municipaux ou des puits privés qui constituent souvent le seul moyen d’approvisionnement. Les changements climatiques anticipés et le développement urbain de la ville de Québec pourraient avoir un impact important sur cette ressource en eau. Dans le but d’estimer l’impact des changements climatiques et du développement urbain sur la ressource en eau du bassin versant de la rivière Saint-Charles, un modèle numérique du bassin versant couplant les écoulements de surface et souterrains ainsi que l’évapotranspiration a été réalisé avec HydroGeoSphere (HGS). La première étape de la méthodologie est de caler un modèle sur l’état actuel (période 1971-2000). La seconde étape consiste à appliquer au modèle calé de nouvelles conditions représentant l’état futur du climat et le développement urbain afin de pouvoir comparer ces résultats avec l’état actuel. Les nouvelles conditions limites représentant l’état futur sont obtenues en mettant à l’échelle, avec la méthode des « deltas », les projections climatiques faites par des modèles de circulation générale (MCG) pour la période 2071-2100 et différents scénarios de développement urbain pour la période 2080 ont été réalisés. Les résultats montrent que durant les hivers plus chauds, les hauteurs d’eau (eau de fonte et précipitations pluvieuses) pourraient être entre 4 et 7,5 fois plus importantes selon les scénarios et qu’en période estivale l’évapotranspiration réelle augmenterait entre 15 % et 25 %. On observerait alors des débits hivernaux entre 2 et 3 fois supérieurs à ceux actuels, des crues printanières plus précoces (entre 10 et 30 jours) et des débits estivaux diminués de 10 % à 25 %. Les niveaux piézométriques hivernaux devraient être sensiblement plus élevés qu’actuellement surtout dans le roc sur les hauts topographiques où l'on observe des augmentations pouvant dépasser les 15 m. En période estivale, on observe une diminution des niveaux piézométriques localisée sur les hauts topographiques, mais également sur les aquifères granulaires au sud. On constate également que les effets du développement urbains sont beaucoup moins importants que ceux induits par les changements climatiques. Le principal effet est d’augmenter légèrement les débits hivernaux (max +0.6 m3/s).The main part (57%) of Quebec City drinking water comes from the Saint-Charles River watershed. Most of this water is pumped directly from the river but a significant volume of groundwater is also supplied from municipal and private wells in bedrock and granular aquifers. The anticipated climate change and the probable urban area development of Quebec City could have an important impact on these water resources. To assess and quantify the impact of climate change and urban development on water resources of the Saint-Charles River watershed, a 3D numerical model was developed. This numerical model simulates surface water and groundwater flow dynamics for the catchment, using the physically-based, fully integrated, variably-saturated 3-D surface-subsurface simulator HydroGeoSphere (HGS). The first step of the methodology was to build and calibrate the model under current climate conditions (1971-2000). The second step was to identify climate projections from general circulation models (GCMs) with different emission scenarios and to downscale their output (with the “delta change” method) to the catchment scale, as well as to propose urbanisation scenarios. Using the calibrated model as a starting point, the output of the GCMs and urbanisation scenarios were then used as boundary conditions in the numerical model for predictive simulations. Results show that, compared to current conditions, the amount of water (snowmelt water and rainfall) could be about 4 to 7 times greater during warmer winters, according to different emission scenarios, and evapotranspiration could increase by about 15 % to 25 % during warmer summers. These changes could increase winter stream flows by a factor of 2 to 3, and lead to earlier occurrence of snowmelt floods during springs, (by 10 to 30 days), and a reduction of 10 % to 25 % of summer stream flows. In winter, hydraulic heads would dramatically increase, by more than 15 m, mainly in the high-elevation areas and, in summer, hydraulic heads would decrease in the high-elevation areas as well as in the low-elevation areas for the granular aquifers. The simulated effects of urban development on hydraulic heads and stream flows are lower than those induced by climate change. The main effect of planned urban development is an increase (max +0.6 m3/s) of monthly mean stream flow during winter

    Processus dynamos dans les étoiles entièrement convectives

    Get PDF
    Dans les étoiles de type solaire la génération de champ magnétique par effet dynamo se concentre dans la tachocline, une fine zone de fort cisaillement à l'interface entre le cœur radiatif et l'enveloppe convective. En dessous de 0.35 masse solaire, les étoiles de la séquence principale sont entièrement convectives et ne possèdent donc pas de tachocline. Or certaines de ces étoiles sont très actives, et des champs magnétiques très intenses ont été mesurés. La dynamo de ces objets doit donc reposer sur des processus physiques différents de ceux à l'œuvre dans le Soleil. En dépit des avancées théoriques récentes, la dynamo des étoiles entièrement convective reste mal comprise. La partie observationnelle de ce travail a consisté en l'étude d'un échantillon d'étoiles situées de part et d'autre de la limite entièrement convective à partir d'observations spectropolarimétriques et de la technique d'imagerie Zeeman-Doppler. Cela a permis d'analyser comment les paramètres stellaires, période de rotation et masse, influent sur le champ magnétique à grande échelle. Un changement brutal de topologie magnétique des naines M est mis en évidence à proximité de la limite entièrement convective. Un comportement inattendu est également détecté en dessous de 0.2 masse solaire : des étoiles de paramètres stellaires quasi-identiques présentent des topologies magnétiques radicalement différentes. Ce travail observationnel est doublé d'une approche numérique : des simulations MHD 3D "star-in-a-box" visent à mieux comprendre les divergences qui existent entre les premières simulations et les observations.In solar-type stars, the generation of magnetic field through dynamo effect concentrates in the tachocline, a thin layer of strong shear located at the interface between the radiative core and the convective envelope. Below 0.35 solar mass, main sequence stars are fully convective and thus do not possess a tachocline. And yet, some fully-convective dwarfs are very active, and strong photospheric magnetic fields have been detected. The generation of magnetic field in these objects therefore relies on non-solar dynamo processes.In spite of recent theoretical advances, dynamo processes in fully convective dwarfs remain poorly understood. The observational part of this work has consisted in a spectropolarimetric survey of a small sample of M dwarfs located on both sides of the fully-convective divide. Large-scale magnetic topologies and their dependency on main stellar parameters - mass and rotation period - have been investigated with Zeeman-Doppler Imaging techniques. This study reveals a sharp transition in magnetic topologies of M dwarfs close to the fully convective boundary. The presence of an unexpected behaviour below 0.2 solar mass is also evidenced : stars with similar parameters host radically different large-scale magnetic fields
    • …
    corecore