3,252 research outputs found

    Couplage de mesures sur site et de méthodes géostatistiques : mise en oeuvre " en temps réel " à l'aide d'un FPXRF Projet REPERAGE

    Get PDF
    National audienceLa caractérisation des sites pollués effectuée à l'aide de prélèvements de sol et d'analyses de laboratoire est une étape longue et coûteuse. De telles pratiques incitent à limiter le nombre de points de mesure et ne permettent pas facilement, dans une même campagne, d'utiliser les premiers résultats d'analyse pour ajuster la localisation de nouveaux points d'échantillonnage. Depuis plusieurs années sont apparus sur le marché de nouveaux appareils portatifs permettant d'analyser sur le terrain la teneur en polluants dans les sols en un temps très court. Parmi ceux-ci les spectromètres portables à fluorescence de rayons X (FPXRF) sont de plus en plus utilisés pour analyser les métaux. Dans le même temps, des approches géostatistiques adaptées aux particularités des sites et sols pollués ont été développées en Europe et sont de plus en plus utilisées pour cartographier les sols en fonction de seuils réglementaires ou estimer des quantités de matériaux contaminés, tout en en quantifiant les incertitudes locales ou globales associées. Le couplage des deux outils, mesures sur site et méthodes géostatistiques, permet d'envisager des campagnes de reconnaissance optimisées où le nombre et la localisation de nouveaux points de mesure sont déterminés au fur et à mesure de l'acquisition des données dans l'objectif de réduire l'incertitude affectant la modélisation de la contamination. Le projet de recherche REPERAGE vise à concevoir une démarche associant mesures sur site et traitement géostatistique pour conduire de façon rationnelle des campagnes de reconnaissance par rapport à des scénarios et des objectifs classiques de gestion de sites contaminés (par ex. classification des sols par rapport à des seuils, estimation de tonnages, estimation de coûts de dépollution). Le travail réalisé inclut le développement théorique de la démarche et d'un code permettant de la mettre en oeuvre, la validation de la démarche à partir des données d'un site réel bien renseigné, les environs de l'ancienne usine MétalEurop (Nord de la France), et sa mise en oeuvre " en temps réel " sur le site d'une ancienne usine sidérurgique (Henricot II, Belgique). La communication aura pour objet de présenter les principaux résultats obtenus dans le cadre de ce projet

    Modeling Hydrologic Phenomena [Free opinion]

    Get PDF
    Afin de suggérer quelques règles pratiques sur l'utilisation des modèles hydrologiques, G. De MARSILY dans sa tribune libre (Rev. Sci. Eau 1994, 7 (3): 219-234) propose une classification des modèles hydrologiques en deux catégories : - modèles construits sur des données (phénomènes observables) - et modèles sans observations disponibles (phénomènes non-observables). Il préconise que pour la première catégorie des phénomènes observables, les modèles développés selon une procédure d'apprentissage ainsi que ceux basés sur les lois physiques sont du type boîte noire. Pour le deuxième groupe de modèles, il propose l'utilisation de ceux à base physique.Les modèles hydrologiques à base physique doivent introduire dans les lois phénoménologiques des coefficients empiriques corrects vis-à-vis des échelles correspondantes d'espace et de temps (GANOULIS, 1986). Des exemples bien connus sont le coefficient de la perméabilité de Darcy à l'échelle macroscopique, dérivé à partir des équations Navier-Stokes au niveau microscopique et les coefficients de dispersion macroscopique provenant des coefficients de diffusion locale de Fick.Une utilisation abusive de ces modèles en introduisant des échelles de temps et d'espace inapropriées et en déterminant les coefficients par étalonnage, n'est pas une raison suffisante pour les considérer de type boîte noire. Les modèles hydrologiques du type boîte noire sont très utiles lorsque des données sont disponibles, mais restent essentiellement empiriques. Ils ne donnent pas de réponses correctes lorsque des restrictions sévères d'unité de lieu, de temps et d'action ne sont pas valables.Concernant la deuxième classe des modèles, nous pouvons remarquer que dans la réalité des phénomènes purement non observables et sans aucune donnée, n'existent pas en hydrologie. Dans les cas d'évenements rares et de systèmes hydrologiques complexes tels que les impacts dus à la radioactivité et les prévisions à grande échelle, les modèles à base physique avec des paramètres adéquats peuvent être utilisés afin d'intégrer les informations rares et les opinions des experts, dans un cadre probabiliste Bayesien (APOSTOLAKIS, 1990).La propriété la plus intéressante des modèles hydrologiques est leur capacité éventuelle à tenir compte des imprécisions et des variabilités naturelles. Les incertitudes peuvent être classées en deux catégories : aléatoires (liées à la variabilité naturelle) et épistémiques (liées à l'approche scientifique). Des modèles hydrologiques probabilistes sont plus convenables pour tenir compte des incertitudes aléatoires. Des modèles basés sur la logique floue peuvent quantifier les incertitudes épistémiques (GANOULIS et al., 1996). Les approches stochastiques et flous sont brièvement expliquées dans cette tribune libre en comparaison avec les modèles hydrologiques déterministes à base physique.With the aim of suggesting some practical rules for the use of hydrological models, G. De MARSILY in his "free opinion" (Rev. Sci. Eau 1994, 7(3): 219-234) proposes a classification of hydrologic models into two categories: - models built on data (observable phenomena) and ; - models without any available observations (unobservable phenomena). He claims that for the former group of observable phenomena, models developed through a learning process as well as those based on the underlying physical laws are of the black box type. For the latter group of unobservable phenomena, he suggests that physically-based hydrologic models be developed.Physically-based hydrologic models should introduce to the phenomenological laws the correct empirical coefficients, which correspond to the proper time and space scales (GANOULIS, 1986). Well-known examples are Darcy's permeability coefficient on the macroscopic scale as derived from the Navier-Stokes equations on the local scale and the macroscopic dispersion coefficients in comparison with the local Fickian diffusion coefficients. Misuse of these models by confusing the proper time and space scales and determining the coefficients by calibration is not a sufficient reason to consider them as belonging to the black box type. Black box type hydrologic models, although very useful when data are available, remain formally empirical. They fail to give correct answers when serious constraints of unity in place, time and action are not fulfilled.Concerning the second class of models, we may notice that purely unobservable phenomena without any available data do not really exist in hydrology. In the case of very rare events and complex systems, such as radioactivity impacts and forecasting of changes on a large scale, physically-based models with adequate parameters may be used to integrate scarce information from experiments and expert opinions in a Bayesian probabilistic framework (APOSTOLAKIS, 1990).The most important feature of hydrologic models capable of describing real hydrologic phenomena, is the possibility of handling imprecision and natural variabilities. Uncertainties may be seen in two categories: aleatory or noncognitive, and epistemic or cognitive. Probabilistic hydrologic models are more suitable for dealing with aleatory uncertainties. Fuzzy logic-based models may quantify epistemic uncertainties (GANOULIS et al., 1996). The stochastic and fuzzy modeling approaches are briefly explained in this free opinion as compared to the deterministic physically-based hydrologic modeling

    Analyse de sensibilité globale d'un modèle spatialisé pour l'évaluation économique du risque d'inondation

    Get PDF
    L'analyse de sensibilité globale peine à se développer dans le champ de la modélisation environnementale. Dans sa formulation initiale, elle est limitée à l'étude de modèles Y = f (X1; : : : ;Xp) où les variables d'entrée Xj et la sortie Y sont scalaires, alors que nombre de modèles environnementaux incluent une dimension spatiale marquée, soit qu'ils fassent appel à des cartes comme variables d'entrée, soit que leurs sorties soient distribuées spatialement. Au travers d'une étude de cas détaillée, nous présentons dans cet article une extension de l'analyse de sensibilité globale à l'étude de modèles spatialisés. Le modèle étudié, nommé ACB-DE, est un outil d'évaluation économique du risque d'inondation. Il est ici appliqué sur la basse-vallée de l'Orb (Hérault). Des spécifications spatialisées de l'incertitude sont utilisées pour générer un nombre fini de réalisations aléatoires équiprobables des variables d'entrée qui sont des cartes : les effets de structure spatiale ou d'auto-corrélation dans ces cartes peuvent ainsi être pris en compte. La réalisation de cartes d'indices de sensibilité permet ensuite d'étudier les sorties spatialisées du modèle ACB-DE et de rendre compte de la variabilité spatiale des indices de Sobol. L'influence relative des variables d'entrée à différentes échelles d'étude est analysée par la réalisation de cartes d'indices de sensibilité de résolution croissante. L'analyse réalisée permet d'identifier les variables d'entrée incertaines qui expliquent la plus grande part de la variabilité de l'indicateur économique fourni par le modèle ACB-DE ; elle apporte un éclairage nouveau sur le choix de l'échelle adéquate de représentation spatialisée de cet indicateur selon la précision des variables d'entrée. L'approche proposée pourrait être aisément appliquée à d'autres modèles spatialisés peu coûteux en temps de calcul. / Variance-based Sobol' global sensitivity analysis (GSA) was initially designed for the study of models with scalar inputs and outputs, while many models in the environmental field are spatially explicit. As a result, GSA is not a common practise in environmental modelling. In this paper we describe a detailed case study where GSA is performed on a spatially dependent model for flood risk economic assessment on the Orb valley (southeast France). Spatial input factors are handled by associating randomly generated map realizations to scalar values sampled from discrete uniform distributions. The realisations of random input maps can be generated by any method including geostatistical simulation techniques, allowing for spatial structure and auto-correlation to be taken into account. The estimation of sensitivity indices on ACB-DE spatial outputs makes it possible to produce maps of sensitivity indices. These maps describe the spatial variability of Sobol' indices. Sensitivity maps of different resolutions are then compared to discuss the relative influence of uncertain input factors at different scales

    AIDE À LA PLANIFICATION AVEC INCERTITUDE, IMPRÉCISION ET INCOMPLÉTUDE SUR LA DEMANDE

    Get PDF
    10 pages. Papier soumis et accepté à MOSIM 2008La prise en compte de la demande client pour la planification tactique dans les chaînes logistiques est un enjeu crucial pour leur bon fonctionnement. L'environnement concurrentiel actuel rend difficile l'engagement des clients sur le moyen terme. Dès lors, il est nécessaire de développer des méthodes et outils pour s'adapter au mieux à une demande fluctuante. Dans ce contexte, cet article s'attache à appliquer à la gestion de la demande une terminologie issue de la théorie de la décision sous incertitude. Les liens entre cette terminologie et une approche industrielle basée sur la notion de risques sont présentés. Ensuite, un outil de simulation orienté sur la relation clientfournisseur est présenté. Cet outil a pour objectif d'évaluer, grâce à un ensemble de critères d'aide à la décision dont l'application est rendue possible par la démarche étymologique initiale, de guider un décideur sur ses choix en matière de planification. Cette orientation est basée à la fois sur une évaluation des gains possibles suite à l'application d'une stratégie de planification donnée mais aussi au degré d'optimisme associé au sens du critère d'Hurwicz

    Apprentissage à partir de données et de connaissances incertaines : application à la prédiction de la qualité du caoutchouc

    Get PDF
    During the learning of predictive models, the quality of available data is essential for the reliability of obtained predictions. These learning data are, in practice very often imperfect or uncertain (imprecise, noised, etc). This PhD thesis is focused on this context where the theory of belief functions is used in order to adapt standard statistical tools to uncertain data.The chosen predictive model is decision trees which are basic classifiers in Artificial Intelligence initially conceived to be built from precise data. The aim of the main methodology developed in this thesis is to generalise decision trees to uncertain data (fuzzy, probabilistic, missing, etc) in input and in output. To realise this extension to uncertain data, the main tool is a likelihood adapted to belief functions,recently presented in the literature, whose behaviour is here studied. The maximisation of this likelihood provide estimators of the trees’ parameters. This maximisation is obtained via the E2M algorithm which is an extension of the EM algorithm to belief functions.The presented methodology, the E2M decision trees, is applied to a real case : the natural rubber quality prediction. The learning data, mainly cultural and climatic,contains many uncertainties which are modelled by belief functions adapted to those imperfections. After a simple descriptiv statistic study of the data, E2M decision trees are built, evaluated and compared to standard decision trees. The taken into account of the data uncertainty slightly improves the predictive accuracy but moreover, the importance of some variables, sparsely studied until now, is highlighted.Pour l’apprentissage de modèles prédictifs, la qualité des données disponibles joue un rôle important quant à la fiabilité des prédictions obtenues. Ces données d’apprentissage ont, en pratique, l’inconvénient d’être très souvent imparfaites ou incertaines (imprécises, bruitées, etc). Ce travail de doctorat s’inscrit dans ce cadre où la théorie des fonctions de croyance est utilisée de manière à adapter des outils statistiques classiques aux données incertaines.Le modèle prédictif choisi est l’arbre de décision qui est un classifieur basique de l’intelligence artificielle mais qui est habituellement construit à partir de données précises. Le but de la méthodologie principale développée dans cette thèse est de généraliser les arbres de décision aux données incertaines (floues, probabilistes,manquantes, etc) en entrée et en sortie. L’outil central d’extension des arbres de décision aux données incertaines est une vraisemblance adaptée aux fonctions de croyance récemment proposée dans la littérature dont certaines propriétés sont ici étudiées de manière approfondie. De manière à estimer les différents paramètres d’un arbre de décision, cette vraisemblance est maximisée via l’algorithme E2M qui étend l’algorithme EM aux fonctions de croyance. La nouvelle méthodologie ainsi présentée, les arbres de décision E2M, est ensuite appliquée à un cas réel : la prédiction de la qualité du caoutchouc naturel. Les données d’apprentissage, essentiellement culturales et climatiques, présentent de nombreuses incertitudes qui sont modélisées par des fonctions de croyance adaptées à ces imperfections. Après une étude statistique standard de ces données, des arbres de décision E2M sont construits et évalués en comparaison d’arbres de décision classiques. Cette prise en compte des incertitudes des données permet ainsi d’améliorer très légèrement la qualité de prédiction mais apporte surtout des informations concernant certaines variables peu prises en compte jusqu’ici par les experts du caoutchouc

    Manifestations cognitives et comportementales liées aux symptômes du trouble d'anxiété généralisée en contexte d'incertitude

    Get PDF
    Le trouble d’anxiété généralisée (TAG) est l’un des troubles anxieux les plus courants. Son diagnostic peut être complexe à poser, notamment du fait qu’il est le seul trouble anxieux pour lequel des manifestations comportementales ne sont pas considérées dans les critères diagnostiques (Andrews et al., 2010). Récemment, quelques études ont observé des liens entre certains comportements (p. ex., évitement), des mécanismes cognitifs (p. ex., intolérance à l’incertitude) et les symptômes du TAG (p. ex., inquiétudes), dont certaines visant à identifier des manifestations liées à la qualité du diagnostic pouvant être posé. Aucune étude n’a vérifié l’effet de l’intolérance à l’incertitude (II) dans leur association en utilisant l’Inventaire d’Intolérance à l’Incertitude (III; Gosselin et al., 2008), qui regroupe plusieurs manifestations cognitives et comportementales pouvant être émises par l’individu en contexte d’incertitude ainsi que des dimensions spécifiques de l’II. Aucune étude n’a vérifié si certaines manifestations semblent davantage liées à la sévérité des symptômes du TAG, si elles sont davantage liées aux symptômes du TAG qu’aux symptômes dépressifs, et si elles permettent de classifier le diagnostic du TAG en tenant compte de leur sensibilité et spécificité. La présente étude vise à poursuivre l’étude du lien entre les manifestations et les symptômes du TAG à partir des manifestations du III (Gosselin et al., 2008), auprès d’une population non clinique. Les symptômes du TAG de même que les symptômes dépressifs ont été mesurés à l’aide de questionnaires bien validés et largement utilisés (voir Beck, Steer, & Brown, 1996; Dugas et al., 2001; Meyer, Miller, Metzger, & Borkovec, 1990). Les participants de cette étude sont 1332 adultes canadiens-français volontaires et recrutés par affichage sur des babillards publics et réseaux sociaux. Afin de vérifier les liens entre les manifestations de l’II et les symptômes du TAG et de prédire les symptômes du TAG, des analyses de corrélations de Pearson et de régressions multiples hiérarchiques ont été réalisées. Celles-ci montrent que les manifestations de l’II sont liées et prédisent pour la plupart les symptômes du TAG. Des analyses de covariance montrent que les individus ayant un TAG probable présentent plus de manifestations d’II que les individus sans TAG. Des analyses de courbes receiver-operating characteristic (ROC) ont de surcroît été conduites pour vérifier la capacité des manifestations de l’II à classifier le diagnostic probable de TAG. Les résultats montrent que toutes les manifestations d’II permettent une classification excellente du diagnostic, mis à part le contrôle qui permet une classification acceptable. Enfin, des tests du Z de Steiger ont été utilisés pour vérifier les liens entre les manifestations d’II aux symptômes du TAG en comparaison aux symptômes dépressifs. Les résultats montrent que toutes les manifestations de l’II sont davantage liées au TAG qu’à la dépression. Cette étude contribue à identifier plusieurs manifestations pertinentes aux symptômes du TAG et possiblement à l’établissement de son diagnostic, bien que d’autres recherches demeurent à faire auprès de la population clinique. Les résultats s’avèrent aussi pertinents à considérer pour poursuivre l’élaboration de modèles explicatifs du TAG

    De l'idée d'un développement durable socio-centré à la nécessité d'une gouvernance environnementale éclairée.

    Get PDF
    International audience" Favoriser un état d'harmonie entre les êtres humains et entre l'homme et la nature ", telle est la proposition du Rapport Brundtland pour aller vers le développement durable. Si, à l'origine du concept, on aspire donc à une certaine cohésion sociale, l'harmonie entre êtres humains se perd peu à peu dans la confusion des différentes formes d'appropriation du développement durable, de la modernisation écologique à la croissance économique durable. La sphère sociale du développement durable se retrouve alors "prise en tenaille" entre l'approche écocentrée (se donnant pour objectif la protection de tous les êtres vivants) et l'approche anthropocentrée (visant exclusivement le bien-être de l'homme). Comment retrouver cette harmonie sociale et environnementale que prônait le rapport Brundtland? L'harmonie entre êtres humains est ici approchée par la théorie de la négociation, puis par la notion de gouvernance. La négociation repose sur la résolution de conflits entre acteurs, pour un objectif final : la recherche d'un consensus. Mais ces méthodes de résolution de conflits se concentrent souvent sur les rapports entre humains et occultent ce que nous appelons les acteurs absents, qu'incarnent le vivant biologique et les générations futures. Dans ce cadre, la notion de gouvernance est-elle en mesure d'apporter un plus et de tendre vers l'idée du socialement durable ? Quant à l'harmonie entre l'homme et la nature, elle est observée au travers des politiques de gestion des milieux naturels, et notamment du principe de conservation, qui touchent aux relations homme-nature, et qui centrent leurs efforts essentiellement sur la nature, parfois au détriment des acteurs. Mais certains projets de protection de la nature, en négligeant les dynamiques socioéconomiques locales du territoire, peuvent engendrer d'importants conflits sociaux et oublier ce que nous appelons les acteurs faibles, des humains contemporains sous-représentés. L'idée de gouvernance peut-elle combler ces lacunes ? Négociation et conservation, chapeautées par le concept de gouvernance, deux approches qui pourraient s'avérer complémentaires pour à la fois tenir compte des préoccupations de notre société moderne et préserver les ressources naturelles, pour aller dans le sens d'une harmonie entre humains et d'une harmonie homme-nature

    AIDE À LA PLANIFICATION AVEC INCERTITUDE, IMPRÉCISION ET INCOMPLÉTUDE SUR LA DEMANDE

    Get PDF
    La prise en compte de la demande client pour la planification tactique dans les chaînes logistiques est un enjeu crucial pour leur bon fonctionnement. L'environnement concurrentiel actuel rend difficile l'engagement des clients sur le moyen terme. Dès lors, il est nécessaire de développer des méthodes et outils pour s'adapter au mieux à une demande fluctuante. Dans ce contexte, cet article s'attache à appliquer à la gestion de la demande une terminologie issue de la théorie de la décision sous incertitude. Les liens entre cette terminologie et une approche industrielle basée sur la notion de risques sont présentés. Ensuite, un outil de simulation orienté sur la relation clientfournisseur est présenté. Cet outil a pour objectif d'évaluer, grâce à un ensemble de critères d'aide à la décision dont l'application est rendue possible par la démarche étymologique initiale, de guider un décideur sur ses choix en matière de planification. Cette orientation est basée à la fois sur une évaluation des gains possibles suite à l'application d'une stratégie de planification donnée mais aussi au degré d'optimisme associé au sens du critère d'Hurwicz.simulation ; horizon glissant ; planification ; risques
    corecore