370 research outputs found

    Contribution à l'évaluation des risques liés au TMD (transport de matières dangereuses) en prenant en compte les incertitudes

    Get PDF
    When an accidental event is occurring, the process of technological risk assessment, in particular the one related to Dangerous Goods Transportation (DGT), allows assessing the level of potential risk of impacted areas in order to provide and quickly take prevention and protection actions (containment, evacuation ...). The objective is to reduce and control its effects on people and environment. The first issue of this work is to evaluate the risk level for areas subjected to dangerous goods transportation. The quantification of the intensity of the occurring events needed to do this evaluation is based on effect models (analytical or computer code). Regarding the problem of dispersion of toxic products, these models mainly contain inputs linked to different databases, like the exposure data and meteorological data. The second problematic is related to the uncertainties affecting some model inputs. To determine the geographical danger zone where the estimated risk level is not acceptable, it is necessary to identify and take in consideration the uncertainties on the inputs in aim to propagate them in the effect model and thus to have a reliable evaluation of the risk level. The first phase of this work is to evaluate and propagate the uncertainty on the gas concentration induced by uncertain model inputs during its evaluation by dispersion models. Two approaches are used to model and propagate the uncertainties. The first one is the set-membership approach based on interval calculus for analytical models. The second one is the probabilistic approach (Monte Carlo), which is more classical and used more frequently when the dispersion model is described by an analytic expression or is is defined by a computer code. The objective is to compare the two approaches to define their advantages and disadvantages in terms of precision and computation time to solve the proposed problem. To determine the danger zones, two dispersion models (Gaussian and SLAB) are used to evaluate the risk intensity in the contaminated area. The risk mapping is achieved by using two methods: a probabilistic method (Monte Carlo) which consists in solving an inverse problem on the effect model and a set-membership generic method that defines the problem as a constraint satisfaction problem (CSP) and to resolve it with an set-membership inversion method. The second phase consists in establishing a general methodology to realize the risk mapping and to improve performance in terms of computation time and precision. This methodology is based on three steps: - Firstly the analysis of the used effect model. - Secondly the proposal of a new method for the uncertainty propagationbased on a mix between the probabilistic and set-membership approaches that takes advantage of both approaches and that is suited to any type of spatial and static effect model. -Finally the realization of risk mapping by inversing the effect models. The sensitivity analysis present in the first step is typically addressed to probabilistic models. The validity of using Sobol indices for interval models is discussed and a new interval sensitivity indiceis proposed.Le processus d'évaluation des risques technologiques, notamment liés au Transport de Matières Dangereuses (TMD), consiste, quand un événement accidentel se produit, à évaluer le niveau de risque potentiel des zones impactées afin de pouvoir dimensionner et prendre rapidement des mesures de prévention et de protection (confinement, évacuation...) dans le but de réduire et maitriser les effets sur les personnes et l'environnement. La première problématique de ce travail consiste donc à évaluer le niveau de risque des zones soumises au transport des matières dangereuses. Pour ce faire, un certain nombre d'informations sont utilisées, comme la quantification de l'intensité des phénomènes qui se produisent à l'aide de modèles d'effets (analytique ou code informatique). Pour ce qui concerne le problème de dispersion de produits toxiques, ces modèles contiennent principalement des variables d'entrée liées à la base de données d'exposition, de données météorologiques,… La deuxième problématique réside dans les incertitudes affectant certaines entrées de ces modèles. Pour correctement réaliser une cartographie en déterminant la zone de de danger où le niveau de risque est jugé trop élevé, il est nécessaire d'identifier et de prendre en compte les incertitudes sur les entrées afin de les propager dans le modèle d'effets et ainsi d'avoir une évaluation fiable du niveau de risque. Une première phase de ce travail a consisté à évaluer et propager l'incertitude sur la concentration qui est induite par les grandeurs d'entrée incertaines lors de son évaluation par les modèles de dispersion. Deux approches sont utilisées pour modéliser et propager les incertitudes : l'approche ensembliste pour les modèles analytiques et l'approche probabiliste (Monte-Carlo) qui est plus classique et utilisable que le modèle de dispersion soit analytique ou défini par du code informatique. L'objectif consiste à comparer les deux approches pour connaitre leurs avantages et inconvénients en termes de précision et temps de calcul afin de résoudre le problème proposé. Pour réaliser les cartographies, deux modèles de dispersion (Gaussien et SLAB) sont utilisés pour évaluer l'intensité des risques dans la zone contaminée. La réalisation des cartographies a été abordée avec une méthode probabiliste (Monte Carlo) qui consiste à inverser le modèle d'effets et avec une méthode ensembliste générique qui consiste à formuler ce problème sous la forme d'un ensemble de contraintes à satisfaire (CSP) et le résoudre ensuite par inversion ensembliste. La deuxième phase a eu pour but d'établir une méthodologie générale pour réaliser les cartographies et améliorer les performances en termes de temps du calcul et de précision. Cette méthodologie s'appuie sur 3 étapes : l'analyse préalable des modèles d'effets utilisés, la proposition d'une nouvelle approche pour la propagation des incertitudes mixant les approches probabiliste et ensembliste en tirant notamment partie des avantages des deux approches précitées, et utilisable pour n'importe quel type de modèle d'effets spatialisé et statique, puis finalement la réalisation des cartographies en inversant les modèles d'effets. L'analyse de sensibilité présente dans la première étape s'adresse classiquement à des modèles probabilistes. Nous discutons de la validité d'utiliser des indices de type Sobol dans le cas de modèles intervalles et nous proposerons un nouvel indice de sensibilité purement intervalle cette fois-ci

    Évaluation du potentiel d'une technologie de positionnement intérieur par trilatération ultrasonore pour l'amélioration des trajectoires d'un système lidar mobile

    Get PDF
    Depuis quelques années, les techniques de positionnement intérieur deviennent de plus en plus importantes et trouvent leur place dans divers domaines, dont l'arpentage souterrain. Le présent travail a été réalisé dans le cadre du projet MinEyes, dont l'un des principaux objectifs est d'améliorer le positionnement d'un système lidar mobile (SLM) à l'intérieur des tunnels miniers souterrains. Cela permettra d'effectuer une cartographie 3D précise et rapide de ces environnements. Cependant, l'absence de signal GNSS rend cette tâche difficile. L'une des solutions mise en place pour résoudre ce problème est l'utilisation d'une centrale inertielle. Cependant, l'un des inconvénients majeurs de cette technique est l'accumulation d'erreurs dans le temps ce qui provoque la dérive de la trajectoire. Nous proposons donc une méthode combinant un système de positionnement intérieur basé sur la trilatération ultrasonore et un SLM. Nous utilisons pour cela un ensemble de balises ultrasons fixes dont les positions sont connues et qui communiquent avec une cible ultrason mobile lui permettant d'estimer sa trajectoire. La qualité de la trajectoire ainsi estimée est évaluée à l'aide de données obtenues avec une station totale robotisée. Nos expériences ont démontré une incertitude constante de la trajectoire produite sur toute sa longueur. Les écarts obtenus sont de 2 cm pour la coordonnée X (axe suivant la largeur du corridor) et 4 cm pour la coordonnée Y (axe de déplacement de la cible mobile). Suite à la validation de la qualité de la trajectoire générée, nous avons procédé à l'intégration de la cible ultrason mobile sur un SLM servant à la localisation et la production de nuages de points 3D sur un robot conçu sur la plateforme Raspberry Pi, exploitant la librairie ROS (Robot Operating System) et permettant la production de nuages de points géoréférencés. La comparaison du nuage de points ainsi produit avec un nuage de points de référence produit avec un scanneur LiDAR 3D (Faro X130) a montré un écart uniforme ne dépassant pas 4 mm pour 67% de la zone couverte. Ce travail démontre donc le potentiel du système de navigation proposé, basé sur la technologie de trilatération ultrasonore, qui permet d'éviter la dérive d'une plateforme mobile en milieu intérieure.In recent years, indoor positioning techniques have become increasingly important and are finding their way into various fields, including underground surveying. The present work was carried out within the framework of the MinEyes project. One of its main goals is to improve the positioning of a mobile lidar system (MLS) inside underground mining tunnels. This will allow accurate and fast 3D mapping of these environments. However, the lack of a GNSS signal makes this task difficult. One of the solutions implemented to solve this problem is the use of an inertial measurement unit. However, one of the major drawbacks of this technique is the accumulation of errors over time, which causes the trajectory to drift. We therefore propose a method combining an indoor positioning system based on ultrasonic trilateration and an MLS. We use a set of fixed ultrasonic beacons whose positions are known, and which communicate with a mobile ultrasonic target allowing it to estimate its trajectory. The quality of the estimated trajectory is evaluated using data obtained simultaneously with a robotic total station. Our experiments demonstrated a constant uncertainty of the produced trajectory over its entire length. This uncertainty reaches 2 cm for the X coordinate (axis following the width of the corridor) and 4 cm for the Y coordinate (axis of movement of the mobile target). Following the validation of the quality of the generated trajectory, we proceeded to the integration of the mobile ultrasound target on an MLS used for the localization and the production of 3D point clouds of a robot designed on the Raspberry Pi platform, exploiting the ROS library (Robot Operating System) and allowing the production of georeferenced point clouds. The comparison of a point cloud produced in this way with a reference point cloud produced with a 3D LiDAR scanner (Faro X130) showed a uniform deviation not exceeding 4 mm for 67% of the area covered. This work demonstrates the potential of the proposed navigation system, based on the technology of ultrasonic trilateration, which allows avoiding the drift of a mobile platform in indoor environment

    Absolute localisations in indoor environment based on omnidirectionnal vision

    Get PDF
    In this article, we present two localization methods based on the omnidirectional SYCLOP sensor. The first method is a static one and is based on a matching between one real image and a base of synthetics panoramic pictures. This base is computed with the help of a modelling and a calibration of the SYCLOP sensor. The second method is a dynamic one and is based on multi target tracking. The originality of this method is its capability to manage and propagate uncertainties during the localization process. This multi-level uncertainty propagation stage is based on the use of the Dempster-Shafer theory. In this work, SYCLOP is associated with a panoramic range finder. It enables to treat complementary and redundant data and thus to construct a robust sensorial model which integrates an important number of significant primitives. Based on this model, we treat the problem of maintaining a matching and propagating uncertainties on each matched primitive in order to obtain a global uncertainty about the robot configuration.Dans cet article, nous présentons deux méthodes de localisation basées sur l'utilisation du capteur omnidirectionnel SYCLOP. La première méthode, statique, consiste à rechercher la configuration du robot d'une manière absolue par la mise en correspondance d'une image réelle avec une base d'images panoramiques synthétiques. Cette base est obtenue grâce à la modélisation et la calibration du capteur SYCLOP. La deuxième méthode, dynamique, est basée sur de la poursuite multi-cibles. L'originalité de cette méthode réside dans sa capacité à gérer et propager des incertitudes durant le processus de localisation. Cette propagation multi-niveaux d'incertitudes est basée sur l'utilisation de la théorie de Dempster Shafer. Dans ce travail, SYCLOP est associé à un capteur de profondeur. Ceci permet de traiter des données à la fois complémentaires et redondantes et donc de construire un modèle sensoriel robuste intégrant un nombre important de primitives significatives. En nous appuyant sur ce modèle, nous traitons le problème de maintien d'un appariement et de la propagation d'une incertitude sur chaque primitive appariée, ceci dans le but d'obtenir une incertitude globale qui caractérise l'estimation de configuration du robot

    Un modèle hybride de reconnaissance de plans pour les patients Alzheimer : dilemme entrecroisé/erroné

    Get PDF
    Les récents développements dans les technologies de l'information et l'augmentation des problèmes provenant du domaine de la santé (vieillissement de la population, pénurie de personnel médical) ont fait émerger de nouveaux axes de recherche prometteurs comme l'assistance cognitive pour les personnes atteintes de la maladie d'Alzheimer à l'intérieur d'un habitat intelligent. Une des difficultés majeures inhérentes à ce type d'assistance est la reconnaissance des activités de la vie quotidienne (AVQ) réalisées par le patient à l'intérieur de l'habitat, qui sont déterminées par les actions effectuées par celui-ci, dans le but de prévoir son comportement afin d'identifier les différentes opportunités de le guider dans l'accomplissement de ses AVQ. Toutefois, cette situation soulève un dilemme qui n'a pas encore été pris en considération dans les travaux du domaine de la reconnaissance de plans. En effet, on peut interpréter l'observation d'une nouvelle action différente de celle attendue de deux façons opposées: soit qu'il s'agisse d'une erreur de la part du patient, soit que le patient débute une nouvelle activité, réalisée de façon entrecroisée avec l'activité en cours de réalisation. Pour résoudre cette situation paradoxale, on propose dans ce mémoire un modèle de reconnaissance hybride comme une piste de solutions. Elle consiste en une extension probabiliste d'un modèle logique basé sur la théorie des treillis et sur un formalisme d'action en logique de description, développé durant les travaux de thèse de Bruno Bouchard effectués au laboratoire DOMUS de l'Université de Sherbrooke. Le modèle logique structure le processus de reconnaissance d'activités en un raisonnement par classification des plans possibles, permettant d'extraire un certain nombre d'hypothèses sur le comportement du patient. Notre approche mixte basée sur la logique de description probabiliste, résout le problème d'équiprobabilité en privilégiant certaines hypothèses concernant son comportement. Par conséquent, cette extension minimisera l'incertitude dans la prédiction des actions futures du patient, et plus important encore, d'anticiper les différentes catégories de déviations comportementales typiques d'un patient Alzheimer. Nous avons implémenté et validé le modèle proposé à l'aide d'un ensemble de scénarios tirés de cas réels et de fréquences d'observation inspirées d'une étude effectuée sur des patients réels

    New design method for fast invariant linear digital filters

    Get PDF
    Using a new algorithm named Accumulator Algorithm, an architecture for flexible multipliers is proposed, exploiting redundant arithmetic . These new multipliers are then employed to design fast all-pole and all-zero digital, filters . The sampling period is reduced to being of the order of a few adder tell propagation delays, because of the pipeline structure . High order filters can be obtained by cascading several lower order modules . Remarkably, the performance does not dégrade with the lenght of the variables nor the filter order. The structures obtained are attractive for VLSI implementation .Un nouvel algorithme dit de l'accumulateur est utilisé pour réaliser une architecture particulière de multiplieur, faisant appel à une arithmétique redondante . Ce multiplieur est utilisé pour concevoir des circuits très rapides de filtres numériques du second ordre de types tout zéro ou tout pôle . Une architecture en pipeline permet d'atteindre une période d'échantillonnage très courte de l'ordre du temps de traversée de quelques cellules d'addition seulement . Un certain nombre de ces filtres mis en cascade réalisent un système d'ordre quelconque . Fait remarquable ble, la performance est indépendante de la taille des variables et de l'ordre du système . La réalisation de ces filtres est un candidat idéal pour une implantation sur circuits VLSI

    Réseaux Évidentiels pour la fusion de données multimodales hétérogènes (application à la détection de chutes)

    Get PDF
    Ces travaux de recherche se sont déroulés dans le cadre du développement d une application de télévigilance médicale ayant pour but de détecter des situations de détresse à travers l utilisation de plusieurs types de capteurs. La fusion multi-capteurs peut fournir des informations plus précises et fiables par rapport aux informations provenant de chaque capteur prises séparément. Par ailleurs les données issues de ces capteurs hétérogènes possèdent différents degrés d imperfection et de confiance. Parmi les techniques de fusion multi-capteurs, les méthodes crédibilistes fondées sur la théorie de Dempster-Shafer sont actuellement considérées comme les plus adaptées à la représentation et au traitement des informations imparfaites, de ce fait permettant une modélisation plus réaliste du problème. En nous appuyant sur une représentation graphique de la théorie de Dempster-Shafer appelée Réseaux Évidentiels, nous proposons une structure de fusion de données hétérogènes issues de plusieurs capteurs pour la détection de chutes afin de maximiser les performances de détection chutes et ainsi de rendre le système plus fiable. La non-stationnarité des signaux recueillis sur les capteurs du système considéré peut conduire à une dégradation des conditions expérimentales, pouvant rendre les Réseaux Évidentiels incohérents dans leurs décisions. Afin de compenser les effets résultant de la non-stationnarité des signaux provenant des capteurs, les Réseaux Évidentiels sont rendus évolutifs dans le temps, ce qui nous a conduit à introduire les Réseaux Evidentiels Dynamiques dans nos traitements et à les évaluer sur des scénarios de chute simulés correspondant à des cas d usage variésThis work took place in the development of a remote home healthcare monitoring application designed to detect distress situations through several types of sensors. The multi-sensor fusion can provide more accurate and reliable information compared to information provided by each sensor separately. Furthermore, data from multiple heterogeneous sensors present in the remote home healthcare monitoring systems have different degrees of imperfection and trust. Among the multi-sensor fusion techniques, belief methods based on Dempster-Shafer Theory are currently considered as the most appropriate for the representation and processing of imperfect information, thus allowing a more realistic modeling of the problem. Based on a graphical representation of the Dempster-Shafer called Evidential Networks, a structure of heterogeneous data fusion from multiple sensors for fall detection has been proposed in order to maximize the performance of automatic fall detection and thus make the system more reliable. Sensors non-stationary signals of the considered system may lead to degradation of the experimental conditions and make Evidential Networks inconsistent in their decisions. In order to compensate the sensors signals non-stationarity effects, the time evolution is taken into account by introducing the Dynamic Evidential Networks which was evaluated by the simulated fall scenarios corresponding to various use casesEVRY-INT (912282302) / SudocSudocFranceF

    Observation adaptative : limites de la prévision et du contrôle des incertitudes

    Get PDF
    L'observation adaptative (OA) est une pratique de prévision numérique du temps (PNT) qui cherche à prévoir quel jeu (ou réseau) d'observations supplémentaires à déployer et à assimiler dans le futur améliorera les prévisions. L'objectif est d'accroître la qualité des prévisions météorologiques en ajoutant des observations là où elles auront le meilleur impact (optimal). Des méthodes numériques d'OA apportent des réponses objectives mais partielles. Elles prennent en compte à la fois les aspects dynamiques de l'atmosphère à travers le modèle adjoint, et aussi le système d'assimilation de données. Le système d'assimilation de données le plus couramment utilisé pour l'OA est le 4D-Var. Ces méthodes linéaires (technologie de l'adjoint) reposent cependant sur une réalisation déterministe (ou trajectoire) unique. Cette trajectoire est entachée d'une incertitude qui affecte l'efficacité de l'OA. Le point de départ de ce travail est d'évaluer l'impact de l'incertitude associée au choix de cette trajectoire sur une technique: la KFS. Un ensemble de prévisions est utilisé pour étudier cette sensibilité. Les expériences réalisées dans un cadre simplifié montrent que les solutions de déploiement peuvent changer en fonction de la trajectoire choisie. Il est d'autant plus nécessaire de prendre cette incertitude en considération que le système d'assimilation utilisé n'est pas vraiment optimal du fait de simplifications liées à sa mise en oeuvre. Une nouvelle méthode d'observation adaptative, appelée Variance Reduction Field (VRF), a été développée dans le cadre de cette thèse. Cette méthode permet de déterminer la réduction de variance de la fonction score attendue en assimilant une pseudo-observation supplémentaire pour chaque point de grille. Deux approches de la VRF sont proposées, la première est basée sur une simulation déterministe. Et la seconde utilise un ensemble d'assimilations et de prévisions. Les deux approches de la VRF ont été implémentées et étudiées dans le modèle de Lorenz 96. Le calcul de la VRF à partir d'un ensemble est direct si l'on dispose déjà des membres de l'ensemble. Le modèle adjoint n'est pas nécessaire pour le calcul.L'implémentation de la VRF dans un système de prévision du temps de grande taille, tel qu'un système opérationnel, n'a pas pu être réalisée dans le cadre de cette thèse. Cependant, l'étude de faisabilité de la construction de la VRF dans l'environnement OOPS a été menée. Une description de OOPS (version 2013) est d'abord présentée dans le manuscrit, car cet environnement est une nouveauté en soi. Elle est suivie de la réflexion sur les développements à introduire pour l'implémentation de la VRF. ABSTRACT : The purpose of adaptive observation (AO) strategies is to design optimal observation networks in a prognostic way to provide guidance on how to deploy future observations. The overarching objective is to improve forecast skill. Most techniques focus on adding observations. Some AO techniques account for the dynamical aspects of the atmosphere using the adjoint model and for the data assimilation system (DAS), which is usually either a 3D or 4D-Var (ie. solved by the minimization of a cost function). But these techniques rely on a single (linearisation) trajectory. One issue is to estimate how the uncertainty related to the trajectory affects the efficiency of one technique in particular: the KFS. An ensemble-based approach is used to assess the sensitivity to the trajectory within this deterministic approach (ie. with the adjoint model). Experiments in a toy model show that the trajectory uncertainties can lead to significantly differing deployments of observations when using a deterministic AO method (with adjoint model and VDAS). This is especially true when we lack knowledge on the VDAS component. During this work a new tool for observation targeting called Variance Reduction Field (VRF)has been developed. This technique computes the expected variance reduction of a forecast Score function that quantifies forecast quality. The increase of forecast quality that is a reduction of variance of that function is linked to the location of an assimilated test probe. Each model grid point is tested as a potential location. The VRF has been implemented in a Lorenz 96 model using two approaches. The first one is based on a deterministic simulation. The second approach consists of using an ensemble data assimilation and prediction system. The ensemble approach can be easily implemented when we already have an assimilation ensemble and a forecast ensemble. It does not need the use of the adjoint model. The implementation in real NWP system of the VRF has not been conducted during this work. However a preliminary study has been done to implement the VRF within OOPS (2013 version). After a description of the different components of OOPS, the elements required for the implementation of the VRF are described

    Tolérance aux fautes pour la perception multi-capteurs : application à la localisation d'un véhicule intelligent

    Get PDF
    Perception is a fundamental input for robotic systems, particularly for positioning, navigation and interaction with the environment. But the data perceived by these systems are often complex and subject to significant imprecision. To overcome these problems, the multi-sensor approach uses either multiple sensors of the same type to exploit their redundancy or sensors of different types for exploiting their complementarity to reduce the sensors inaccuracies and uncertainties. The validation of the data fusion approach raises two major problems. First, the behavior of fusion algorithms is difficult to predict, which makes them difficult to verify by formal approaches. In addition, the open environment of robotic systems generates a very large execution context, which makes the tests difficult and costly. The purpose of this work is to propose an alternative to validation by developing fault tolerance mechanisms : since it is difficult to eliminate all the errors of the perceptual system, We will try to limit impact in their operation. We studied the inherently fault tolerance allowed by data fusion by formally analyzing the data fusion algorithms, and we have proposed detection and recovery mechanisms suitable for multi-sensor perception, we implemented the proposed mechanisms on vehicle localization application using Kalman filltering data fusion. We evaluated the proposed mechanims using the real data replay and fault injection technique.La perception est une entrée fondamentale des systèmes robotiques, en particulier pour la localisation, la navigation et l'interaction avec l'environnement. Or les données perçues par les systèmes robotiques sont souvent complexes et sujettes à des imprécisions importantes. Pour remédier à ces problèmes, l'approche multi-capteurs utilise soit plusieurs capteurs de même type pour exploiter leur redondance, soit des capteurs de types différents pour exploiter leur complémentarité afin de réduire les imprécisions et les incertitudes sur les capteurs. La validation de cette approche de fusion de données pose deux problèmes majeurs.Tout d'abord, le comportement des algorithmes de fusion est difficile à prédire,ce qui les rend difficilement vérifiables par des approches formelles. De plus, l'environnement ouvert des systèmes robotiques engendre un contexte d'exécution très large, ce qui rend les tests difficiles et coûteux. L'objet de ces travaux de thèse est de proposer une alternative à la validation en mettant en place des mécanismes de tolérance aux fautes : puisqu'il est difficile d'éliminer toutes les fautes du système de perception, on va chercher à limiter leurs impacts sur son fonctionnement. Nous avons étudié la tolérance aux fautes intrinsèquement permise par la fusion de données en analysant formellement les algorithmes de fusion de données, et nous avons proposé des mécanismes de détection et de rétablissement adaptés à la perception multi-capteurs. Nous avons ensuite implémenté les mécanismes proposés pour une application de localisation de véhicules en utilisant la fusion de données par filtrage de Kalman. Nous avons finalement évalué les mécanismes proposés en utilisant le rejeu de données réelles et la technique d'injection de fautes, et démontré leur efficacité face à des fautes matérielles et logicielles
    • …
    corecore