68 research outputs found

    Cohérence d'évènements médiatiques

    Get PDF
    Nous proposons une méthode pour visualiser et analyser les évènements médiatiques à partir des sujets d'actualité des journaux télévisés de plusieurs chaînes annotées avec des descripteurs textuels. Nous présentons une interface d'exploration basée sur un modèle de graphe de similarité sémantique. Après une étape classique couplant clustering et dessin de graphe, nous avons élaboré une mesure de cohérence inspirée par les travaux de Burt et Schott et offrant un retour visuel qualitatif des agrégats générés. Cette mesure de cohérence permet à l'utilisateur de contrôler et valider différents processus de filtrage et raffinage du clustering initial. La cartographie résultante met en évidence deux types d'agrégats : thématiques ou évènementiels

    De la détection d'évènements sonores violents par SVM dans les films

    Get PDF
    National audienceThis article studies the behaviour of a state-of-the-art support vector machine audio event detection approach, applied to violent event detection in movies. The events we are trying to detect are screams, gunshots, explosions. Contrary to others studies, we show that the state-of-theart approach does not lead to good results on this task. A study on the repartition of samples into subsets in a cross validation protocol helps explain those results and highlights a generalisation problem due to a polymorphism of considered classes. This polymorphism is demonstrated by the computation the divergence between the samples of the test database and the training database.Cet article étudie le comportement d'une approche classique, à l'état de l'art, pour la détection d'événements sonores par machines à vecteurs supports, appliquée à la détection d'événements violents dans les films. Les événements sonores considérés, liés à la présence de violence, sont les Cris, les Coups de feu et les Explosions. Nous montrons que, contrairement aux résultats d'autres études, l'approche état de l'art ne donne pas de bons résultats sur cette tâche. Une étude sur la répartition des échantillons en sous-ensembles dans un protocole de validation croisée permet d'expliquer ces résultats et met en évidence un problème de généralisation, dû au polymorphisme des classes considérées. Ce polymorphisme est démontré par un calcul de divergence entre les échantillons de la base de test et ceux de la base d'apprentissage

    Potentiel du nez électronique comme outil de détection d'évènements de suralimentation de digesteurs anaérobies

    Full text link
    Le succès croissant des énergies renouvelables et locales provient du développement de politiques favorables aux énergies vertes dont le résultat est le développement croissant de la filière de méthanisation agricole en Belgique et au Grand Duché du Luxembourg. La plupart des stations de méthanisation agricole ne peuvent travailler à un rendement optimum afin d'éviter toute suralimentation des réacteurs qui conduit à une perturbation de la digestion. De plus, le monitoring du processus est réalisé par des analyses sur la phase liquide dont les délais ne permettent pas de gérer instantanément le processus de digestion. De cela apparait la nécessité d'un outil simple de suivi servant à prévenir en ligne toute perturbation du processus et de réagir rapidement. Dans cette optique, le nez électronique est un outil potentiel du suivi en ligne des réacteurs anaérobies basé sur l'analyse de la phase gazeuse. Les nez électroniques sont composés d'un réseau de capteurs à gaz non spécifiques qui peuvent répondre à différentes substances dans une matrice complexe, comme le biogaz, et produire des réponses complexes qui sont traitées par analyses multivariées et par des systèmes de reconnaissance. L'objectif de cette étude est de démontrer la capacité d'un système type nez électronique comme un outil robuste, fiable et facile à utiliser pour le suivi du processus des réacteurs anaérobies à la ferme et prévenir des situations de suralimentation des digesteurs. Un nez électronique composé de six capteurs gaz à semi-conducteurs a été testé pendant deux mois sur douze mini-digesteurs semi-continus inoculés avec de la boue anaérobie (1,5 L; 2,2% MS; 54,4% MOS). Les mini-digesteurs ont été nourris avec trois types de substrats: (i) saccharose; (ii) lipides et (iii) un mélange de lipides et saccharose en proportion 1:1. Deux stratégies d'alimentation ont été suivies: un contrôle avec un taux de charge organique de 1,33 g.L-1.jour-1 et une stratégie de suralimentation croissante évoluant de 1,33 à 5,33 g.L-1.jour-1. La concentration en méthane, dioxyde de carbone, sulfure d'hydrogène et monoxyde de carbone et le pH ont été mesurés quotidiennement sur le biogaz issu des mini-digesteurs. Les échantillons de biogaz ont ensuite été dilués 25 fois avec de l'air de référence avant d'être analysés sur le nez électronique. Les résultats de l'analyse en composantes principales des signaux des six capteurs à gaz du nez électronique démontrent que les situations de suralimentation sont détectées par le nez électronique. Les taux de charge organique élevés (> 3 g.L-1.jour-1) sont séparés des contrôles (1,3 g.L-1.jour-1). Les différents types de substrats sont également distingués dans le graphique des composantes principales mais les contrôles de chaque type de substrat sont proches et forment un zone de digestion stable (taux de charge < 3 g.L-1.jour-1) indépendante du substrat. Cela démontre le potentiel du nez électronique à prévenir des phénomènes de suralimentation des digesteurs anaérobies, indépendamment du substrat utilisé. L'intensité de la suralimentation peut-être estimée par la distance euclidienne par rapport au centre de gravité des scores des mini-digesteurs contrôles. Ces résultats devront être validés sur des réacteurs pilotes et finalement sur des installations réelles

    Analyse sémantique d'un trafic routier dans un contexte de vidéo-surveillance

    Get PDF
    Les problématiques de sécurité, ainsi que le coût de moins en moins élevé des caméras numériques, amènent aujourd'hui à un développement rapide des systèmes de vidéosurveillance. Devant le nombre croissant de caméras et l'impossibilité de placer un opérateur humain devant chacune d'elles, il est nécessaire de mettre en oeuvre des outils d'analyse capables d'identifier des évènements spécifiques. Le travail présenté dans cette thèse s'inscrit dans le cadre d'une collaboration entre le Laboratoire Bordelais de Recherche en Informatique (LaBRI) et la société Adacis. L'objectif consiste à concevoir un système complet de vidéo-surveillance destiné à l'analyse automatique de scènes autoroutières et la détection d'incidents. Le système doit être autonome, le moins supervisé possible et doit fournir une détection en temps réel d'un évènement.Pour parvenir à cet objectif, l'approche utilisée se décompose en plusieurs étapes. Une étape d'analyse de bas-niveau, telle que l'estimation et la détection des régions en mouvement, une identification des caractéristiques d'un niveau sémantique plus élevé, telles que l'extraction des objets et la trajectoire des objets, et l'identification d'évènements ou de comportements particuliers, tel que le non respect des règles de sécurité. Les techniques employées s'appuient sur des modèles statistiques permettant de prendre en compte les incertitudes sur les mesures et observations (bruits d'acquisition, données manquantes, ...).Ainsi, la détection des régions en mouvement s'effectue au travers la modélisation de la couleur de l'arrière-plan. Le modèle statistique utilisé est un modèle de mélange de lois, permettant de caractériser la multi-modalité des valeurs prises par les pixels. L'estimation du flot optique, de la différence de gradient et la détection d'ombres et de reflets sont employées pour confirmer ou infirmer le résultat de la segmentation.L'étape de suivi repose sur un filtrage prédictif basé sur un modèle de mouvement à vitesse constante. Le cas particulier du filtrage de Kalman (filtrage tout gaussien) est employé, permettant de fournir une estimation a priori de la position des objets en se basant sur le modèle de mouvement prédéfini.L'étape d'analyse de comportement est constituée de deux approches : la première consiste à exploiter les informations obtenues dans les étapes précédentes de l'analyse. Autrement dit, il s'agit d'extraire et d'analyser chaque objet afin d'en étudier son comportement. La seconde étape consiste à détecter les évènements à travers une coupe du volume 2d+t de la vidéo. Les cartes spatio-temporelles obtenues sont utilisées pour estimer les statistiques du trafic, ainsi que pour détecter des évènements telles que l'arrêt des véhicules.Pour aider à la segmentation et au suivi des objets, un modèle de la structure de la scène et de ses caractéristiques est proposé. Ce modèle est construit à l'aide d'une étape d'apprentissage durant laquelle aucune intervention de l'utilisateur n'est requise. La construction du modèle s'effectue à travers l'analyse d'une séquence d'entraînement durant laquelle les contours de l'arrière-plan et les trajectoires typiques des véhicules sont estimés. Ces informations sont ensuite combinées pour fournit une estimation du point de fuite, les délimitations des voies de circulation et une approximation des lignes de profondeur dans l'image. En parallèle, un modèle statistique du sens de direction du trafic est proposé. La modélisation de données orientées nécessite l'utilisation de lois de distributions particulières, due à la nature périodique de la donnée. Un mélange de lois de type von-Mises est utilisée pour caractériser le sens de direction du trafic.Automatic traffic monitoring plays an important role in traffic surveillance. Video cameras are relatively inexpensive surveillance tools, but necessitate robust, efficient and automated video analysis algorithms. The loss of information caused by the formation of images under perspective projection made the automatic task of detection and tracking vehicles a very challenging problem, but essential to extract a semantic interpretation of vehicles behaviors. The work proposed in this thesis comes from a collaboration between the LaBRI (Laboratoire Bordelais de Recherche en Informatique) and the company Adacis. The aim is to elaborate a complete video-surveillance system designed for automatic incident detection.To reach this objective, traffic scene analysis proceeds from low-level processing to high-level descriptions of the traffic, which can be in a wide variety of type: vehicles entering or exiting the scene, vehicles collisions, vehicles' speed that are too fast or too low, stopped vehicles or objects obstructing part of the road... A large number of road traffic monitoring systems are based on background subtraction techniques to segment the regions of interest of the image. Resulted regions are then tracked and trajectories are used to extract a semantic interpretation of the vehicles behaviors.The motion detection is based on a statistical model of background color. The model used is a mixture model of probabilistic laws, which allows to characterize multimodal distributions for each pixel. Estimation of optical flow, a gradient difference estimation and shadow and highlight detection are used to confirm or invalidate the segmentation results.The tracking process is based on a predictive filter using a motion model with constant velocity. A simple Kalman filter is employed, which allow to predict state of objets based on a \textit{a priori} information from the motion model.The behavior analysis step contains two approaches : the first one consists in exploiting information from low-level and mid-level analysis. Objects and their trajectories are analysed and used to extract abnormal behavior. The second approach consists in analysing a spatio-temporal slice in the 3D video volume. The extracted maps are used to estimate statistics about traffic and are used to detect abnormal behavior such as stopped vehicules or wrong way drivers.In order to help the segmentaion and the tracking processes, a structure model of the scene is proposed. This model is constructed using an unsupervised learning step. During this learning step, gradient information from the background image and typical trajectories of vehicles are estimated. The results are combined to estimate the vanishing point of the scene, the lanes boundaries and a rough depth estimation is performed. In parallel, a statistical model of the trafic flow direction is proposed. To deal with periodic data, a von-Mises mixture model is used to characterize the traffic flow direction.BORDEAUX1-Bib.electronique (335229901) / SudocSudocFranceF

    Détection d'évènements simples à partir de mesures sur courant alternatif

    Get PDF
    The need to save energy is an important focus of recent decades, hence the need to monitor the energy consumption of residential and industrial processes. The research works presented in this manuscript are within the monitoring power consumption area in order to enable energy saving. The final goal is to have a clear and reliable knowledge of a given grid. This involves the decomposition of the overall power consumption of the electrical network to provide a detailed analysis of the consumed energy. The objective of this thesis is to develop a non-intrusive approach to achieve the event detection and feature extraction steps, which precede the classification and the power consumption estimation steps. The algorithm resulting from the works performed in this thesis can detect events which occur on the current and associates to them an information vector containing the parameters characterizing the steady and transient states. Then this information vector is used to recognize all the events linked to the same electrical load.La nécessité d’économiser de l'énergie est l’un des axes importants de ces dernières décennies, d’où le besoin de surveiller la consommation d'énergie des processus résidentiels et industriels. Le travail de recherche présenté dans ce manuscrit s’inscrit plus particulièrement dans le suivi de la consommation électrique afin de permettre l’économie d’énergie. Le but final étant d'avoir une connaissance précise et fiable d'un réseau électrique donné. Cela passe par la décomposition de la consommation électrique globale du réseau électrique étudié afin de fournir une analyse détaillée de l'énergie consommée par usage. L’objectif de cette thèse est la mise en place d’une approche non-intrusive permettant de réaliser les étapes de détection d’évènements et d’extraction de caractéristiques, qui précédent les étapes de classification et d’estimation de la consommation électrique par usage. L’algorithme résultant des travaux effectués durant cette thèse permet de détecter les évènements qui surviennent sur le courant et d’y associer un vecteur d’information contenant des paramètres caractérisant le régime permanent et le régime transitoire. Ce vecteur d’information permet ensuite de reconnaître tous les évènements liés à la même charge électrique

    Analyse macroscopique des grands systèmes (émergence épistémique et agrégation spatio-temporelle)

    Get PDF
    L'analyse des systèmes de grande taille est confrontée à des difficultés d'ordre syntaxique et sémantique : comment observer un million d'entités distribuées et asynchrones ? Comment interpréter le désordre résultant de l'observation microscopique de ces entités ? Comment produire et manipuler des abstractions pertinentes pour l'analyse macroscopique des systèmes ? Face à l'échec de l'approche analytique, le concept d'émergence épistémique - relatif à la nature de la connaissance - nous permet de définir une stratégie d'analyse alternative, motivée par le constat suivant : l'activité scientifique repose sur des processus d'abstraction fournissant des éléments de description macroscopique pour aborder la complexité des systèmes. Cette thèse s'intéresse plus particulièrement à la production d'abstractions spatiales et temporelles par agrégation de données. Afin d'engendrer des représentations exploitables lors du passage à l'échelle, il apparaît nécessaire de contrôler deux aspects essentiels du processus d'abstraction. Premièrement, la complexité et le contenu informationnel des représentations macroscopiques doivent être conjointement optimisés afin de préserver les détails pertinents pour l'observateur, tout en minimisant le coût de l'analyse. Nous proposons des mesures de qualité (critères internes) permettant d'évaluer, de comparer et de sélectionner les représentations en fonction du contexte et des objectifs de l'analyse. Deuxièmement, afin de conserver leur pouvoir explicatif, les abstractions engendrées doivent être cohérentes avec les connaissances mobilisées par l'observateur lors de l'analyse. Nous proposons d'utiliser les propriétés organisationnelles, structurelles et topologiques du système (critères externes) pour contraindre le processus d'agrégation et pour engendrer des représentations viables sur les plans syntaxique et sémantique. Par conséquent, l'automatisation du processus d'agrégation nécessite de résoudre un problème d'optimisation sous contraintes. Nous proposons dans cette thèse un algorithme de résolution générique, s'adaptant aux critères formulés par l'observateur. De plus, nous montrons que la complexité de ce problème d'optimisation dépend directement de ces critères. L'approche macroscopique défendue dans cette thèse est évaluée sur deux classes de systèmes. Premièrement, le processus d'agrégation est appliqué à la visualisation d'applications parallèles de grande taille pour l'analyse de performance. Il permet de détecter les anomalies présentes à plusieurs niveaux de granularité dans les traces d'exécution et d'expliquer ces anomalies à partir des propriétés syntaxiques du système. Deuxièmement, le processus est appliqué à l'agrégation de données médiatiques pour l'analyse des relations internationales. L'agrégation géographique et temporelle de l'attention médiatique permet de définir des évènements macroscopiques pertinents sur le plan sémantique pour l'analyse du système international. Pour autant, nous pensons que l'approche et les outils présentés dans cette thèse peuvent être généralisés à de nombreux autres domaines d'application.The analysis of large-scale systems faces syntactic and semantic difficulties: How to observe millions of distributed and asynchronous entities? How to interpret the disorder that results from the microscopic observation of such entities? How to produce and handle relevant abstractions for the systems' macroscopic analysis? Faced with the failure of the analytic approach, the concept of epistemic emergence - related to the nature of knowledge - allows us to define an alternative strategy. This strategy is motivated by the observation that scientific activity relies on abstraction processes that provide macroscopic descriptions to broach the systems' complexity. This thesis is more specifically interested in the production of spatial and temporal abstractions through data aggregation. In order to generate scalable representations, the control of two essential aspects of the aggregation process is necessary. Firstly, the complexity and the information content of macroscopic representations should be jointly optimized in order to preserve the relevant details for the observer, while minimizing the cost of the analysis. We propose several measures of quality (internal criteria) to evaluate, compare and select the representations depending on the context and the objectives of the analysis. Secondly, in order to preserve their explanatory power, the generated abstractions should be consistent with the background knowledge exploited by the observer for the analysis. We propose to exploit the systems' organisational, structural and topological properties (external criteria) to constrain the aggregation process and to generate syntactically and semantically consistent representations. Consequently, the automation of the aggregation process requires solving a constrained optimization problem. We propose a generic algorithm that adapts to the criteria expressed by the observer. Furthermore, we show that the complexity of this optimization problem directly depend on these criteria. The macroscopic approach supported by this thesis is evaluated on two classes of systems. Firstly, the aggregation process is applied to the visualisation of large-scale distributed applications for performance analysis. It allows the detection of anomalies at several scales in the execution traces and the explanation of these anomalies according to the system syntactic properties. Secondly, the process is applied to the aggregation of news for the analysis of international relations. The geographical and temporal aggregation of media attention allows the definition of semantically consistent macroscopic events for the analysis of the international system. Furthermore, we believe that the approach and the tools presented in this thesis can be extended to a wider class of application domains.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF

    Apprentissage profond faiblement supervisé et semi-supervisé pour la détection d'évènements sonores

    Get PDF
    La quantité de données produite par les médias tel que Youtube est une mine d'or d'information pour les algorithmes d'apprentissage machine. Une mine d'or inatteignable tant que ces informations n'ont pas été raffinées. Pour les algorithmes dits supervisés, il est nécessaire d'associer à chaque information disponible une étiquette permettant de l'identifier et de l'utiliser. C'est un travail fastidieux, lent et coûteux, réalisé par des annotateurs humains de manière bénévole ou professionnellement. Cependant, la quantité d'information générée chaque jour excède largement nos capacités d'annotation humaine. Il est alors nécessaire de se tourner vers des méthodes d'apprentissage capables d'utiliser l'information dans sa forme brute ou légèrement travaillée. Cette problématique est au coeur de ma thèse, où il s'agit, dans une première partie, d'exploiter des annotations humaines dites " faibles ", puis d'exploiter des données partiellement annotées dans une seconde partie. La détection automatique d'évènements sonores polyphoniques est une problématique difficile à résoudre. Les évènements sonores se superposent, se répètent et varient dans le domaine fréquentiel même au sein d'une même catégorie. Toutes ces difficultés rendent la tâche d'annotation encore plus difficile, non seulement pour un annotateur humain, mais aussi pour des systèmes entraînés à la classification. La classification audio de manière semi-supervisée, c'est-à-dire lorsqu'une partie conséquente du jeu de données n'a pas été annotée, est l'une des solutions proposées à la problématique de l'immense quantité de données générée chaque jour. Les méthodes d'apprentissage profond semi-supervisées sont nombreuses et utilisent différents mécanismes permettant d'extraire implicitement des informations des données non-annotées, les rendant ainsi utiles et directement utilisables. L'objectif de cette thèse est dans un premier temps, d'étudier et proposer des approches faiblement supervisées pour la tâche de détection d'évènements sonores, mises en oeuvre lors de notre participation à la tâche quatre du défi international DCASE. Il s'agit ici d'enregistrements audio faiblement supervisés réalistes, de type bruits domestique. Afin de résoudre cette tâche, nous avons proposé deux solutions fondées sur les réseaux de neurones convolutifs récurrents, ainsi que sur des hypothèses statistiques contraignant l'entraînement. Dans un second temps, nous nous pencherons sur l'apprentissage profond semi-supervisé, lorsqu'une majorité de l'information n'est pas annotée. Nous comparons des approches développées pour la classification d'images au départ, avant de proposer leur application À la classification audio. Nous montrons que les approches les plus récentes permettent d'obtenir des résultats aussi bons qu'un entraînement entièrement supervisé, qui lui aurait eu accès à l'intégralité des annotations.The amount of information produced by media such as Youtube, Facebook, or Instagram is a gold mine of information for machine and deep learning algorithms. A gold mine that cannot be reached until this information has been refined. For supervised algorithms, it is necessary to associate a label to each available piece of information allowing to identify and use it. This is a tedious, slow, and costly task, performed by human annotators on a voluntary or professional basis. However, the amount of information generated each day far exceeds our human annotation capabilities. It is then necessary to turn to learning methods capable of using the information in its raw or slightly processed form. For that, we will focus on weak annotations in the first part, then on partial annotations in the second part. The detection of sound events in a polyphonic environment is a difficult problem to solve. The sound events overlap, repeat or vary in the frequency domain. All these difficulties make the annotation task even more challenging, not only for a human annotator but also for systems trained in simple classification (mono phone). Semi-supervised audio classification, i.e. when a significant part of the dataset has not been annotated, is another proposed solution to the problem of the huge amount of data generated every day. Semi-supervised deep learning methods are numerous and use different mechanisms to implicitly extract information from these unannotated data, making them useful and directly usable. The objectives of this thesis are two folds. Firstly, to study and propose weakly supervised approaches for the sound event detection task in our participation in the DCASE international challenge task four, which provides realistic weakly supervised audio recordings extracted from domestic scenes. To solve this task, we suggest two solutions based on recurrent neural networks and statistical assumptions constraining the training. Secondly, we focus on semi-supervised deep learning when most of the information is not annotated. We compare approaches developed for image classification before proposing their application to audio classification and a substantial improvement. We show that the most recent approaches can achieve results as good as fully supervised training, which would have had access to all annotations

    Concepts and evolution of research in the field of wireless sensor networks

    Full text link
    The field of Wireless Sensor Networks (WSNs) is experiencing a resurgence of interest and a continuous evolution in the scientific and industrial community. The use of this particular type of ad hoc network is becoming increasingly important in many contexts, regardless of geographical position and so, according to a set of possible application. WSNs offer interesting low cost and easily deployable solutions to perform a remote real time monitoring, target tracking and recognition of physical phenomenon. The uses of these sensors organized into a network continue to reveal a set of research questions according to particularities target applications. Despite difficulties introduced by sensor resources constraints, research contributions in this field are growing day by day. In this paper, we present a comprehensive review of most recent literature of WSNs and outline open research issues in this field

    Développement et validation d'un instrument non-invasifde caractérisation du comportement musculaire respiratoire

    Full text link
    Réalisé en cotutelle avec l'Université Joseph Fourier École Doctorale Ingénierie pour la Santé,la Cognition et l'Environnement (France)Les progrès en anesthésie et en réanimation ont pour objectifs la réduction de la durée de surveillance et l'amélioration de la qualité de la récupération. Pour le cas particulier de l'assistance respiratoire, la capacité de surveiller et d'optimiser l'adaptation entre le patient et sa machine d'assistance est déterminante pour la qualité et la conduite des soins. Ce travail de thèse concerne dans sa première partie la mise en place et la validation d'un outil instrumental permettant de caractériser un comportement respiratoire par l'étude cycle à cycle du délai d'activation inspiratoire entre les muscles des voies aériennes supérieures et de la cage thoracique. Cet outil doit prendre en compte les contraintes imposées par le milieu clinique telle qu'une mesure non-invasive des muscles respiratoires. Il repose sur une mesure électromyographique (EMG) de surface des muscles respiratoires. La mesure cycle à cycle et par voie de surface du délai d'activation est un véritable challenge dans un environnement clinique qui est fortement perturbé. La démarche choisie ici est double avec en parallèle : i) La mise en place d'un outil de détection d'évènements menée sous supervision. ii) La définition d'un protocole original sur sujets sains prenant en compte les contraintes cliniques et permettant de valider l'outil et de constituer une base de connaissances pour envisager l'automatisation des procédés dans un travail futur. D'un point de vue physiologique, l'influence de la fréquence respiratoire sur le délai d'activation de l'inspiration n'a pas été étudiée à ce jour. Ce délai a donc été mesuré en condition de normocapnie à différentes fréquences respiratoires imposées par un stimulus sonore. Une étude statistique montre que l'instrument permet de distinguer deux situations physiologiques du protocole expérimental, ce qui en dé- montre la sensibilité. La deuxième partie de ce travail de thèse s'inscrit dans le cadre d'une optimisation des méthodes de détection de singularités d'intérêt. La solution choisie ici se base sur l'intensité structurelle qui calcule la "densité" de maxima d'ondelettes à différentes échelles et permet une localisation des singularités d'un signal bruité. Une formulation de cet outil qui utilise la transformée de Berkner est proposée. Celle-ci permet le chaînage des maxima d'ondelette afin de positionner précisément les amers du signal. Le filtrage de l'artefact ECG dans l'EMG diaphragmatique sans signal de référence est proposé comme exemple d'application.Better care in an anaesthesia and critical care could be achieved by reducing monitoring duration and improving the quality of recovery. For the particular case of respiratory assistance, the capacity to track and optimize patient-ventilator synchrony is essential to quality care. As a first step, this thesis adresses the development and validation of an instrument which characterizes respiratory behavior by studying the time lag between onset of upper airway muscles and rib cage muscles, cycle by cycle during respiration. This tool must take into account the constraints imposed by the clinical environment ; measuring respiratory muscles by surface electromyographic measurements (EMG). Measurement of the onset time lag, cycle by cycle and non invasively, is a true challenge in a critical care clinical environment. Here the approach is two-fold : i) The development of a tool for events detection. ii) The definition of an original protocol on healthy subjects. The tool development constitutes a knowledge bases to eventually develop automation of the processes in future work. From a physiological point of view, the influence of respiratory rate on the EMG onset time lag during inspiration has not been studied. Thus we measured this time lag in normocapnia at various respiratory rates imposed by a sound stimulus. Statistically, the instrumental tool can distinguish two physiological situations in this experimental protocol, which confirms its sensitivity. The second step of this thesis is part of an optimization of events detection methods with singularities of interest. The chosen solution is based on structural intensity which computes the "density" of the locations of the modulus maxima of a wavelet representation along various scales in order to identify singularities of an unknown signal. An improvement is proposed by applying Berkner transform which allows maxima linkage to insure accurate localization of landmarks. An application to cancel ECG interference in diaphragmatic EMG without a reference signal is also proposed

    Event detection on streams of short texts for decision-making

    Get PDF
    L'objectif de cette thèse est de concevoir d'évènements sur les réseaux sociaux permettant d'assister les personnes en charge de prises de décisions dans des contextes industriels. Le but est de créer un système de détection d'évènement permettant de détecter des évènements à la fois ciblés, propres à des domaines particuliers mais aussi des évènements généraux. En particulier, nous nous intéressons à l'application de ce système aux chaînes d'approvisionnements et plus particulièrement celles liées aux matières premières. Le défi est de mettre en place un tel système de détection, mais aussi de déterminer quels sont les évènements potentiellement impactant dans ces contextes. Cette synthèse résume les différentes étapes des recherches menées pour répondre à ces problématiques. Architecture d'un système de détection d'évènements Dans un premier temps, nous introduisons les différents éléments nécessaires à la constitution d'un système de détection d'évènements. Ces systèmes sont classiquement constitués d'une étape de filtrage et de nettoyage des données, permettant de s'assurer de la qualité des données traitées par le reste du système. Ensuite, ces données sont représentées de manière à pouvoir être regroupées par similarité. Une fois ces regroupements de données établis, ils sont analysés de manière à savoir si les documents les constituants traitent d'un évènement ou non. Finalement, l'évolution dans le temps de ces évènements est suivie. Nous avons proposé au cours de cette thèse d'étudier les problématiques propres à chacune de ces étapes. Représentation textuelles de documents issus des réseaux sociaux Nous avons comparé différentes méthodes de représentations des données textuelles, dans le contexte de notre système de détection d'évènements. Nous avons comparé les performances de notre système de détection à l'algorithme First Story Detection (FSD), un algorithme ayant les mêmes objectifs. Nous avons d'abord démontré que le système que nous proposons est plus performant que le FSD, mais aussi que les architectures récentes de réseaux de neurones (transformeur) sont plus performantes que TF-IDF dans notre contexte, contrairement à ce qui avait été montré dans le contexte du FSD. Nous avons ensuite proposé de combiner différentes représentations textuelles afin d'exploiter conjointement leurs forces. Détection d'évènement, suivi et évaluation Nous avons proposé des approches pour les composantes d'analyse de regroupement de documents ainsi que pour le suivi de l'évolution de ces évènements. En particulier, nous utilisons l'entropie et la diversité d'utilisateurs introduits dans [Rajouter les citations] pour évaluer les regroupements. Nous suivons ensuite leur évolution au cours du temps en faisant des comparaisons entre regroupements à des instants différents, afin de créer des chaînes de regroupements. Enfin, nous avons étudié comment évaluer des systèmes de détection d'évènements dans des contextes où seulement peu de données annotées par des humains sont disponibles. Nous avons proposé une méthode permettant d'évaluer automatiquement les systèmes de détection d'évènement en exploitant des données partiellement annotées. Application au contexte des matières premières. Afin de spécifier les types d'évènements à superviser, nous avons mené une étude historique des évènements ayant impacté le cours des matières premières. En particulier, nous nous sommes focalisé sur le phosphate, une matière première stratégique. Nous avons étudié les différents facteurs ayant une influence, proposé une méthode reproductible pouvant être appliquée à d'autres matières premières ou d'autres domaines. Enfin, nous avons dressé une liste d'éléments à superviser pour permettre aux experts d'anticiper les variations des cours.The objective of this thesis is to design an event detection system on social networks to assist people in charge of decision-making in industrial contexts. The event detection system must be able to detect both targeted, domain-specific events and general events. In particular, we are interested in the application of this system to supply chains and more specifically those related to raw materials. The challenge is to build such a detection system, but also to determine which events are potentially influencing the raw materials supply chains. This synthesis summarizes the different stages of research conducted to answer these problems. Architecture of an event detection system First, we introduce the different building blocks of an event detection system. These systems are classically composed of a data filtering and cleaning step, ensuring the quality of the data processed by the system. Then, these data are embedded in such a way that they can be clustered by similarity. Once these data clusters are created, they are analyzed in order to know if the documents constituting them discuss an event or not. Finally, the evolution of these events is tracked. In this thesis, we have proposed to study the problems specific to each of these steps. Textual representation of documents from social networks We compared different text representation models, in the context of our event detection system. We also compared the performances of our event detection system to the First Story Detection (FSD) algorithm, an algorithm with the same objectives. We first demonstrated that our proposed system performs better than FSD, but also that recent neural network architectures perform better than TF-IDF in our context, contrary to what was shown in the context of FSD. We then proposed to combine different textual representations in order to jointly exploit their strengths. Event detection, monitoring, and evaluation We have proposed different approaches for event detection and event tracking. In particular, we use the entropy and user diversity introduced in ... to evaluate the clusters. We then track their evolution over time by making comparisons between clusters at different times, in order to create chains of clusters. Finally, we studied how to evaluate event detection systems in contexts where only few human-annotated data are available. We proposed a method to automatically evaluate event detection systems by exploiting partially annotated data. Application to the commodities context In order to specify the types of events to supervise, we conducted a historical study of events that have impacted the price of raw materials. In particular, we focused on phosphate, a strategic raw material. We studied the different factors having an influence, proposed a reproducible method that can be applied to other raw materials or other fields. Finally, we drew up a list of elements to supervise to enable experts to anticipate price variations
    • …
    corecore