371 research outputs found

    Les TIC et la pédagogie

    Get PDF
    Pour les enfants qui grandissent aujourd’hui, le numérique fait désormais partie des savoirs sociaux fondamentaux au même titre que la lecture, l’écriture ou la mathématique. L’éducation aux TIC et plus largement l’acquisition d’une culture numérique constituent donc des enjeux cruciaux pour l’école contemporaine

    : Rapport final du projet ANR 2006-2008 (annexes scientifiques)

    Get PDF
    As a 24 months platform project, Lutin Game Lab was designed for making academic researchers and game companies cooperate in order to reach a new stage in the process of game quality assessment, before and after they are available on the market. The project was organized along 6 WP, all of them having fulfilled their specific goals, although we had to endure some delays due to the time required for settling the technical platform and due to the lack of time available for the companies to collaborate during the year 2008.The project results can be summed up in 4 different aspects:* A platform is now open to companies as well as to academic labs, equipped with all the devices and the softwares needed for conducting evaluation of gamers behaviour, including all game platforms, excepted for on-line games. Two eye-tracking devices and sensorial analysis tools are part of the equipment of the platform. This technical platform is operated by the UMS CNRS Lutin at the Cité des Sciences in Paris.* The methods created for analyzing the existing games and the ones in development phase were scientifically validated and adapted to the requirements of companies (time needed, display of the results, prerequisites and modes of cooperation with developers). These methods have not yet been tested in the developing phase of real games except for one of them (QRC), due to the workload of developers during this period. * The methods are the following:o Artificial expert for the prediction of gamers judgments based on a description framework of game properties. A subjective evaluation database has been designed using the data collected during the tests of 240 gamers (experts and naives) expressing judgments in a 11 items questionnaire, using the data from an objective description of game properties and the data obtained through an "objectivated subjective" description of games qualities retrieved from experts who designed and filled up a framework of 56 items per game genre (126 iterations). This expert allows companies to test their games while they are still in the design phase through the description framework in order to predict the judgments from the gamers and to optimize their various choices in game design using the 15 fuzzy models selected for each game genre.o Usability testing method adapted specifically to videogames (Quick Reality Check, QRC), based on a test protocol involving 10 gamers, on logs tracking the gamer behaviour (implemented by the developers in their prototype), on synthetic visualization tools displaying the results, and on remediation method in cooperation with game designers (game doctor). This method focuses on ergonomics features and acceptability issues.o An eyetracking method dedicated to gamers behaviour analysis. It helps to explore in-depth the areas or phases of concern discovered with the previous method. This allows the game designers to reshape some features in the interfaces and to compare their results with the patterns of each game genre that the research was able to modelize.o A method for tracking emotional states during the game, through sensors placed on the gamers bodies, in order to explore and better understand the reasons of the problems pointed out by the other methods. This is a much more innovative methodology and field of research and this explains the need for focusing on specific features in order to validate the whole framework with the existing scientific state of the art. This is a very promising field and a very attractive one for the game designers, one that would require much more research efforts.o An artificial expert providing diagnosis through the gathering of every piece of data collected during the various tests, with added results from on line questionnaires. The expert software provides an integrative view of the results for a specific game and can refer it to the various models available in the literature.* In the gameplay evaluation field, the project evolves from a review of literature to the design of a wiki open to the community of game designers, which aim is to create de knowledge database about gameplay qualities for each game genre. The wiki includes a list of rules shared by the community and examples of games displaying the uses of these rules, extracted from a corpus of the most famous games. The database can be enriched with new cases, rules can be adapted, through the revision process of the wiki which includes collective validation. Developers can access the wiki as a resource for validation of their choices.In brief, the platform offers a set of devices, a set of methods, available for the game industry, operated by Lutin experts, and a website including the wiki. Lutin Game lab platform represents an European reference center in the field of game evaluation. Lutin plans to design a quality label for games that could be used before the games are placed on the market. LUtin Game Lab requires a new research project devoted to the extension of the methods to on-line games (Lutin Game Lab on line). The next year will be devoted to dissemination and validation on real game being developed.Le projet annonçait ainsi ses objectifs en 2006 : " Lutin Game Lab, projet de plate-forme de 24 mois, se propose de fédérer les forces de recherche académiques et de développement des entreprises pour faire faire un pas significatif aux méthodologies d'évaluation de la qualité d'un jeu vidéo fini ou en cours de développement. " Le travail a comporté 6 sous -projets qui ont tous été menés à bien conformément au programme prévu avec des décalages non négligeables dus notamment au temps nécessaire au montage technique de la plate-forme et à la difficulté des entreprises à dégager du temps pour leur collaboration au moment voulu alors qu'elles sont sous haute pression concurrentielle. Le bilan du projet peut se résumer en 4 points : * il existe désormais en France une plate-forme ouverte aux entreprises et aux laboratoires, équipée de tous les matériels et logiciels nécessaires pour faire l'évaluation des comportements des joueurs de jeux vidéo, toutes plates-formes de jeu confondus, à l'exception des jeux multi joueurs en ligne. Cette plate-forme technique, comportant notamment des dispositifs d'oculométrie opérationnels de divers types, et des dispositifs d'analyse sensorielle, est opérationnelle en permanence dans le cadre des missions de l'UMS CNRS Lutin 2803 à la Cité des Sciences. * Les méthodes élaborées pour l'analyse des jeux existants et des jeux en cours de développement ont été validées scientifiquement et opérationnellement selon les critères des entreprises de jeux vidéo (délais, présentation des résultats, prérequis et formes de coopération). Ces méthodes devront cependant être validées en situation de jeux en cours de développement car les délais de coopération avec les entreprises n'ont permis de mettre en œuvre cette étape que pour une seule de ces méthodes (dite QRC)* Les méthodes comportent 5 volets : o un expert artificiel prédictif qui permet de prédire l'appréciation subjective des joueurs à partir d'une description formalisée des propriétés d'un jeu. Une base de données d'évaluation subjective a été constituée à partir de tests réalisés par 240 joueurs de tous niveaux et de leur appréciation subjective (11 items), à partir de description des propriétés objectives du jeu (106 items) et à partir d'une description subjective objectivée des qualités d'un jeu par genre (56 items par genre de jeu) et de 126 itérations de cette grille réalisée à partir d'une extraction d'expertise auprès de game designers et élèves game designers. Il est proposé aux entreprises de jeux vidéo de tester leur jeu dans une phase amont du développement pour prédire les scores de leurs jeux et ensuite optimiser les choix effectués, en exploitant les 15 modèles en logique floue sélectionnés pour chaque genre de jeu. o Une méthode en usability (Quick Reality Check) qui comporte un protocole de tests auprès de 10 joueurs minimum, des outils de suivi des déplacements par implantation de logs dans le jeu en cours de développement, de modes de visualisation synthétique des résultats et une méthode de correction associant les développeurs (Game Doctor). Cette méthode traite avant tout les questions d'ergonomie et d'acceptabilité. o Une méthode de suivi du regard des joueurs permettant d'affiner les résultats de la méthode précédente, sur des zones ou des phases problématiques pour repositionner le game design et l'ergonomie en fonction des patterns, ou signatures, identifiés par la recherche pour chaque type de jeux. o Une méthode de suivi de l'engagement émotionnel durant le jeu à partir de capteurs d'analyse sensorielle placés sur les joueurs, permettant là aussi d'affiner la recherche éventuelle de problèmes pour des phases plus précises selon les stratégies du game designer. Cette méthode est la plus innovante en termes de recherche et nos résultats restent donc limités à certains points précis qui sont cependant très prometteurs et nécessiteraient des travaux supplémentaires.o Un expert artificiel diagnostic permettant de traiter et de synthétiser toutes les données recueillies lors des tests des autres méthodes, de les compléter par des questionnaires en ligne si nécessaire et de les rapporter à des modèles issus de la littérature pour proposer un diagnostic intégré sur les qualités d'un jeu donné. * Dans le domaine du gameplay, le projet a évolué à partir d'un recensement exhaustif de la littérature sur la mise en place d'un wiki permettant à toute la communauté des développeurs de constituer une base de connaissances partagées sur les qualités du gameplay selon les genres. Ce wiki comporte un énoncé de règles reconnues par la communauté mais aussi leur exemplification à partir d'un corpus de jeux parmi les plus connus dans tous les genres. La base peut être enrichie par d'autres études de cas, les règles peuvent être affinées, et les développeurs peuvent la consulter en tant que de besoin pour valider les choix qu'ils effectuent. La mise en place de la plate-forme comporte ainsi une partie d'équipements localisés à la cité des sciences, une expertise en méthodes, directement opérationnelles et proposées déjà aux entreprises par les différents partenaires membres de Lutin, et un site collaboratif qui rassemble la communauté autour de son expertise propre. Lutin Game Lab peut ainsi prétendre devenir un centre de références européen en termes de méthodes qualité pour les jeux vidéo et nous prévoyons de travailler à proposer un label pour qualifier les jeux vidéo avant leur mise sur le marché, ainsi qu'à une extension de ses compétences pour les jeux vidéo multi joueurs en ligne (Lutin Game Lab on line). Le projet a ainsi atteint son objectif général ainsi que ses objectifs particuliers, à l'exception du temps de validation encore nécessaire auprès des entreprises qui n'a pu être pris en compte durant le projet

    Actes de la conférence conjointe JEP-TALN-RECITAL 2016, volume 09 : ELTAL

    Get PDF
    National audienceELTAL is a workshop organized within the JEP-TALN-RECITAL 2016 conference. This workshop brings together papers investigating metdods and applications in NLP applied to language teaching.ELTAL est un atelier organisé au sein de la conférence JEP-TALN-RECITAL 2016 et regroupe des contributions qui étudient les méthodes et les applications en TAL dans le domaine de l'enseignement des langues

    Indexation et navigation dans les contenus visuels : approches basées sur les graphes

    Get PDF
    La première partie de cette thèse concerne l’indexation des documents vidéo en scènes. Les scènes sont des ensembles de plans vidéo partageant des caractéristiques similaires. Nous proposons d’abord une méthode interactive de détection de groupes de plans, partageant un contenu couleur similaire, basé sur la fragmentation de graphe. Nous abordons ensuite l’indexation des documents vidéo en scènes de dialogue, basée sur des caractéristiques sémantiques et structurelles présentes dans l’enchaînement des plans vidéo. La seconde partie de cette thèse traite de la visualisation et de la recherche dans des collections d’images indexées. Nous présentons un algorithme de plongement d’un espace métrique dans le plan appliqué à la visualisation de collections d’images indexées. Ce type de visualisation permet de représenter les relations de dissimilarité entre images et d’identifier visuellement des groupes d’images similaires. Nous proposons enfin une interface de recherche d’images basée sur le routage local dans un graphe. Les résultats d’une validation expérimentale sont présentés et discutés.This thesis deals with the indexation and the visualisation of video documents and collections of images. The proposed methods are based on graphs to represent similarity relationships between indexed video shots and images. The first part of this thesis deals with the indexation of video documents into scenes. A scene is a set of video shots that share common features. We first propose an interactive method to group shots with similar color content using graph clustering. We then present a technique to index video documents into dialogue scenes based on semantic and structural features. The second part of this thesis deals with visualisation and search in collections of indexed images.We present an algorithm for embedding a metric space in the plane applied to collections of indexed images. The aim of this technique is to visualise the dissimilarity relationships between images to identify clusters of similar images. Finally, we present a user interface for searching images, inspired from greedy routing in networks. Results from experimental validation are presented and discussed

    Archives et création : nouvelles perspectives sur l'archivistique. Cahier 1

    Get PDF
    Ce cahier de recherche fait état des travaux menés au cours de la première étape (2013-2014) du projet « Archives et création : nouvelles perspectives sur l’archivistique ». Il comprend les textes suivants : Yvon Lemay et Anne Klein, « Introduction », p. 4-6; Yvon Lemay, « Archives et création : nouvelles perspectives sur l’archivistique », p. 7-19; Anne-Marie Lacombe, « Exploitation des archives à des fins de création : un aperçu de la littérature », p. 20-59; Simon Côté-Lapointe, « Archives sonores et création : une pratique à la croisée des chemins », p. 60-83; Hélène Brousseau, « Fibres, archives et société », p. 84-104; Annie Lecompte-Chauvin, « Comment les archives entrent dans nos vies par le biais de la littérature », p. 105-120; Aude Bertrand, « Valeurs, usages et usagers des archives », p. 121-150; Laure Guitard, « Indexation, émotions, archives », p. 151-168; Anne Klein, Denis Lessard et Anne-Marie Lacombe, « Archives et mise en archives dans le champ culturel. Synthèse du colloque « Archives et création, regards croisés : tournant archivistique, courant artistique », p. 169-178. De plus, dans le but de situer le projet dans un contexte plus large, le cahier inclut une bibliographie des travaux effectués sur les archives et la création depuis 2007, p. 179-182.Le projet de recherche est financé par le Conseil de recherches en sciences humaines du Canada (Programme Savoir, 2013-2016)

    Un outil pour l'indexation des vidéos personnelles par le contenu

    Get PDF

    Les propriétés grammaticales du genre de l'offre d'emploi aux fondements d'une méthode de classement automatique.

    Get PDF
    Nous présentons un projet de fouille de textes qui vise à développer une méthode de classement automatique d'offres d'emploi et d'identification des impératifs de compétences ; la méthode s'appuie sur l'étude des termes au sein de constructions grammaticales prototypiques (Bourrigault et Jacquemin, 2000 ; Tutin, 2007) permettant de saisir la sémantique lexicale et ce d'autant mieux au sein de l'horizon interprétatif défini par un genre spécifique (Condamines, 2006). Notre corpus se compose de 13375 offres d'emploi couvrant l'ensemble des métiers et secteurs, et annotées automatiquement en dépendances suivant une technique décrite dans (De La Clergerie et al., 2009 ; Erk & Padó, 2008 ; Padó & Lapata, 2007). Les patrons relevés, qui associent un jargon des ressources humaines et un lexique spécifique au métier concerné, permettent de distinguer les " compétences " d'autres classes de locutions emblématiques (par ex. l'intitulé du poste etc.) (Loth, 2010), ainsi que de classer les compétences (savoir-faire, personnalité, formation etc.). L'étude questionne ainsi la caractérisation multi-dimensionnelle des genres (Biber, 1988, 1993 ; Malrieu & Rastier, 2001 ; Rastier, 2001) et les liens entre syntaxe et sémantique (paradigmes constructionnels typiques et sémantique résultante)

    Indexation sonore : recherche de composantes primaires pour une structuration audiovisuelle

    Get PDF
    M. Paul DELÉGLISE – Professeur à l'Université du Maine – Rapporteur M. Patrick GROS – Chargé de Recherche à l'IRISA Rennes – Rapporteur M. Daniel DOURS – Professeur à l'Université Toulouse III – Président du jury M. Jean CARRIVE – Ingénieur de Recherche à l'Institut National de l'Audiovisuel – Membre M. Dominique FOHR – Chargé de Recherche au LORIA Nancy – MembreTo process the quantity of audiovisual information available in a smart and rapid way, it is necessary to have robust and automatic tools. This work addresses the soundtrack indexing and structuring of multimedia documents. Their goals are to detect the primary components: speech, music and key sounds. For speech/music classification, three unusual parameters are extracted: entropy modulation, stationary segment duration (with a Forward-Backward Divergence algorithm) and the number of segments. These three parameters are merged with the classical 4 Hertz modulation energy. Experiments on radio corpora show the robustness of these parameters. The system is compared and merged with a classical system. Another partitioning consists in detecting pertinent key sounds. For jingles, the selection of candidates is done by comparing the “signature” of each jingle with the data flow. This system is simple, fast and efficient. Applause and laughter are based on GMM with spectral analysis. A TV corpus validates this study by encouraging results. The detection of key words is carried out in a traditional way: the problem here is not to improve the existing systems but to be in a structuring task: these key words inform about the program type (news, weather, documentary...). Through two studies, a reflection is done for the component uses in order to find a temporal structure of the audiovisual documents. The first study is a detection of a recurring production invariant in program collections. The second permits to structure TV news into topics. Some examples of video analysis contribution are developed.Le développement croissant des données numériques et l'explosion des accès multimédia à l'information, sont confrontés au manque d'outils automatiques efficaces. Dans ce cadre, plusieurs approches relatives à l'indexation et la structuration de la bande sonore de documents audiovisuels sont proposées. Leurs buts sont de détecter les composantes primaires telles que la parole, la musique et les sons clés (jingles, sons caractéristiques, mots clés...). Pour la classification parole/musique, trois paramètres inhabituels sont extraits : la modulation de l'entropie, la durée des segments (issue d'une segmentation automatique) et le nombre de ces segments par seconde. Les informations issues de ces trois paramètres sont ensuite fusionnées avec celle issue de la modulation de l'énergie à quatre hertz. Des expériences sur un corpus radiophonique montrent la robustesse de ces paramètres : notre système possède un taux de classification correcte supérieur à 90%. Le système est ensuite comparé, puis fusionné à un système classique basé sur des Modèles de Mélanges de lois Gaussiennes (MMG) et une analyse cepstrale. Un autre partitionnement consiste à détecter des sons clés. La sélection de candidats potentiels est effectuée en comparant la « signature » de chacun des jingles au flux de données. Ce système est simple par sa mise en œuvre mais rapide et très efficace : sur un corpus audiovisuel d'une dizaine d'heures (environ 200 jingles) aucune fausse alarme n'est présente. Il y a seulement deux omissions dans des conditions extrêmes. Les sons caractéristiques (applaudissements et rires) sont modélisés à l'aide de MMG dans le domaine spectral. Un corpus télévisuel permet de valider cette première étude par des résultats encourageants. La détection de mots clés est effectuée de manière classique : il ne s'agit pas ici d'améliorer les systèmes existants mais de se placer toujours dans un besoin de structuration. Ainsi, ces mots clés renseignent sur le type des émissions (journal, météo, documentaire...). Grâce à l'extraction de ces composantes primaires, les émissions audiovisuelles peuvent être annotées de manière automatique. Au travers de deux études, une réflexion est conduite quant à l'utilisation de ces composantes afin de trouver une structure temporelle aux documents. La première étude permet une détection d'un motif récurrent dans une collection d'émissions, dites de plateau, alors que la seconde réalise la structuration en thèmes d'un journal télévisé. Quelques pistes de réflexions sur l'apport de l'analyse vidéo sont développées et les besoins futurs sont explorés

    Analyse et enrichissement de flux compressés : application à la vidéo surveillance

    Get PDF
    The increasing deployment of civil and military videosurveillance networks brings both scientific and technological challenges regarding analysis and content recognition over compressed streams. In this context, the contributions of this thesis focus on: - an autonomous method to segment in the compressed domain mobile objects (pedestrians, vehicles, animals …), - the coverage of the various compression standards commonly used in surveillance (MPEG-2, MPEG-4 Part 2, MPEG-4 Part 10 / H.264 AVC), - an optimised multi-stream processing chain from the objects segmentation up to their tracking and description. The developed demonstrator made it possible to bench the performances of the methodological approaches chosen for a tool dedicated to help investigations. It identifies vehicles from a witness description in databases of tens of hours of video. Moreover, while dealing with corpus covering the different kind of content expected from surveillance (subway stations, crossroads, areas in countryside or border surveillance …), the system provided the following results: - simultaneous real time analysis of up to 14 MPEG-2 streams, 8 MPEG-4 Part 2 streams or 3 AVC streams on a single core (2.66 GHz; 720x576 video, 25 fps), - 100% vehicles detected over the length of traffic surveillance footages, with a image per image detection near 95%, - a segmentation spreading over 80 to 150% of the object area (under or over-segmentation linked with the compressed domain). These researches led to 9 patents linked with new services and applications that were made possible thanks to the suggested approaches. Among these lie tools for Unequal Error Protection, Visual Cryptography, Watermarking or SteganographyLe développement de réseaux de vidéosurveillance, civils ou militaires, pose des défis scientifiques et technologiques en termes d’analyse et de reconnaissance des contenus des flux compressés. Dans ce contexte, les contributions de cette thèse portent sur : - une méthode de segmentation automatique des objets mobiles (piétons, véhicules, animaux …) dans le domaine compressé, - la prise en compte des différents standards de compression les plus couramment utilisés en surveillance (MPEG-2, MPEG-4 Part 2 et MPEG-4 Part 10 / H.264 AVC), - une chaîne de traitement multi-flux optimisée depuis la segmentation des objets jusqu’à leur suivi et description. Le démonstrateur réalisé a permis d’évaluer les performances des approches méthodologiques développées dans le cadre d’un outil d’aide à l’investigation, identifiant les véhicules répondant à un signalement dans des bases de données de plusieurs dizaines d’heures. En outre, appliqué à des corpus représentatifs des différentes situations de vidéosurveillance (stations de métro, carrefours, surveillance de zones en milieu rural ou de frontières ...), le système a permis d’obtenir les résultats suivants : - analyse de 14 flux MPEG-2, 8 flux MPEG-4 Part 2 ou 3 flux AVC en temps réel sur un coeur à 2.66 GHZ (vidéo 720x576, 25 images par seconde), - taux de détection des véhicules de 100% sur la durée des séquences de surveillance de trafic, avec un taux de détection image par image proche des 95%, - segmentation de chaque objet sur 80 à 150% de sa surface (sous ou sur-segmentation liée au domaine compressé). Ces recherches ont fait l’objet du dépôt de 9 brevets liés à des nouveaux services et applications rendus opérationnels grâce aux approches mises en oeuvre. Citons entre autres des outils pour la protection inégale aux erreurs, la cryptographie visuelle, la vérification d’intégrité par tatouage ou l’enfouissement par stéganographi

    Modélisation des métadonnées multi sources et hétérogènes pour le filtrage négatif et l'interrogation intelligente de grands volumes de données : application à la vidéosurveillance

    Get PDF
    En raison du déploiement massif et progressif des systèmes de vidéosurveillance dans les grandes métropoles, l'analyse a posteriori des vidéos issues de ces systèmes est confrontée à de nombreux problèmes parmi lesquels: (i) l'interopérabilité, due aux différents formats de données (vidéos) et aux spécifications des caméras propres à chaque système ; (ii) le grand temps d'analyse lié à l'énorme quantité de données et métadonnées générées ; et (iii) la difficulté à interpréter les vidéos qui sont parfois à caractère incomplet. Face à ces problèmes, la nécessité de proposer un format commun d'échange des données et métadonnées de vidéosurveillance, de rendre le filtrage et l'interrogation des contenus vidéo plus efficaces, et de faciliter l'interprétation des contenus grâce aux informations exogènes (contextuelles) est une préoccupation incontournable. De ce fait, cette thèse se focalise sur la modélisation des métadonnées multi sources et hétérogènes afin de proposer un filtrage négatif et une interrogation intelligente des données, applicables aux systèmes de vidéosurveillance en particulier et adaptables aux systèmes traitant de grands volumes de données en général. L'objectif dans le cadre applicatif de cette thèse est de fournir aux opérateurs humains de vidéosurveillance des outils pour les aider à réduire le grand volume de vidéo à traiter ou à visionner et implicitement le temps de recherche. Nous proposons donc dans un premier temps une méthode de filtrage dit "négatif", qui permet d'éliminer parmi la masse de vidéos disponibles celles dont on sait au préalable en se basant sur un ensemble de critères, que le traitement n'aboutira à aucun résultat. Les critères utilisés pour l'approche de filtrage négatif proposé sont basés sur une modélisation des métadonnées décrivant la qualité et l'utilisabilité/utilité des vidéos. Ensuite, nous proposons un processus d'enrichissement contextuel basé sur les métadonnées issues du contexte, et permettant une interrogation intelligente des vidéos. Le processus d'enrichissement contextuel proposé est soutenu par un modèle de métadonnées extensible qui intègre des informations contextuelles de sources variées, et un mécanisme de requêtage multiniveaux avec une capacité de raisonnement spatio-temporel robuste aux requêtes floues. Enfin, nous proposons une modélisation générique des métadonnées de vidéosurveillance intégrant les métadonnées décrivant le mouvement et le champ de vue des caméras, les métadonnées issues des algorithmes d'analyse des contenus, et les métadonnées issues des informations contextuelles, afin de compléter le dictionnaire des métadonnées de la norme ISO 22311/IEC 79 qui vise à fournir un format commun d'export des données extraites des systèmes de vidéosurveillance. Les expérimentations menées à partir du framework développé dans cette thèse ont permis de démontrer la faisabilité de notre approche dans un cas réel et de valider nos propositions.Due to the massive and progressive deployment of video surveillance systems in major cities, a posteriori analysis of videos coming from these systems is facing many problems, including the following: (i) interoperability, due to the different data (video) formats and camera specifications associated to each system; (ii) time-consuming nature of analysis due to the huge amount of data and metadata generated; and (iii) difficulty to interpret videos which are sometimes incomplete. To address these issues, the need to propose a common format to exchange video surveillance data and metadata, to make video content filtering and querying more efficient, and to facilitate the interpretation of content using external (contextual) information is an unavoidable concern. Therefore, this thesis focuses on heterogeneous and multi-source metadata modeling in order to propose negative filtering and intelligent data querying, which are applicable to video surveillance systems in particular and adaptable to systems dealing with large volumes of data in general. In the applicative context of this thesis, the goal is to provide human CCTV operators with tools that help them to reduce the large volume of video to be processed or viewed and implicitly reduce search time. We therefore initially propose a so-called "negative" filtering method, which enables the elimination from the mass of available videos those that it is know in advance, based on a set of criteria, that the processing will not lead to any result. The criteria used for the proposed negative filtering approach are based on metadata modeling describing video quality and usability/usefulness. Then, we propose a contextual enrichment process based on metadata from the context, enabling intelligent querying of the videos. The proposed contextual enrichment process is supported by a scalable metadata model that integrates contextual information from a variety of sources, and a multi-level query mechanism with a spatio-temporal reasoning ability that is robust to fuzzy queries. Finally, we propose a generic metadata modeling of video surveillance metadata integrating metadata describing the movement and field of view of cameras, metadata from content analysis algorithms, and metadata from contextual information, in order to complete the metadata dictionary of the ISO 22311/IEC 79 standard, which aims to provide a common format to export data extracted from video surveillance systems. The experiments performed using the framework developed in this thesis showed the reliability of our approach in a real case and enabled the validation of our proposals
    • …
    corecore