8 research outputs found
Points d'intérêt spatio-temporels pour la détection de mouvements dans les vidéos
National audienceParmi toutes les caractéristiques qui peuvent être extraites de vidéos, les points d'intérêt spatiotemporels (STIP) sont particulièrement intéressants car ce sont des caractéristiques de bas niveau simples et robustes qui permettent une bonne caractérisation des objets en mouvement. Dans cet article, nous définissons les STIP et analysons leurs propriétés. Puis, les STIP sont utilisés pour détecter des objets en mouvement et pour caractériser les changements spécifiques dans les mouvements de ces objets. Les performances sont étudiées sur des types très différents de vidéos : des séquences d'athlétisme et des séquences de films d'animation
Spatio-temporal block model for video indexation assistance
International audienceIn the video indexing framework, we have developed a user assistance system in order to define concept models (i.e semantic index) according to features automatically extracted from the video. Because the manual indexing is a long and tedious task, we propose to focus the user attention on pre-selected prototypes that a priori correspond to the searched concepts. The proposed system is decomposed in three steps. In the first one, some basic spatio-temporal blocks are extracted from the video, a particular block being associated to a particular property of one feature. In the second step, a Question/Answer system allows the user to define links between basic blocks in order to define concept block models. And finally, some concept blocks are extracted and proposed as prototypes of the concepts. In this paper, we present the two first steps, particularly the block structure, illustrated by an example of video indexing that corresponds to the concept running in athletic videos
Relevance of interest points for eye position prediction on videos
2009, XIV, 456 p., Softcover. ISBN: 978-3-642-04666-7International audienceThis papers tests the relevance of interest points to predict eye movements of subjects when viewing video sequences freely. Moreover the papers compares the eye positions of subjects with interest maps obtained using two classical interest point detectors: one spatial and one space-time. We fund that in function of the video sequence, and more especially in function of the motion inside the sequence, the spatial or the space-time interest point detector is more or less relevant to predict eye movements
Gamification d'environnement informatique
National audienceDepuis quelques années, " les serious games " et les " learning role-playing games " s'insèrent dans le paysage des entreprises et des dispositifs de formation grâce à leurs effets reconnus sur l'engagement. Cet engagement est directement lié aux mécanismes de jeu introduit et il est possible de créer cet engagement en dehors de jeu en insérant ces mécanismes dans n'importe quel environnement informatique : c'est le processus de Gamification. Nous proposons dans cet article de revenir sur le concept du Flow (l'état de l'utilisateur), de définir la Gamification et ses règles puis de l'appliquer à un système basique d'EIAH, avec pour objectif la conception d'une approche générique de gamification d'un système informatique
Use the palmprint for identification and authentication of persons: a new real-time method of data treatment based on graph construction of spatial interest points
The identification and authentication of individuals by their palmprints is a recent approach in the family of
biometric modalities, very interesting in appearance and non-contact non-intrusive. It was recently studied in topic
research over the last decade. The proposed approaches are mostly based on methods of classification and
learning. However, the complexity of the calculations leads to an inappropriate application in real time. In our
work, we investigated the use of basic primitives pictures more precisely the Space Interest Points (SIO) in a realtime
process of identification and authentication of palmprint. This process is based on construction and matching
of graph. By setting few constraints and working with matching methods and matching specific, experimental
results suggest a robust real-time solution as good as the best methods with an error rate authentication below 1%
for a population of 20 individuals
Détection automatique de reformulations - Correspondance de concepts appliquée à la détection du plagiat
International audienceComparison of two documents in the plagiarism detection context is often reduced to a word to word comparison, a research of copy and paste. In this article, a naïve approach to compare two documents with the aim of automatically detecting whether a copied sentence from one text to the other, or paraphrases and reformulations, is presented. This is achieved by looking for the existence of meaningful words and their potential substitution words. We compare three algorithms using this approach and retain only the most efficient one to evaluate it with existing methods. The goal is to enable detection of similarities between two texts using only keywords. The proposed approach can detect non paraphrastic reformulations, which are impossible to detect with the conventional alignment approach.Dans le cadre de la détection du plagiat, la phase de comparaison de deux documents est souvent réduite à une comparaison mot à mot, une recherche de « copier/coller ». Dans cet article, nous proposons une approche naïve de comparaison de deux documents dans le but de détecter automatiquement aussi bien les phrases copiées de l'un des textes dans l'autre que les paraphrases et reformulations, ceci en se focalisant sur l'existence des mots porteurs de sens, ainsi que sur leurs mots de substitution possibles. Nous comparons trois algo-rithmes utilisant cette approche afin de déterminer la plus efficace pour ensuite l'évaluer face à des méthodes existantes. L'objectif est de permettre la détec-tion des similitudes entre deux textes en utilisant uniquement des mots clefs. L'approche proposée permet de détecter des reformulations non paraphrastiques impossibles à détecter avec des approches conventionnelles faisant appel à une phase d'alignement
Méthode alternative à la détection de « copier/coller » : intersection de textes et construction de séquences maximales communes
International audiencePlagiarism detection most commonly use the most naive phase of similarities search, the detection of copy and paste. In this paper, we propose an alternative method to the standard verbatim comparison approach. The idea is to carry out an intersection of two texts to get a table of common words and to keep only the maximum sequences of consecutive words in one of the texts which also exists in the other. We show that this method is faster and less expensive in memory that commonly used scan texts methods. The goal is to detect identical passages between two texts faster than verbatim comparison methods, while operating more efficient than the n-grams.La détection du plagiat passe le plus souvent par la phase de recherche de similitudes la plus naïve, la détection de « copier/coller ». Dans cet article, nous proposons une méthode alternative à l'approche standard de comparai-son mot à mot. Le principe étant d'effectuer une intersection des deux textes à comparer, récupérant ainsi un tableau des mots qu'ils ont en commun et de ne conserver que les séquences maximales des mots se suivant dans l'un des textes et existant également dans l'autre. Nous montrons que cette méthode est plus rapide et moins coûteuse en ressources que les méthodes de parcours de textes habituellement utilisées. L'objectif étant de détecter les passages identiques entre deux textes plus rapidement que les méthodes de comparaison mot à mot, tout en étant plus efficace que les méthodes n-grammes
Modeling and management of time concepts to support the characterization of image sequences
Les techniques habituelles d'indexation de vidéos passent généralement par une phase d'apprentissage qui nécessite préalablement la constitution d'une base d'apprentissage. Même si la taille de cette base est souvent réduite, la phase d'annotation réalisée par un expert de l'application est souvent longue et fastidieuse. Dans le cadre de cette thèse, nous avons développé un dispositif qui permet de pré-sélectionner un ensemble de prototypes susceptibles de contenir le concept qui doit apparaître dans la base d'apprentissage. Cette base réduite de prototypes sera ensuite annotée par l'expert. Nous nous sommes intéressés à des concepts temporels, ce qui nous a amené à étudier particulièrement des caractéristiques liées au mouvement, comme les points d'intérêt spatio-temporels (STIP Spatial Temporal Interest Points). D'autres caractéristiques ont aussi été utilisées concernant la couleur et la présence de formes particulières. Ces caractéristiques sont ensuite exploitées pour structurer la base de vidéos en briques spatio-temporelles homogènes. Cette structuration correspond à une sorte de segmentation de la base en fonction de chacune des caractéristiques. La liaison entre le concept à définir et les briques extraites de la base est en lien avec le fossé sémantique bien connu dans la problématique d'indexation automatique. La création de ce lien nécessite l'utilisation de la connaissance de l'expert de l'application sur le concept. Nous avons développé un système dans lequel cette connaissance est extraite par un système de questions/réponses. Les couples de questions/réponses permettent de sélectionner des briques répondant à la contrainte, de définir des relations entre certaines briques, et enfin de naviguer dans l'arborescence des questions. Des tests ont été réalisés sur des bases de vidéos de provenances diverses telles que des vidéos provenant d'émissions de télévision, de films d'animation, ou encore des vidéos de laboratoire disponibles sur le net, ou réalisées par nos soins. Ces tests montrent les performances satisfaisantes mais aussi les limites de l'approche et ouvrent des perspectives intéressantes, particulièrement sur les aspects collaboratifs et les aspects adaptatifs qui permettraient de capitaliser les connaissances des experts applicatifs et rendraient le système plus efficient.The usual techniques of video indexing generally go through a learning phase that requires the prior establishment of a training database. Even if the size of the database is often reduced, the annotation phase by an expert of the application is often long and tedious. In this thesis, we developed a system that allows pre-selecting a set of prototypes that can contain the concept that must appear in the training set. This reduced base of prototypes will then be annotated by the expert. We are interested in time concepts, which led us to study particular features related to movement, such as Spatial Temporal Interest Points (STIP). Other features have also been used concerning the color and the presence of particular shapes. These characteristics are then used to structure the video database in homogeneous space-time blocks. This structure corresponds to segmentation related to each characteristic. The link between the concept to define and blocks extracted from the base corresponds to the well known problem of automatic indexing, the semantic gap. The definition of this link requires the introduction of the application expert's knowledge. We developed a system in which this knowledge is extracted by a questions/answers system. The couples of questions/answers allow the system to select blocks corresponding to the constraint, to define relationships between some blocks, and finally to navigate on the questions/answers tree. Tests were performed on video databases from various sources such as videos from tele- vision shows, animated films, laboratory videos available on the net, or made by us. These tests show the satisfying performances but also the limitations of the approach and open interesting perspectives, particularly on the collaborative and adaptive aspects that would capitalize in the application expert knowledge and would make the system more efficient.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF