106 research outputs found

    Concept lattices : a tool for primitives selection ?

    Get PDF
    In this paper, we present the problem of noisy images recognition and in particular the stage of primitives selection in a classification process. This selection stage appears after segmentation and statistical describers extraction on documentary images are realized. We describe precisely the use of decision tree in order to harmonize and compare it with another less studied method based on a concept lattice.Dans ce papier, nous présentons la problématique de la reconnaissance d'images détériorées et plus particulièrement l'étape de sélection de primitives au sein d'un traitement de classification supervisée. Cette étape de sélection a lieu après que la segmentation et l'extraction des descripteurs statistiques sur des images documentaires aient été réalisées. Nous exposons en détail l'utilisation d'un arbre de décision, afin de l'harmoniser puis la comparer avec une approche moins étudiée utilisant un treillis de Galois

    Information fusion and adaptation for on-line text recognition

    Get PDF
    In this paper, we present a new writer independent system dedicated to the automatic recognition of on-line hand-printed texts. This system uses a very large French lexicon (200000 words), which covers numerous fields of application. The recognition process is based on the activation-verification model proposed in perceptive psychology. A set of experts encodes the input signal and extracts probabilistic information at several levels of abstraction (geometrical and morphological). A neural expert generates a tree of segmentation hypotheses. It is explored by a probabilistic fusion expert that uses all the available information (geometrical, morphological and lexical) in order to provide the best transcription of the input signal. We experiment several strategies of self-supervised writer-adaptation on this system. The best one, called “dynamic self-supervised adaptation”, modifies the recognizer parameters continuously. It gets recognition results close to supervised methods. These results are evaluated on a database of 90 texts (5400 words) written by 38 different writers and are very encouraging as they reach a recognition rate of 90%.Dans cet article nous présentons un nouveau système de reconnaissance de textes manuscrits scripts en mode omni-scripteur. Ce système utilise un lexique français de très grande taille (200 000 mots), qui couvre de nombreux champs d'application. Le processus de reconnaissance repose sur le modèle d'activationvérification proposé en psychologie perceptive. Un ensemble d'experts code le signal d'entrée et extrait des informations probabilistes à différents niveaux d'abstraction (géométrique, morphologique). Un expert de segmentation neuronal génère un treillis d’hypothèses qui est exploré par un expert de fusion probabiliste qui utilise toute l’information disponible (géométrique, morphologique et lexicale) afin de fournir la meilleure retranscription du signal d’entrée. Nous avons expérimenté plusieurs stratégies d'adaptation non supervisée au scripteur. La meilleure, appelée « adaptation non-supervisée dynamique» agit en continu sur les paramètres du système. Elle permet d'atteindre des performances proches de l’une adaptation supervisée. Les performances, évaluées sur une base de données comportant 90 textes (5 400 mots) écrits par 38 utilisateurs différents, sont très encourageantes car elles atteignent un taux de reconnaissance de 90%

    Approche décentralisée des treillis de Galois pour la localisation topologique

    Get PDF
    Ce papier présente une nouvelle technique pour la localisation d'un robot mobile autonome dans un environnement structuré. La localisation est topologique et se base sur les amers visuels. Ces amers sont des combinaisons de caractéristiques visuelles sélectionnées à l'aide d'un formalisme mathématique appelé treillis de Galois, ou treillis de concepts. Pour des très gros contextes, l'approche décentralisée est introduite afin de réduire le nombre de concepts et le temps de construction du treillis. Les algorithmes complets ont été validés expérimentalement et sont exposés dans ce papier

    Classification de symboles avec un treillis de Galois et une représentation par sac de mots

    Get PDF
    National audienceThis paper presents a new approach for graphical symbols recognition by combining a concept lattice with a bag of words representation. Visual words define the properties of a graphical symbol that will be modeled in the Galois Lattice. Indeed, the algorithm of classification is based on the Galois lattice where the intentions of its concepts are the visual words. The use of words as visual primitives allows to evaluate the classifier with a symbolic approach that no longer need the step of the signature discretization to build the Galois Lattice. Our approach is compared to classical approaches without a bag of words and to classical classifiers which are evaluated on different symbols. We show the relevance and the robustness of our approach for graphics recognition.Cet article présente une nouvelle approche pour la reconnaissance de symboles graphiques en combinant un treillis de concepts avec une représentation par sac de mots. Les mots visuels définissent les propriétés représentatives d'un symbole graphique qui seront modélisées dans le treillis de Galois. En effet, l'algorithme de classification est fondé sur le treillis de Galois où les intentions de ses concepts représentent des mots visuels. L'utilisation des mots visuels comme des primitives permet d'évaluer le classifieur avec une approche symbolique qui n'a plus besoin de l' étape de discrétisation primordiale pour la construction du treillis. Notre méthode est comparée aux approches classiques, sans sac de mots et à plusieurs classifieurs usuels, évalués sur différents symboles. Nous montrons la pertinence et la robustesse de notre proposition pour la classification de symboles graphiques

    Construction d'ontologie Ă  partir de corpus de textes

    Get PDF
    National audienceCet article présente une méthode semi-automatique de construction d'ontologie à partir de corpus de textes sur un domaine spécifique. Cette méthode repose en premier lieu sur un analyseur syntaxique partiel et robuste des textes, et en second lieu, sur l'utilisation de l'analyse formelle de concepts "FCA" pour la construction de classes d'objets en un treillis de Galois. La construction de l'ontologie, c'est à dire d'une hiérarchie de concepts et d'instances, est réalisée par une transformation formelle de la structure du treillis. Cette méthode s'applique dans le domaine de l'astronomie

    Cubes convexes

    Full text link
    In various approaches, data cubes are pre-computed in order to answer efficiently OLAP queries. The notion of data cube has been declined in various ways: iceberg cubes, range cubes or differential cubes. In this paper, we introduce the concept of convex cube which captures all the tuples of a datacube satisfying a constraint combination. It can be represented in a very compact way in order to optimize both computation time and required storage space. The convex cube is not an additional structure appended to the list of cube variants but we propose it as a unifying structure that we use to characterize, in a simple, sound and homogeneous way, the other quoted types of cubes. Finally, we introduce the concept of emerging cube which captures the significant trend inversions. characterizations

    Structuration de données par apprentissage non-supervisé : applications aux données textuelles

    Get PDF
    En fouille de données, le succès d'une méthode tient au fait qu'elle permet de répondre par un algorithme intuitif à un besoin pratique bien théorisé. C'est avec cet éclairage que nous présentons un ensemble de contributions, élaborées durant ces dix dernières années, et répondant au besoin pratique de structurer automatiquement un ensemble de données. Dans un premier temps nous proposons de nouveaux modèles théoriques de structuration complexe en classes d’individus ; il s’agit alors d'extraire automatiquement d'un ensemble de données, des structures de classification plus proches de leur organisation réelle telle qu’observée (classification recouvrante, formes symétriques), de rendre ces structures à la fois robustes (tolérance au bruit) et manipulables par l’homme (visualisation, paramétrage) et enfin d’être en mesure de les expliquer (sémantique des classes). Dans un second temps nous nous intéressons aux données textuelles via la mise en oeuvre de modèles rendant compte de la structure thématique d’une collection de textes courts dans un contexte de recherche d’information ; enfin, nous présentons un méta-modèle permettant d’apprendre automatiquement un modèle de structuration sémantique d’un ensemble de termes

    Société Francophone de Classification (SFC) Actes des 26èmes Rencontres

    Get PDF
    National audienceLes actes des rencontres de la Société Francophone de Classification (SFC, http://www.sfc-classification.net/) contiennent l'ensemble des contributions,présentés lors des rencontres entre les 3 et 5 septembre 2019 au Centre de Recherche Inria Nancy Grand Est/LORIA Nancy. La classification sous toutes ces formes, mathématiques, informatique (apprentissage, fouille de données et découverte de connaissances ...), et statistiques, est la thématique étudiée lors de ces journées. L'idée est d'illustrer les différentes facettes de la classification qui reflètent les intérêts des chercheurs dans la matière, provenant des mathématiques et de l'informatique
    • …
    corecore