926 research outputs found

    Using Answer Set Programming for pattern mining

    Get PDF
    Serial pattern mining consists in extracting the frequent sequential patterns from a unique sequence of itemsets. This paper explores the ability of a declarative language, such as Answer Set Programming (ASP), to solve this issue efficiently. We propose several ASP implementations of the frequent sequential pattern mining task: a non-incremental and an incremental resolution. The results show that the incremental resolution is more efficient than the non-incremental one, but both ASP programs are less efficient than dedicated algorithms. Nonetheless, this approach can be seen as a first step toward a generic framework for sequential pattern mining with constraints.Comment: Intelligence Artificielle Fondamentale (2014

    Détection et correction d'erreurs utilisant les probabilités a posteriori dans un systÚme de reconnaissance de phrases manuscrites en-ligne

    No full text
    National audienceDans cet article, nous prĂ©sentons un systĂšme complet de reconnaissance de phrases manuscrites en-ligne. Nous nous intĂ©ressons plus particuliĂšrement Ă  la dĂ©tection d'erreurs potentielles sur les phrases issues d'une reconnaissance avec une approche au Maximum A Posteriori. Les probabilitĂ©s a posteriori des mots, obtenues Ă  partir d'une reprĂ©sentation sous la forme d'un rĂ©seau de confusion, sont ainsi utilisĂ©es comme indices de confiance. Des classifieurs dĂ©diĂ©s (ici, des SVM) sont ensuite appris afin de corriger ces erreurs, en combinant ces probabilitĂ©s a posteriori Ă  d'autres sources de connaissance. Un mĂ©canisme de rejet est Ă©galement introduit afin de distinguer les hypothĂšses d'erreur qui ne pourront ĂȘtre corrigĂ©es par l'approche proposĂ©e. Des expĂ©rimentations ont Ă©tĂ© menĂ©es sur une base de 425 phrases manuscrites Ă©crites par 17 scripteurs. Elles ont mis en Ă©vidence une rĂ©duction relative du taux d'erreur sur les mots de 14,6

    Use of a Confusion Network to Detect and Correct Errors in an On-Line Handwritten Sentence Recognition System

    No full text
    International audienceIn this paper we investigate the integration of a confusion network into an on-line handwritten sentence recognition system. The word posterior probabilities from the confusion network are used as confidence scored to detect potential errors in the output sentence from the Maximum A Posteriori decoding on a word graph. Dedicated classifiers (here, SVMs) are then trained to correct these errors and combine the word posterior probabilities with other sources of knowledge. A rejection phase is also introduced in the detection process. Experiments on handwritten sentences show a 28.5i% relative reduction of the word error rate

    Utilisation de réseaux de confusion pour la reconnaissance de phrases manuscrites en-ligne

    No full text
    National audienceDans cet article, nous nous intéressons à l'intégration d'une représentation des hypothÚses de phrases sous forme de réseau de confusion, dans un systÚme de reconnaissance de phrases manuscrites en-ligne. Les probabilités a posteriori des mots, obtenues à partir du réseau de confusion, sont utilisées comme score de confiance afin de détecter d'éventuelles erreurs dans la phrase issue d'un décodage au Maximum A Posteriori sur un graphe de mots. Des classifieurs dédiés (ici, des SVM) sont ensuite appris afin de corriger ces erreurs, en combinant les probabilités a posterio des mots à d'autres sources de connaissance. Une phase de rejet est aussi introduite dans le processus de détection. Des expérimentations menées sur une base de 320 phrases manuscrites montrent une réduction relative du taux d'erreur sur les mots de 31,3%, dans le cas de l'extraction manuelle des mots, et une diminution relative de 60%, lorsque ces mots sont extraits automatiquement

    A Priori and A Posteriori Integration and Combination of Language Models in an On-line Handwritten Sentence Recognition System

    No full text
    International audienceThis paper investigates the integration of different language models into an on-line sentence recognition system. The impact of n-gram and n-class (based on statistically and on morpho-syntactically classes) models, built on the Brown corpus, is compared in terms of word recognition rate. Furthermore, their integration in different steps of the recognition process (during it or to rescore the Nbest list of proposed sentences) is considered, thus showing better performances when used the sooner. Combinations of these models are also studied, in addition to the integration in the aforementioned recognition steps. All experiments are carried out on sentences from the Brown corpus which were written by several writers

    Development and application of tandem time-of-flight mass spectrometry

    Get PDF

    Échantillonnage progressif guidĂ© pour stabiliser la courbe d'apprentissage

    Get PDF
    National audienceL'un des enjeux de l'apprentissage artificiel est de pouvoir fonctionner avec des volumes de données toujours plus grands. Bien qu'il soit généralement admis que plus un ensemble d'apprentissage est large et plus les résultats sont performants, il existe des limites à la masse d'informations qu'un algorithme d'apprentissage peut manipuler. Pour résoudre ce problÚme, nous proposons d'améliorer la méthode d'échantillonnage progressif en guidant la construction d'un ensemble d'apprentissage réduit à partir d'un large ensemble de données. L'apprentissage à partir de l'ensemble réduit doit conduire à des performances similaires à l'apprentissage effectué avec l'ensemble complet. Le guidage de l'échantillonnage s'appuie sur une connaissance a priori qui accélÚre la convergence de l'algorithme. Cette approche présente trois avantages : 1) l'ensemble d'apprentissage réduit est composé des cas les plus représentatifs de l'ensemble complet; 2) la courbe d'apprentissage est stabilisée; 3) la détection de convergence est accélérée. L'application de cette méthode à des données classiques et à des données provenant d'unités de soins intensifs révÚle qu'il est possible de réduire de façon significative un ensemble d'apprentissage sans diminuer la performance de l'apprentissage

    Statistical Language Models for On-line Handwritten Sentence Recognition

    No full text
    International audienceThis paper investigates the integration of a statistical language model into an on-line recognition system in order to improve word recognition in the context of handwritten sentences. Two kinds of models have been considered: n-gram and n-class models (with a statistical approach to create word classes). All these models are trained over the Susanne corpus and experiments are carried out on sentences from this corpus which were written by several writers. The use of a statistical language model is shown to improve the word recognition rate and the relative impact of the different language models is compared. Furthermore, we illustrate the interest to define an optimal cooperation between the language model and the recognition system to re-enforce the accuracy of the system

    Word Extraction Associated with a Confidence Index for On-Line Handwritten Sentence Recognition

    No full text
    International audienceThis paper presents a word extraction approach based on the use of a confidence index to limit the total number of segmentation hypotheses in order to further extend our on-line sentence recognition system to perform on-the-fly recognition. Our initial word extraction task is based on the characterization of the gap between each couple of consecutive strokes from the on-line signal of the handwritten sentence. A confidence index is associated to the gap classification result in order to evaluate its reliability. A reconsideration process is then performed to create additional segmentation hypotheses to ensure the presence of the correct segmentation among the hypotheses. In this process, we control the total number of segmentation hypotheses to limit the complexity of the recognition process and thus the execution time. This approach is evaluated on a test set of 425 English sentences written by 17 writers, using different metrics to analyze the impact of the word extraction task on the whole sentence recognition system's performances. The word extraction task using the best reconsideration strategy achieves a 97.94% word extraction rate and a 84.85% word recognition rate which represents a 33.1% word error rate decrease relatively to the initial word extraction task (with no segmentation hypothesis reconsideration)
    • 

    corecore