8 research outputs found

    Attelage de systĂšmes de transcription automatique de la parole

    Get PDF
    Nous abordons, dans cette thÚse, les méthodes de combinaison de systÚmesde transcription de la parole à Large Vocabulaire. Notre étude se concentre surl attelage de systÚmes de transcription hétérogÚnes dans l objectif d améliorerla qualité de la transcription à latence contrainte. Les systÚmes statistiquessont affectés par les nombreuses variabilités qui caractérisent le signal dela parole. Un seul systÚme n est généralement pas capable de modéliserl ensemble de ces variabilités. La combinaison de différents systÚmes detranscription repose sur l idée d exploiter les points forts de chacun pourobtenir une transcription finale améliorée. Les méthodes de combinaisonproposées dans la littérature sont majoritairement appliquées a posteriori,dans une architecture de transcription multi-passes. Cela nécessite un tempsde latence considérable induit par le temps d attente requis avant l applicationde la combinaison.Récemment, une méthode de combinaison intégrée a été proposée. Cetteméthode est basée sur le paradigme de décodage guidé (DDA :Driven DecodingAlgorithm) qui permet de combiner différents systÚmes durant le décodage. Laméthode consiste à intégrer des informations en provenance de plusieurs systÚmes dits auxiliaires dans le processus de décodage d un systÚme dit primaire.Notre contribution dans le cadre de cette thÚse porte sur un double aspect : d une part, nous proposons une étude sur la robustesse de la combinaison par décodage guidé. Nous proposons ensuite, une amélioration efficacement généralisable basée sur le décodage guidé par sac de n-grammes,appelé BONG. D autre part, nous proposons un cadre permettant l attelagede plusieurs systÚmes mono-passe pour la construction collaborative, à latenceréduite, de la sortie de l hypothÚse de reconnaissance finale. Nous présentonsdifférents modÚles théoriques de l architecture d attelage et nous exposons unexemple d implémentation en utilisant une architecture client/serveur distribuée. AprÚs la définition de l architecture de collaboration, nous nous focalisons sur les méthodes de combinaison adaptées à la transcription automatiqueà latence réduite. Nous proposons une adaptation de la combinaison BONGpermettant la collaboration, à latence réduite, de plusieurs systÚmes mono-passe fonctionnant en parallÚle. Nous présentons également, une adaptationde la combinaison ROVER applicable durant le processus de décodage via unprocessus d alignement local suivi par un processus de vote basé sur la fréquence d apparition des mots. Les deux méthodes de combinaison proposéespermettent la réduction de la latence de la combinaison de plusieurs systÚmesmono-passe avec un gain significatif du WER.This thesis presents work in the area of Large Vocabulary ContinuousSpeech Recognition (LVCSR) system combination. The thesis focuses onmethods for harnessing heterogeneous systems in order to increase theefficiency of speech recognizer with reduced latency.Automatic Speech Recognition (ASR) is affected by many variabilitiespresent in the speech signal, therefore single ASR systems are usually unableto deal with all these variabilities. Considering these limitations, combinationmethods are proposed as alternative strategies to improve recognitionaccuracy using multiple recognizers developed at different research siteswith different recognition strategies. System combination techniques areusually used within multi-passes ASR architecture. Outputs of two or moreASR systems are combined to estimate the most likely hypothesis amongconflicting word pairs or differing hypotheses for the same part of utterance.The contribution of this thesis is twofold. First, we study and analyze theintegrated driven decoding combination method which consists in guidingthe search algorithm of a primary ASR system by the one-best hypothesesof auxiliary systems. Thus we propose some improvements in order to makethe driven decoding more efficient and generalizable. The proposed methodis called BONG and consists in using Bag Of N-Gram auxiliary hypothesisfor the driven decoding.Second, we propose a new framework for low latency paralyzed single-passspeech recognizer harnessing. We study various theoretical harnessingmodels and we present an example of harnessing implementation basedon client/server distributed architecture. Afterwards, we suggest differentcombination methods adapted to the presented harnessing architecture:first we extend the BONG combination method for low latency paralyzedsingle-pass speech recognizer systems collaboration. Then we propose, anadaptation of the ROVER combination method to be performed during thedecoding process using a local vote procedure followed by voting based onword frequencies.LE MANS-BU Sciences (721812109) / SudocSudocFranceF

    Extraction automatique de segments textuels, détection de rÎles, de sujets et de polarités

    Get PDF
    Dans cette thĂšse, nous prĂ©sentons de nouvelles mĂ©thodes permettant l extraction de chaĂźnes de mots (segments textuels) relatives Ă  des catĂ©gories (thĂ©matiques, rĂŽles des locuteurs, opinions). Nous proposons, dans un premier temps, une mĂ©thode basĂ©e su rune mĂ©trique de recherche de collocations, que nous appliquons de maniĂšre distincte sur les documents liĂ©s Ă  la mĂȘme catĂ©gorie et qui, par itĂ©rations, nous permet d obtenir des chaĂźnes caractĂ©ristiques de cette catĂ©gorie. Ces chaĂźnes sont alors employĂ©es pour amĂ©liorer les performances de systĂšmes de catĂ©gorisation de textes ou dans un but d extraction de connaissances (faire ressortir des Ă©lĂ©ments textuels tels que des expressions employĂ©es par un type de locuteurs, des sous-thĂ©matiques liĂ©es Ă  la catĂ©gorie,...). Nous proposons ensuite une seconde mĂ©thode permettant de rechercher, dans un corpus d opinions, des n-grammes exprimant des jugements sur des sujets prĂ©dĂ©finis.Nous pouvons alors extraire des segments textuels reprĂ©sentant l expression d une opinion sur un des sujets cibles.Ces mĂ©thodes sont validĂ©es par un certain nombre d expĂ©riences effectuĂ©es dans des contextes diffĂ©rents : Ă©crits de blogs, transcriptions manuelles de parole spontanĂ©e,critiques de produits culturels, enquĂȘtes de satisfaction EDF, en français ou en anglais, ...Non communiquĂ©AVIGNON-Bib. numĂ©rique (840079901) / SudocSudocFranceF

    Contribution Ă  l’amĂ©lioration de la recherche d’information par utilisation des mĂ©thodes sĂ©mantiques: application Ă  la langue arabe

    Get PDF
    Un systĂšme de recherche d’information est un ensemble de programmes et de modules qui sert Ă  interfacer avec l’utilisateur, pour prendre et interprĂ©ter une requĂȘte, faire la recherche dans l’index et retourner un classement des documents sĂ©lectionnĂ©s Ă  cet utilisateur. Cependant le plus grand challenge de ce systĂšme est qu’il doit faire face au grand volume d’informations multi modales et multilingues disponibles via les bases documentaires ou le web pour trouver celles qui correspondent au mieux aux besoins des utilisateurs. A travers ce travail, nous avons prĂ©sentĂ© deux contributions. Dans la premiĂšre nous avons proposĂ© une nouvelle approche pour la reformulation des requĂȘtes dans le contexte de la recherche d’information en arabe. Le principe est donc de reprĂ©senter la requĂȘte par un arbre sĂ©mantique pondĂ©rĂ© pour mieux identifier le besoin d'information de l'utilisateur, dont les nƓuds reprĂ©sentent les concepts (synsets) reliĂ©s par des relations sĂ©mantiques. La construction de cet arbre est rĂ©alisĂ©e par la mĂ©thode de la Pseudo-RĂ©injection de la Pertinence combinĂ©e Ă  la ressource sĂ©mantique du WordNet Arabe. Les rĂ©sultats expĂ©rimentaux montrent une bonne amĂ©lioration dans les performances du systĂšme de recherche d’information. Dans la deuxiĂšme contribution, nous avons aussi proposĂ© une nouvelle approche pour la construction d’une collection de test de recherche d’information arabe. L'approche repose sur la combinaison de la mĂ©thode de la stratĂ©gie de Pooling utilisant les moteurs de recherches et l’algorithme NaĂŻve-Bayes de classification par l’apprentissage automatique. Pour l’expĂ©rimentation nous avons crĂ©Ă© une nouvelle collection de test composĂ©e d’une base documentaire de 632 documents et de 165 requĂȘtes avec leurs jugements de pertinence sous plusieurs topics. L’expĂ©rimentation a Ă©galement montrĂ© l’efficacitĂ© du classificateur BayĂ©sien pour la rĂ©cupĂ©ration de pertinences des documents, encore plus, il a rĂ©alisĂ© des bonnes performances aprĂšs l’enrichissement sĂ©mantique de la base documentaire par le modĂšle word2vec

    TOTh 2011 Proceedings - Terminology & Ontology: Theories and applications

    Get PDF
    International audienceAvant-proposLa Terminologie est un domaine scientifique par nature pluridisciplinaire. Elle puise, entre autres, Ă  la linguistique, la thĂ©orie de la connaissance, la logique. Pour que cette diversitĂ© soit une richesse, il faut lui offrir un cadre appropriĂ© au sein duquel elle puisse s’exprimer et s’épanouir : c’est une des raisons d’ĂȘtre des ConfĂ©rences TOTh. Dans ce contexte, la formation et la transmission des connaissances jouent un rĂŽle essentiel. La Formation TOTh, programmĂ©e sur un jour et demi prĂ©cĂ©dant la confĂ©rence, se dĂ©roule depuis 2011 sur deux annĂ©es consĂ©cutives dĂ©diĂ©es pour l’une Ă  la dimension linguistique et pour l’autre Ă  la dimension conceptuelle de la terminologie, deux dimensions intimement liĂ©es. La Disputatio, introduite Ă  partir de cette annĂ©e, renoue avec une forme d’enseignement et de recherche hĂ©ritĂ©e de la scolastique. Elle vise, Ă  travers une lecture commentĂ©e effectuĂ©e par un membre du comitĂ© scientifique, Ă  donner accĂšs Ă  des textes jugĂ©s fondateurs de notre domaine, trop souvent oubliĂ©s voire ignorĂ©s.La cinquiĂšme Ă©dition des ConfĂ©rences TOTh a Ă©galement Ă©tĂ© l’occasion de mettre en place un Prix « Jeune chercheur ». DĂ©cernĂ© par le comitĂ© scientifique lors de la confĂ©rence, il rĂ©compense le travail soumis Ă  TOTh d’un de nos jeunes collĂšgues. Notre collĂšgue Michele Prandi, professeur Ă  l’UniversitĂ  degli Studi di Genova, a ouvert la ConfĂ©rence TOTh 2011 par un exposĂ© passionnant sur : « Signes, signifiĂ©s, concepts : pour un tournant philosophique en linguistique ». Le ton Ă©tait donnĂ©.Ont suivi douze communications (hors confĂ©rence d’ouverture et disputatio) rĂ©parties sur deux jours en six sessions animĂ©es par diffĂ©rents prĂ©sidents. Elles ont permis d’aborder en profondeur – chaque intervention dure au minimum 45 minutes – de nombreux sujets tant thĂ©oriques que pratiques rappelant qu’il ne peut y avoir de terminologie sans langue de spĂ©cialitĂ© ni savoir spĂ©cialisĂ©.Les douze communications, Ă©quitablement rĂ©parties sur les deux langues officielles de la confĂ©rence et provenant de sept pays diffĂ©rents, confirment l’audience internationale acquise aujourd’hui par TOTh.Avant de vous souhaiter bonne lecture de ces actes, j’aimerais terminer en remerciant tous les participants de TOTh 2011 pour la richesse des dĂ©bats et des moments partagĂ©s. Christophe RochePrĂ©sident du comitĂ© scientifiqu

    Discours de presse et veille stratégique d'évÚnements. Approche textométrique et extraction d'informations pour la fouille de textes

    Get PDF
    This research demonstrates two methods of text mining for strategic monitoring purposes: information extraction and Textometry. In strategic monitoring, text mining is used to automatically obtain information on the activities of corporations. For this objective, information extraction identifies and labels units of information, named entities (companies, places, people), which then constitute entry points for the analysis of economic activities or events. These include mergers, bankruptcies, partnerships, etc., involving corresponding corporations. A Textometric method, however, uses several statistical models to study the distribution of words in large corpora, with the goal of shedding light on significant characteristics of the textual data. In this research, Textometry, an approach traditionally considered incompatible with information extraction methods, is applied to the same corpus as an information extraction procedure in order to obtain information on economic events. Several textometric analyses (characteristic elements, co-occurrences) are examined on a corpus of online news feeds. The results are then compared to those produced by the information extraction procedure. Both approaches contribute differently to processing textual data, producing complementary analyses of the corpus. Following the comparison, this research presents the advantages for these two text mining methods in strategic monitoring of current events.Ce travail a pour objet l’étude de deux mĂ©thodes de fouille automatique de textes, l’extraction d’informations et la textomĂ©trie, toutes deux mises au service de la veille stratĂ©gique des Ă©vĂ©nements Ă©conomiques. Pour l’extraction d’informations, il s’agit d’identifier et d’étiqueter des unitĂ©s de connaissances, entitĂ©s nommĂ©es — sociĂ©tĂ©s, lieux, personnes, qui servent de points d’entrĂ©e pour les analyses d’activitĂ©s ou d’évĂ©nements Ă©conomiques — fusions, faillites, partenariats, impliquant ces diffĂ©rents acteurs. La mĂ©thode textomĂ©trique, en revanche, met en Ɠuvre un ensemble de modĂšles statistiques permettant l’analyse des distributions de mots dans de vastes corpus, afin faire Ă©merger les caractĂ©ristiques significatives des donnĂ©es textuelles. Dans cette recherche, la textomĂ©trie, traditionnellement considĂ©rĂ©e comme Ă©tant incompatible avec la fouille par l’extraction, est substituĂ©e Ă  cette derniĂšre pour obtenir des informations sur des Ă©vĂ©nements Ă©conomiques dans le discours. Plusieurs analyses textomĂ©triques (spĂ©cificitĂ©s et cooccurrences) sont donc menĂ©es sur un corpus de flux de presse numĂ©risĂ©. On Ă©tudie ensuite les rĂ©sultats obtenus grĂące Ă  la textomĂ©trie en vue de les comparer aux connaissances mises en Ă©vidence au moyen d’une procĂ©dure d’extraction d’informations. On constate que chacune des approches contribuent diffĂ©remment au traitement des donnĂ©es textuelles, produisant toutes deux des analyses complĂ©mentaires. À l’issue de la comparaison est exposĂ© l’apport des deux mĂ©thodes de fouille pour la veille d’évĂ©nements

    Etude sur la pensée animale : continuité neuro-cognitive de la catégorisation visuelle

    Get PDF
    Est-ce que les animaux pensent? Quelle est la nature des mĂ©canismes qui dirigent leurs comportements? Peut-on comparer ces mĂ©canismes au fonctionnement de l'esprit humain ? Ces questions animent les dĂ©bats scientifiques, philosophiques et thĂ©ologiques depuis des millĂ©naires. L'idĂ©e d'une discontinuitĂ© fondamentale entre l'esprit humain et les rouages de l'animal-machine, prĂŽnĂ©e par Descartes, s'oppose Ă  l'hypothĂšse de continuitĂ© de Darwin selon laquelle, la diffĂ©rence entre les capacitĂ©s mentales de l'homme et de l'animal serait de degrĂ© et non de nature. Dans cette thĂšse, fort des rĂ©centes avancĂ©es mĂ©thodologiques et thĂ©oriques dans l'Ă©tude du comportement animal et des neurosciences, nous partons Ă  la recherche de la pierre de rosette pouvant Ă©clairer ce dĂ©bat : l'homologie neuro-cognitive fonctionnelle. Existe-t-il un fonctionnement nerveux commun Ă  plusieurs espĂšces (et notamment Ă  l'homme), supportant un mĂȘme fonctionnement cognitif ? Nous focalisons notre recherche sur l'une des fonctions clefs de l'esprit humain, qui semble aussi trĂšs rĂ©pandue dans le monde animal : la catĂ©gorisation. Former des concepts -regrouper mentalement les objets ou Ă©vĂ©nements auxquelles nous sommes confrontĂ©s en catĂ©gories- permet de simplifier, de donner un sens et de rĂ©agir de maniĂšre appropriĂ©e aux flux perceptuels incessants issus de nos sens. En testant des sujets humains et macaques dans un protocole rigoureusement identique de catĂ©gorisation visuelle rapide, en particulier, en contrĂŽlant l'influence de l'information contextuelle de la scĂšne visuelle sur les performances de catĂ©gorisation de l'objet, nous montrons ici que les deux espĂšces de primates semblent bien avoir recours Ă  des reprĂ©sentations ou concepts visuels similaires pour rĂ©soudre cette tĂąche. Mieux, le dĂ©veloppement de nouvelles mĂ©thodes d'analyses multivariĂ©es des potentiels de champs corticaux, nous permet de lire, essai par essai, l'Ă©mergence de reprĂ©sentations neuronales associĂ©es Ă  cette tĂąche de catĂ©gorisation. En appliquant ces mĂ©thodes chez le singe, en EEG de surface chez l'homme et chez des patients Ă©pileptiques implantĂ©s pour raison mĂ©dicale, on met en Ă©vidence le rĂŽle analogue, chez ces deux espĂšces de primates, de la voie visuelle ventrale dans la formation ultra-rapide de ces reprĂ©sentations catĂ©gorielles. Pour rĂ©sumer, la capacitĂ© de catĂ©gorisation visuelle rapide, semble ĂȘtre un trait neurocognitif partagĂ© par l'homme et le macaque, probablement hĂ©ritĂ©e d'un ancĂȘtre commun. L'existence d'une telle homologie est un argument pour l'hypothĂšse de continuitĂ© et permet donc d'envisager une Ă©volution de la cognition. Enfin, si on considĂšre la catĂ©gorisation comme un Ă©lĂ©ment clef de la pensĂ©e humaine, alors ces rĂ©sultats suggĂšrent l'existence d'une pensĂ©e chez le macaque, dont au moins une partie fonctionne comme la nĂŽtre.Do animals think? What are the mechanisms supporting their behavior? Can we compare these mechanisms with human mind? These questions animate scientific, philosophical and theological debates for millennia. The idea of a fundamental discontinuity between human mind and animal- machine workings, advocated by Descartes, is opposed to Darwin's assumption of continuity that suppose a difference of degree and not of kind between human's and animals' minds. In this thesis, based on recent theoretical and methodological advances in animal behavior and neuroscience, we go in search of the Rosetta Stone that can inform this debate: a functional neuro-cognitive homology. Is there a neural mechanism, shared by several species (including humans), supporting the same cognitive function? We focus our research on one of the key functions of human mind, which also seems widespread in the animal world: categorization ability. The making of concepts -to mentally regroup objects, or events, we face in categories- simplifies, makes sense and allows responding appropriately to the continuous perceptual streams. Testing humans and macaques in exactly the same protocol of rapid visual categorization, in particular, by controlling the influence of contextual information from the visual scene on object categorization performances, we show here that the two primates seem to rely on similar concepts or visual representations to solve this task. More, with a new multivariate pattern analysis for cortical field potentials, we can read, trial by trial, the emergence of neural representations associated with such categorization task. By applying these methods in monkeys, surface EEG in humans and in patients with epilepsy, implanted for medical reasons, we highlight the similar role of the ventral visual pathway to build quick categorical representations, in both species of primates. To summarize, the ability of rapid visual categorization seems to be a neuro-cognitive trait shared by humans and macaques, probably inherited from a common ancestor. The existence of such homology is an argument for the continuity hypothesis and can therefore justify an evolution of cognition. Finally, if we consider the categorization as a key element of human thought, then these results suggest the existence of a thought in macaques, which at least partially works like ours

    Adaptation thématique non supervisée d'un systÚme de reconnaissance automatique de la parole

    No full text
    Current automatic speech recognition (ASR) systems are based on language models (LM) which gather word sequence probabilities (n-gram probabilities) and assist the system in discriminating utterances with the highest likelihood. In practice, these ngram probabilities are estimated once and for all on large multitopic corpora based on a fixed, though large, general-purpose vocabulary. Hence, current systems suffer from a lack of specificity when dealing with topic-specific spoken documents. To circumvent this problem, we propose to modify the LM and the vocabulary through a new unsupervised topic-based adaptation scheme. Based on the sole automatic transcription of a thematically consistent broadcast segment, the process consists in automatically retrieving topic-specific texts on the Internet from which the LM probabilities are re-estimated and the vocabulary is enriched. By running a new transcription process, the use of these adapted components is finally expected to improve the segment recognition accuracy. This work is especially original since it avoids using any a priori knowledge about encountered topics and it integrates natural language processing techniques. In addition, we brought contributions to each step of the adaptation process. First, given a first-pass automatic transcript segment, we propose to adapt indexing methods from the information retrieval domain, namely tf-idf , to the specifics of automatic transcription (no case, potentially erroneous words, etc.) in order to characterize the encountered topic by a set of keywords. By submitting these keywords to Web search engines, Web pages are then retrieved and thematically filtered to guarantee a good topic similarity with the transcript segment. Second, we developed an original topic-based LM re-estimation technique based on the minimum discrimination information LM adaptation framework and on topic-specific words and phrases automatically extracted from Web corpora. This enables us to exclusively adapt LM n-gram probabilities related the topic of the segment, while other, general-purpose, n-gram probabilities are kept untouched. Third, topic-specific Web corpora can be used to spot out-of-vocabulary topic-specific words to be added to the ASR system vocabulary and LM. Whereas adding such words into the vocabulary is straightforward, their integration into a pre-existent LM is more complex. We thus proposed to achieve this task by building n-grams for each new word thanks to its paradigmatic relations with other words and thanks to the combined information about the usage of these latter words in the pre-existent LM. Experiments done on French-speaking broadcast news show that our whole topic-specific adaptation process yields significant recognition accuracy improvements of an ASR system.Les systĂšmes actuels de reconnaissance automatique de la parole (RAP) reposent sur un modĂšle de langue (ML) qui les aide Ă  dĂ©terminer les hypothĂšses de transcription les plus probables. Pour cela, le ML recense des probabilitĂ©s de courtes sĂ©quences de mots, appelĂ©es n-grammes, fondĂ©es sur un vocabulaire fini. Ces ML et vocabulaire sont estimĂ©s une fois pour toutes Ă  partir d'un vaste corpus de textes traitant de sujets variĂ©s. En consĂ©quence, les systĂšmes actuels souffrent d'un manque de spĂ©cificitĂ© lorsqu'il s'agit de transcrire des documents thĂ©matiquement marquĂ©s. Pour pallier ce problĂšme, nous proposons un nouveau processus d'adaptation thĂ©matique non supervisĂ©e du ML et du vocabulaire. Sur la base d'une premiĂšre transcription automatique d'un document audio, ce processus consiste Ă  rĂ©cupĂ©rer sur Internet des textes du mĂȘme thĂšme que le document, textes Ă  partir desquels nous rĂ©estimons le ML et enrichissons le vocabulaire. Ces composants adaptĂ©s servent alors Ă  produire une nouvelle transcription dont la qualitĂ© est espĂ©rĂ©e meilleure. Ce processus est particuliĂšrement original car il se prĂ©serve de toute connaissance a priori sur les Ă©ventuels thĂšmes des documents Ă  transcrire et il intĂšgre des techniques de traitement automatique des langues. De plus, nous apportons des contributions pour chaque Ă©tape du processus. Tout d'abord, Ă©tant donnĂ©e la transcription initiale d'un document audio, nous avons amĂ©nagĂ© le critĂšre tf-idf , issu du domaine de la recherche d'information, aux spĂ©cificitĂ©s de l'oral afin de caractĂ©riser le thĂšme du document par des mots-clĂ©s extraits automatiquement. Via un moteur de recherche sur Internet, ces mots-clĂ©s nous permettent de rĂ©cupĂ©rer des pages Web que nous filtrons afin d'assurer leur cohĂ©rence thĂ©matique avec le document audio. Ensuite, nous avons proposĂ© une nouvelle technique de rĂ©estimation thĂ©matique du ML. En extrayant des mots et sĂ©quences de mots spĂ©cifiques au thĂšme considĂ©rĂ© Ă  partir des corpora Web, nous utilisons le cadre de l'adaptation par minimum d'information discriminante pour ne modifier que les probabilitĂ©s des n-grammes propres au thĂšme, laissant les autres probabilitĂ©s inchangĂ©es. Enfin, nous montrons Ă©galement que les corpora extraits du Web peuvent servir Ă  repĂ©rer des mots hors vocabulaire spĂ©cifiques aux thĂšmes. Nous proposons une technique originale qui permet d'apprendre ces nouveaux mots au systĂšme et, notamment, de les intĂ©grer dans le ML en dĂ©terminant automatiquement dans quels n-grammes ils sont susceptibles d'apparaĂźtre. Pour cela, chaque nouveau mot est assimilĂ© Ă  d'autres, dĂ©jĂ  connus du systĂšme, avec lesquels il partage une relation paradigmatique. Nos expĂ©riences, menĂ©es sur des Ă©missions d'actualitĂ©s radiodiffusĂ©es, montrent que l'ensemble de ces traitements aboutit Ă  des amĂ©liorations significatives du taux de reconnaissance d'un systĂšme de RAP
    corecore