61 research outputs found

    Localisation automatique de champs de saisie sur des images de formulaires couleur par isomorphisme de sous-graphe

    Get PDF
    International audienceThis paper presents an approach for spotting textual fields in colored forms. We proceed by locating these fields thanks to their neighboring context which is modeled with a structural representation. First, informative zones are extracted. Second, forms are represented by graphs in which nodes represent colored rectangles while edges represent neighboring links. Finally, the context of the queried region of interest is modeled as a graph. Subgraph isomorphism is applied in order to locate this ROI in the structural representation of a whole document. Evaluated on a 130-document image dataset, experimental results show up that our approach is efficient and that the requested information is found even if its position is changed.Cet article présente une approche permettant la localisation de champs de saisie sur des images couleur de formulaires. Ces champs sont localisés grâce à une modélisation structurelle représentant leur contexte. Dans un premier temps, les zones informatives sont ex-traites. Les formulaires sont ensuite représentés par des graphes au sein desquels les noeuds représentent des rectangles de couleur uniforme tandis que les arcs modélisent les relations de voisinage. Finalement, le voisinage de la région d'intérêt à localiser est également représenté par un graphe. Une recherche d'isomorphisme de sous graphe vise à localiser le graphe modélisant le voisinage de la région d'intérêt au sein de la représentation structurelle du document cible. Une expérimentation est réalisée sur une base de 130 images de document. Les résultats montrent l'efficacité de la méthode même si la position de la région d'intérêt est variable

    Contributions au tri automatique de documents et de courrier d'entreprises

    Get PDF
    Ce travail de thèse s inscrit dans le cadre du développement de systèmes de vision industrielle pour le tri automatique de documents et de courriers d entreprises. Les architectures existantes, dont nous avons balayé les spécificités dans les trois premiers chapitres de la thèse, présentent des faiblesses qui se traduisent par des erreurs de lecture et des rejets que l on impute encore trop souvent aux OCR. Or, les étapes responsables de ces rejets et de ces erreurs de lecture sont les premières à intervenir dans le processus. Nous avons ainsi choisi de porter notre contribution sur les aspects inhérents à la segmentation des images de courriers et la localisation de leurs régions d intérêt en investissant une nouvelle approche pyramidale de modélisation par coloration hiérarchique de graphes ; à ce jour, la coloration de graphes n a jamais été exploitée dans un tel contexte. Elle intervient dans notre contribution à toutes les étapes d analyse de la structure des documents ainsi que dans la prise de décision pour la reconnaissance (reconnaissance de la nature du document à traiter et reconnaissance du bloc adresse). Notre architecture a été conçue pour réaliser essentiellement les étapes d analyse de structures et de reconnaissance en garantissant une réelle coopération entres les différents modules d analyse et de décision. Elle s articule autour de trois grandes parties : une partie de segmentation bas niveau (binarisation et recherche de connexités), une partie d extraction de la structure physique par coloration hiérarchique de graphe et une partie de localisation de blocs adresse et de classification de documents. Les algorithmes impliqués dans le système ont été conçus pour leur rapidité d exécution (en adéquation avec les contraintes de temps réels), leur robustesse, et leur compatibilité. Les expérimentations réalisées dans ce contexte sont très encourageantes et offrent également de nouvelles perspectives à une plus grande diversité d images de documents.This thesis deals with the development of industrial vision systems for automatic business documents and mail sorting. These systems need very high processing time, accuracy and precision of results. The current systems are most of time made of sequential modules needing fast and efficient algorithms throughout the processing line: from low to high level stages of analysis and content recognition. The existing architectures that we have described in the three first chapters of the thesis have shown their weaknesses that are expressed by reading errors and OCR rejections. The modules that are responsible of these rejections and reading errors are mostly the first to occur in the processes of image segmentation and interest regions location. Indeed, theses two processes, involving each other, are fundamental for the system performances and the efficiency of the automatic sorting lines. In this thesis, we have chosen to focus on different sides of mail images segmentation and of relevant zones (as address block) location. We have chosen to develop a model based on a new pyramidal approach using a hierarchical graph coloring. As for now, graph coloring has never been exploited in such context. It has been introduced in our contribution at every stage of document layout analysis for the recognition and decision tasks (kind of document or address block recognition). The recognition stage is made about a training process with a unique model of graph b-coloring. Our architecture is basically designed to guarantee a good cooperation bewtween the different modules of decision and analysis for the layout analysis and the recognition stages. It is composed of three main sections: the low-level segmentation (binarisation and connected component labeling), the physical layout extraction by hierarchical graph coloring and the address block location and document sorting. The algorithms involved in the system have been designed for their execution speed (matching with real time constraints), their robustness, and their compatibility. The experimentations made in this context are very encouraging and lead to investigate a wider diversity of document images.VILLEURBANNE-DOC'INSA-Bib. elec. (692669901) / SudocSudocFranceF

    Segmentation de documents administratifs en couches couleur

    Get PDF
    Industrial companies receive huge volumes of documents everyday. Automation, traceability, feeding information systems, reducing costs and processing times, dematerialization has a clear economic impact. In order to respect the industrial constraints, the traditional digitization process simplifies the images by performing a background/foreground separation. However, this binarization can lead to some segmentation and recognition errors. With the improvements of technology, the community of document analysis has shown a growing interest in the integration of color information in the process to enhance its performance. In order to work within the scope provided by our industrial partner in the digitization flow, an unsupervised segmentation approach was chosen. Our goal is to be able to cope with document images, even when they are encountered for the first time, regardless their content, their structure, and their color properties. To this end, the first issue of this project was to identify a reasonable number of main colors which are observable on an image. Then, we aim to group pixels having both close color properties and a logical or semantic unit into consistent color layers. Thus, provided as a set of binary images, these layers may be reinjected into the digitization chain as an alternative to the conventional binarization. Moreover, they also provide extra-information about colors which could be exploited for segmentation purpose, elements spotting, or as a descriptor. Therefore, we have proposed a spatio-colorimetric approach which gives a set of local regions, known as superpixels, which are perceptually meaningful. Their size is adapted to the content of the document images. These regions are then merged into global color layers by means of a multiresolution analysis.Les entreprises doivent traiter quotidiennement de gros volumes de documents papiers de toutes sortes. Automatisation, traçabilité, alimentation de systèmes d’informations, réduction des coûts et des délais de traitement, la dématérialisation a un impact économique évident. Pour respecter les contraintes industrielles, les processus historiques d’analyse simplifient les images grâce à une séparation fond/premier-plan. Cependant, cette binarisation peut être source d’erreurs lors des étapes de segmentation et de reconnaissance. Avec l’amélioration des techniques, la communauté d’analyse de documents a montré un intérêt croissant pour l’intégration d’informations colorimétriques dans les traitements, ceci afin d’améliorer leurs performances. Pour respecter le cadre imposé par notre partenaire privé, l’objectif était de mettre en place des processus non supervisés. Notre but est d’être capable d’analyser des documents même rencontrés pour la première fois quels que soient leurs contenus, leurs structures, et leurs caractéristiques en termes de couleurs. Les problématiques de ces travaux ont été d’une part l’identification d’un nombre raisonnable de couleurs principales sur une image ; et d’autre part, le regroupement en couches couleur cohérentes des pixels ayant à la fois une apparence colorimétrique très proche, et présentant une unité logique ou sémantique. Fournies sous forme d’un ensemble d’images binaires, ces couches peuvent être réinjectées dans la chaîne de dématérialisation en fournissant une alternative à l’étape de binarisation classique. Elles apportent en plus des informations complémentaires qui peuvent être exploitées dans un but de segmentation, de localisation, ou de description. Pour cela, nous avons proposé une segmentation spatio-colorimétrique qui permet d’obtenir un ensemble de régions locales perceptuellement cohérentes appelées superpixels, et dont la taille s’adapte au contenu spécifique des images de documents. Ces régions sont ensuite regroupées en couches couleur globales grâce à une analyse multi-résolution

    Maîtrise de la qualité des transcriptions numériques dans les projets de numérisation de masse

    Get PDF
    This work focuses on the assessment of characters recognition results produced automatically by optical character recognition software (OCR on mass digitization projects. The goal is to design a global control system robust enough to deal with BnF documents collection. This collection includes old documents which are difficult to be treated by OCR. We designed a word detection system to detect missed words defects in OCR results, and a words recognition rate estimator to assess the quality of word recognition results performed by OCR.We create two kinds of descriptors to characterize OCR outputs. Image descriptors to characterize page segmentation results and cross alignment descriptors to characterize the quality of word recognition results. Furthermore, we adapt our learning process to make an adaptive decision or prediction systems. We evaluated our control systems on real images selected randomly from BnF collection. The mmissed word detection system detects 84.15% of words omitted by the OCR with a precision of 94.73%. The experiments performed also showed that 80% of the documents of word recognition rate less than 98% are detected with an accuracy of 92%. It can also automatically detect 45% of the material having a recognition rate less than 70% with greater than 92% accuracy.Ce travail s’intéresse au contrôle des résultats de transcriptions numériques produites automatiquement par des logiciels de reconnaissance optique de caractères (OCR), lors de la réalisation de projets de numérisation de masse de documents. Le but de nos travaux est de concevoir un système de contrôle des résultats d’OCR suffisamment robuste pour être performant sur l’ensemble des documents numérisés à la BnF. Cettecollection est composée de documents anciens dont les particularités les rendent difficiles à traiter par les OCR, même les plus performants. Nous avons conçu un système de détection des mots omis dans les transcriptions, ainsi qu’une méthode d’estimation des taux dereconnaissance des caractères. Le contexte applicatif exclu de recourir à une vérité terrain pour évaluer les performances. Nous essayons donc de les prédire. Pour cela nous proposons différents descripteurs qui permettent de caractériser les résultats des transcriptions. Cette caractérisation intervient à deux niveaux. Elle permet d’une part de caractériser la segmentation des documents à l’aide de descripteurs de textures, et d’autres part de caractériser les textes produits en ayant recours à un second OCR qui joue le rôle d’une référence relative. Dans les deux cas, les descripteurs choisis permettent de s’adapter aux propriétés des corpus à contrôler. L’adaptation est également assurée par une étape d’apprentissage des étages de décision ou de prédiction qui interviennent dans le système. Nous avons évalué nos systèmes de contrôle sur des bases d’images réelles sélectionnées dans les collections documentaires de la BnF. Le système détecte 84, 15% des mots omis par l’OCR avec une précision de 94, 73%. Les expérimentations réalisées ont également permis de montrer que 80% des documents présentant un taux de reconnaissance mots inférieur à 98% sont détectés avec une précision de 92%. On peut également détecter automatiquement 45% des documents présentant un taux de reconnaissance inférieur à 70% avec une précision supérieure à 92%

    Étude de facteurs génétiques prédictifs dans le neuroblastome, en particulier les anomalies du chromosmoe 14q

    Get PDF
    Le neuroblastome (NB) représente 8% de tous les cancers pédiatriques et est caractérisé par sa grande hétérogénéité clinique. Afin d’évaluer son pronostic, plusieurs facteurs génétiques sont utilisés : amplification de MYCN, délétion 1p, gain 11q et gain 17q. Les buts de notre travail étaient d’abord de vérifier si l’hybridation in situ en fluorescence (FISH) permet une analyse complète de ces anomalies et ensuite, en utilisant une analyse globale du génome telle le polymorphisme nucléotidique simple (SNP), de vérifier la concordance avec les résultats de la FISH et le pronostic potentiel des anomalies du 14q, en particulier du gène AKT. Nous avons donc établi un panel de sondes pour la FISH qui a été appliqué sur 16 tumeurs non-fixées. Après isolation de l’ADN de 36 tumeurs, nous avons effectué une analyse génotypique par SNP utilisant les puces « Affymetrix Genome-Wide Human SNP Array 6.0 » contenant 945,826 sondes non polymorphiques et 906,000 sondes polymorphiques. Nos résultats ont démontré que la FISH permet l’évaluation complète des anomalies génétiques importantes du NB et que les anomalies déséquilibrées sont détectées très précisément par SNP. Les anomalies du 14q tendent à être associées avec des facteurs cliniques comme le grade et l’évolution, contrairement aux anomalies d’AKT. L’analyse du 14q a révélé trois gènes d’intérêt, MAX, BCL11B et GPHN, qui devraient être analysés sur un plus grand échantillon. Ainsi, l’étude par FISH semble adaptée pour détecter les anomalies génétiques classiques du NB, alors que celles retrouvées en 14q représentent de potentielles cibles thérapeutiques pour cette tumeur.Neuroblastoma (NB) accounts for 8% of all childhood cancers and is characterized by its clinical heterogeneity. To evaluate its prognostic, many genetic markers are used: MYCN amplification, 1p deletion, 11q gain and 17q gain. Our goals were first to verify if fluorescence in situ hybridization (FISH) allows a complete analysis of these abnormalities and, second, using a global genomic analysis as single nucleotide polymorphism (SNP), to verify the concordance with FISH results and the prognostic potential of 14q abnormalities, especially these of AKT gene. We then established a FISH panel that has been applied on 16 unfixed tumors. After DNA isolation of 36 tumors, we made a genotypic analysis by SNP using « Affymetrix Genome-Wide Human SNP Array 6.0 » containing 945,826 nonpolymorphic probes and 906,000 polymorphic probes. Our results have demonstrated that FISH allows a complete evaluation of the NB’s important genetic abnormalities and that unbalanced abnormalities are detected very precisely by SNP. 14q abnormalities seem to be associated with clinical factors such as tumor grading and evolution, unlike AKT abnormalities. Analysis of 14q abnormalities revealed three genes of interest, MAX, BCL11B and GPHN, which should be analyzed on a larger sample. Thereby, FISH study seems appropriate to detect the NB’s classic genetic abnormalities, while those found in 14q represent potential therapeutic targets for this tumor

    Discours de presse et veille stratégique d'évènements. Approche textométrique et extraction d'informations pour la fouille de textes

    Get PDF
    This research demonstrates two methods of text mining for strategic monitoring purposes: information extraction and Textometry. In strategic monitoring, text mining is used to automatically obtain information on the activities of corporations. For this objective, information extraction identifies and labels units of information, named entities (companies, places, people), which then constitute entry points for the analysis of economic activities or events. These include mergers, bankruptcies, partnerships, etc., involving corresponding corporations. A Textometric method, however, uses several statistical models to study the distribution of words in large corpora, with the goal of shedding light on significant characteristics of the textual data. In this research, Textometry, an approach traditionally considered incompatible with information extraction methods, is applied to the same corpus as an information extraction procedure in order to obtain information on economic events. Several textometric analyses (characteristic elements, co-occurrences) are examined on a corpus of online news feeds. The results are then compared to those produced by the information extraction procedure. Both approaches contribute differently to processing textual data, producing complementary analyses of the corpus. Following the comparison, this research presents the advantages for these two text mining methods in strategic monitoring of current events.Ce travail a pour objet l’étude de deux méthodes de fouille automatique de textes, l’extraction d’informations et la textométrie, toutes deux mises au service de la veille stratégique des événements économiques. Pour l’extraction d’informations, il s’agit d’identifier et d’étiqueter des unités de connaissances, entités nommées — sociétés, lieux, personnes, qui servent de points d’entrée pour les analyses d’activités ou d’événements économiques — fusions, faillites, partenariats, impliquant ces différents acteurs. La méthode textométrique, en revanche, met en œuvre un ensemble de modèles statistiques permettant l’analyse des distributions de mots dans de vastes corpus, afin faire émerger les caractéristiques significatives des données textuelles. Dans cette recherche, la textométrie, traditionnellement considérée comme étant incompatible avec la fouille par l’extraction, est substituée à cette dernière pour obtenir des informations sur des événements économiques dans le discours. Plusieurs analyses textométriques (spécificités et cooccurrences) sont donc menées sur un corpus de flux de presse numérisé. On étudie ensuite les résultats obtenus grâce à la textométrie en vue de les comparer aux connaissances mises en évidence au moyen d’une procédure d’extraction d’informations. On constate que chacune des approches contribuent différemment au traitement des données textuelles, produisant toutes deux des analyses complémentaires. À l’issue de la comparaison est exposé l’apport des deux méthodes de fouille pour la veille d’événements

    Cartographie en ligne et planification participative : analyse des usages du géoweb et d'Internet dans le débat public à travers le cas de la Ville de Québec

    Get PDF
    Cette thèse se veut une première approche du rôle des technologies de cartographie en ligne à l’ère du Web social (géoweb) dans le domaine de la planification urbaine participative. Son ambition est de proposer, par la prise en compte des dimensions humaines et sociales des technologies, un angle de lecture et un cadre d’analyse innovant pour appréhender une thématique souvent victime de lectures trop rapides. Plus spécifiquement, l’objectif est d’appliquer une approche sociogéographique du géoweb à la problématique de l’aménagement urbain participatif avec la volonté de renouveler l’analyse de la participation publique en analysant le rôle de l’information géographique et des technologies en ligne (sites Web, réseaux sociaux, blogues, etc.). La question fondamentale posée est celle de l’utilisation du géoweb et d’Internet par les acteurs de la participation et de ses impacts sur les dynamiques participatives. Basée sur une étude de cas monographique fine et détaillée mobilisant une panoplie variée de méthodes (analyse documentaire, entrevues, observations directes et participantes), la démarche méthodologique basée sur l’observation de pratiques concrètes, le dialogue et les interactions avec les acteurs de la participation vise à la fois à rassembler des éléments empiriques et à en proposer une interprétation. Ce travail confronte ainsi des questionnements théoriques sur les nouveaux usages de l’iconographie territoriale numérique et du géoweb avec un corpus d’éléments empiriques issus du cas des procédures et des pratiques de participation publique de la ville de Québec. L’organisation de la thèse s’articule autour de 3 parties et 8 chapitres. Les 3 premiers chapitres, qui correspondent à la partie d’exploration de la thèse, proposent une vue d'ensemble de l’univers d’étude tant dans sa dimension sociopolitique (débat public, iconographie territoriale, etc.) que technologique (cartographie en ligne, SIG participatifs, géoweb). Les trois chapitres suivants sont consacrés à l’exposé des observations réalisées dans l’étude de cas consacrée à la Ville de Québec (présentation du terrain d’étude, iconographie territoriale mise en œuvre, usage des technologies par les acteurs). Enfin, la dernière partie, consacrée à l’interprétation, propose en premier lieu une synthèse sur le géoweb comme levier de participation puis propose de nouvelles perspectives de recherche

    L'AIS : une donnée pour l'analyse des activités en mer

    Get PDF
    4 pages, session "Mer et littoral"International audienceCette contribution présente des éléments méthodologiques pour la description des activités humaines en mer dans une perspective d'aide à la gestion. Différentes procédures, combinant l'exploitation de bases de données spatio-temporelles issue de données AIS archivées à des analyses spatiales au sein d'un SIG, sont testées afin de caractériser le transport maritime en Mer d'Iroise (Bretagne, France) sur les plans spatiaux, temporels et quantitatifs au cours d'une année

    Les matières colorantes au sein des systèmes techniques et symboliques au Néolithique (VIe et Ve millénaires BCE) dans l'arc liguro-provençal

    Get PDF
    The aim of this research was to determine the “chaînes opératoires” of colouring materials in the north-western Mediterranean region during the Early and Middle Neolithic and to integrate them in chrono-cultural framework. Two major archaeological sites were selected: Castellar – Pendimoun rock-shelter (5750-4900 cal. BCE) and Nice – Giribaldi, an open-air site (4550-4050 cal. BCE).The techno-economic analysis reveals contrasting situations. At Pendimoun, three local colouring materials, presenting various physic-chemical properties, were used during the VI millennium BCE. They were processed identically according to simple schemes in order to provide a wide range of products: goethite or hematite, in quantities for utilitarian needs or in fine powder for colouring purposes.Giribaldi witnessed a dichotomous management. Some local geomaterials were crafted such as the ones in Pendimoun but exogenous rocks were also specifically processed depending on their cohesion. Furthermore, this overview is not diachronically uniform as bauxites progressively replaced other raw materials in Early Chassey stages.Last, several symbolical aspects have been highlighted and characterized. A calcareous block was carved and painted in red- and yellowed to portray an anthropomorphic “mask”. The colour red is associated with funeral activities. Starting at the SMP phases, the main use of color is aimed at the coloring of ceramics, the latter probably dedicated to specific social activities as suggested by the technical investment involved: red powder incrustation in ceramic (Pendimoun) and then by white powder incrustation in engraved decor, black and red painting (Giribaldi).Ce travail a été entrepris dans le but de déterminer les chaînes opératoires des matières colorantes néolithiques et de les intégrer dans une dynamique chrono-culturelle, à partir de deux sites-clés de l’arc liguro-provençal : Castellar – Pendimoun (5750-4900 cal. BCE) et Nice – Giribaldi (4550-4050 cal. BCE).L’étude technoéconomique montre des situations contrastées. Pendimoun voit, tout au long du VIe millénaire BCE, l’exploitation de trois roches locales aux caractéristiques physico-chimiques variées, traitées selon des schémas simples similaires pour fournir des produits adaptés à tous les besoins : hématite ou goethite, en quantité pour un usage technique ou de granulométrie fine pour exploiter les propriétés colorantes. Giribaldi est le siège d’une gestion dichotomique, où des matières colorantes locales préparées comme à Pendimoun, côtoient des matières exogènes, traitées à travers des actions spécifiques adaptées à leur cohérence.Enfin, de nombreux aspects symboliques ont été mis en évidence et caractérisés. Un bloc calcaire est sculpté et peint pour représenter un visage, selon une tradition peut-être héritée de pratiques proche-orientales. La teinte rouge est associée à la sphère funéraire. La coloration de productions céramiques techniquement très investies et vraisemblablement dédiées à des pratiques sociales particulières est aussi observée ; cette coloration est appliquée par incrustation de poudre durant les VBQ à Pendimoun et par peintures rouges ou noires et par incrustations blanches au Chasséen ancien à Giribaldi
    • …
    corecore