13 research outputs found

    Contributions au tri automatique de documents et de courrier d'entreprises

    Get PDF
    Ce travail de thèse s inscrit dans le cadre du développement de systèmes de vision industrielle pour le tri automatique de documents et de courriers d entreprises. Les architectures existantes, dont nous avons balayé les spécificités dans les trois premiers chapitres de la thèse, présentent des faiblesses qui se traduisent par des erreurs de lecture et des rejets que l on impute encore trop souvent aux OCR. Or, les étapes responsables de ces rejets et de ces erreurs de lecture sont les premières à intervenir dans le processus. Nous avons ainsi choisi de porter notre contribution sur les aspects inhérents à la segmentation des images de courriers et la localisation de leurs régions d intérêt en investissant une nouvelle approche pyramidale de modélisation par coloration hiérarchique de graphes ; à ce jour, la coloration de graphes n a jamais été exploitée dans un tel contexte. Elle intervient dans notre contribution à toutes les étapes d analyse de la structure des documents ainsi que dans la prise de décision pour la reconnaissance (reconnaissance de la nature du document à traiter et reconnaissance du bloc adresse). Notre architecture a été conçue pour réaliser essentiellement les étapes d analyse de structures et de reconnaissance en garantissant une réelle coopération entres les différents modules d analyse et de décision. Elle s articule autour de trois grandes parties : une partie de segmentation bas niveau (binarisation et recherche de connexités), une partie d extraction de la structure physique par coloration hiérarchique de graphe et une partie de localisation de blocs adresse et de classification de documents. Les algorithmes impliqués dans le système ont été conçus pour leur rapidité d exécution (en adéquation avec les contraintes de temps réels), leur robustesse, et leur compatibilité. Les expérimentations réalisées dans ce contexte sont très encourageantes et offrent également de nouvelles perspectives à une plus grande diversité d images de documents.This thesis deals with the development of industrial vision systems for automatic business documents and mail sorting. These systems need very high processing time, accuracy and precision of results. The current systems are most of time made of sequential modules needing fast and efficient algorithms throughout the processing line: from low to high level stages of analysis and content recognition. The existing architectures that we have described in the three first chapters of the thesis have shown their weaknesses that are expressed by reading errors and OCR rejections. The modules that are responsible of these rejections and reading errors are mostly the first to occur in the processes of image segmentation and interest regions location. Indeed, theses two processes, involving each other, are fundamental for the system performances and the efficiency of the automatic sorting lines. In this thesis, we have chosen to focus on different sides of mail images segmentation and of relevant zones (as address block) location. We have chosen to develop a model based on a new pyramidal approach using a hierarchical graph coloring. As for now, graph coloring has never been exploited in such context. It has been introduced in our contribution at every stage of document layout analysis for the recognition and decision tasks (kind of document or address block recognition). The recognition stage is made about a training process with a unique model of graph b-coloring. Our architecture is basically designed to guarantee a good cooperation bewtween the different modules of decision and analysis for the layout analysis and the recognition stages. It is composed of three main sections: the low-level segmentation (binarisation and connected component labeling), the physical layout extraction by hierarchical graph coloring and the address block location and document sorting. The algorithms involved in the system have been designed for their execution speed (matching with real time constraints), their robustness, and their compatibility. The experimentations made in this context are very encouraging and lead to investigate a wider diversity of document images.VILLEURBANNE-DOC'INSA-Bib. elec. (692669901) / SudocSudocFranceF

    Images et modèles 3D en milieux naturels

    Get PDF
    Ce numéro 12 de la Collection EDYTEM est à l'image des précédents : un espace ouvert d'expression dédié au croisement de regards scientifiques. L'accent est ici mis sur les méthodes dédiées aux représentations 3D des milieux naturels afin d'en extraire les données nécessaires aux recherches aussi bien en géosciences, en sciences de l'environnement, qu'en sciences humaines et sociales. Ce numéro recueille plus de vingt articles consacrés à l'imagerie et à la modélisation 3D. Ce volume s'ouvre par quatre articles qui posent les concepts, les méthodes et les outils de la lasergrammétrie et de la photogrammétrie. Les articles suivants constituent autant d'exemples d'application. Un tiers de ceux-ci sont issus des recherches menées par des collègues qui participent à l'école thématique. Les deux autres tiers concernent les travaux que mène le laboratoire EDYTEM en montagne (glaciers, parois, torrents...) et en milieu souterrain naturel

    Détection du réseau routier à partir des images satellitaires à la suite d'une catatastrophe majeure

    Get PDF
    Avec l’augmentation de la résolution des images de télédétection, l’extraction des routes se fait avec plus de précision suivie d’une meilleure identification des différentes voies. Cependant, cette précision a un prix, elle génère du bruit dû au capteur et au contexte urbain qui rendent difficile l’extraction. Dans un contexte de catastrophe naturelle, le temps d’intervention des secouristes sur le terrain et la réduction des fausses détections par les algorithmes d’extraction sont primordiaux. Généralement, les structures (différents types de routes) que l’on veut analyser dans une image possèdent des tailles différentes, donc l’utilisation d’une résolution unique adaptée à tous ces objets est à écarter. L’analyse multirésolution qui décrit l’image sous différentes échelles d’espace avec un fort pouvoir de détection d’objets sera employée dans un premier temps pour réduire cette sensibilité au bruit. Dans un deuxième temps, nous allons employer le filtrage de Kalman pour faire le suivi de routes. L’image de sortie de l’extraction de routes obtenue avec l’algorithme modifié de Christophe et Inglada (2007) par Spiric (2011) sera utilisée comme espace d’observation. L’initialisation et la modélisation sont basées sur les caractéristiques intrinsèques de la route

    Actes des 29es Journées Francophones d'Ingénierie des Connaissances, IC 2018

    Get PDF
    International audienc

    Approche multi-agents de couplage de modèles pour la modélisation des systèmes complexes spatiaux : application à l'aménagement urbain de la ville de Métouia

    Get PDF
    In This work we present an agent-based approach for coupling models in the context of complex spatial systems. The main idea of our approach called Coupling4Modeling is the use of the space as a medium of interactions between the coupling agents to allow them to co-exist and interact according to a set of rules that govern these interactions. By playing the role of coupling factor, space allows coupling agents to exchange data and to observe the results of pragmatic coupling of different models constituting the studied spatial complex sys-tem. This approach consisting in a methodology and an agent-oriented metamodel of coupling. Our metamodel is based on an organizational (AGRE) with holonic architecture that takes into consideration the specificity, autonomy and the calculation scale of each model. This notion of holon allows us to manage the heterogeneity of formalisms and spatio-temporal scales of models. In fact, spatial heterogeneity is managed by the decomposition of the collector and the interpreter agents until reaching the desired level of abstraction. These agents can move from one level to another by adapting the spatial scale of the space to the spatial scale of the model through conversion functions. The temporal heterogeneity is managed by a time agent that will calculate the future date in the execution of the model and a scheduler agent that will schedule these dates following the time scale of the simulation. We take the urban system of Metouia (Tunisia) as an example of spatial complex system, to study with details and to test our coupling4modeling approach. The main goal is to meet the needs of urbanists in terms of decision support in urban planning and to test our coupling approach coupling4modeling.Dans ce travail, nous présentons une approche de couplage de modèles orientée agent pour la modélisation des systèmes complexes spatiaux. L’idée principale est d’utiliser l’espace comme medium d’interaction entre les modèles à coupler pour leur permettre de coexister et d’interagir conformément à un ensemble de règles qui régissent ces interactions. En jouant le rôle de facteur de couplage, l’espace permet aux agents chargés du couplage d’échanger des données et nous permet d’observer les résultats concrets du couplage des différents modèles constituant le système complexe spatial étudié. Cette approche est composée d’une méthodologie et d’un métamodèle de couplage orienté-agent. Notre métamodèle est basé sur une architecture organisationnelle (AGRE) et de type holonique qui prend en considération la spécificité, l’autonomie et l’échelle de calcul de chaque modèle. Cette notion de holon nous permet de gérer l’hétérogénéité des formalismes et des échelles spatio-temporelles des modèles. En effet, l’hétérogénéité spatiale est gérée par la décomposition des agents de collecte et de spatialisation jusqu’à atteindre le niveau d’abstraction souhaité. Ces agents peuvent passer d’un niveau à l’autre en adaptant l’échelle spatiale de l’espace à l’échelle spatiale du modèle grâce à des fonctions de conversion. L’hétérogénéité temporelle est gérée par un agent de temps qui permettra de calculer la future date d’exécution du modèle et un agent scheduler qui se chargera de l’ordonnancement de ces dates sur l’échelle de temps de la simulation. Nous prenons le système urbain de Métouia (Tunisie), comme exemple de système complexe spatial à étudier pour répondre aux besoins des urbanistes en termes d’aide à la décision en aménagement et tester notre approche de couplage coupling4modeling

    Analyse d'images : Filtrage et segmentation

    Get PDF
    Ouvrage publié avec l'aide du Ministère des affaires étrangères, direction de la coopération scientifique et technique. AVERTISSEMENT Le livre publié en 1995 chez MASSON (EAN13 : 9782225849237) est épuisé. Cette version pdf est une version élaborée à partie de la version préliminaire transmise à l'éditeur. La mise en page est légèrement différente de celle du livre. Malheureusement quelques figures de l'annexe C ont été perdues.International audienceL'analyse d'image touche à l'heure actuelle de nombreux domaines, avec des objectifs aussi variés que l'aide au diagnostic pour les images médicales, la vision artificielle en robotique ou l'analyse des ressources terrestres à partir des images prises par satellite. Le but du traitement de ces images est à la fois simple dans son concept et difficile dans sa réalisation. Simple en effet, puisqu'il s'agit de reconnaître des objets que notre système visuel perçoit rapidement, du moins pour la majorité d'entre eux. Difficile cependant, car dans la grande quantité d'informations contenues dans l'image, il faut extraire des éléments pertinents pour l'application visée et ceci indépendamment de la qualité de l'image. L'analyse d'image s'est donc dotée d'outils et de méthodes puissants issus de domaines aussi variés que les mathématiques, le traitement du signal, ou l'informatique. Cet ouvrage présente un des aspects les plus importants du traitement des images : la " segmentation ". Il récapitule d'abord les grandeurs observables et calculables sur une image et les algorithmes de manipulation des structures de données associées. Il détaille ensuite les traitements préliminaires, tels le filtrage du bruit et les deux types d'approche de la segmentation, l'extraction des contours et celle des régions. Chacune fait l'objet d'une étude théorique et de nombreux résultats illustrent les performances. Une des originalités de l'ouvrage est l'étude comparative des différentes techniques appliquées sur un même corpus d'images réelles

    Les espaces de l'halieutique

    Get PDF

    Qu’est-ce que la cartographie du web ?

    Get PDF
    Les web studies et les network sciences ont déjà une histoire, et, en France, cette histoire fut profondément marquée par la contribution de Franck Ghitalla. Cet ouvrage posthume était en fait déjà prêt à être publié au moment du décès brutal de son auteur en décembre 2018. Ses chroniques du Web et ses carnets cartographiques, ici regroupés, ont, en effet, une vocation pédagogique certaine. Cet ouvrage est ainsi idéal pour une initiation, car il permettra à chacun de s’approprier les concepts et les méthodes que Franck Ghitalla a éminemment contribué à développer en France. L’histoire de la construction de ces approches en réseau qu’il retrace dans la première partie permet de comprendre que la tâche requiert de multiples expertises : la rigueur des calculs doit être alliée à la fiabilité des sources et des données ainsi qu’à la sensibilité sémiotique de la visualisation pour rendre robuste une interprétation toujours ancrée dans les sciences sociales. Chaque chapitre s’appuie sur des exemples d’analyse de réseaux très précis, dans des domaines très divers, et les concepts sont progressivement distillés, ainsi que les tours de main, que Franck Ghitalla, brillant artisan des données numériques, avait à cœur de partager avec tous

    Archives, fragments Web et diasporas. Pour une exploration désagrégée de corpus d’archives Web liées aux représentations en ligne des diasporas

    Get PDF
    The Web is an unsteady environment. As Web sites emerge every days, whole communities mayfade away over time by leaving too few or incomplete traces on the living Web. Facing this phenomenon,several archiving initiatives try to preserve the memory of the Web. But today, a mystery remains : While theyhave never been so vast and numerous, why are the Web archives not already the subject of many historicalresearches ? In reality, Web archives should not be considered as a faithful representation of the living Web. Infact, they are the direct traces of the archiving tools that tear them away from their original temporality. Thus,this thesis aims to give researchers the theoretical and technical means for a greater manageability of the Webarchives, by defining a new unit of exploration : the Web fragment, a coherent and self-sufficient subset of aWeb page. To that end, we will follow the pioneering work of the e-Diasporas Atlas which allowed, in the2000s, to map and archive thousands of migrant Web sites. Main source of data from which we will unfoldour reflections, it is through the particular angle of online representations of diasporas that we will explorethe Web archives of the Atlas.Le Web est un environnement éphémère. Alors que de nouveaux sites Web émergent chaque jour,il arrive que certaines communautés disparaissent entièrement de la surface de la toile, ne laissant derrièreelles que des traces incomplètes voire inexistantes. Face à la volatilité du Web vivant, plusieurs initiativesd’archivage cherchent malgré tout à préserver la mémoire du Web passé. Mais aujourd’hui, force est deconstater qu’un mystère demeure : Pourquoi, alors qu’elles n’ont jamais été aussi vastes et aussi nombreuses,les archives Web ne font-elles pas déjà l’objet de multiples recherches historiques ? Initialement construitespour inscrire la mémoire de la toile sur un support durable, ces archives ne doivent pourtant pas êtreconsidérées comme une représentation fidèle du Web vivant. Elles sont les traces directes des outils de collectequi les arrachent à leur temporalité d’origine. Partant de là, cette thèse ambitionne de redonner aux chercheursles moyens théoriques et techniques d’une plus grande maniabilité du Web passé, en définissant une nouvelleunité d’exploration des archives Web : le fragment Web, un sous-ensemble cohérent et auto-suffisant d’unepage Web. Pour ce faire, nous nous inscrirons dans l’héritage des travaux pionniers de l’Atlas e-Diasporas quipermit, dans les années 2000, de cartographier et d’archiver plusieurs milliers de sites Web migrants. Sourceprincipale de données à partir desquelles nous déploierons nos réflexions, c’est à travers l’angle particulierdes représentations en ligne des diasporas que nous chercherons à explorer les archives Web de l’Atlas
    corecore