12 research outputs found

    Un systÚme data mining en ligne pour la maintenance ontologique d'une mémoire corporative DM

    Get PDF
    L'intĂ©gration de la connaissance dans la mĂ©moire corporative (RibiĂšre et Matta, 1998), (Dieng et al., 1998) fait face Ă  l'hĂ©tĂ©rogĂ©nĂ©itĂ© des donnĂ©es (Visser, Jones et al., 1997). L'utilisation de l'ontologie est une approche possible pour surmonter ce problĂšme. Cependant, l'ontologie est une structure de donnĂ©e comme n'importe quelle structure informatique, elle est donc dynamique et Ă©volue dans le temps Ă  cause des conditions dynamiques rĂ©sultant des changements du domaine conceptuel, les changements de conceptualisation, les changements de spĂ©cification, les changements descendants, etc. (Yildiz, 2006). Ces derniĂšres annĂ©es, plusieurs approches ont Ă©tĂ© proposĂ©es pour rĂ©soudre le problĂšme de la maintenance des ontologies. Cependant, la prĂ©cision et le rappel ne permettent pas de satisfaire les besoins des utilisateurs. De plus, ces approches ne prennent pas en compte toute l'information disponible pour prendre une dĂ©cision rĂ©aliste. Pour rĂ©soudre le problĂšme de l'Ă©volution de la connaissance dans les ontologies, nous proposons une approche hybride qui utilise l'apprentissage machine et un processus d'alignement qui contrĂŽle les relations syntaxiques entre les entrĂ©es dans l'ontologie. De plus, des rĂšgles structurelles et des heuristiques sont appliquĂ©es pour amĂ©liorer le degrĂ© de similitude entre les entitĂ©s ontologiques. Ce processus hybride crĂ©e des rĂšgles de correspondance qui dĂ©finissent comment transformer les entrĂ©es dans l'ontologie en dĂ©finissant tous les types d'associations possibles entre les entitĂ©s ontologiques. L'approche d'enrichissement de l'ontologie exploite les techniques de la fouille de donnĂ©es, les techniques du traitement automatique du langage naturel et la recherche d'information pour amĂ©liorer la performance d'apprentissage durant la tĂąche d'enrichissement du domaine conceptuel. L'Ă©valuation des ontologies demeure un problĂšme important et le choix d'une approche appropriĂ©e dĂ©pend des critĂšres utilisĂ©s. Dans notre approche, nous adoptons la vĂ©rification de la cohĂ©rence dĂ©crite dans (Maziar Amirhosseini et al., 2011) et (Abderrazak et al., 2011).\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : Data Mining, Traitement automatique du langage naturel, Apprentissage machine, Recherche d'information, IntĂ©gration, Ontologie, MĂ©moire corporative, Web sĂ©mantique

    Segmentation et classification dans les images de documents numérisés

    Get PDF
    Les travaux de cette thÚse ont été effectués dans le cadre de l'analyse et du traitement d'images de documents imprimés afin d'automatiser la création de revues de presse. Les images en sortie du scanner sont traitées sans aucune information a priori ou intervention humaine. Ainsi, pour les caractériser, nous présentons un systÚme d'analyse de documents composites couleur qui réalise une segmentation en zones colorimétriquement homogÚnes et qui adapte les algorithmes d'extraction de textes aux caractéristiques locales de chaque zone. Les informations colorimétriques et textuelles fournies par ce systÚme alimentent une méthode de segmentation physique des pages de presse numérisée. Les blocs issus de cette décomposition font l'objet d'une classification permettant, entre autres, de détecter les zones publicitaires. Dans la continuité et l'expansion des travaux de classification effectués dans la premiÚre partie, nous présentons un nouveau moteur de classification et de classement générique, rapide et facile à utiliser. Cette approche se distingue de la grande majorité des méthodes existantes qui reposent sur des connaissances a priori sur les données et dépendent de paramÚtres abstraits et difficiles à déterminer par l'utilisateur. De la caractérisation colorimétrique au suivi des articles en passant par la détection des publicités, l'ensemble des approches présentées ont été combinées afin de mettre au point une application permettant la classification des documents de presse numérisée par le contenu.In this thesis, we deal with printed document images processing and analysis to automate the press reviews. The scanner output images are processed without any prior knowledge nor human intervention. Thus, to characterize them, we present a scalable analysis system for complex documents. This characterization is based on a hybrid color segmentation suited to noisy document images. The color analysis customizes text extraction algorithms to fit the local image properties. The provided color and text information is used to perform layout segmentation in press images and to compute features on the resulting blocks. These elements are classified to detect advertisements. In the second part of this thesis, we deal with a more general purpose: clusternig and classification. We present a new clustering approach, named ACPP, which is completely automated, fast and easy to use. This approach's main features are its independence of prior knowledge about the data and theoretical parameters that should be determined by the user. Color analysis, layout segmentation and the ACPP classification method are combined to create a complete processing chain for press images.VILLEURBANNE-DOC'INSA LYON (692662301) / SudocVILLEURBANNE-DOC'INSA-Bib. elec. (692669901) / SudocSudocFranceF

    Complexification des données et des techniques en linguistique : contributions du TAL aux solutions et aux problÚmes

    Get PDF
    Ce mémoire d'habilitation est l'occasion de faire le bilan de mon activité d'enseignant-chercheur en traitement automatique des langues (TAL) dans un laboratoire de linguistique (CLLE-ERSS) et des principales évolutions de l'outillage informatique de la linguistique au cours des 15 derniÚres années. Mes recherches portent notamment sur le repérage de structures morphosyntaxiques dans les textes, l'analyse des structures du discours et l'acquisition de ressources lexicales à partir de corpus. Certaines se positionnent dans des cadres applicatifs comme la recherche d'information et la classification de textes, mais aussi dans des contextes plus spécifiques en lien avec d'autres disciplines (médecine, psychologie, sociologie...). En m'appuyant sur la diversité de ces travaux et de mes collaborations, j'identifie quatre dimensions d'évolution principales : - l'augmentation de la masse de données langagiÚres disponibles et notamment la part croissante de l'utilisation du Web comme corpus ; - la complexification de l'outillage informatique disponible pour gérer la masse et la variété des données accessibles (outils de constitution et d'interrogation de corpus) ; - la complexification de l'annotation des données langagiÚres, qu'elle soit manuelle, assistée ou automatique ; - la montée en puissance, en TAL mais aussi en linguistique descriptive, des méthodes quantitatives (depuis l'analyse statistique jusqu'aux techniques de fouille de données et d'apprentissage). Si les avancées techniques du TAL ont permis d'accroßtre de façon conséquente les potentialités d'investigation du matériau langagier, et dans certains cas de dégager de nouveaux questionnements, elles ont aussi contribué à creuser un fossé entre les deux composantes (informatique et linguistique) de la discipline. A travers ma propre expérience d'acteur ou d'accompagnateur de ces changements et avec une vocation de "passeur" interdisciplinaire, je cherche à dégager les principaux enjeux actuels pour la linguistique outillée : - doter la linguistique descriptive d'outils de visualisation de données pour aborder la complexité, en exploitant les avancées théoriques et techniques de ce nouveau champ disciplinaire et en les adaptant aux spécificités du matériau langagier ; - rendre abordables aux linguistes les techniques fondamentales de l'analyse statistique, mais aussi les méthodes d'apprentissage artificiel seules capables d'assister l'investigation et l'exploitation de données massives et complexes ; - replacer la linguistique au sein des développements actuels du TAL, notamment par le biais de l'utilisation de descripteurs linguistiques riches dans les outils de traitement par apprentissage, pour un bénéfice mutuel

    Modélisation de documents et recherches de points communs : propositions d'un framework de gestion de fiches d'anomalie pour faciliter les maintenances corrective et préventive

    Get PDF
    La pratique quotidienne d'une activitĂ© gĂ©nĂšre un ensemble de connaissances qui se traduisent par un savoir-faire, une maĂźtrise, une compĂ©tence qu'une personne acquiert au cours du temps. Pour les prĂ©server, la capitalisation des connaissances est devenue une activitĂ© essentielle dans les entreprises. Nos travaux de recherche ont pour objectif de modĂ©liser et mettre en Ɠuvre un systĂšme afin d'extraire et de formaliser les connaissances issues des anomalies qui surviennent dans un contexte de production industrielle et de les intĂ©grer dans un framework facilitant la maintenance corrective et prĂ©ventive. Ce framework structure la connaissance sous la forme de groupes d'anomalies. Ces groupes peuvent ĂȘtre rapprochĂ©s des patterns : ils reprĂ©sentent un problĂšme auquel une ou plusieurs solutions sont associĂ©es. Ils ne sont pas dĂ©finis a priori, c'est l'analyse des anomalies passĂ©es qui gĂ©nĂšre des groupes pertinents, qui peuvent Ă©voluer avec l'ajout de nouvelles anomalies. Pour identifier ces patterns, supports de la connaissance, un processus complet d'extraction et de formalisation de la connaissance est suivi, Knowledge Discovery in Databases. Ce processus a Ă©tĂ© appliquĂ© dans des domaines trĂšs variĂ©s. Nous lui donnons ici une nouvelle dimension, le traitement d'anomalies et plus particuliĂšrement celles qui surviennent au cours de processus de production industrielle. Les Ă©tapes gĂ©nĂ©riques qui le composent, depuis la simple sĂ©lection des donnĂ©es jusqu'Ă  l'interprĂ©tation des patterns qui supportent les connaissances, sont considĂ©rĂ©es pour affecter Ă  chacune un traitement spĂ©cifique pertinent par rapport Ă  notre contexte applicatif.The daily practice of an activity generates a set of knowledge that results in a know-how, a mastery, a skill a person gains over time. In order to take advantage of this experience, capitalization of knowledge has become an essential activity for companies. Our research work aims to model and implement such a system that extracts and formalizes knowledge from defects that occur in the context of industrial production, and to integrate it into a framework in order to facilitate corrective and preventive maintenance. This framework organizes the knowledge in the form of defects' groups. These groups can be compared to patterns: they represent a problem to which one or more solutions are related. They are not defined a priori; the analysis of past defects generates relevant groups, which may change with the addition of new defects. To identify these patterns, a complete process of knowledge extraction and formalization is adopted, Knowledge Discovery in Databases, well known in the domain of knowledge management. This process has been applied in very diversified fields. In this work, we give a new dimension to this process, the processing of defects, especially those that occur during industrial production processes. The generic steps that compose it, from the simple data selection to the interpretation of patterns that support knowledge, are considered. A specific processing, relevant to our applicative context, is assigned to each of these steps

    Modélisation de documents et recherche de points communs - Proposition d'un framework de gestion de fiches d'anomalie pour faciliter les maintenances corrective et préventive

    Get PDF
    The daily practice of an activity generates a set of knowledge that results in a know-how, a mastery, a skill a person gains over time. In order to take advantage of this experience, capitalization of knowledge has become an essential activity for companies. Our research work aims to model and implement such a system that extracts and formalizes knowledge from defects that occur in the context of industrial production, and to integrate it into a framework in order to facilitate corrective and preventive maintenance. This framework organizes the knowledge in the form of defects' groups. These groups can be compared to patterns: they represent a problem to which one or more solutions are related. They are not defined a priori; the analysis of past defects generates relevant groups, which may change with the addition of new defects. To identify these patterns, a complete process of knowledge extraction and formalization is adopted, Knowledge Discovery in Databases, well known in the domain of knowledge management. This process has been applied in very diversified fields. In this work, we give a new dimension to this process, the processing of defects, especially those that occur during industrial production processes. The generic steps that compose it, from the simple data selection to the interpretation of patterns that support knowledge, are considered. A specific processing, relevant to our applicative context, is assigned to each of these steps.La pratique quotidienne d'une activitĂ© gĂ©nĂšre un ensemble de connaissances qui se traduisent par un savoir-faire, une maĂźtrise, une compĂ©tence qu'une personne acquiert au cours du temps. Pour les prĂ©server, la capitalisation des connaissances est devenue une activitĂ© essentielle dans les entreprises. Nos travaux de recherche ont pour objectif de modĂ©liser et mettre en Ɠuvre un systĂšme afin d'extraire et de formaliser les connaissances issues des anomalies qui surviennent dans un contexte de production industrielle et de les intĂ©grer dans un framework facilitant la maintenance corrective et prĂ©ventive. Ce framework structure la connaissance sous la forme de groupes d'anomalies. Ces groupes peuvent ĂȘtre rapprochĂ©s des patterns : ils reprĂ©sentent un problĂšme auquel une ou plusieurs solutions sont associĂ©es. Ils ne sont pas dĂ©finis a priori, c'est l'analyse des anomalies passĂ©es qui gĂ©nĂšre des groupes pertinents, qui peuvent Ă©voluer avec l'ajout de nouvelles anomalies. Pour identifier ces patterns, supports de la connaissance, un processus complet d'extraction et de formalisation de la connaissance est suivi, Knowledge Discovery in Databases. Ce processus a Ă©tĂ© appliquĂ© dans des domaines trĂšs variĂ©s. Nous lui donnons ici une nouvelle dimension, le traitement d'anomalies et plus particuliĂšrement celles qui surviennent au cours de processus de production industrielle. Les Ă©tapes gĂ©nĂ©riques qui le composent, depuis la simple sĂ©lection des donnĂ©es jusqu'Ă  l'interprĂ©tation des patterns qui supportent les connaissances, sont considĂ©rĂ©es pour affecter Ă  chacune un traitement spĂ©cifique pertinent par rapport Ă  notre contexte applicatif

    Représentations robustes de documents bruités dans des espaces homogÚnes

    Get PDF
    In the Information Retrieval field, documents are usually considered as a "bagof-words". This model does not take into account the temporal structure of thedocument and is sensitive to noises which can alter its lexical form. These noisescan be produced by different sources : uncontrolled form of documents in microbloggingplatforms, automatic transcription of speech documents which are errorprone,lexical and grammatical variabilities in Web forums. . . The work presented inthis thesis addresses issues related to document representations from noisy sources.The thesis consists of three parts in which different representations of content areavailable. The first one compares a classical representation based on a term-frequencyrepresentation to a higher level representation based on a topic space. The abstractionof the document content allows us to limit the alteration of the noisy document byrepresenting its content with a set of high-level features. Our experiments confirm thatmapping a noisy document into a topic space allows us to improve the results obtainedduring different information retrieval tasks compared to a classical approach based onterm frequency. The major problem with such a high-level representation is that it isbased on a space theme whose parameters are chosen empirically.The second part presents a novel representation based on multiple topic spaces thatallow us to solve three main problems : the closeness of the subjects discussed in thedocument, the tricky choice of the "right" values of the topic space parameters and therobustness of the topic-based representation. Based on the idea that a single representationof the contents cannot capture all the relevant information, we propose to increasethe number of views on a single document. This multiplication of views generates "artificial"observations that contain fragments of useful information. The first experimentvalidated the multi-view approach to represent noisy texts. However, it has the disadvantageof being very large and redundant and of containing additional variability associatedwith the diversity of views. In the second step, we propose a method based onfactor analysis to compact the different views and to obtain a new robust representationof low dimension which contains only the informative part of the document whilethe noisy variabilities are compensated. During a dialogue classification task, the compressionprocess confirmed that this compact representation allows us to improve therobustness of noisy document representation.Nonetheless, during the learning process of topic spaces, the document is consideredas a "bag-of-words" while many studies have showed that the word position in a7document is useful. A representation which takes into account the temporal structureof the document based on hyper-complex numbers is proposed in the third part. Thisrepresentation is based on the hyper-complex numbers of dimension four named quaternions.Our experiments on a classification task have showed the effectiveness of theproposed approach compared to a conventional "bag-of-words" representation.En recherche d’information, les documents sont le plus souvent considĂ©rĂ©s comme des "sacs-de-mots". Ce modĂšle ne tient pas compte de la structure temporelle du document et est sensible aux bruits qui peuvent altĂ©rer la forme lexicale. Ces bruits peuvent ĂȘtre produits par diffĂ©rentes sources : forme peu contrĂŽlĂ©e des messages des sites de micro-blogging, messages vocaux dont la transcription automatique contient des erreurs, variabilitĂ©s lexicales et grammaticales dans les forums du Web. . . Le travail prĂ©sentĂ© dans cette thĂšse s’intĂ©resse au problĂšme de la reprĂ©sentation de documents issus de sources bruitĂ©es.La thĂšse comporte trois parties dans lesquelles diffĂ©rentes reprĂ©sentations des contenus sont proposĂ©es. La premiĂšre partie compare une reprĂ©sentation classique utilisant la frĂ©quence des mots Ă  une reprĂ©sentation de haut-niveau s’appuyant sur un espace de thĂšmes. Cette abstraction du contenu permet de limiter l’altĂ©ration de la forme de surface du document bruitĂ© en le reprĂ©sentant par un ensemble de caractĂ©ristiques de haut-niveau. Nos expĂ©riences confirment que cette projection dans un espace de thĂšmes permet d’amĂ©liorer les rĂ©sultats obtenus sur diverses tĂąches de recherche d’information en comparaison d’une reprĂ©sentation plus classique utilisant la frĂ©quence des mots.Le problĂšme majeur d’une telle reprĂ©sentation est qu’elle est fondĂ©e sur un espace de thĂšmes dont les paramĂštres sont choisis empiriquement.La deuxiĂšme partie dĂ©crit une nouvelle reprĂ©sentation s’appuyant sur des espaces multiples et permettant de rĂ©soudre trois problĂšmes majeurs : la proximitĂ© des sujets traitĂ©s dans le document, le choix difficile des paramĂštres du modĂšle de thĂšmes ainsi que la robustesse de la reprĂ©sentation. Partant de l’idĂ©e qu’une seule reprĂ©sentation des contenus ne peut pas capturer l’ensemble des informations utiles, nous proposons d’augmenter le nombre de vues sur un mĂȘme document. Cette multiplication des vues permet de gĂ©nĂ©rer des observations "artificielles" qui contiennent des fragments de l’information utile. Une premiĂšre expĂ©rience a validĂ© cette approche multi-vues de la reprĂ©sentation de textes bruitĂ©s. Elle a cependant l’inconvĂ©nient d’ĂȘtre trĂšs volumineuse,redondante, et de contenir une variabilitĂ© additionnelle liĂ©e Ă  la diversitĂ© des vues. Dans un deuxiĂšme temps, nous proposons une mĂ©thode s’appuyant sur l’analyse factorielle pour fusionner les vues multiples et obtenir une nouvelle reprĂ©sentation robuste,de dimension rĂ©duite, ne contenant que la partie "utile" du document tout en rĂ©duisant les variabilitĂ©s "parasites". Lors d’une tĂąche de catĂ©gorisation de conversations,ce processus de compression a confirmĂ© qu’il permettait d’augmenter la robustesse de la reprĂ©sentation du document bruitĂ©.Cependant, lors de l’élaboration des espaces de thĂšmes, le document reste considĂ©rĂ© comme un "sac-de-mots" alors que plusieurs Ă©tudes montrent que la position d’un terme au sein du document est importante. Une reprĂ©sentation tenant compte de cette structure temporelle du document est proposĂ©e dans la troisiĂšme partie. Cette reprĂ©sentation s’appuie sur les nombres hyper-complexes de dimension appelĂ©s quaternions. Nos expĂ©riences menĂ©es sur une tĂąche de catĂ©gorisation ont montrĂ© l’efficacitĂ© de cette mĂ©thode comparativement aux reprĂ©sentations classiques en "sacs-de-mots"

    Emergsem : une approche d'annotation collaborative et de recherche d'images basée sur les sémantiques émergentes

    Get PDF
    The extraction of images semantic is a process that requires deep analysis of the image content. It refers to their interpretation from a human point of view. In this lastest case, the image semantic may be generic (e.g., a vehicle) or specific (e.g., a bicycle). It consists in extracting single or multiple images semantic in order to facilitate its retrieval. These objectives clearly show that the extraction of semantic is not a new research field. This thesis deals with the semantic collaborative annotation of images and their retrieval. Firstly, it discusses how annotators could describe and represent images content based on visual information, and secondly how images retrieval could be greatly improved thank to latest techniques, such as clustering and recommendation. To achieve these purposes, the use of implicit image content description tools, interactions of annotators that describe the semantics of images and those of users that use generated semantics to retrieve the images, would be essential. In this thesis, we focus our research on the use of Semantic Web tools, in particular ontologies to produce structured descriptions of images. Ontology is used to represent image objects and the relationships between these objects. In other words, it allows to formally represent the different types of objects and their relationships. Ontology encodes the relational structure of concepts that can be used to describe and reason. This makes them eminently adapted to many problems such as semantic description of images that requires prior knowledge as well as descriptive and normative capacity. The contribution of this thesis is focused on three main points : semantic representation, collaborative semantic annotation and semantic retrieval of images.Semantic representation allows to offer a tool for the capturing semantics of images. To capture the semantics of images, we propose an application ontology derived from a generic ontology. Collaborative semantic annotation that we define, provides emergent semantics through the fusion of semantics proposed by the annotators.Semantic retrieval allows to look for images with semantics provided by collaborative semantic annotation. It is based on clustering and recommendation. Clustering is used to group similar images corresponding to the user’s query and recommendation aims to propose semantics to users based on their profiles. It consists of three steps : creation of users community, acquiring of user profiles and classification of user profiles with Galois algebra. Experiments were conducted to validate the approaches proposed in this work.L’extraction de la sĂ©mantique d’une image est un processus qui nĂ©cessite une analyse profonde du contenu de l’image. Elle se rĂ©fĂšre Ă  leur interprĂ©tation Ă  partir d’un point de vuehumain. Dans ce dernier cas, la sĂ©mantique d’une image pourrait ĂȘtre gĂ©nĂ©rique (par exemple un vĂ©hicule) ou spĂ©cifique (par exemple une bicyclette). Elle consiste Ă  extraire une sĂ©mantique simple ou multiple de l’image afin de faciliter sa rĂ©cupĂ©ration. Ces objectifs indiquent clairement que l’extraction de la sĂ©mantique n’est pas un nouveau domaine de recherche. Cette thĂšse traite d’une approche d’annotation collaborative et de recherche d’images basĂ©esur les sĂ©mantiques Ă©mergentes. Il aborde d’une part, la façon dont les annotateurs pourraient dĂ©crire et reprĂ©senter le contenu des images en se basant sur les informations visuelles, et d’autre part comment la recherche des images pourrait ĂȘtre considĂ©rablement amĂ©liorĂ©e grĂące aux rĂ©centes techniques, notamment le clustering et la recommandation. Pour atteindre ces objectifs, l’exploitation des outils de description implicite du contenu des images, des interactions des annotateurs qui dĂ©crivent la sĂ©mantique des images et celles des utilisateurs qui utilisent la sĂ©mantique produite pour rechercher les images seraient indispensables.Dans cette thĂšse, nous nous sommes penchĂ©s vers les outils duWeb SĂ©mantique, notamment les ontologies pour dĂ©crire les images de façon structurĂ©e. L’ontologie permet de reprĂ©senter les objets prĂ©sents dans une image ainsi que les relations entre ces objets (les scĂšnes d’image). Autrement dit, elle permet de reprĂ©senter de façon formelle les diffĂ©rents types d’objets et leurs relations. L’ontologie code la structure relationnelle des concepts que l’on peut utiliser pour dĂ©crire et raisonner. Cela la rend Ă©minemment adaptĂ©e Ă  de nombreux problĂšmes comme la description sĂ©mantique des images qui nĂ©cessite une connaissance prĂ©alable et une capacitĂ© descriptive et normative.La contribution de cette thĂšse est focalisĂ©e sur trois points essentiels : La reprĂ©sentationsĂ©mantique, l’annotation sĂ©mantique collaborative et la recherche sĂ©mantique des images.La reprĂ©sentation sĂ©mantique permet de proposer un outil capable de reprĂ©senter la sĂ©mantique des images. Pour capturer la sĂ©mantique des images, nous avons proposĂ© une ontologie d’application dĂ©rivĂ©e d’une ontologie gĂ©nĂ©rique.L’annotation sĂ©mantique collaborative que nous proposons consiste Ă  faire Ă©merger la sĂ©mantique des images Ă  partir des sĂ©mantiques proposĂ©es par une communautĂ© d’annotateurs.La recherche sĂ©mantique permet de rechercher les images avec les sĂ©mantiques fournies par l’annotation sĂ©mantique collaborative. Elle est basĂ©e sur deux techniques : le clustering et la recommandation. Le clustering permet de regrouper les images similaires Ă  la requĂȘte d’utilisateur et la recommandation a pour objectif de proposer des sĂ©mantiques aux utilisateurs en se basant sur leurs profils statiques et dynamiques. Elle est composĂ©e de trois Ă©tapes Ă  savoir : la formation de la communautĂ© des utilisateurs, l’acquisition des profils d’utilisateurs et la classification des profils d’utilisateurs avec l’algĂšbre de Galois. Des expĂ©rimentations ont Ă©tĂ© menĂ©es pour valider les diffĂ©rentes approches proposĂ©es dans ce travail

    L'AIS : une donnée pour l'analyse des activités en mer

    Get PDF
    4 pages, session "Mer et littoral"International audienceCette contribution présente des éléments méthodologiques pour la description des activités humaines en mer dans une perspective d'aide à la gestion. Différentes procédures, combinant l'exploitation de bases de données spatio-temporelles issue de données AIS archivées à des analyses spatiales au sein d'un SIG, sont testées afin de caractériser le transport maritime en Mer d'Iroise (Bretagne, France) sur les plans spatiaux, temporels et quantitatifs au cours d'une année
    corecore