17 research outputs found

    Identifier dans l\u27écosystème informationnel Une réflexion autour des approches d\u27identification et leurs problématiques économiques, techniques et culturelles

    Get PDF
    Le terme « identification » comporte trois axes d’interprétation : un moyen de singulariser, un moyen de contextualiser et/ou un moyen de localiser. Les pratiques d’identification dans les écosystèmes informationnels sont diverses et parlent de manière sous-jacente des objectifs des structures qui les mettent en place : elles conditionnent l’appréhension, la compréhension et l’accès aux ressources que ces structures gèrent. Ce mémoire propose une exploration des pratiques d’identification en interrogeant deux types de pratiques: les pratiques physiques et les pratiques numériques. Ces deux approches permettent de mettre en lumière les aspects culturels, économiques et techniques inhérents au domaine, et participent à apporter des éléments de réponse à la problématique globale que nous posons : comment identifier au mieux

    Contribution à la construction d’ontologies et à la recherche d’information : application au domaine médical

    Get PDF
    This work aims at providing efficient access to relevant information among the increasing volume of digital data. Towards this end, we studied the benefit from using ontology to support an information retrieval (IR) system.We first described a methodology for constructing ontologies. Thus, we proposed a mixed method which combines natural language processing techniques for extracting knowledge from text and the reuse of existing semantic resources for the conceptualization step. We have also developed a method for aligning terms in English and French in order to enrich terminologically the resulting ontology. The application of our methodology resulted in a bilingual ontology dedicated to Alzheimer’s disease.We then proposed algorithms for supporting ontology-based semantic IR. Thus, we used concepts from ontology for describing documents automatically and for query reformulation. We were particularly interested in: 1) the extraction of concepts from texts, 2) the disambiguation of terms, 3) the vectorial weighting schema adapted to concepts and 4) query expansion. These algorithms have been used to implement a semantic portal about Alzheimer’s disease. Further, because the content of documents are not always fully available, we exploited incomplete information for identifying the concepts, which are relevant for indexing the whole content of documents. Toward this end, we have proposed two classification methods: the first is based on the k nearest neighbors’ algorithm and the second on the explicit semantic analysis. The two methods have been evaluated on large standard collections of biomedical documents within an international challenge.Ce travail vise à permettre un accès efficace à des informations pertinentes malgré le volume croissant des données disponibles au format électronique. Pour cela, nous avons étudié l’apport d’une ontologie au sein d’un système de recherche d'information (RI).Nous avons tout d’abord décrit une méthodologie de construction d’ontologies. Ainsi, nous avons proposé une méthode mixte combinant des techniques de traitement automatique des langues pour extraire des connaissances à partir de textes et la réutilisation de ressources sémantiques existantes pour l’étape de conceptualisation. Nous avons par ailleurs développé une méthode d’alignement de termes français-anglais pour l’enrichissement terminologique de l’ontologie. L’application de notre méthodologie a permis de créer une ontologie bilingue de la maladie d’Alzheimer.Ensuite, nous avons élaboré des algorithmes pour supporter la RI sémantique guidée par une ontologie. Les concepts issus d’une ontologie ont été utilisés pour décrire automatiquement les documents mais aussi pour reformuler les requêtes. Nous nous sommes intéressés à : 1) l’identification de concepts représentatifs dans des corpus, 2) leur désambiguïsation, 3), leur pondération selon le modèle vectoriel, adapté aux concepts et 4) l’expansion de requêtes. Ces propositions ont permis de mettre en œuvre un portail de RI sémantique dédié à la maladie d’Alzheimer. Par ailleurs, le contenu des documents à indexer n’étant pas toujours accessible dans leur ensemble, nous avons exploité des informations incomplètes pour déterminer les concepts pertinents permettant malgré tout de décrire les documents. Pour cela, nous avons proposé deux méthodes de classification de documents issus d’un large corpus, l’une basée sur l’algorithme des k plus proches voisins et l’autre sur l’analyse sémantique explicite. Ces méthodes ont été évaluées sur de larges collections de documents biomédicaux fournies lors d’un challenge international

    Ressources et parcours pour l'apprentissage du langage Python : aide à la navigation individualisée dans un hypermédia épistémique à partir de traces

    Get PDF
    This research work mainly concerns means of assistance in individualized navigation through an epistemic hypermedia. We have a number of resources that can be formalized by a directed acyclic graph (DAG) called the graph of epistemes. After identifying resources and pathways environments, methods of visualization and navigation, tracking, adaptation and data mining, we presented an approach correlating activities of design or editing with those dedicated to resources‘ use and navigation. This provides ways of navigation‘s individualization in an environment which aims to be evolutive. Then, we built prototypes to test the graph of epistemes. One of these prototypes was integrated into an existing platform. This epistemic hypermedia called HiPPY provides resources and pathways on Python language. It is based on a graph of epistemes, a dynamic navigation and a personalized knowledge diagnosis. This prototype, which was experimented, gave us the opportunity to evaluate the introduced principles and analyze certain uses.Les travaux de recherche de cette thèse concernent principalement l‘aide à la navigation individualisée dans un hypermédia épistémique. Nous disposons d‘un certain nombre de ressources qui peut se formaliser à l‘aide d‘un graphe acyclique orienté (DAG) : le graphe des épistèmes. Après avoir cerné les environnements de ressources et de parcours, les modalités de visualisation et de navigation, de traçage, d‘adaptation et de fouille de données, nous avons présenté une approche consistant à corréler les activités de conception ou d‘édition à celles dédiées à l‘utilisation et la navigation dans les ressources. Cette approche a pour objectif de fournir des mécanismes d‘individualisation de la navigation dans un environnement qui se veut évolutif. Nous avons alors construit des prototypes appropriés pour mettre à l‘épreuve le graphe des épistèmes. L‘un de ces prototypes a été intégré à une plateforme existante. Cet hypermédia épistémique baptisé HiPPY propose des ressources et des parcours portant sur l‘apprentissage du langage Python. Il s‘appuie sur un graphe des épistèmes, une navigation dynamique et un bilan de connaissances personnalisé. Ce prototype a fait l‘objet d‘une expérimentation qui nous a donné la possibilité d‘évaluer les principes introduits et d‘analyser certains usages

    Exploitation des documents audiovisuels numériques d’archives : modèle conceptuel théorique des usages, modalités et moyens d’organisation et de diffusion sur le web

    Full text link
    La révolution numérique et le développement d’Internet ont amélioré l’accès aux documents audiovisuels. Dans le numérique, organiser et diffuser les archives audiovisuelles en tenant compte de leurs usages est déterminant, car leur préservation et transmission dépend de leur exploitation. Cependant, il y a peu d’études sur les usages des documents audiovisuels numériques d’archives et il y a une lacune théorique dans les définitions des concepts liés aux usages de ces types de documents. Notre recherche a pour but de développer, à partir d’un corpus interdisciplinaire d’écrits en archivistique, en sciences de l’information et en sociologie des usages, un modèle conceptuel théorique des usages des documents audiovisuels numériques d’archives qui sert ensuite à proposer des pistes de solution afin d’adapter aux usages l’organisation et la diffusion sur le web de ces documents. Pour atteindre ce but, nous analysons dans un premier temps les concepts et construits théoriques liés aux usages et aux documents audiovisuels numériques d’archives. Dans un deuxième temps, un modèle conceptuel théorique est élaboré puis, afin d’explorer de nouvelles pistes de solution, transposé en moyens d’organisation et de diffusion sur le web. La clarification des concepts et construits théoriques comble des lacunes dans les études d’usagers et dans les écrits théoriques. Le modèle est utile pour anticiper les utilisations possibles et adapter à cet effet les pratiques, interfaces et systèmes web. La présente recherche vise à améliorer l’accès aux documents audiovisuels numériques d’archives et se veut une réponse au fossé entre la pratique et la théorie archivistiques et les usages actuels et futurs.The digital revolution and the development of the internet improved access to audiovisual documents. In the digital environment, it is crucial to take account of the uses of the audiovisual archives in their organisation and dissemination, since their preservation does not rely on the passive conservation of materials kept intact but instead is dependant on their usage. However, there are few studies on usage of digital audiovisual archival documents and there is a theoretical gap in conceptual definitions pertaining to usages of these types of documents. Our research aims to develop, from an interdisciplinary corpus of archival, information science and sociology of usages literature, a theoretical and conceptual model of digital audiovisual archival documents usage which is subsequently used to suggest possible solutions to adapt to users their organisation and dissemination on the web. To achieve this goal, we first analyse theoretical concepts and constructs related to usage and digital audiovisual archival documents. Second, a theoretical and conceptual model is developed then transposed into web organisation and dissemination means to explore new potential solutions. The clarification of concepts and theoretical constructs addresses gaps within user studies and theoretical writings. The model is useful to anticipate possible uses and adapt for this purpose practices, interfaces and web systems. This research aims to enhance access to digital audiovisual archival documents and is a response to the gap between archival practice and theory and actual and future uses and users

    Intégration d'un système de Retour d'Expériences à un PLM

    Get PDF
    Les travaux présentés dans cette thèse s’inscrivent dans une problématique d’amélioration continue appliquée aux produits et aux processus industriels, par la mise en place d’un système de Retour d’Expérience (REx) couplé au système PLM (Product Lifecycle Management) de gestion du cycle de vie du produit. Les développements, menés dans le cadre d’un partenarial industriel, ciblent l’établissement d’une solution de valorisation du patrimoine immatériel de l’entreprise, constitué des expériences et des connaissances détenues par les experts métier. L’objectif visé est d’assurer la pérennisation de cette expertise, la prévention et la limitation des erreurs et l’application de bonnes pratiques dans une démarche générale d’amélioration des produits et des processus. La solution est portée par la mise en place d’un système REx appliqué aux connaissances tacites et explicites impliquées dans les activités techniques de l'entreprise et visant à capitaliser au fur et à mesure les informations métier, porteuses de sens. L’intégration du REx au système PLM permet de lever une part des difficultés d’appropriation par les experts métier, utilisateurs du système REx. L’ancrage de ce REx aux méthodes de résolution de problèmes (PSM, Problem Solving Methods) induit une instrumentation tout à fait performante pour l’acquisition des connaissances tacites issues d’événements négatifs. L’extension aux processus d’évolution des Normes Techniques qui formalisent les règles métier de l’entreprise permet leur évolution vers des connaissances explicites. Le caractère non intrusif du système REx dans son utilisation est assuré par un couplage étroit au processus de Gestion des Modifications du PLM, la capitalisation des informations étant naturellement induite par la démarche mise en œuvre dans ce processus. Au final, le système REx proposé et instrumenté dans l’outil PLM permet, en différentes étapes, de capitaliser, de traiter puis d’exploiter dans des formes performantes le patrimoine immatériel mis en exergue au cours des expériences de résolution de problèmes produit ou processus. ABSTRACT : The work presented in this thesis considers continuous improvement issues which are applied to industrial products and processes through the implementation of a Lesson Learned System (LLS) coupled with the Company's Product Lifecycle Management (PLM) system. As an industrial partnership, these developments aim to increase the value of the intangible assets of the business including the business agent’s experiences and knowledge. In order to ensure the sustainability of expertise, to prevent errors and to encourage the application of good practices, all within a general approach of product improvement. The solution relies on the implementation of the LLS process which is applied to tacit and explicit knowledge related to the technical activities of the company. The integration of the LLS and PLM Systems removes some of the difficulties of ownership of business agents. The implementation of LLS and Problem Solving Methods (PSM) infers an efficient instrumentation for the acquisition of tacit knowledge. The extension of the evolution processes of technical documents that formalise the techincal business rules allows its evolution towards explicit knowledge. Using non-intrusive LLS is provided by close coupling with the process of Change Management (CM) where information capitalisation is naturally led by the approach implemented in this processes. Finally, the proposed and instrumented LLS in the PLM tool allows to efficiently capitalise, process, and exploit the intangible capital of the company (information and knowledge) highlighted during the modification experiments of product data

    Modélisation probabiliste du style d'apprentissage et application à l'adaptation de contenus pédagogiques indexés par une ontologie

    Get PDF
    Cette thèse s'inscrit dans le cadre général des systèmes d'enseignement adaptatifs. La problématique traitée est l'adaptation de l'activité pédagogique au mode d'apprentissage préféré de l'élève. Les travaux réalisés ont eu pour objectifs de : modéliser les préférences d'apprentissage de l'élève ; modéliser les contenus pédagogiques du domaine à enseigner ; proposer une stratégie d'adaptation qui rapproche les préférences des contenus afin de proposer une méthode pédagogique appropriée. Pour atteindre le premier objectif, la thèse étudie le style d'apprentissage de Felder. Une étude empirique pour établir un modèle de dépendance entre style, pédagogie, et comportement de l'élève a été réalisée. Les résultats ont permis d'établir un modèle de préférences probabiliste. Une méthode en deux étapes pour apprendre ce odèle puis le renforcer est développée. Deux implantations sont proposées : un réseau bayésien et une machine à vecteurs de support. Le contenu quant à lui est modélisé en utilisant une ontologie combinant le domaine, la pédagogie, ainsi que les ressources physiques. Une stratégie d'adaptation structurée sur quatre dimensions est présentée. Celle-ci consiste à rechercher dans le contenu la séquence pédagogique sémantiquement pertinente pour les préférences de l'élève. La recherche s'appuie sur une mesure de similarité sémantique qui est établie. Ce travail a eu un impact sur deux projets européens. En effet, la méthode de production et structuration des contenus, basée sur SCORM, qui est proposée a servi pour le projet UP2UML. L'approche de modélisation de l'élève sert aux recherches sur le profilage dans le projet KPLAB. ABSTRACT : This thesis deals with adaptive teaching systems. The research question is how to adapt pedagogical activities to the prefered learning mode of a student. The scientific objectives are: modelisation of student's learning preferences ; modelisation of adaptive learning contents of a given domain ; establishing an adaptation strategy that maps preferences to contents in order to recommend an appropriate teaching method In order to reach the first objective, the thesis studies the learning style of Felder. An empirical study to derive a dependency model between the style, the pedagogy, and the student behaviour has been conducted. Results led to creating a probabilistic preference model. A two-stage method to learn and reinforce the model is developed. Two implementations are proposed: a bayesian network and an SVM classifier. The content is represented using an ontology that combines the domain, the pedagogy, and the physical resources. An adaptation strategy centered around four dimensions is presented. This consists of searching the content to retrieve the most semantically pertinent pedagogical sequence given the student preferences. The search implements an original semantic similarity measure. This work significantly impacted two European research projects. The production and structuration method designed in this thesis and based on SCORM has been applied in the Leonardo Da Vinci project called UP2UML. The student modeling approche serves currently our research on user profiling in the KPLAB projec

    Analyse des usages des plateformes de construction de connaissances par des méthodes mixtes et réflexives pour l’amélioration de l’appropriation et de la structuration de l’information: SECONDE PARTIE : Synthèse et bilan des recherches

    Get PDF
    Mes travaux se situent dans le domaine de l’apprentissage instrumenté académique et industriel, c’est-à-dire dans le champ pluridisciplinaire des Environnements Informatiques pour l’Apprentissage Humain (EIAH) et celui du Knowledge Management (KM). Je considère la construction de connaissances selon le positionnement des sciences de l’information et de la communication (SIC) c’est-à-dire comme le résultat d’une information communiquée et reçue par une personne. Mieux elle est appropriée et plus la connaissance construite est solide. La construction de connaissance se fait par l’intermédiaire d’objets partagés et échangés selon des référents sociologiques et culturels ou des pratiques. La médiation est le concept utilisé en sciences humaines pour décrire les moyens matériels, en particulier technologiques, et les moyens humains qui peuvent être imaginés pour favoriser cette transmission de connaissances et cette appropriation de l’information. La médiation technologique joue un rôle prégnant sur la construction des connaissances dans la mesure où elle façonne les artefacts de connaissance, c’est-à-dire les outils ou supports construits ou utilisés par l’homme pour inscrire des connaissances. Cette caractéristique place la question de l’instrumentation des apprentissages au cœur des questions de recherche des Sciences de l’information et de la Communication (SIC) en regard des deux processus informationnel et communicationnel cités précédemment et de la conception de ces outils de médiatisation technologiques. Elle est aussi au cœur des questions de recherche en informatique, en particulier en EIAH (Environnement Informatiques pour l’Apprentissage Humain), qui est un domaine de l’informatique largement expérimentale. L’analyse de l’activité d’apprentissage médiatisée et l’analyse des usages en est une thématique centrale. Dans ce contexte, la question générale de mes recherches consiste à déterminer comment des médiations qui utilisent les dispositifs informatiques jouent un rôle dans la construction de connaissances. La construction de connaissances est analysée sous l’angle de la production de ressources documentaires potentiellement exploitables dans les environnements technologiques et sous l’angle de l’apprentissage effectif ou l’évolution de comportement de l’utilisateur. Pour analyser les effets produits par ces médiations, je me centre sur l’analyse de l’humain au cours de l’usage. Plus précisément, je considère que l’utilisation est un élément déterminant la qualité de la médiation technologique alors que l’appropriation et l’apprentissage sont des éléments déterminants la qualité de la médiation. Mes axes de recherche s’organisent autour de trois thématiques : L’assistance à la conception de ressources pour l’apprentissage instrumenté : j’ai étudié l’utilité des formats de structuration des ressources pédagogiques en regard du type de médiation documentaire visé par les outils pour lesquels ces ressources sont produites, j’ai évalué les outils auteur et participé à la conception d’un outil auteur utilisable pour concevoir des ressources pour les Serious Games en réalité mixte. Ces études ont mis en évidence l’intérêt d’assister la conception par des interactions pour la réalisation d’activités productives (formalisation des idées, structuration de l’information, collaboration, …) et d’activités constructives (consultation de bonnes pratiques ou recommandations relatives à l’intérêt pédagogique ou expérientiel de telle ou telle forme de médiatisation ou d’interaction) ; en particulier lorsque les formations s’appuient sur des technologies innovantes pour être médiatisées. L’analyse des usages des outils d’apprentissage instrumenté : j’ai réalisé différentes analyses d’usage pour la validation de situations de formation instrumentées innovantes ou la compréhension de l’évolution des pratiques de travail ou d’apprentissage instrumentés. Mes critères d’analyse sont la recevabilité d’un environnement technologique en fonction des attentes et besoins humains. Je la mesure par l’utilité, l’utilisabilité et l’acceptabilité des dispositifs socio-techniques (composés des environnements technologiques et des environnements d’usage). Je privilégie des méthodes mixtes, principalement des méthodes triangulées, d’analyse des usages. Elles combinent les analyses qualitatives et quantitatives, considèrent différents points de vue sur les acteurs ou l’activité, et cela à différents moments du cycle de conception. Les études menées portent sur la mise en œuvre de technologie pour le travail et l’apprentissage collaboratif, l’utilisation des jeux (Serious Game) et de la réalité mixte, l’apprentissage en mode projet, la diffusion d’information via des plateformes. La conception d’outils utilisant les traces de l’activité pour supporter les apprentissages : j’ai analysé dans deux contextes privilégiés, l’apprentissage en mode projet et la formation tout au long de la vie dans l’industrie, comment mettre en place des régulations utilisant les traces pour améliorer l’apprentissage. Dans le premier cas, j’ai instrumenté des pratiques d’auto-régulation pour favoriser l’apprentissage de comportements, dans le second j’ai cherché à instrumenter une régulation sociale pour favoriser la diffusion et capitalisation des savoirs

    L'histoire contemporaine à l'ère numérique / Contemporary History in the Digital Age

    Get PDF
    Depuis plusieurs décennies, les usages du numérique en histoire se multiplient. Mais l'histoire contemporaine est parfois restée à la marge de ce mouvement. Ce livre, qui recouvre divers usages du numérique, ses outils, ses méthodes, sera à la fois une bonne introduction pour les historiens désirant se renseigner sur les usages informatiques en histoire contemporaine, et un outil utile aux chercheurs et aux enseignants plus rompus à cette utilisation

    Un système data mining en ligne pour la maintenance ontologique d'une mémoire corporative DM

    Get PDF
    L'intégration de la connaissance dans la mémoire corporative (Ribière et Matta, 1998), (Dieng et al., 1998) fait face à l'hétérogénéité des données (Visser, Jones et al., 1997). L'utilisation de l'ontologie est une approche possible pour surmonter ce problème. Cependant, l'ontologie est une structure de donnée comme n'importe quelle structure informatique, elle est donc dynamique et évolue dans le temps à cause des conditions dynamiques résultant des changements du domaine conceptuel, les changements de conceptualisation, les changements de spécification, les changements descendants, etc. (Yildiz, 2006). Ces dernières années, plusieurs approches ont été proposées pour résoudre le problème de la maintenance des ontologies. Cependant, la précision et le rappel ne permettent pas de satisfaire les besoins des utilisateurs. De plus, ces approches ne prennent pas en compte toute l'information disponible pour prendre une décision réaliste. Pour résoudre le problème de l'évolution de la connaissance dans les ontologies, nous proposons une approche hybride qui utilise l'apprentissage machine et un processus d'alignement qui contrôle les relations syntaxiques entre les entrées dans l'ontologie. De plus, des règles structurelles et des heuristiques sont appliquées pour améliorer le degré de similitude entre les entités ontologiques. Ce processus hybride crée des règles de correspondance qui définissent comment transformer les entrées dans l'ontologie en définissant tous les types d'associations possibles entre les entités ontologiques. L'approche d'enrichissement de l'ontologie exploite les techniques de la fouille de données, les techniques du traitement automatique du langage naturel et la recherche d'information pour améliorer la performance d'apprentissage durant la tâche d'enrichissement du domaine conceptuel. L'évaluation des ontologies demeure un problème important et le choix d'une approche appropriée dépend des critères utilisés. Dans notre approche, nous adoptons la vérification de la cohérence décrite dans (Maziar Amirhosseini et al., 2011) et (Abderrazak et al., 2011).\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : Data Mining, Traitement automatique du langage naturel, Apprentissage machine, Recherche d'information, Intégration, Ontologie, Mémoire corporative, Web sémantique

    Contribution à la maintenance des ontologies à partir d'analyses textuelles : extraction de termes et de relations entre termes

    Get PDF
    Les ontologies sont des nouvelles formes de contrôle intelligent de l'information. Elles présentent un savoir préalable requis pour un traitement systématique de l'information à des fins de navigation, de rappel, de précision, etc. Toutefois, les ontologies sont confrontées de façon continue à un problème d'évolution. Étant donné la complexité des changements à apporter, un processus de maintenance, du moins semi-automatique, s'impose de plus en plus pour faciliter cette tâche et assurer sa fiabilité.\ud L'approche proposée trouve son fondement dans un modèle cognitif décrivant un processus d'extraction de connaissances à partir de textes et de thésaurus. Nous mettons ainsi, les textes au centre du processus d'ingénierie des connaissances et présentons une approche se démarquant des techniques formelles classiques en représentation de connaissances par son indépendance de la langue. Les traitements textuels sont fondés principalement sur un processus de classification supporté par un réseau de neurones (ART 1) et sur l'Indexation Sémantique Latente appliquée sur des classes de termes. Partant de l'hypothèse que l'extraction -de connaissances à partir de textes ne peut se contenter d'un traitement statistique (ni même linguistique) de données textuelles pour accaparer toute leur richesse sémantique, un processus d'extraction de connaissances à partir d'un thésaurus a été conçu afin d'intégrer, le mieux possible, les connaissances du domaine au sein de l'ontologie. Ce processus est fondé principalement sur un calcul d'associations sémantiques entre des Vecteurs Conceptuels. Le modèle proposé représente une chaîne de traitement (ONTOLOGICO) au sein de la plateforme\ud SATIM. Ce modèle vise à assister les experts de domaine dans leur tâche de conceptualisation et de maintenance des ontologies en se basant sur un processus itératif supporté par un ensemble de modules, en particulier, un extracteur de termes, un lemmatiseur, un segmenteur, un classifieur, un module de raffinement sémantique basé sur l'Indexation Sémantique Latente et un identificateur de termes reliés basé sur le calcul de similarité sémantique entre les couples de vecteurs conceptuels. La découverte de relations entre termes pour les besoins d'une conceptualisation de domaine s'avère être le résultat d'une complémentarité de traitements appliqués tant sur des textes de domaine que sur un thésaurus. D'une part, les analyses textuelles fondées principalement sur l'application de l'Indexation Sémantique Latente sur des classes de termes génèrent des relations sémantiques précises. D'autre part, l'extraction de relations sémantiques à partir d'un thésaurus, en se basant sur une représentation par des Vecteurs conceptuels, constitue un choix théorique judicieux et performant. Ce processus joue en effet, un rôle important dans la complétude des relations.\ud Ce projet de recherche se place au coeur des échanges entre terminologie et acquisition de connaissances. Il amène une réflexion sur les divers paliers à envisager dans une telle démarche de modélisation de connaissances textuelles pour des objectifs de maintenance d'une ontologie de domaine. La méthodologie proposée constitue une aide précieuse dans le domaine de la maintenance des ontologies. Elle assiste les terminologues chargés de naviguer à travers de vastes données textuelles pour extraire et normaliser la terminologie et facilite la tâche des ingénieurs en connaissances, chargés de modéliser des domaines. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Maintenance d'ontologie, Traitement Automatique du Langage Naturel (TALN), Indexation Sémantique Latente, Vecteurs Conceptuels, Classification automatique, Réseaux de Neurones
    corecore