70 research outputs found

    Un système data mining en ligne pour la maintenance ontologique d'une mémoire corporative DM

    Get PDF
    L'intégration de la connaissance dans la mémoire corporative (Ribière et Matta, 1998), (Dieng et al., 1998) fait face à l'hétérogénéité des données (Visser, Jones et al., 1997). L'utilisation de l'ontologie est une approche possible pour surmonter ce problème. Cependant, l'ontologie est une structure de donnée comme n'importe quelle structure informatique, elle est donc dynamique et évolue dans le temps à cause des conditions dynamiques résultant des changements du domaine conceptuel, les changements de conceptualisation, les changements de spécification, les changements descendants, etc. (Yildiz, 2006). Ces dernières années, plusieurs approches ont été proposées pour résoudre le problème de la maintenance des ontologies. Cependant, la précision et le rappel ne permettent pas de satisfaire les besoins des utilisateurs. De plus, ces approches ne prennent pas en compte toute l'information disponible pour prendre une décision réaliste. Pour résoudre le problème de l'évolution de la connaissance dans les ontologies, nous proposons une approche hybride qui utilise l'apprentissage machine et un processus d'alignement qui contrôle les relations syntaxiques entre les entrées dans l'ontologie. De plus, des règles structurelles et des heuristiques sont appliquées pour améliorer le degré de similitude entre les entités ontologiques. Ce processus hybride crée des règles de correspondance qui définissent comment transformer les entrées dans l'ontologie en définissant tous les types d'associations possibles entre les entités ontologiques. L'approche d'enrichissement de l'ontologie exploite les techniques de la fouille de données, les techniques du traitement automatique du langage naturel et la recherche d'information pour améliorer la performance d'apprentissage durant la tâche d'enrichissement du domaine conceptuel. L'évaluation des ontologies demeure un problème important et le choix d'une approche appropriée dépend des critères utilisés. Dans notre approche, nous adoptons la vérification de la cohérence décrite dans (Maziar Amirhosseini et al., 2011) et (Abderrazak et al., 2011).\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : Data Mining, Traitement automatique du langage naturel, Apprentissage machine, Recherche d'information, Intégration, Ontologie, Mémoire corporative, Web sémantique

    Une approche autonome pour la gestion logicielle des espaces intelligents

    Get PDF
    Depuis une vingtaine d'années, les développements dans les technologies de l'information ont fait évoluer les paradigmes de l'informatique. L'arrivée d'approches telles que l'informatique diffuse et l'intelligence ambiante ont fait émerger de nouvelles technologies permettant d'améliorer la qualité des interactions avec les systèmes informatisés. Entre autres, l'application de l'informatique diffuse et de l'intelligence ambiante à des environnements tels que des habitats, les espaces intelligents, offre des milieux où une assistance contextualisée est offerte aux utilisateurs dans la réalisation de leurs activités quotidiennes. Toutefois, la démocratisation de l'informatique diffuse et la mise en place des espaces intelligents rencontrent un bon nombre de problèmes. Le nombre important de composantes matérielles et logicielles, les dépendances entre celles-ci et leurs natures hétérogènes contribuent à la complexité de déploiement et de gestion de ces milieux, entraînant des coûts élevés. Cette thèse vise à contribuer à la gestion logicielle des espaces intelligents par la réduction de la complexité des tâches de gestion. Notre proposition consiste en une approche autonome de la gestion logicielle, fondée sur l'approche de l'informatique diffuse autonome. L'objectif est de fournir un ensemble de fonctionnalités et de mécanismes permettant de rendre autonome la majeure partie des tâches de gestion des logiciels déployés dans des espaces intelligents. Dans le cadre de ce travail, nous proposons une solution permettant l'organisation autonome des logiciels des espaces intelligents. Ainsi, cette solution utilise les informations contextuelles des milieux afin de déterminer quelle répartition des logiciels parmi les appareils des milieux correspond le mieux aux besoins des applications, aux caractéristiques propres des environnements et, non le moindre, aux modalités et préférences d'interaction des utilisateurs de ces milieux. La solution proposée a été implémentée et évaluée à l'aide d'une série de tests et de mises en situation d'organisation logicielle. Les contributions de ce travail à l'état de l'art de la gestion des espaces intelligents sont multiples avec comme principales innovations la présentation d'une vision de l'informatique diffuse autonome, l'implémentation d'un intergiciel d'organisation logicielle autonome basé sur une sensibilité au contexte macroscopique et microscopique et l'intégration des modalités d'interaction des utilisateurs dans le raisonnement portant sur l'organisation des logiciels. Enfin, ce travail de thèse se déroule dans le contexte des recherches du laboratoire DO-MUS de l'Université de Sherbrooke, Canada, et du laboratoire Handicom de Telecom SudParis, France. Ces deux laboratoires travaillent à la conception de solutions permettant d' améliorer la qualité de vie et l' autonomie de personnes dépendantes, atteinte par exemple de troubles cognitifs ou de handicaps physiques

    Modèle ontologique contextuel pour les patients atteints de la maladie pulmonaire obstructive chronique

    Get PDF
    L'informatique ubiquitaire est considérée comme l'une des réalisations scientifiques les plus marquantes de la dernière décennie. Cette vision a créé une révolution dans les interactions des utilisateurs finaux à partir le concept de sensibilité au contexte. L'informatique ubiquitaire offre une nouvelle opportunité pour remodeler la forme des solutions conventionnelles en fournissant des services personnalisés en fonction des situations contextuelles de chaque environnement. Des centaines d'architectures théoriques ont été développées dans le but de mettre en oeuvre l'idée de systèmes sensible au contexte. Cependant, l'informatique ubiquitaire est encore pratiquement non applicable en raison de nombreux défis, surtout que les architectures proposées se présentent toujours comme une solution générale qui permet de satisfaire n'importe quel type d'application et toutes sortes d'utilisation. OBJECTIFS: Cette thèse vise à concevoir et valider un modèle contextuel pour les systèmes de soins de santé ubiquitaires et spécifiquement destinés à aider les patients souffrant de la maladie pulmonaire obstructive chronique (MPOC). LA MÉTHODE: Les informations contextuelles sont très importantes pour les applications de soins de santé sensibles au contexte, en particulier celles utilisées pour surveiller les patients atteints de maladies chroniques qui sont affectées par des conditions concevables. Dans cette thèse, nous proposons une nouvelle classification de contexte pour le domaine médical qui couvre tous les aspects influençant la santé des patients. La grande échelle de cette classification le rend apte pour être une référence générale pour de divers projets de recherche s'intéressant au contexte médical. Ensuite, nous proposons un modèle contextuel à base d’ontologies capable de gérer la structure complexe du domaine de la MPOC de manière cohérente, en proportion de la nature dynamique de cet environnement. Ce nouveau modèle ontologique constitue le noyau de notre perception pour la mise en oeuvre de la solution de soins de santé ubiquitaire. Le modèle présenté examine son efficacité dans la gestion de l’une des maladies les plus vulnérables au contexte, où il prouve ainsi sa capacité à adapter les services de soins de santé à titre personnel et en fonction des conditions actuelles et prévues. Le modèle proposé a montré des résultats prometteurs dépassant 85% approuvé par un groupe de spécialistes expérimentés dans le domaine des maladies pulmonaires. Ubiquitous computing is considered one of the most impactful scientific achievements in the last decade. This conception created tremendous revolution in the end-user interactions through the concept of context-awareness. Ubiquitous computing offers a new opportunity to redesign the pattern of conventional solutions where it can easily tailor its processes upon existing contextual situations. Hundreds of theoretical architectures have been developed to enable context-awareness computing in pervasive settings. However, ubiquitous computing is still practically not feasible due to many challenges, but most importantly, that the proposed models always present themselves as a general solution to all kinds of real-life applications. OBJECTIVES: This thesis aims to design and validate a contextual model for health-care context-aware systems to support patients suffer from Chronic Obstructive Pulmonary Disease (COPD). METHODS: The contextual information is important for developing Context-Aware Healthcare Applications, especially those used to monitor patients with chronic diseases which are affected by perceived conditions. In this thesis, we propose a novel context categorization within the medical domain which covers all the context aspects. Then, we propose an ontology-based model able to handle the complex contextual structure of the COPD domain coherently, and in proportion to the dynamic nature of that environment. This new ontological context is the core of our perception for implementing the ubiquitous healthcare solution. The presented model examines its effectiveness in managing one of the most context-sensitive diseases, thereby demonstrating its ability to adapt health care services on a personal basis and in accordance with current and projected events. The proposed model has shown promising results exceeding 85% approved by a group of experienced specialists in respiratory and lung diseases

    Techniques intelligentes de découverte de ressources web

    Get PDF
    De nos jours, les centres de données doivent faire face à la croissance rapide de données qu’ils traitent. Ces données nécessitent une grande capacité de stockage et une puissance de traitement et de calcul considérable, en consommant une grande bande passante. La demande croissante de ressources rend la durée de vie des infrastructures technologiques très courte. L'investissement dans de nouvelles infrastructures devient alors risqué et coûteux. Cependant, le développement d'internet permet le partage des infrastructures. Un nouveau paradigme très prometteur est entrain d’émerger. C'est la technologie de la virtualisation des ressources. Ainsi, une nouvelle façon de conceptualisation orientée vers les organisations virtuelles et qui offre de l’infrastructure entant que service a vu le jour. Basée sur le partage des ressources, la virtualisation permet non seulement de réduire les coûts, mais aussi d’augmenter les rendements des ressources, à l’instar des serveurs qui sont souvent sous-exploités. Néanmoins, l'environnement distribué et hétérogène des organisations virtuelles rend la découverte et la sélection de ressources une tâche ardue. Dans ce mémoire, nous proposons une méthode, de découverte et de recherche de ressources, basée sur l'intelligence artificielle en utilisant les réseaux Bayésiens et l'ontologie. Cette méthode rend possible la recherche des ressources web dans un large domaine de représentation et de description de ressources. En plus de son originalité, notre méthode a la particularité d'être générique. Elle prend en charge différents critères de recherche et d'optimisation ainsi que différentes méthodes de représentations de ressources. L’évaluation de notre approche a été effectuée dans le cadre du projet Green Star Network (GSN). Les tests réalisés ont démontré des résultats prometteurs

    Une approche ontologique pour l'interopérabilité et la composition automatique de services Web : application en astrophysique

    Get PDF
    Dans le but d’exploiter au mieux les grandes masses de données hétérogènes produites par les instruments scientifiques modernes de l’astrophysique, les scientifiques ont développé le concept d’Observatoire Virtuel (OV). Il s’agit d’une architecture orientée services, qui a pour objectif de faciliter l’identification et l’interopérabilité des données astrophysiques. Malgré le développement et les avancées permises par l’OV dans l’exploitation de ces données, certains objectifs sont partiellement atteints notamment l’interopérabilité, la sélection de services et l’identification de services connexes, etc. Par ailleurs, l’ergonomie des outils à la disposition de l’utilisateur final reste perfectible. De même l’utilisation actuelle des ressources de l’OV, s’appuyant sur des compétences humaines, gagnerait à être automatisée. Les services de données astrophysiques n’étant pas tous inscrits dans l’OV, il serait aussi souhaitable pour permettre une utilisation plus large de ces outils, qu’ils s’appuient également sur des services disponibles en-dehors de l’OV. En vue d’automatiser l’utilisation des ressources en ligne, les sciences de l’information travaillent depuis 2001 à l’élaboration du Web sémantique. Cette évolution apporte au Web des capacités de raisonnement automatiques, basées sur des algorithmes utilisant une nouvelle forme de description des contenus. Cette nouvelle forme de description sémantique se trouve exprimée dans des représentations informatiques appelées ontologies. Malheureusement, les méthodes actuelles d’élaboration du Web sémantique ne sont pas complètement compatibles avec les services OV qui utilisent des modèles de données, des formats et des protocoles d’accès aux services qui s’éloignent de ceux rencontrés habituellement dans les sciences de l’information. Dans ce contexte, cette thèse décrit une méthodologie générique de composition de services sans état, basée sur la description des services par une ontologie dont la définition est proposée dans ce document. Cette ontologie représente aussi bien des services Web que des services non accessibles par le Web. Elle prend en compte certaines spécificités qui peuvent être rencontrées dans les infrastructures de services préexistantes. L’enrichissement de l’ontologie par des concepts issus de domaines d’application spécifiques pour lesquels il n’existe que peu de représentations ontologiques est également pris en compte. La population de cette ontologie, par des services éventuellement éloignés des standards utilisés habituellement dans les sciences de l’information, est aussi traitée. La méthodologie a été appliquée avec succès dans le cadre de l’astrophysique, et a permis de développer une application Web permettant la composition automatique de services utilisable par un public non averti

    Contribution Ă  la maintenance des ontologies Ă  partir d'analyses textuelles : extraction de termes et de relations entre termes

    Get PDF
    Les ontologies sont des nouvelles formes de contrôle intelligent de l'information. Elles présentent un savoir préalable requis pour un traitement systématique de l'information à des fins de navigation, de rappel, de précision, etc. Toutefois, les ontologies sont confrontées de façon continue à un problème d'évolution. Étant donné la complexité des changements à apporter, un processus de maintenance, du moins semi-automatique, s'impose de plus en plus pour faciliter cette tâche et assurer sa fiabilité.\ud L'approche proposée trouve son fondement dans un modèle cognitif décrivant un processus d'extraction de connaissances à partir de textes et de thésaurus. Nous mettons ainsi, les textes au centre du processus d'ingénierie des connaissances et présentons une approche se démarquant des techniques formelles classiques en représentation de connaissances par son indépendance de la langue. Les traitements textuels sont fondés principalement sur un processus de classification supporté par un réseau de neurones (ART 1) et sur l'Indexation Sémantique Latente appliquée sur des classes de termes. Partant de l'hypothèse que l'extraction -de connaissances à partir de textes ne peut se contenter d'un traitement statistique (ni même linguistique) de données textuelles pour accaparer toute leur richesse sémantique, un processus d'extraction de connaissances à partir d'un thésaurus a été conçu afin d'intégrer, le mieux possible, les connaissances du domaine au sein de l'ontologie. Ce processus est fondé principalement sur un calcul d'associations sémantiques entre des Vecteurs Conceptuels. Le modèle proposé représente une chaîne de traitement (ONTOLOGICO) au sein de la plateforme\ud SATIM. Ce modèle vise à assister les experts de domaine dans leur tâche de conceptualisation et de maintenance des ontologies en se basant sur un processus itératif supporté par un ensemble de modules, en particulier, un extracteur de termes, un lemmatiseur, un segmenteur, un classifieur, un module de raffinement sémantique basé sur l'Indexation Sémantique Latente et un identificateur de termes reliés basé sur le calcul de similarité sémantique entre les couples de vecteurs conceptuels. La découverte de relations entre termes pour les besoins d'une conceptualisation de domaine s'avère être le résultat d'une complémentarité de traitements appliqués tant sur des textes de domaine que sur un thésaurus. D'une part, les analyses textuelles fondées principalement sur l'application de l'Indexation Sémantique Latente sur des classes de termes génèrent des relations sémantiques précises. D'autre part, l'extraction de relations sémantiques à partir d'un thésaurus, en se basant sur une représentation par des Vecteurs conceptuels, constitue un choix théorique judicieux et performant. Ce processus joue en effet, un rôle important dans la complétude des relations.\ud Ce projet de recherche se place au coeur des échanges entre terminologie et acquisition de connaissances. Il amène une réflexion sur les divers paliers à envisager dans une telle démarche de modélisation de connaissances textuelles pour des objectifs de maintenance d'une ontologie de domaine. La méthodologie proposée constitue une aide précieuse dans le domaine de la maintenance des ontologies. Elle assiste les terminologues chargés de naviguer à travers de vastes données textuelles pour extraire et normaliser la terminologie et facilite la tâche des ingénieurs en connaissances, chargés de modéliser des domaines. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Maintenance d'ontologie, Traitement Automatique du Langage Naturel (TALN), Indexation Sémantique Latente, Vecteurs Conceptuels, Classification automatique, Réseaux de Neurones

    Architecture multi-agents pour la recherche d'information à partir de sources hétérogènes reliées en réseaux

    Get PDF
    Recherche intelligente d'information et systèmes multi-agents -- Modélisation de l'assistant intelligent de recherche d'information -- Choix et considérations d'implantation -- Évaluation de l'architecture

    Contribution à la spécification et à l'élaboration d'une plateforme de maintenance orientée connaissances

    Get PDF
    Le maintien en condition opérationnelle des équipements industriels est un des enjeux importants de l'entreprise, et a fait passer la maintenance d'un centre de coût à un centre de profit, ce qui a eu pour conséquence une éclosion de logiciels d'aide à la maintenance allant de la GMAO aux plateformes de e-maintenance. Ces systèmes d'aide fournissent aux différents acteurs de la maintenance, un support à la décision et un ensemble de services permettant une gestion informatisée d'activités de base appartenant au processus de maintenance (exemple l'intervention, la planification, le diagnostic, etc.). Toutefois, les besoins des utilisateurs évoluent dans le temps en fonction de nouvelles contraintes, de leur expertise, des nouvelles connaissances. Par contre les services fournis n'évoluent pas et nécessitent une réactualisation. Afin de tenir compte de l'évolution de ces connaissances, pour que ces systèmes d'aide puissent répondre aux besoins des utilisateurs et puissent proposer des services à la demande et des services évolutifs nous avons fait le point dans cette thèse sur les avantages et limites des systèmes informatiques d'aide existants notamment les plateformes de e-maintenance (systèmes les plus avancés aujourd'hui en maintenance). Pour pallier le manque des systèmes existants, nous avons proposé le concept de s-maintenance qui est caractérisé principalement par les échanges collaboratifs entre applications et utilisateurs, par des connaissances communes du domaine de maintenance. Pour mettre en œuvre ce concept, nous avons proposé une plateforme orientée connaissances assurant des fonctionnalités auto-x (auto-traçabilité, auto-apprentissage, autogestion) qui permettent de répondre aux caractéristiques de la s-maintenance. L'architecture à base de composants de cette plateforme prend appui sur une base de connaissances partagée entre les différents composants qu'elle intègre au profit de l'interopérabilité sémantique ainsi que de la capitalisation des connaissances. Nous avons par ailleurs développé une ontologie du domaine de maintenance sur laquelle s'appuie cette base de connaissances. Finalement, afin de développer les fonctionnalités auto-x assurées par la plateforme nous avons proposé un système à base de traces exploitant la base de connaissances et l'ontologie associéeOperational condition maintenance of industrial equipment is a principal challenge for the firm production. This fact transfer the maintenance from the cost center to the profit center which has lead to massif development of maintenance support system starting from the GMAO to the e-maintenance platform. These systems provide to the maintenance agent, decision-support, and set of services allowing a computerized management of core activities for maintenance process. (e.g. intervention, planning, diagnostic,...). However, the user request continues evolving in time with respect of their expertise, their renewed knowledge and new constraints. On the other hand, the existing services are not following their requirements and they need to be updated. In this thesis, an overview on the advantage and drawback of existing computerized support system, in particular the e-maintenance platform (the most advanced maintenance system) is presented in order to meet the users needs and propose scalable and on-demand services. To overcome the existing system shortage, we propose the s-maintenance concept characterized by the collaborative exchange between users and applications and the common knowledge of the maintenance field. Thus, to implement this concept, a knowledge-oriented platform is proposed providing the auto-x functionalities (auto-traceability, auto-learning and auto-management) and meeting the s-maintenance characteristics. The architecture based on components of this platform, is also based on shared knowledge between integrated components for the benefit of the semantic interoperability as well as for the knowledge capitalization. Maintenance domain ontology is also developed on which the knowledge base is rested. Finally, in order to develop the auto-x functionalities, provided by the platform, a trace-based system is proposed by exploiting the knowledge base and the associated ontology.BESANCON-Bib. Electronique (250560099) / SudocSudocFranceF

    Ontologies, web sémantique et elearning : vers la composition automatique des objets d'apprentissage fondée sur les ontologies et les théories pédagogiques

    Get PDF
    Un des grands défis de l'apprentissage en ligne est la difficulté de composition des scénarios de formation à partir des objets d'apprentissages sémantiquement référencés pour répondre aux besoins spécifiques de formation. Un tel travail demande l'acquisition des connaissances du domaine qui repose généralement sur des experts humains du domaine et sur un processus d'explicitation de leurs connaissances. Il en est de même pour les principes devant guider la composition des scénarios afin de garantir leur qualité (valeurs pédagogiques). Répondre rapidement à ces besoins d'apprentissage par la proposition d'un contenu approprié ainsi qu'un cheminement d'apprentissage efficace et pédagogiquement valide est une nécessité, tant dans la formation classique en ligne que dans la formation en milieu industriel. L'offre d'une solution permettant d'atteindre un tel objectif contribuerait à une économie de coûts liés à la formation. Ce mémoire rend compte d'un travail visant à proposer une solution novatrice pour générer un contenu sur mesure (selon un besoin précis) et ainsi qu'un parcours pédagogiquement valide de celui-ci. La méthode s'appuie essentiellement sur une ontologie du domaine pour sélectionner les éléments de contenus appropriés (ou objets d'apprentissage) et sur un ensemble de principes pédagogiques explicites pour les structurer. Après un état de l'art conséquent qui met en perspectives l'ensemble des domaines en jeu (elearning, web sémantique et ingénierie ontologique), les standards disponibles dans le domaine du elearning pour la gestion des contenus d'apprentissage, et les problèmes de composition automatique (fondée ou non sur les ontologies) des objets d'apprentissage, une architecture générale de l'approche proposée est présentée, illustrant clairement les éléments qui soutiennent le processus de composition. Ce dernier comporte essentiellement trois (3) étapes : la sélection des ressources pertinentes, leur organisation (par la prise en compte des contraintes de référencement sémantique réalisé à partir de l'ontologie du domaine) et la scénarisation pédagogique qui prend en compte les principes de la théorie pédagogique sélectionnée. Un modèle définissant les opérateurs essentiels est proposé ainsi que des algorithmes qui implémentent les différents services. Un outil a été réalisé et testé avec des contenus d'un cours de programmation en Java.\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : elearning, web sémantique, ontologies, objets d'apprentissage, théories pédagogiques, composition automatique des objets d'apprentissage

    Apport du Web sémantique au travail collaboratif : Application à l'édition d'un document d'information sur les risques majeurs

    Get PDF
    http://www.irit.fr/~Guillaume.Cabanac/docs/fjc2014/fjc2014actes.pdf" Collaborer " , " travailler ensemble " , ce sont des réalités familières à chacun d'entre nous. Or les techniques ont progressé et ont pris un nouveau tournant avec l'arrivée du numérique dans l'entreprise. Bien que l'introduction du numérique ne se fasse pas sans difficultés, de nouveaux outils continuent d'apparaître : le travail collaboratif assisté par ordinateur est progressivement devenu un domaine d'étude à part entière. Notre recherche s'inscrit dans ce courant et étudie les apports possibles des technologies du Web sémantique au travail collaboratif. Ces technologies, en apportant les concepts d'ontologie, de métadonnées, d'inférence, participent au passage d'un système d'information à un système plus orienté connaissance. Devant ce vaste champ d'étude, nous avons pour nous guider un cas d'application qui est d'ailleurs à l'origine de ces travaux. Il s'agit du DDRM " Dossier Départemental sur les Risques Majeurs " un document administratif réalisé sous la supervision du préfet et qui compile les informations essentielles concernant les risques naturels et technologiques majeurs connus sur le territoire d'un département. Ce document d'information et de prévention destiné aux citoyens, doit être actualisé tous les cinq ans, étape nécessitant le concours de plusieurs acteurs issus d'horizons et de métiers différents. C'est ici qu'intervient la possibilité d'améliorer ce travail, qui est par essence collaboratif, à l'aide des nouvelles technologies et en particulier celles issues du Web sémantique. Nous imaginons que le système, plongé dans le Web 2.0 et les Linked Open Data , favorisera les échanges entre départements
    • …
    corecore