19 research outputs found

    Une approche d'ingénierie ontologique pour l'acquisition et l'exploitation des connaissances à partir de documents textuels : vers des objets de connaissances et d'apprentissage

    Full text link
    Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

    Interrogation des sources de données hétérogènes : une approche pour l'analyse des requêtes

    Get PDF
    No english summary availableLe volume des données structurées produites devient de plus en plus considérable. Plusieurs aspects concourent à l’accroissement du volume de données structurées. Au niveau du Web, le Web de données (Linked Data) a permis l’interconnexion de plusieurs jeux de données disponibles créant un gigantesque hub de données. Certaines applications comme l’extraction d’informations produisent des données pour peupler des ontologies. Les capteurs et appareils (ordinateur, smartphone, tablette) connectés produisent de plus en plus de données. Les systèmes d’information d’entreprise sont également affectés. Accéder à une information précise devient de plus en plus difficile. En entreprise, des outils de recherche ont été mis au point pour réduire la charge de travail liée à la recherche d’informations, mais ces outils génèrent toujours des volumes importants. Les interfaces en langage naturel issues du Traitement Automatique des Langues peuvent être mises à contribution pour permettre aux utilisateurs d’exprimer naturellement leurs besoins en informations sans se préoccuper des aspects techniques liés à l’interrogation des données structurées. Les interfaces en langage naturel permettent également d’avoir une réponse concise sans avoir besoin de fouiller d’avantage dans une liste de documents. Cependant actuellement, ces interfaces ne sont pas assez robustes pour être utilisées par le grand public ou pour répondre aux problèmes de l’hétérogénéité ou du volume de données. Nous nous intéressons à la robustesse de ces systèmes du point de vue de l’analyse de la question. La compréhension de la question de l’utilisateur est une étape importante pour retrouver la réponse. Nous proposons trois niveaux d’interprétation pour l’analyse d’une question : domaine abstrait, domaine concret et la relation domaine abstrait/concret. Le domaine abstrait s’intéresse aux données qui sont indépendantes de la nature des jeux de données. Il s’agit principalement des données de mesures. L’interprétation s’appuie sur la logique propre à ces mesures. Le plus souvent cette logique a été bien décrite dans les autres disciplines, mais la manière dont elle se manifeste en langage naturel n’a pas fait l’objet d’une large investigation pour les interfaces en langage naturel basées sur des données structurées. Le domaine concret couvre le domaine métier de l’application. Il s’agit de bien interpréter la logique métier. Pour une base de données, il correspond au niveau applicatif (par opposition à la couche des données). La plupart des interfaces en langage naturel se focalisent principalement sur la couche des données. La relation domaine abstrait/concret s’intéresse aux interprétations qui chevauchent les deux domaines. Du fait de l’importance de l’analyse linguistique, nous avons développé l’infrastructure pour mener cette analyse. L’essentiel des interfaces en langage naturel qui tentent de répondre aux problématiques du Web de données (Linked Data) ont été développées jusqu’ici pour la langue anglaise et allemande. Notre interface tente d’abord de répondre à des questions en françai

    Modélisation intégratrice du traitement BigData

    Get PDF
    Nowadays, multiple actors of Internet technology are producing very large amounts of data. Sensors, social media or e-commerce, all generate real-time extending information based on the 3 Vs of Gartner: Volume, Velocity and Variety. In order to efficiently exploit this data, it is important to keep track of the dynamic aspect of their chronological evolution by means of two main approaches: the polymorphism, a dynamic model able to support type changes every second with a successful processing and second, the support of data volatility by means of an intelligent model taking in consideration key-data, salient and valuable at a specific moment without processing all volumes of history and up to date data.The primary goal of this study is to establish, based on these approaches, an integrative vision of data life cycle set on 3 steps, (1) data synthesis by selecting key-values of micro-data acquired by different data source operators, (2) data fusion by sorting and duplicating the selected key-values based on a de-normalization aspect in order to get a faster processing of data and (3) the data transformation into a specific format of map of maps of maps, via Hadoop in the standard MapReduce process, in order to define the related graph in applicative layer.In addition, this study is supported by a software prototype using the already described modeling tools, as a toolbox compared to an automatic programming software and allowing to create a customized processing chain of BigDataDans le monde d’aujourd’hui de multiples acteurs de la technologie numérique produisent des quantités infinies de données. Capteurs, réseaux sociaux ou e-commerce, ils génèrent tous de l’information qui s’incrémente en temps-réel selon les 3 V de Gartner : en Volume, en Vitesse et en Variabilité. Afin d’exploiter efficacement et durablement ces données, il est important de respecter la dynamicité de leur évolution chronologique au moyen de deux approches : le polymorphisme d’une part, au moyen d’un modèle dynamique capable de supporter le changement de type à chaque instant sans failles de traitement ; d’autre part le support de la volatilité par un modèle intelligent prenant en compte des données clé seulement interprétables à un instant « t », au lieu de traiter toute la volumétrie des données actuelle et historique.L’objectif premier de cette étude est de pouvoir établir au moyen de ces approches une vision intégratrice du cycle de vie des données qui s’établit selon 3 étapes, (1) la synthèse des données via la sélection des valeurs-clés des micro-données acquises par les différents opérateurs au niveau de la source, (2) la fusion en faisant le tri des valeurs-clés sélectionnées et les dupliquant suivant un aspect de dé-normalisation afin d’obtenir un traitement plus rapide des données et (3) la transformation en un format particulier de carte de cartes de cartes, via Hadoop dans le processus classique de MapReduce afin d’obtenir un graphe défini dans la couche applicative.Cette réflexion est en outre soutenue par un prototype logiciel mettant en oeuvre les opérateurs de modélisation sus-décrits et aboutissant à une boîte à outils de modélisation comparable à un AGL et, permettant une mise en place assistée d'un ou plusieurs traitements sur BigDat

    Usagers & Recherche d'Information

    Get PDF
    La recherche d'information est confrontée à une variété de plus en plus importante tant en termes d'usagers, de tâches à remplir, d'outils.... Face à cette hétérogénéité de nombreux travaux, s'attachent à améliorer la recherche d'information par le biais d'approches adaptatives, de systèmes de recommandation... Mes travaux s'inscrivent dans ce cadre et apportent un éclairage essentiellement porté sur l'usager et ses activités et plus particulièrement sur la recherche d'information. Les résultats correspondent à 3 angles d'investigation nous permettant d'aborder cette problématique de l'hétérogénéité en Recherche d'Information

    Une méthode d'agrégation de composants logiciels dirigée par les métadonnées et les modèles

    Get PDF
    Le composant logiciel est devenu l'unité de base pour le développement des systèmes complexes. Plusieurs travaux ont contribué à la construction de logiciel à base de composants et leur modèle. Cependant, il existe peu d'approches et d'heuristiques baseés sur les métadonnées qui assistent les architectes pour référencer, rechercher et évaluer les composants participants dans une agrégation avant la phase d'implémentation. Dans cette thèse, nous proposons une méthode d'agrégation de composants logiciels dirigés par les métadonnées des compodant et les modèles de leur agrégat. Cette méthode caractérise le composant par les métadonnées multidimensionnelles. elles assiste les parties prenantes dans le référencement et la recherche des composants. Elle propose une phase inédite d'analyse de faisabilité qui s'appuie sur un processus et des règles d'évaluation de la faisabilité d'agrégation dirigée par les métadonnées des compsants participants. Nous avons défini un cadre de travail qui a servi de support à notre méthode durant des mises en oeuvre dans des contextes d'agrégation réels. ces réalisations concrètes nous ont permis de valider l'utilisabilité et l'utilité de notre méthode en nous basant sur notre processus de validation et sur ses indicateurs de mesure. dans le future, nous préconisons que les activités de référencement de recherche et d'évaluation de la faisabilité de notre processus supportent l'automatisation afin de systématiser en partie son utilisation. La prise en compte des paramètres financiers aux activités e notre processus de développement aidera les gestionnaires dans l'estimation des efforts des projets d'agrégation et par conséquent dans la prise de décision quant à leur faisabilité financière. Ceci enrichira le manque des aspectes financiers et économiques dans les approches de développement à base de composants (Mili, Mili, Yacoub, & Addy, 2002

    Apports de modèles de comparaison structurelle et sémantique à la synchronisation de la maquette numérique de construction

    Get PDF
    Digital Mock-Up (DMU) is a digital, centralized and structured representation of all productions from project actors. Concerning AEC sector Digital Mock-Up for Construction (DMUC) refers to the adaptation of previous technology to this industrial field. Civil design seems however different from design of manufactured products, because of : multiplicity and heterogeneity of actors, creation of a unique product. Therefore involved processes need to be specifically analysed. This work aims to propose mechanisms to aid DMUC synchronization. Before that, we show that existing tools cannot be directly adapted to AEC sector. To do so, this thesis focuses on tracking changes within a DMUC during design process, thanks to comparison of structured information (structural information). We consider also the meaning of used concepts (semantic comparison). This analysis is done at the meta-model level (EXPRESS language) instead of a specific data model (IFC, IFC-BRIDGE). This generic approach guarantees some robustness for future evolutions of DMUC. From a configuration based on a structural helper (only a few lines of XML code), the software engineer automatically generates a library of structural comparison, adapted to the application data model. Semantic analysis makes the system very flexible : partial extract of information, definition of semantic equivalences and tolerance on numerical values. Designed system does not depend on any data persistence tool. Besides, extraction of information is carried out without any model mapping. C++ implementation of structural and semantic comparison uses tools of automatic generation of source code. Last this work provides several perspectives when they are associated to predictive and reactive design activities.La Maquette Numérique (MN) est une représentation numérique, centralisée et hiérarchisée de l'ensemble des productions des acteurs au cours d'un projet. Dans le cadre du secteur BTP, la Maquette Numérique de Construction (MNC) constitue l'adaptation de la technologie précédente à ce secteur. Cependant, la conception en génie civil semble se distinguer de celle des produits manufacturés, notamment à cause de la multiplicité et l'hétérogénéité des acteurs, mais aussi de la création d'un ouvrage unique. Par conséquent, les processus en jeu durant cette phase nécessitent une analyse particulière. Notre travail consiste donc à proposer des mécanismes d'aide à la synchronisation de la MNC, après avoir montré que les outils existants, adaptés à la conception de produits manufacturés, ne peuvent être directement transposés au secteur du BTP. Pour cela, cette thèse se focalise sur le suivi des modifications de la MNC en cours de conception, par l'intermédiaire de comparaisons d'information structurées (comparaisons dites structurelles), tout en prenant en compte la signification des concepts utilisés (comparaisons sémantiques). L'analyse a été portée au niveau du méta-modèle (langage EXPRESS) plutôt que le modèle de données lui-même (IFC, IFC-Bridge, etc.). Cette généricité assure une robustesse face aux évolutions futures des MNC. A partir d'une configuration sur la base d'un assistant structurel (seulement quelques lignes de code XML), le constructeur d'application génère automatiquement une bibliothèque de comparaison structurelle, adaptée au modèle de données métiers. L'analyse sémantique rend, quant à elle, le système très flexible : possibilité d'extraire partiellement l'information, définition d'équivalents sémantiques et de tolérances de valeurs numériques. Le système conçu ne dépend d'aucun outil de persistance des données. De plus, l'extraction d'information s'effectue sans transformation de modèles. L'implémentation, en C++, de la comparaison structurelle et sémantique utilise des outils de génération automatique de code source. Enfin, ces travaux apportent de nombreuses perspectives s'ils sont liés aux activités prédictives et réactives de conception

    Vers l'automatisation de la mise à jour des bases de données spatio-temporelles d'aide à la navigation : cas d'une base de données pour la navigation des personnes à mobilité réduite

    Get PDF
    De nos jours, les systèmes d'aide à la navigation occupent une place de plus en plus importante dans la vie quotidienne. Toutefois, leur potentiel est mal exploité pour le déplacement des personnes à mobilité réduite (PMR). À cet égard, le projet MobiliSIG a vu le jour. Son objectif est de développer une solution d'assistance multimodale mobile selon les principes de la conception cognitive pour la navigation des PMR. Au cœur de cette solution se trouve une base de données d'accessibilité dont l'usage permettra de proposer des itinéraires adaptés aux profils des utilisateurs. Cependant, vu que l'environnement évolue et que certains obstacles ont un caractère spatio-temporel, l'outil développé doit être doté d'un système qui lui permettra de rester continuellement à jour. L'objectif global assigné à notre projet est la conception d'un système automatique de mise à jour (MÀJ) continuelle des données d'accessibilité en temps quasi-réel à partir de données multi-sources hétérogènes. Pour ce faire, tout d'abord, nous avons passé en revue la littérature inhérente aux concepts relatifs à notre problématique. Ensuite, nous avons créé et implémenté une ontologie d'obstacles/facilitateurs sur la base des facteurs environnementaux de la classification PPH afin d'identifier et de bien cibler les données spatio-temporelles d'accessibilité. Par la suite, nous avons déterminé les besoins et fonctionnalités utiles à notre système de MÀJ à travers la présentation et l'analyse des spécifications des données d'accessibilité et de différents scénarios de cas d'utilisations. Finalement, en s'inspirant des concepts fondamentaux des processus ETL et des architectures orientées services, nous avons proposé une solution composée d'une couche d'extraction automatique de multi-sources; une couche de transformation qui répond au besoin du multi-formats; une application web pour les collaborateurs; et un service web de MÀJ chargé des tâches de traitement automatique et en temps quasi-réel de l'information reçue de multi-sources en effectuant l'analyse syntaxique et sémantique, la géolocalisation, le géocodage, la projection du système de référence le cas échéant, la validation et le contrôle d'unicité avant de procéder au chargement. Les résultats des tests et validations du prototype développé ont permis de confirmer l'atteinte de l'objectif de la recherche

    Extraction d'une architecture logicielle à base de composants depuis un système orienté objet. Une aproche par exploration

    Get PDF
    Software architecture modeling and representation are a main phase of the development process of complex systems. In fact, software architecture representation provides many advantages during all phases of software life cycle. Nevertheless, for many systems, like legacy or eroded ones, there is no available representation of their architectures. In order to benefit from this representation, we propose, in this thesis, an approach called ROMANTIC which focuses on recovering a component-based architecture from an existing object-oriented system. This recover is a balancing problem of competing constraints which aims at obtaining the best architecture that can be abstracted from a system. Consequently, the main idea of this approach is to propose a quasi-automatic process of architecture identification by formulating it as a search-based problem. The latter acts on the space composed of all possible architectures abstracting the object-oriented system and use the architectural semantic and quality to choose the best solution. The process uses the intentional system architecture by means of the documentation and the architect's recommendations.La modélisation et la représentation des architectures logicielles sont devenues une des phases principales du processus de développement des systèmes complexes. En effet, la représentation de l'architecture fournit de nombreux avantages pendant tout le cycle de vie du logiciel. Cependant, pour beaucoup de systèmes existants, aucune représentation fiable de leurs architectures n'est disponible. Afin de pallier cette absence, source de nombreuses difficultés principalement lors des phases de maintenance et d'évolution, nous proposons dans cette thèse une approche, appelée ROMANTIC, visant à extraire une architecture à base de composants à partir d'un système orienté objet existant. L'idée première de cette approche est de proposer un processus quasi-automatique d'identification d'architectures en formulant le problème comme un problème d'optimisation et en le résolvant au moyen de méta-heuristiques. Ces dernières explorent l'espace composé des architectures pouvant être abstraites du système en utilisant la sémantique et la qualité architecturale pour sélectionner les meilleures solutions. Le processus s'appuie également sur l'architecture intentionnelle du système, à travers l'utilisation de la documentation et des recommandations de l'architecte

    Lire dans un monde numérique

    Get PDF
    Que devient la lecture dans un monde numérique ? Zapping, émiettement, papillonnage ou interaction, participation, immersion… La diversité croissante des modalités de lecture sur supports numériques suscite autant l'intérêt que la consternation. Bien que le texte soit omniprésent dans la société actuelle, des voix de plus en plus nombreuses s'élèvent pour alerter, dénoncer une dérive, stigmatiser des modes de lecture qui ne seraient plus que des « parents pauvres » de la « véritable » pratique de lecture. Dans un monde numérique, la lecture perd l'innocence de la proximité, du familier, du connu. Elle se révèle dans toute sa complexité, et oblige le lecteur à entrer dans une plus grande conscience des processus en jeu, des repères qui permettent de comprendre et d'interpréter. Cela n'est nulle part aussi évident qu'avec la littérature numérique qui questionne tout autant qu'elle met en œuvre de nouvelles ouvertures sur l'imaginaire. Proposant ici une véritable réflexion sur les processus de lecture en ligne, sur ebook, sur écran d'ordinateur ou de téléphone mobile, les spécialistes issus du monde universaitaire réunis ici interrogent les habitudes de lecture forgées par la culture du livre papier tout en introduisant aux modalités émergeantes de lecture sur supports numériques

    Lire dans un monde numérique

    Get PDF
    Que devient la lecture dans un monde numérique ? Zapping, émiettement, papillonnage ou interaction, participation, immersion… La diversité croissante des modalités de lecture sur supports numériques suscite autant l'intérêt que la consternation. Bien que le texte soit omniprésent dans la société actuelle, des voix de plus en plus nombreuses s'élèvent pour alerter, dénoncer une dérive, stigmatiser des modes de lecture qui ne seraient plus que des « parents pauvres » de la « véritable » pratique de lecture. Dans un monde numérique, la lecture perd l'innocence de la proximité, du familier, du connu. Elle se révèle dans toute sa complexité, et oblige le lecteur à entrer dans une plus grande conscience des processus en jeu, des repères qui permettent de comprendre et d'interpréter. Cela n'est nulle part aussi évident qu'avec la littérature numérique qui questionne tout autant qu'elle met en œuvre de nouvelles ouvertures sur l'imaginaire. Proposant ici une véritable réflexion sur les processus de lecture en ligne, sur ebook, sur écran d'ordinateur ou de téléphone mobile, les spécialistes issus du monde universaitaire réunis ici interrogent les habitudes de lecture forgées par la culture du livre papier tout en introduisant aux modalités émergeantes de lecture sur supports numériques
    corecore