588 research outputs found

    Une nouvelle approche mixte d'enrichissement de dimensions dans un schéma multidimensionnel en constellation Application à la biodiversité des oiseaux

    No full text
    International audienceLes entrepôts de données (DW) et les systèmes OLAP sont des technologies d'analyse en ligne pour de grands volumes de données, basés sur les be-soins des utilisateurs. Leur succès dépend essentiellement de la phase de conception où les exigences fonctionnelles sont confrontées aux sources de données (méthodologie de conception mixte). Cependant, les méthodes de conception existantes semblent parfois inefficaces, lorsque les décideurs définissent des exi-gences fonctionnelles qui ne peuvent être déduites à partir des sources de don-nées (approche centrée sur les données), ou lorsque le décideur n'a pas intégré tous ces besoins durant la phase de conception (approche centrée sur l'utilisa-teur). Cet article propose une nouvelle méthodologie mixte d'enrichissement de schémas en constellation, où l'approche classique de conception est améliorée grâce à la fouille de données dans le but de créer de nouvelles hiérarchies au sein d'une dimension. Un prototype associé est également présenté

    COSMOS : composition de noeuds de contexte

    Get PDF
    National audienceLes applications ubiquitaires évoluent dans une grande diversité de contextes d'utilisation. Or, cette diversité requiert une adaptation continuelle afin de préserver le bon fonctionnement des applications. Dès lors, l'observation du contexte joue un rôle prépondérant. Si les approches actuelles « centrée utilisateur » et « système » ont prouvé leur pertinence dans ce domaine, elles souffrent néanmoins de certaines limitations liées à l'expressivité des compositions des inférences et au passage à l'échelle. Par conséquent, nous proposons de réorganiser les fonctionnalités traditionnelles d'un gestionnaire de contexte de manière systématique en cycles « collecte / interprétation / identification de situations ». Cette approche repose sur la définition du concept de noeuds de contexte composés dans un graphe (hiérarchie avec partage), et l'expression du concept en composant et architecture logicielle pour faciliter la définition et la gestion des politiques de gestion de contexte

    Personnalisation d'analyses décisionnelles sur des données multidimensionnelles

    Get PDF
    This thesis investigates OLAP analysis personalization within multidimensional databases. OLAP analyse is modeled through a graph where nodes represent the analysis contexts and graph edges represent the user operations. The analysis context regroups the user query as well as result. It is well described by a specific tree structure that is independent on the visualization structures of data and query languages. We provided a model for user preferences on the multidimensional schema and values. Each preference is associated with a specific analysis context. Based on previous models, we proposed a generic framework that includes two personalization processes. First process, denoted query personalization, aims to enhancing user query with related preferences in order to produce a new one that generates a personalized result. Second personalization process is query recommendation that allows helping user throughout the OLAP data exploration phase. Our recommendation framework supports three recommendation scenarios, i.e., assisting user in query composition, suggesting the forthcoming query, and suggesting alternative queries. Recommendations are built progressively basing on user preferences. In order to implement our framework, we developed a prototype system that supports query personalization and query recommendation processes. We present experimental results showing the efficiency and the effectiveness of our approaches.Le travail présenté dans cette thèse aborde la problématique de la personnalisation des analyses OLAP au sein des bases de données multidimensionnelles. Une analyse OLAP est modélisée par un graphe dont les noeuds représentent les contextes d'analyse et les arcs traduisent les opérations de l'utilisateur. Le contexte d'analyse regroupe la requête et le résultat. Il est décrit par un arbre spécifique qui est indépendant des structures de visualisation des données et des langages de requête. Par ailleurs, nous proposons un modèle de préférences utilisateur exprimées sur le schéma multidimensionnel et sur les valeurs. Chaque préférence est associée à un contexte d'analyse particulier. En nous basant sur ces modèles, nous proposons un cadre générique comportant deux mécanismes de personnalisation. Le premier mécanisme est la personnalisation de requête. Il permet d'enrichir la requête utilisateur à l'aide des préférences correspondantes afin de générer un résultat qui satisfait au mieux aux besoins de l'usager. Le deuxième mécanisme de personnalisation est la recommandation de requêtes qui permet d'assister l'utilisateur tout au long de son exploration des données OLAP. Trois scénarios de recommandation sont définis : l'assistance à la formulation de requête, la proposition de la prochaine requête et la suggestion de requêtes alternatives. Ces recommandations sont construites progressivement à l'aide des préférences de l'utilisateur. Afin valider nos différentes contributions, nous avons développé un prototype qui intègre les mécanismes de personnalisation et de recommandation de requête proposés. Nous présentons les résultats d'expérimentations montrant la performance et l'efficacité de nos approches. Mots-clés: OLAP, analyse décisionnelle, personnalisation de requête, système de recommandation, préférence utilisateur, contexte d'analyse, appariement d'arbres de contexte

    Apport du Web sémantique au travail collaboratif : Application à l'édition d'un document d'information sur les risques majeurs

    Get PDF
    http://www.irit.fr/~Guillaume.Cabanac/docs/fjc2014/fjc2014actes.pdf" Collaborer " , " travailler ensemble " , ce sont des réalités familières à chacun d'entre nous. Or les techniques ont progressé et ont pris un nouveau tournant avec l'arrivée du numérique dans l'entreprise. Bien que l'introduction du numérique ne se fasse pas sans difficultés, de nouveaux outils continuent d'apparaître : le travail collaboratif assisté par ordinateur est progressivement devenu un domaine d'étude à part entière. Notre recherche s'inscrit dans ce courant et étudie les apports possibles des technologies du Web sémantique au travail collaboratif. Ces technologies, en apportant les concepts d'ontologie, de métadonnées, d'inférence, participent au passage d'un système d'information à un système plus orienté connaissance. Devant ce vaste champ d'étude, nous avons pour nous guider un cas d'application qui est d'ailleurs à l'origine de ces travaux. Il s'agit du DDRM " Dossier Départemental sur les Risques Majeurs " un document administratif réalisé sous la supervision du préfet et qui compile les informations essentielles concernant les risques naturels et technologiques majeurs connus sur le territoire d'un département. Ce document d'information et de prévention destiné aux citoyens, doit être actualisé tous les cinq ans, étape nécessitant le concours de plusieurs acteurs issus d'horizons et de métiers différents. C'est ici qu'intervient la possibilité d'améliorer ce travail, qui est par essence collaboratif, à l'aide des nouvelles technologies et en particulier celles issues du Web sémantique. Nous imaginons que le système, plongé dans le Web 2.0 et les Linked Open Data , favorisera les échanges entre départements

    Vers une approche d’adaptation dynamique et temps-réel du contenu informationnel d’une interface utilisateur dans un environnement ubiquitaire

    Get PDF
    Ubiquitous environments are often considered highly dynamic environments and the contextual information can change at runtime. User interface should provide the right information for the right person at the right time. Certainly, such objective can be achieved only when we deduce the realtime user’s requirements in terms of information and present this information to the user according to his current context of use. The specific goal of our research is to improve the adaptation process while improving models at runtime. A fixed model cannot handle the high dynamic in such an environment. The model can progress and change its structure to better deduce the user’s requirements. Selecting the appropriate model is not that easy. To address this problem, adaptation strategies will be based on evolutionary models. Such models can be created while integrating progressively a range of elementary actions or undergo modifications and changes as the result of interactions with the user and through reinterpretations of existing models stored by the acquisition of preceding knowledge. Our approach takes advantage of OWL-S’s properties in order to describe the dynamic functioning of Petri-nets models. We formulate a Petri-nets based elementary action by using an OWL-S atomic process. And then, we progressively compose a set of elementary actions to formulate a Petri-nets based activity. The presented method lays a sound foundation for dynamic composition of Petri-nets based modeling.L’adaptation au contexte suivant notre cadre d’étude peut être définie par la flexibilité des interfaces utilisateur à évoluer au cours de l’interaction en fonction du contexte de l’utilisateur. Et puisque généralement la pertinence des modèles dépend de la qualité de l’adaptation dynamique de l’interface, l’adaptation qui se base sur un modèle fixe de fonctionnement n’est plus appropriée dans les environnements ubiquitaires. Le Contexte a tendance à varier énormément au cours de l’interaction avec l’utilisateur dans un environnement très dynamique. D’où, la déduction de l’information nécessaire au moment approprié pour un utilisateur quelconque exige une plus grande flexibilité, ainsi une méthode statique de fonctionnement est certainement insuffisante. Cette complexité croit lorsque les informations fournies à l’utilisateur doivent correspondre à certaines caractéristiques spécifiques et individuelles des utilisateurs. Une approche de modélisation dynamique a été soigneusement décrite. Nous y avons démontré l’adaptation temps-réel des informations fournies à l’utilisateur à ses spécificités, à ses préférences, à son activité en cours et au changement de son contexte d’usage. L’utilisateur se situant dans un environnement ubiquitaire arrivera nécessairement à recevoir sur son interface l’information dont il a besoin. En procédant de cette manière, nous nous sommes parvenu implicitement à aider l’utilisateur à accomplir sa tâche en cours. Il s’agit, en fait, de la principale motivation de l’Informatique Ubiquitaire que notre stratégie nous a permis, entre autres, de la respecter

    Génération automatique d'environnements virtuels urbains complexes

    Get PDF
    L'essor des technologies numériques constitue pour les entreprises de la construction, bâtiment et Travaux Publics (BTP), un enjeu majeur. La maquette numérique, par exemple, procure à tous les acteurs d'un chantier une visibilité en temps réel des différents aspects mis en jeux. Dans de nombreux domaines, il est donc nécessaire de modéliser en 3D des immeubles, des bâtiments industriels, des ensembles immobiliers, des villes ... Le BIM (Building Information Modeling, ou building information model, en français modélisation des données du bâtiment) est un ensemble de technologies et de processus d'intégration, de production, de gestion et de visualisation de données des modèles de construction du BTP. Plusieurs voies existent pour éviter aux concepteurs en architecture, aux urbanistes ou aux graphistes de fastidieuses opérations manuelles pour la création de ces environnements, des techniques de génération automatique ont été développées en complément (ou en substitution) des logiciels de modélisation et de conception assistée par ordinateur (CAO) qu'ils utilisent pour créer ces environnement virtuels. De nombreux systèmes procèdent à la génération de ces environnements 3D à partir du monde réel : les scanners 3D ou les prises de vue stéréoscopiques permettent en effet de reconstruire des objets, des bâtiments et des environnements 3D à partit des données géométriques et photométriques acquises. Dans un autre approche, les techniques de modélisation procédurales permettent de générer automatiquement des environnements 3D complexes en utilisant des déclarations de propriétés ou de contraintes issues de règles métier et des techniques issues de la Vie Artificielle. Les données issues de ces systèmes d'acquisition ou de génération peuvent être enregistrés et gérées dans les systèmes d'informations géographiques et les logiciels de cartographie ou dans une suite logicielle BIM. Les données de ces applications informatiques et les métadonnées associées qu'ils contiennent sont également exploitables pour générer ou modifier les environnements 3D. Parmi toutes les méthodes procédurales qui ont été utilisées pour aborder la question, les grammaires de formes sont particulièrement efficaces face au problème d'encodage des connaissances sur les formes et leur reproduction. Le but de la thèse est de générer des environnements urbains en 3D incluant des données issues de l'existant et de nouveaux édifices à travers l'utilisation des grammaires de formes. En partant d'une interface graphique, de données géographiques et de descripteurs, le but est de générer les règles encodant les informations d'apparence des bâtiments de manière semi-automatique. A l'issue de ce processus, un fichier BIM de ces bâtiments au format standard IFC pourra être généré.The development of digital technologies is a major challenge for construction, construction and public works (BTP) companies. The digital model, for example, gives all the actors of a construction site a real-time visibility of the different aspects involved. In many areas, it is therefore necessary to model in 3D buildings, industrial buildings, buildings, cities ... The BIM (building information modeling, or building information model) is a set Technologies and processes for the integration, production, management and visualization of data from construction models of construction. Several avenues exist to prevent architectural designers, town planners or graphic designers to do the tedious manual operations of creating these environments, automatic generation techniques have been developed in addition (or in substitution) to software for modeling and Computer Assisted Design (CAD) they use to create these virtual environments. Many systems generate these 3D environments from the real world: 3D scanners or stereoscopic shots allow reconstructing 3D objects, buildings and environments from acquired geometric and photometric data. In another approach, procedural modeling techniques can automatically generate complex 3D environments using property declarations or constraints derived from rules and techniques derived from Artificial Life. Data from these acquisition or generation systems can be stored and managed in geographic information systems and mapping software or in a BIM software suite. The data of these computer applications and the associated metadata they contain can also be used to generate or modify 3D environments. Among all the procedural methods that have been used to address the issue, shape grammars are particularly effective when it comes to dealing with the problem of encoding knowledge about patterns and their reproduction. The aim of the thesis is to generate 3D urban environments using data from existing and new buildings through the use of shape grammars. Starting from a graphical interface, geographic data and eventually descriptors, the goal of the thesis is to semi-automatically generate the ruleset encoding the appearance information of these buildings. At the end of this process, a BIM file of these buildings in the IFC standard format can be generated

    Structuration sématique de documents XML centres-documents

    Get PDF
    La numérisation des documents et le développement des technologies Internet ont engendré une augmentation permanente du nombre de documents et de types de documents disponibles. Face à cette masse documentaire, XML (eXtensible Markup Language) s’est imposé comme format standard de structuration et d’échange de documents. Ainsi, un nombre de plus en plus important de documents devient disponible sous ce format. Ces documents XML peuvent être classés en deux types : les documents XML orienté-données et les documents XML orienté-textes. Les documents XML orienté-données sont constitués d’un ensemble d’éléments généralement courts et précis et sont similaires aux données relationnelles. Nous constatons que les balises utilisées pour ce type de documents décrivent généralement d’une manière précise le contenu, et offrent la sémantique basique nécessaire à la description de l’information (Exemples de balises : Article, Client, Quantité, Prix). A contrario, les documents XML orienté-textes sont riches en texte et utilisent des balises qui reflètent la plupart du temps un découpage (structurel) logique (exemples de balises : Contenu, Section, Paragraphe). Malheureusement, ces balises n’ont qu’une très pauvre vocation sémantique. Partant de cette constatation, le développement d’approches supportées par des outils automatisés permettant de décrire la sémantique des documents XML orientés-textes devient un besoin urgent, voire une nécessité pour certains usages. Dans ce contexte, nous proposons une approche de structuration sémantique des documents XML à partir de leurs structures logiques et de leurs contenus. Elle construit une arborescence de concepts. Cette approche de structuration sémantique passe par quatre phases : 1) Extraction des termes des contenus des documents en utilisant des techniques de recherche d’information ; 2) Détermination d’une taxonomie1 qui sera affectée au document, c’est-à-dire celle qui correspond au mieux à sa sémantique (cette étape se base sur une démarche de pondération d’un ensemble de taxonomies candidates) ; 3) Affectation, à chaque élément feuille de la structure logique du document, du concept le plus significatif à partir de la taxonomie retenue ; 4) Inférence de concepts aux éléments non feuilles du document. Notre approche de structuration sémantique des documents se base sur l’indexation sémantique et diffère des autres travaux par : 1) Le choix d’une taxonomie appropriée pour chaque document, il s’agit de déterminer la taxonomie qui décrit au mieux la sémantique du document, et 2) La pondération des concepts extraits de manière à donner plus d’importance aux concepts les plus spécifiques car nous partons du constat suivant : plus le niveau auquel se situe le concept est bas dans la hiérarchie, plus l’information qu’il apporte est fine et ciblée. Pour exploiter ces structures sémantiques, nous avons étendu le méta-modèle d’entrepôts de documents pour assurer leur stockage. De plus, nous avons introduit le concept de métadocument afin de permettre l’interrogation de ces structures sémantiques. Enfin, pour évaluer nos propositions, nous avons mené un ensemble d’expérimentations sur la collection de documents XML ImageCLEFMed 2010 en utilisant la ressource sémantique MeSH (NML's Medical Subject Headings). Les résultats obtenus montrent que l’algorithme de pondération des concepts des taxonomies qui a été proposé permet de sélectionner avec précision la taxonomie pertinente pour un document donné et, en conséquence, les concepts pertinents à affecter aux éléments feuilles de la structure sémantique de ce document.Le résumé en anglais n'a pas été communiqué par l'auteur

    La classification à facettes pour la gestion des connaissances métier (méthodologie d'élaboration de FolkClassifications à facettes.)

    Get PDF
    Tout d abord, nous abordons les problématiques liées à l organisation et à la gestion des connaissances ainsi que les principes présidant à l élaboration des classifications à facettes. Nous proposons ensuite une synthèse des méthodes existantes d élaboration de classifications à facettes. Nous poursuivons en réalisant une analyse de l impact des types de Systèmes d Information sur l activité de gestion de l information. Ce faisant, nous produisons une analyse de l activité inspirée de la Théorie de l Activité, et influencée par les travaux de la psychologie du travail et de l ergonomie cognitive. Le prototype Hypertagging développé dans le cadre du projet Miipa-Doc fondé sur le tagging des utilisateurs et structuré par les principes de la classification à facettes est présenté. Notre expérimentation sur l élaboration de classifications à facettes pour la gestion des documents de travail est détaillée. Enfin, nous exposons notre méthodologie d élaboration de FolkClassifications à facettes pour la gestion des connaissances métier. Elle vise à appuyer une démarche de gestion des connaissances sur la gestion personnelle de l informationWe address Knowledge Organization and Knowldege Management general issues and we present the basic principles for the development of faceted classifications. Then we introduce a synthesis of existing methods to develop this kind of classification. Next we propose an analysis of effects of Information Systems on information management activities. By doing this, we produce an analysis of the concept of activity inspired by Activity Theory, occupational psychology and french ergonomics. A presentation of Hypertagging prototype developed in the frame of Miipa-Doc research project, based on users tagging and structured by faceted classification principles, is provided. Our experiment about generating faceted classification for document management activities is detailed. Finally, we expose our method for the development of faceted classification for Knowledge Management purposes in the context of specific trades. This Knowledge Management approach is incorporated in Knowledge Organization activities.PARIS-CNAM (751032301) / SudocSudocFranceF

    Structuration sématique de documents XML centres-documents

    Get PDF
    La numérisation des documents et le développement des technologies Internet ont engendré une augmentation permanente du nombre de documents et de types de documents disponibles. Face à cette masse documentaire, XML (eXtensible Markup Language) s’est imposé comme format standard de structuration et d’échange de documents. Ainsi, un nombre de plus en plus important de documents devient disponible sous ce format. Ces documents XML peuvent être classés en deux types : les documents XML orienté-données et les documents XML orienté-textes. Les documents XML orienté-données sont constitués d’un ensemble d’éléments généralement courts et précis et sont similaires aux données relationnelles. Nous constatons que les balises utilisées pour ce type de documents décrivent généralement d’une manière précise le contenu, et offrent la sémantique basique nécessaire à la description de l’information (Exemples de balises : Article, Client, Quantité, Prix). A contrario, les documents XML orienté-textes sont riches en texte et utilisent des balises qui reflètent la plupart du temps un découpage (structurel) logique (exemples de balises : Contenu, Section, Paragraphe). Malheureusement, ces balises n’ont qu’une très pauvre vocation sémantique. Partant de cette constatation, le développement d’approches supportées par des outils automatisés permettant de décrire la sémantique des documents XML orientés-textes devient un besoin urgent, voire une nécessité pour certains usages. Dans ce contexte, nous proposons une approche de structuration sémantique des documents XML à partir de leurs structures logiques et de leurs contenus. Elle construit une arborescence de concepts. Cette approche de structuration sémantique passe par quatre phases : 1) Extraction des termes des contenus des documents en utilisant des techniques de recherche d’information ; 2) Détermination d’une taxonomie1 qui sera affectée au document, c’est-à-dire celle qui correspond au mieux à sa sémantique (cette étape se base sur une démarche de pondération d’un ensemble de taxonomies candidates) ; 3) Affectation, à chaque élément feuille de la structure logique du document, du concept le plus significatif à partir de la taxonomie retenue ; 4) Inférence de concepts aux éléments non feuilles du document. Notre approche de structuration sémantique des documents se base sur l’indexation sémantique et diffère des autres travaux par : 1) Le choix d’une taxonomie appropriée pour chaque document, il s’agit de déterminer la taxonomie qui décrit au mieux la sémantique du document, et 2) La pondération des concepts extraits de manière à donner plus d’importance aux concepts les plus spécifiques car nous partons du constat suivant : plus le niveau auquel se situe le concept est bas dans la hiérarchie, plus l’information qu’il apporte est fine et ciblée. Pour exploiter ces structures sémantiques, nous avons étendu le méta-modèle d’entrepôts de documents pour assurer leur stockage. De plus, nous avons introduit le concept de métadocument afin de permettre l’interrogation de ces structures sémantiques. Enfin, pour évaluer nos propositions, nous avons mené un ensemble d’expérimentations sur la collection de documents XML ImageCLEFMed 2010 en utilisant la ressource sémantique MeSH (NML's Medical Subject Headings). Les résultats obtenus montrent que l’algorithme de pondération des concepts des taxonomies qui a été proposé permet de sélectionner avec précision la taxonomie pertinente pour un document donné et, en conséquence, les concepts pertinents à affecter aux éléments feuilles de la structure sémantique de ce document.Le résumé en anglais n'a pas été communiqué par l'auteur

    Reconnaissance des entités nommées dans des documents multimodaux

    Get PDF
    Named entity recognition is a subtask of information extraction. It consists of identifying some textual objects such as person, location and organization names. The work of this thesis focuses on the named entity recognition task for the oral modality. Some difficulties may arise for this task due to the intrinsic characteristics of speech processing (lack of capitalisation marks, lack of punctuation marks, presence of disfluences and of recognition errors...). In the first part, we study the characteristics of the named entity recognition downstream of the automatic speech recognition system. We present a methodology which allows named entity recognition following a hierarchical and compositional taxonomy. We measure the impact of the different phenomena specific to speech on the quality of named entity recognition. In the second part, we propose to study the tight pairing between the speech recognition task and the named entity recognition task. For that purpose, we take away the basic functionnalities of a speech recognition system to turn it into a named entity recognition system. Therefore, by mobilising the inherent knowledge of the speech processing to the named entity recognition task, we ensure a better synergy between the two tasks. We carry out different types of experiments to optimize and evaluate our approach.La Reconnaissance des entités nommées est une sous-tâche de l’activité d’extraction d’information. Elle consiste à identifier certains objetstextuels tels que les noms de personne, d’organisation et de lieu. Le travail de cette thèse se concentre sur la tâche de reconnaissance des entitésnommées pour la modalité orale. Cette tâche pose un certain nombre de difficultés qui sont inhérentes aux caractéristiques intrinsèques du traitementde l’oral (absence de capitalisation, manque de ponctuation, presence de disfluences et d’erreurs de reconnaissance...). Dans un premiertemps, nous étudions les spécificités de la reconnaissance des entités nommées en aval du système de reconnaissance automatique de la parole.Nous présentons une méthode pour la reconnaissance des entités nommées dans les transcription de la parole en adoptant une taxonomie hiérarchique et compositionnelle. Nous mesurons l’impact des différents phénomènes spécifiques à la parole sur la qualité de reconnaissance des entités nommées. Dans un second temps, nous proposons d’étudier le couplage étroit entre la tâche de transcription de la parole et la tâche de reconnaissance des entités nommées. Dans ce but, nous détournons les fonctionnalités de base d’un système de transcription de la parole pour le transformer en un système de reconnaissance des entités nommées. Ainsi, en mobilisant les connaissances propres au traitement de la parole dans le cadre de la tâche liée à la reconnaissance des entités nommées, nous assurons une plus grande synergie entre ces deux tâches. Nous menons différents types d’expérimentations afin d’optimiser et d’évaluer notre approche
    • …
    corecore