382 research outputs found

    Actes de la conférence BDA 2014 : Gestion de données - principes, technologies et applications

    No full text
    International audienceActes de la conférence BDA 2014 Conférence soutenue par l'Université Joseph Fourier, Grenoble INP, le CNRS et le laboratoire LIG. Site de la conférence : http://bda2014.imag.fr Actes en ligne : https://hal.inria.fr/BDA201

    Étude comparative de serveurs multiterminologiques dans le contexte d’une plateforme d’échange de données de santé ontologiquement annotées

    Get PDF
    Encore aujourd’hui, l’utilisation de systèmes d’information de santé est souvent problématique en raison de l’absence d’un référentiel sémantique et d’une classification unifiée des données des patients. Cette absence est en grande partie attribuable à l’hétérogénéité des sources sur lesquelles reposent ces systèmes. Cette hétérogénéité nuit en outre au partage des données entre les cliniciens, les chercheurs et les administrateurs au sein et entre les réseaux de santé, partage qui serait pourtant bénéfique autant pour la recherche en santé qu’à la pratique de soins. Une première étape dans la résolution de ces problèmes consiste à classer correctement les données en recourant à des terminologies au moyen de serveurs multiterminologiques (SMT). Ces derniers modélisent les terminologies, en plus de fournir une gamme de services permettant de définir et de mettre en correspondance plusieurs terminologies. Dans ce mémoire, nous cherchons un tel serveur qui aurait le potentiel d’être intégré à une démarche de Système de santé apprenant (SSA) et plus particulièrement à la Plateforme apprenante pour la recherche en santé et services sociaux (PARS3) qui propose un service sûr d’accès aux données de santé ontologiquement annotées. Une méthodologie de comparaison des serveurs a été mise en place afin d’évaluer les performances de chacun en termes d’utilisabilité, ainsi que de capacité à définir de nouvelles terminologies propres à des acteurs particuliers. Ce mémoire utilise une comparaison euristique en regard d’un ensemble de critères basés sur les besoins des utilisateurs, les propriétés des serveurs et des artéfacts qui leur sont liés. Cette comparaison prend en compte les fonctions accessibles à l’utilisateur par l’interface personne-machine ainsi que les fonctions accessibles à des services par l’entremise d’une interface machine-machine. Il est ressorti de cette comparaison qu’aucun des serveurs étudiés ne répondait adéquatement aux besoins. Cela a néanmoins permis d’identifier les fonctionnalités faisant défaut. Finalement, à partir de ces résultats, il a fallu trancher à savoir s’il était plus profitable de développer un serveur propre ou d’améliorer un serveur existant afin qu’il réponde aux exigences requises. Il en résulte que le développement d’un nouveau serveur serait plus avantageux

    Déploiement d'applications patrimoniales en environnements de type informatique dans le nuage

    Get PDF
    L'objectif de cette thèse est d'offrir une solution de bout en bout permettant de décrire et de déployer de façon fiable une application distribuée dans un environnement virtualisé. Ceci passe par la définition d'un formalisme permettant de décrirer une application ainsi que son environnement d'exécution, puis de fournir les outils capable d'interpéter ce formalisme pour déployer (installer, instancier et configurer) l'application sur une plate-forme de type cloud computing.Cloud computing aims to cut down on the outlay and operational expenses involved in setting up and running applications. To do this, an application is split into a set of virtualized hardware and software resources. This virtualized application can be autonomously managed, making it responsive to the dynamic changes affecting its running environment. This is referred to as Application Life-cycle Management (ALM). In cloud computing, ALM is a growing but immature market, with many offers claiming to significantly improve productivity. However, all these solutions are faced with a major restriction: the duality between the level of autonomy they offer and the type of applications they can handle. To address this, this thesis focuses on managing the initial deployment of an application to demonstrate that the duality is artificial. The main contributions of this work are presented in a platform named VAMP (Virtual Applications Management Platform). VAMP can deploy any legacy application distributed in the cloud, in an autonomous, generic and reliable way. It consists of: a component-based model to describe the elements making up an application and their projection on the running infrastructure, as well as the dependencies binding them in the applicative architecture; an asynchronous, distributed and reliable protocol for self-configuration and self-activation of the application; mechanisms ensuring the reliability of the VAMP system itself. Beyond implementing the solution, the most critical aspects of running VAMP have been formally verified using model checking tools. A validation step was also used to demonstrate the genericity of the proposal through various real-life implementations.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF

    Approches algébriques pour la gestion et l'exploitation de partitions sur des jeux de données

    Get PDF
    The rise of data analysis methods in many growing contexts requires the design of new tools, enabling management and handling of extracted data. Summarization process is then often formalized through the use of set partitions whose handling depends on applicative context and inherent properties. Firstly, we suggest to model the management of aggregation query results over a data cube within the algebraic framework of the partition lattice. We highlight the value of such an approach with a view to minimize both required space and time to generate those results. We then deal with the consensus of partitions issue in which we emphasize challenges related to the lack of properties that rule partitions combination. The idea put forward is to deepen algebraic properties of the partition lattice for the purpose of strengthening its understanding and generating new consensus functions. As a conclusion, we propose the modelling and implementation of operators defined over generic partitions and we carry out some experiences allowing to assert the benefit of their conceptual and operational use.L’essor des méthodes d’analyse de données dans des contextes toujours plus variés nécessite la conception de nouveaux outils permettant la gestion et la manipulation des données extraites. La construction de résumés est alors couramment structurée sous la forme de partitions d’ensembles dont la manipulation dépend à la fois du contexte applicatif et de leurs propriétés algébriques. Dans un premier temps, nous proposons de modéliser la gestion des résultats de requêtes d’agrégation dans un cube OLAP à l’aide d’un calcul algébrique sur des partitions. Nous mettons en évidence l’intérêt d’une telle démarche par le gain de temps et d’espace observé pour produire ces résultats. Nous traitons par la suite le cas de la modélisation du consensus de partitions où nous soulignons les difficultés propres à sa construction en l’absence de propriétés qui régissent la combinaison des partitions. Nous proposons donc d’approfondir l’étude des propriétés algébriques de la structure du treillis des partitions, en vue d’en améliorer la compréhension et par conséquent de produire de nouvelles procédures pour l’élaboration du consensus. En guise de conclusion, nous proposons la modélisation et une mise en œuvre concrète d’opérateurs sur des partitions génériques et nous livrons diverses expériences, propres à souligner l’intérêt de leur usage conceptuel et opérationnel

    Vers une Composition Dynamique des Services Web: une approche de Composabilité Offline

    Get PDF
    Dynamic composition remains one of the key aims of Web services technology. While they are designed to be aggregated and work together, Web services can be simultaneously implemented independently and use different standards or models. Therefore, their dynamic composition process is complex and time-consuming. Checking the possibility of connecting services (composability) enhances significantly this process’s efficiency and accuracy. In most works relating to Web services composition, the composability of two services or service operations is often limited to the process of semantic and/or syntactic matching of the inputs and outputs of the services or the operations concerned, and does not deal with the consistency of technical, non-functional, structural or contextual properties of the two services.In order to achieve efficient composition plans and optimize dynamic composition time, this work suggests an offline composability approach. The latter aims at identifying all the services which can be composed at different levels, as a preliminary, the process of construction of composition plans to be performed dynamically.It defines beforehand a multi-aspect Web service description model, which is aligned with the W3C specifications, namely, WSDL 2.0, SAWSDL and WS-Policy 1.5. This model incorporates the descriptive properties provided by these three standards and enriches them with new properties, in order to get as much information about a Web service, while remaining compliant with the standards. Based on this descriptive model, our approach identifies the descriptive properties involved in the offline composability of services and defines a set of multi-aspect rules which use this information in order to deal with the aspects of composability of two Web service operations: functional, non-functional, contextual, data-driven and technical. This approach defines also the overall method of automatic checking of the aspects of offline composability of two operations. This method consists of three main phases: (i) extraction and storage of composability information from SAWSDL, WSDL 2.0 and WS-Policy files, (ii) automatic checking of the offline composability of two operations using an algorithm that we have developed for this purpose, and (iii) traceability of the operation composability results. An experimentation part is presented within the framework of this research so as to clarify the use of the developed offline composability mechanisms.La composition dynamique reste un des objectifs clé de la technologie des services Web. Alors qu'ils sont conçus pour être agrégés et collaborer ensemble, les services Web peuvent en même temps être mis en œuvre indépendamment et utiliser des normes ou modèles différents. Par conséquent, leur processus de composition dynamique s’avère complexe et coûteux en temps. Vérifier la possibilité de connecter des services (la composabilité) en amont permet d’accroître considérablement, l'efficacité et l'exactitude de ce processus. Dans la plupart des travaux sur la composition des services Web, la composabilité de deux services ou opérations de services se limite souvent aux processus d’appariement sémantique et/ou syntaxique des entrées et sorties des services ou opérations concernés, et ne traite pas la cohérence des propriétés techniques, non-fonctionnelles, structurelles ou contextuelles des deux services. Dans le but d’aboutir à des plans de composition efficaces et d’optimiser le temps de composition dynamique, notre recherche propose une approche de composabilité offline. Cette approche consiste à identifier l’ensemble de services composables à différents niveaux, en amont du processus de construction des plans de composition devant être effectué de façon dynamique. Elle définit d’abord un modèle de description de services Web multi-aspects qui s’aligne avec les spécifications W3C, à savoir, WSDL 2.0, SAWSDL et WS-Policy 1.5. Ce modèle intègre les propriétés descriptives prévues par ces trois standards et les enrichit par de nouvelles propriétés, dans le but de capturer le maximum d’informations sur un service Web, tout en restant conforme aux standards. Sur la base de ce modèle descriptif, notre approche identifie les propriétés descriptives impliquées dans la composabilité offline des services et définit six règles multi-aspects qui exploitent ces informations pour traiter les aspects de composabilité de deux opérations de services Web : fonctionnel, non-fonctionnel, contextuel, orienté données et technique. Nous définissons aussi une démarche globale de vérification automatique des aspects de composabilité offline de deux opérations. Cette démarche comprend trois principales phases : (i) l’extraction et le stockage des informations de composabilité à partir des fichiers SAWSDL, WSDL 2.0 et WS-Policy, (ii) la vérification automatique de la composabilité offline de deux opérations par l’algorithme que nous avons développé à cette fin, et enfin (iii) la traçabilité des résultats de composabilité des opérations. La faisabilité de cette démarche a été démontrée par le dispositif de composabilité offline que nous avons réalisé

    Gestion automatique des configurations réseaux : une approche déductive

    Get PDF
    La gestion des réseaux informatiques est une tâche de plus en plus complexe et sujette aux erreurs. Les recherches dans le passé ont montré qu’entre 40% et 70% des modifications apportées à la configuration d’un réseau échouent à leur première tentative d’utilisation, et la moitié de ces échecs sont motivés par un problème situé ailleurs dans le réseau. Les opérateurs de réseau sont ainsi confrontés à un problème commun : comment s’assurer qu’un service installé sur le réseau d’un client fonctionne correctement et que le réseau lui-même est exempt de défaut de toute nature ? L’ingénieur réseau a donc à chaque fois qu’un nouveau service sera ajouté au réseau, la responsabilité d’un groupe de périphériques dont les configurations sont gérées individuellement et manuellement. Cette opération vise deux objectifs : 1) Mettre en oeuvre la fonctionnalité désirée. 2) Préserver le bon fonctionnement des services existants, en évitant de mettre en conflit les nouveaux paramètres et ceux déjà configurés sur le même réseau. L’évolution fulgurante du nombre de dispositifs, la complexité des configurations, les besoins spécifiques de chaque service, le nombre même de services qu’un réseau doit être capable de supporter, et le fait que les données traversent généralement des réseaux hétérogènes appartenant à plusieurs opérateurs, rendent cette tâche de plus en plus difficile. Nous pouvons aisément comprendre la nécessité de nouvelles approches au problème de gestion de configuration réseau. Au cours de notre étude, nous avons utilisé un formalisme basé sur la logique de configurations qui offre plusieurs avantages, tel que : la vérification efficace et aisée des configurations d’équipements multiples, la séparation claire entre les spécifications de contraintes de configuration et sa validation réelle, mis en relief dans l’outil de configuration et de vérification automatique de configuration appelé ValidMaker. Nous avons aussi présenté un modèle de données génériques pour des informations de configuration des dispositifs réseaux qui prennent en compte l’hétérogénéité des fabricants et de leurs versions. Les concepts tels que Meta-CLI ont été utilisés pour représenter la configuration extraite du dispositif sous forme d’arbre dont les feuilles représentent les paramètres extraits dans le but de pouvoir tester certaines propriétés complexes et d’en déduire les informations restantes. Nonobstant le fait que nos résultats sont basés et validés sur des cas d’utilisation et des configurations matérielles d’une entreprise cible, la méthodologie pourrait être appliquée à des équipements se rapportant à n’importe quel fournisseur de service réseau

    Ressources et parcours pour l'apprentissage du langage Python : aide à la navigation individualisée dans un hypermédia épistémique à partir de traces

    Get PDF
    This research work mainly concerns means of assistance in individualized navigation through an epistemic hypermedia. We have a number of resources that can be formalized by a directed acyclic graph (DAG) called the graph of epistemes. After identifying resources and pathways environments, methods of visualization and navigation, tracking, adaptation and data mining, we presented an approach correlating activities of design or editing with those dedicated to resources‘ use and navigation. This provides ways of navigation‘s individualization in an environment which aims to be evolutive. Then, we built prototypes to test the graph of epistemes. One of these prototypes was integrated into an existing platform. This epistemic hypermedia called HiPPY provides resources and pathways on Python language. It is based on a graph of epistemes, a dynamic navigation and a personalized knowledge diagnosis. This prototype, which was experimented, gave us the opportunity to evaluate the introduced principles and analyze certain uses.Les travaux de recherche de cette thèse concernent principalement l‘aide à la navigation individualisée dans un hypermédia épistémique. Nous disposons d‘un certain nombre de ressources qui peut se formaliser à l‘aide d‘un graphe acyclique orienté (DAG) : le graphe des épistèmes. Après avoir cerné les environnements de ressources et de parcours, les modalités de visualisation et de navigation, de traçage, d‘adaptation et de fouille de données, nous avons présenté une approche consistant à corréler les activités de conception ou d‘édition à celles dédiées à l‘utilisation et la navigation dans les ressources. Cette approche a pour objectif de fournir des mécanismes d‘individualisation de la navigation dans un environnement qui se veut évolutif. Nous avons alors construit des prototypes appropriés pour mettre à l‘épreuve le graphe des épistèmes. L‘un de ces prototypes a été intégré à une plateforme existante. Cet hypermédia épistémique baptisé HiPPY propose des ressources et des parcours portant sur l‘apprentissage du langage Python. Il s‘appuie sur un graphe des épistèmes, une navigation dynamique et un bilan de connaissances personnalisé. Ce prototype a fait l‘objet d‘une expérimentation qui nous a donné la possibilité d‘évaluer les principes introduits et d‘analyser certains usages

    Représentation et apprentissage de préférences

    Get PDF
    La modélisation des préférences par le biais de formalismes de représentation compacte fait l'objet de travaux soutenus en intelligence artificielle depuis plus d'une quinzaine d'années. Ces formalismes permettent l'expression de modèles suffisamment flexibles et riches pour décrire des comportements de décision complexes. Pour être intéressants en pratique, ces formalismes doivent de plus permettre l'élicitation des préférences de l'utilisateur, et ce en restant à un niveau admissible d'interaction. La configuration de produits combinatoires dans sa version business to customer et la recherche à base de préférences constituent de bons exemples de ce type de problème de décision où les préférences de l'utilisateur ne sont pas connues a priori. Dans un premier temps, nous nous sommes penchés sur l'apprentissage de GAI-décompositions. Nous verrons qu'il est possible d'apprendre une telle représentation en temps polynomial en passant par un système d'inéquations linéaires. Dans un second temps, nous proposerons une version probabiliste des CP-nets permettant la représentation de préférences multi-utilisateurs afin de réduire le temps nécessaire à l'apprentissage des préférences d'un utilisateur. Nous étudierons les différentes requêtes que l'on peut utiliser avec une telle représentation, puis nous nous pencherons sur la complexité de ces requêtes. Enfin, nous verrons comment apprendre ce nouveau formalisme, soit grâce à un apprentissage hors ligne à partir d'un ensemble d'objets optimaux, soit grâce à un apprentissage en ligne à partir d'un ensemble de questions posées à l'utilisateur
    • …
    corecore