3,843 research outputs found

    Performances de protocoles transactionnels en environnement mobile

    Get PDF
    National audience. L'omniprĂ©sence d'unitĂ©s mobiles et le dĂ©veloppement des rĂ©seaux sans fil motivent des avancĂ©es en matiĂšre de supports d'exĂ©cution pour une grande variĂ©tĂ© d'applications en envi-ronnement mobile. Des efforts importants sont faits pour offrir une bonne gestion des donnĂ©es malgrĂ© les caractĂ©ristiques limitĂ©es de tels environnements. La notion de transaction a Ă©tĂ© rĂ©-Ă©tudiĂ©e pour proposer des modĂšles et des protocoles permettant d'assurer certaines propriĂ©tĂ©s transactionnelles. Les algorithmes et protocoles proposĂ©s tentent d'optimiser l'utilisation des ressources des unitĂ©s mobiles et de surmonter les limitations du rĂ©seau mobile. Dans cet article nous nous intĂ©ressons spĂ©cifiquement aux protocoles de validation de transactions rĂ©parties sur plusieurs unitĂ©s dont certaines mobiles. Nous prĂ©sentons ici les rĂ©sultats d'un travail qui iden-tifie des propriĂ©tĂ©s qualitatives et des indices de performance quantitatifs, et Ă©tudie ceux-ci sur quatre protocoles (2PC, UCM, CO2PC et TCOT). Trois de ces protocoles sont des propositions spĂ©cifiques pour des environnements mobiles et sont reprĂ©sentatifs des propositions actuelles. Nous nous intĂ©ressons Ă  la phase de validation des transactions, ainsi qu'Ă  l'influence des dif-fĂ©rents protocoles sur les performances du dĂ©roulement de l'ensemble des transactions. ABSTRACT. This is an abstract. The omnipresence of mobile devices and wireless networks lead to a growing interest in supporting a wide variety of applications in mobile environments. Numerous efforts in providing appropriate data managements for such environments are made. Transaction supports have been revisited to propose adapted transaction models and properties. Proposed algorithms and protocols try to optimise the use of mobile units resources and to overcome wireless network limitations. This work concerns protocols to commit transactions distributed over several mobile and fixed units. Results presented here concern the identification of qualitative properties and quantitative performance indices that are studied on four protocols (2PC, UCM, CO2PC et TCOT). Three of them are specifics propositions for mobile environments and are representative of current proposals. The analysis concerns the transaction validation phase as well as the impact of the protocols on the performances during a transaction execution itself. MOTS-CLÉS : transactions mobiles , evaluation de performances, protocoles de validation

    Contributions à la réplication de données dans les systÚmes distribués à grande échelle

    Get PDF
    Data replication is a key mechanism for building a reliable and efficient data management system. Indeed, by keeping several replicas for each piece of data, it is possible to improve durability. Furthermore, well-placed copies reduce data accesstime. However, having multiple copies for a single piece of data creates consistency problems when the data is updated. Over the last years, I made contributions related to these three aspects: data durability, data access performance and data consistency. RelaxDHT and SPLAD enhance data durability by placing data copies smartly. Caju, AREN and POPS reduce access time by improving data locality and by taking popularity into account. To enhance data lookup performance, DONUT creates efficient shortcuts taking data distribution into account. Finally, in the replicated database context, Gargamel parallelizes independent transactions only, improving database performance and avoiding aborting transactions. My research has been carried out in collaboration with height PhD students, four of which have defended. In my future work, I plan to extend these contributions by (i) designing a storage system tailored for MMOGs, which are very demanding, and (ii) designing a data management system that is able to re-distribute data automatically in order to scale the number of servers up and down according to the changing workload, leading to a greener data management.La rĂ©plication de donnĂ©es est une technique clĂ© pour permettre aux systĂšmes de gestion de donnĂ©es distribuĂ©s Ă  grande Ă©chelle d'offrir un stockage fiable et performant. Comme il gĂšre un nombre suffisant de copies de chaque donnĂ©e, le systĂšme peut amĂ©liorer la pĂ©rennitĂ©. De plus, la prĂ©sence de copies bien placĂ©es rĂ©duit les temps d'accĂšs. Cependant, cette mĂȘme existence de plusieurs copies pose des problĂšmes de cohĂ©rence en cas de modification. Ces derniĂšres annĂ©es, mes contributions ont portĂ© sur ces trois aspects liĂ©s Ă  la rĂ©plication de donnĂ©es: la pĂ©rennitĂ© des donnĂ©es, la performance desaccĂšs et la gestion de la cohĂ©rence. RelaxDHT et SPLAD permettent d'amĂ©liorer la pĂ©rennitĂ© des donnĂ©es en jouant sur le placement des copies. Caju, AREN et POPS permettent de rĂ©duire les temps d'accĂšs aux donnĂ©es en amĂ©liorant la localitĂ© et en prenant en compte la popularitĂ©. Pour accĂ©lĂ©rer la localisation des copies, DONUT crĂ©e des raccourcis efficaces prenant en compte la distribution des donnĂ©es. Enfin, dans le contexte des bases de donnĂ©es rĂ©pliquĂ©es,Gargamel permet de ne parallĂ©liser que les transactions qui sont indĂ©pendantes, amĂ©liorant ainsi les performances et Ă©vitant tout abandon de transaction pour cause de conflit. Ces travaux ont Ă©tĂ© rĂ©alisĂ©s avec huit Ă©tudiants en thĂšse dont quatre ont soutenu. Pour l'avenir, je me propose d'Ă©tendre ces travaux, d'une part en concevant un systĂšme de gestion de donnĂ©es pour les MMOGs, une classe d'application particuliĂšrement exigeante; et, d'autre part, en concevant des mĂ©canismes de gestion de donnĂ©es permettant de n'utiliser que la quantitĂ© strictement nĂ©cessaire de ressources, en redistribuant dynamiquement les donnĂ©es en fonction des besoins, un pas vers une gestion plus Ă©cologique des donnĂ©es

    Algorithmes passant à l’échelle pour la gestion de données du Web sémantique sur les platformes cloud

    Get PDF
    In order to build smart systems, where machines are able to reason exactly like humans, data with semantics is a major requirement. This need led to the advent of the Semantic Web, proposing standard ways for representing and querying data with semantics. RDF is the prevalent data model used to describe web resources, and SPARQL is the query language that allows expressing queries over RDF data. Being able to store and query data with semantics triggered the development of many RDF data management systems. The rapid evolution of the Semantic Web provoked the shift from centralized data management systems to distributed ones. The first systems to appear relied on P2P and client-server architectures, while recently the focus moved to cloud computing.Cloud computing environments have strongly impacted research and development in distributed software platforms. Cloud providers offer distributed, shared-nothing infrastructures that may be used for data storage and processing. The main features of cloud computing involve scalability, fault-tolerance, and elastic allocation of computing and storage resources following the needs of the users.This thesis investigates the design and implementation of scalable algorithms and systems for cloud-based Semantic Web data management. In particular, we study the performance and cost of exploiting commercial cloud infrastructures to build Semantic Web data repositories, and the optimization of SPARQL queries for massively parallel frameworks.First, we introduce the basic concepts around Semantic Web and the main components and frameworks interacting in massively parallel cloud-based systems. In addition, we provide an extended overview of existing RDF data management systems in the centralized and distributed settings, emphasizing on the critical concepts of storage, indexing, query optimization, and infrastructure. Second, we present AMADA, an architecture for RDF data management using public cloud infrastructures. We follow the Software as a Service (SaaS) model, where the complete platform is running in the cloud and appropriate APIs are provided to the end-users for storing and retrieving RDF data. We explore various storage and querying strategies revealing pros and cons with respect to performance and also to monetary cost, which is a important new dimension to consider in public cloud services. Finally, we present CliqueSquare, a distributed RDF data management system built on top of Hadoop, incorporating a novel optimization algorithm that is able to produce massively parallel plans for SPARQL queries. We present a family of optimization algorithms, relying on n-ary (star) equality joins to build flat plans, and compare their ability to find the flattest possibles. Inspired by existing partitioning and indexing techniques we present a generic storage strategy suitable for storing RDF data in HDFS (Hadoop’s Distributed File System). Our experimental results validate the efficiency and effectiveness of the optimization algorithm demonstrating also the overall performance of the system.Afin de construire des systĂšmes intelligents, où les machines sont capables de raisonner exactement comme les humains, les donnĂ©es avec sĂ©mantique sont une exigence majeure. Ce besoin a conduit à l’apparition du Web sĂ©mantique, qui propose des technologies standards pour reprĂ©senter et interroger les donnĂ©es avec sĂ©mantique. RDF est le modĂšle rĂ©pandu destiné à dĂ©crire de façon formelle les ressources Web, et SPARQL est le langage de requĂȘte qui permet de rechercher, d’ajouter, de modifier ou de supprimer des donnĂ©es RDF. Être capable de stocker et de rechercher des donnĂ©es avec sĂ©mantique a engendré le dĂ©veloppement des nombreux systĂšmes de gestion des donnĂ©es RDF.L’évolution rapide du Web sĂ©mantique a provoqué le passage de systĂšmes de gestion des donnĂ©es centralisĂ©es à ceux distribuĂ©s. Les premiers systĂšmes Ă©taient fondĂ©s sur les architectures pair-à-pair et client-serveur, alors que rĂ©cemment l’attention se porte sur le cloud computing.Les environnements de cloud computing ont fortement impacté la recherche et dĂ©veloppement dans les systĂšmes distribuĂ©s. Les fournisseurs de cloud offrent des infrastructures distribuĂ©es autonomes pouvant ĂȘtre utilisĂ©es pour le stockage et le traitement des donnĂ©es. Les principales caractĂ©ristiques du cloud computing impliquent l’évolutivitĂ©Ì, la tolĂ©rance aux pannes et l’allocation Ă©lastique des ressources informatiques et de stockage en fonction des besoins des utilisateurs.Cette thĂšse Ă©tudie la conception et la mise en Ɠuvre d’algorithmes et de systĂšmes passant à l’échelle pour la gestion des donnĂ©es du Web sĂ©mantique sur des platformes cloud. Plus particuliĂšrement, nous Ă©tudions la performance et le coĂ»t d’exploitation des services de cloud computing pour construire des entrepĂŽts de données du Web sĂ©mantique, ainsi que l’optimisation de requĂȘtes SPARQL pour les cadres massivement parallĂšles.Tout d’abord, nous introduisons les concepts de base concernant le Web sémantique et les principaux composants des systèmes fondés sur le cloud. En outre, nous présentons un aperçu des systèmes de gestion des données RDF (centralisés et distribués), en mettant l’accent sur les concepts critiques de stockage, d’indexation, d’optimisation des requêtes et d’infrastructure.Ensuite, nous présentons AMADA, une architecture de gestion de données RDF utilisant les infrastructures de cloud public. Nous adoptons le modèle de logiciel en tant que service (software as a service - SaaS), où la plateforme réside dans le cloud et des APIs appropriées sont mises à disposition des utilisateurs, afin qu’ils soient capables de stocker et de récupérer des données RDF. Nous explorons diverses stratégies de stockage et d’interrogation, et nous étudions leurs avantages et inconvénients au regard de la performance et du coût monétaire, qui est une nouvelle dimension importante à considérer dans les services de cloud public.Enfin, nous présentons CliqueSquare, un système distribué de gestion des données RDF basé sur Hadoop. CliqueSquare intègre un nouvel algorithme d’optimisation qui est capable de produire des plans massivement parallèles pour des requêtes SPARQL. Nous présentons une famille d’algorithmes d’optimisation, s’appuyant sur les équijointures n- aires pour générer des plans plats, et nous comparons leur capacité à trouver les plans les plus plats possibles. Inspirés par des techniques de partitionnement et d’indexation existantes, nous présentons une stratégie de stockage générique appropriée au stockage de données RDF dans HDFS (Hadoop Distributed File System). Nos résultats expérimentaux valident l’effectivité et l’efficacité de l’algorithme d’optimisation démontrant également la performance globale du système

    MĂ©thodologie d'Ă©valuation de STEP pour sa mise en place

    Get PDF
    Échange de donnĂ©es -- Normes existantes -- GĂ©nĂ©ralitĂ©s sur STEP -- Tests de conformitĂ© -- Mapping -- ProblĂ©matique dans une entreprise -- ExpĂ©riences faites avec STEP -- MĂ©thodologie d'Ă©valuation de STEP pour sa mise en place -- Pertinence de la mĂ©thodologie -- ProcĂ©dure mĂ©thodologique -- DĂ©finition des objectifs et du domaine d'Ă©change (A1) -- Traduction et rĂ©ception des fichiers d'Ă©tude de cas (A2) -- VĂ©rification des fichiers (A3) -- Vers une procĂ©dure d'analyse -- Description des tests et analyse de la mĂ©thodologie -- ProcĂ©dure d'analyse de la mĂ©thodologie -- PrĂ©sentation des tests -- Analyse de la mĂ©thodologie

    SĂ©mantique et Internet des objets : d'un Ă©tat de l'art Ă  une ontologie modulaire

    Get PDF
    National audienceLa notion d'Internet des Objets désigne un réseau d'objets connectés entre eux et communiquant de maniÚre automatique. Les notions de sémantiques y ont une place croissante, car plus que jamais elles ap-paraissent comme une solution aux problÚmes d'interopérabilité et d'interprétation des données et des services par des machines. La diversité des applications possibles à l'intersection de l'internet des objets et du web sé-mantique a poussé de nombreuses équipes de recherche à travailler à l'interface entre ces deux disciplines. Nous souhaitons dans ce papier faire un inventaire de leurs propositions. Nous cherchons également à contribuer à l'évolution de ce domaine de recherche en proposant une ontologie pour décrire les réseaux d'objets connectés

    SĂ©Mo'07 : premier atelier sur la SĂ©mantique des ModĂšles

    Get PDF
    International audienceThis paper summarises the presentations and exchanges that took place in the SĂ©Mo'2007 workshop in March 2007 in Toulouse during the IDM conference. The main topic of the workshop was the semantics of models and meta-models in the purpose to confront the MDE users needs and the technologies used for specification and programming languages

    Évaluation de la qualitĂ© des donnĂ©es gĂ©ospatiales : approche top-down et gestion de la mĂ©taqualitĂ©

    Get PDF
    Depuis l'avĂšnement du numĂ©rique, la demande de donnĂ©es par les utilisateurs des systĂšmes d'information gĂ©ographique (SIG) ne fait qu'augmenter. Les organismes utilisateurs se retrouvent souvent devant plusieurs sources de donnĂ©es gĂ©ographiques potentielles et ils doivent alors Ă©valuer la qualitĂ© de chaque source en fonction de leurs besoins. Pour ce faire, ces organismes pourraient faire appel Ă  un expert en qualitĂ© qui pourrait les aider Ă  dĂ©terminer s'il y a adĂ©quation (i.e. qualitĂ© externe) entre les donnĂ©es et leurs besoins. Pour utiliser le systĂšme MUM, l'expert en qualitĂ© doit recueillir de l'information sur les jeux de donnĂ©es. Dans le domaine de la gĂ©omatique, cette information se retrouve gĂ©nĂ©ralement sous la forme de mĂ©tadonnĂ©es Ă©mises par les producteurs de donnĂ©es. Le systĂšme MUM, dĂ©veloppĂ© par Devillers et al. [2004b], a Ă©tĂ© conçu initialement en fonction d'une approche bottom-up, oĂč on utilise des mĂ©tadonnĂ©es fines pour extraire des indicateurs globaux de qualitĂ©, Ă  l'aide d'opĂ©rateurs d'agrĂ©gation typiques des outils SOLAP. Il s'agit lĂ  d'une solution qui permet de faciliter l'analyse de la qualitĂ©, particuliĂšrement dans des contextes de donnĂ©es hĂ©tĂ©rogĂšnes. Par contre, comme le mentionnent les concepteurs de MUM, le manque de mĂ©tadonnĂ©es fines est un obstacle Ă  l'utilisation du systĂšme MUM dans sa forme actuelle. L'objectif de la prĂ©sente recherche a donc Ă©tĂ© d'Ă©laborer une mĂ©thode de gĂ©nĂ©ration des mĂ©tadonnĂ©es dite top-down. Cette mĂ©thode permet de gĂ©nĂ©rer, lorsque possible, les mĂ©tadonnĂ©es fines (au niveau des occurrences, voire des primitives gĂ©omĂ©triques) d'un jeu de donnĂ©es Ă  l'aide des mĂ©tadonnĂ©es grossiĂšres et des opinions d'experts touchant un ensemble d'occurrences. Cette mĂ©thodologie amĂšne l'expert en qualitĂ© Ă  utiliser dans certains cas des sources de donnĂ©es diffĂ©rentes. Ceci soulĂšve alors un problĂšme concernant l'hĂ©tĂ©rogĂ©nĂ©itĂ© de la fiabilitĂ© des sources utilisĂ©es pour Ă©valuer la qualitĂ© externe. Le concept de mĂ©taqualitĂ© a Ă©tĂ© introduit pour rĂ©pondre Ă  ce problĂšme d'hĂ©tĂ©rogĂ©nĂ©itĂ©. Il permet en effet de quantifier le risque liĂ© Ă  l'imperfection de l'information contenue dans les indicateurs de qualitĂ©. L'enrichissement du systĂšme MUM a donc Ă©tĂ© rĂ©alisĂ© grĂące Ă  la conception du modĂšle E-QIMM (Extented Quality Information Management Model) qui est une extension du modĂšle QIMM de Devillers [2004] et qui permet d'intĂ©grer la dimension ± MĂ©taqualitĂ© Âż dans le processus d'Ă©valuation de la qualitĂ©

    La philosophie de la technologie blockchain - Ontologies

    Get PDF
    De la nĂ©cessitĂ© et de l'utilitĂ© de dĂ©velopper une philosophie spĂ©cifique pour la technologie de la blockchain, mettant l'accent sur les aspects ontologiques. AprĂšs une Introduction qui met en Ă©vidence les principales orientations philosophiques de cette technologie Ă©mergente, dans La technologie blockchain j’explique le fonctionnement de la blockchain, en analysant les directions de dĂ©veloppement ontologique de cette technologie dans Conception et modĂ©lisation. La section suivante est consacrĂ©e Ă  la principale application de la technologie de la blockchain, Bitcoin, avec les implications sociales de cette crypto-monnaie. Il suit une section de Philosophie dans laquelle j'identifie la technologie de la blockchain au concept d'hĂ©tĂ©rotopie dĂ©veloppĂ© par Michel Foucault et je l'interprĂšte Ă  la lumiĂšre de la technologie de notation dĂ©veloppĂ©e par Nelson Goodman en tant que systĂšme de notation. Dans la section Ontologie, je prĂ©sente deux voies de dĂ©veloppement que j'estime importantes: une Ontologie narrative, basĂ©e sur l'idĂ©e d'ordre et de structure de l'histoire transmise Ă  travers l'histoire narrative de Paul Ricoeur, et le systĂšme de l'Ontologie d'entreprise basĂ© sur des concepts et des modĂšles d'entreprise, spĂ©cifiques au Web sĂ©mantique, que je considĂšre comme le plus dĂ©veloppĂ© et qui deviendra probablement le systĂšme ontologique formel, du moins en ce qui concerne les aspects Ă©conomiques et juridiques de la technologie de la blockchain. Dans Conclusions, je parle des orientations futures du dĂ©veloppement de la philosophie de la technologie blockchain en gĂ©nĂ©ral en tant que thĂ©orie explicative et robuste d’un point de vue phĂ©nomĂ©nologique cohĂ©rent, qui permet la testabilitĂ© et les ontologies en particulier, en plaidant pour la nĂ©cessitĂ© de l’adoption globale d’un systĂšme ontologique afin de dĂ©velopper des solutions transversales et de rentabiliser cette technologie. SOMMAIRE: Abstract Introduction La technologie blockchain - Conception - ModĂšles Bitcoin Philosophie Ontologies - Ontologies narratives - Ontologies d'entreprise Conclusions Bibliographie Notes DOI: 10.13140/RG.2.2.22996.1472

    Fédération multi-sources en neurosciences : intégration de données relationnelles et sémantiques

    Get PDF
    National audienceLa fĂ©dĂ©ration et l'interrogation multi-sources de donnĂ©es est un besoin croissant. En neurosciences collaboratives, les entrepĂŽts de donnĂ©es sont hĂ©tĂ©rogĂšnes et ne peuvent ĂȘtre relocalisĂ©s hors des sites d'origine, pour des raisons historiques, juridiques ou Ă©thiques. Cet article prĂ©sente un systĂšme de recherche d'informations qui s'interface Ă  des entrepĂŽts de donnĂ©es multiples, hĂ©tĂ©rogĂšnes et distribuĂ©s. Ce systĂšme est Ă©valuĂ© dans le cadre d'une plateforme de neurosciences collaboratives dĂ©diĂ©e aux Ă©tudes cliniques multi-centriques en termes d'utilisabilitĂ© et de performance
    • 

    corecore