97 research outputs found

    Living objects: towards flexible big data sharing

    Get PDF
    Data sharing and especially enabling third parties to build new services using large amounts of shared data is clearly a trend for the future and a main driver for innovation. However, sharing data is a challenging and involved process today: The owner of the data wants to maintain full and immediate control on what can be done with it, while users are interested in offering new services which may involve arbitrary and complex processing over large volumes of data. Currently, flexibility in building applications can only be achieved with public or non-sensitive data, which is released without restrictions. In contrast, if the data provider wants to impose conditions on how data is used, access to data is centralized and only predefined functions are provided to the users. We advocate for an alternative that takes the best of both worlds: distributing control on data among the data itself to provide flexibility to consumers. To this end, we exploit the well-known concept of object, an abstraction that couples data and code, and make it act and react according to the circumstances.Facultad de Informátic

    Living objects: towards flexible big data sharing

    Get PDF
    Data sharing and especially enabling third parties to build new services using large amounts of shared data is clearly a trend for the future and a main driver for innovation. However, sharing data is a challenging and involved process today: The owner of the data wants to maintain full and immediate control on what can be done with it, while users are interested in offering new services which may involve arbitrary and complex processing over large volumes of data. Currently, flexibility in building applications can only be achieved with public or non-sensitive data, which is released without restrictions. In contrast, if the data provider wants to impose conditions on how data is used, access to data is centralized and only predefined functions are provided to the users. We advocate for an alternative that takes the best of both worlds: distributing control on data among the data itself to provide flexibility to consumers. To this end, we exploit the well-known concept of object, an abstraction that couples data and code, and make it act and react according to the circumstances.Facultad de Informátic

    Living objects: towards flexible big data sharing

    Get PDF
    Data sharing and especially enabling third parties to build new services using large amounts of shared data is clearly a trend for the future and a main driver for innovation. However, sharing data is a challenging and involved process today: The owner of the data wants to maintain full and immediate control on what can be done with it, while users are interested in offering new services which may involve arbitrary and complex processing over large volumes of data. Currently, flexibility in building applications can only be achieved with public or non-sensitive data, which is released without restrictions. In contrast, if the data provider wants to impose conditions on how data is used, access to data is centralized and only predefined functions are provided to the users. We advocate for an alternative that takes the best of both worlds: distributing control on data among the data itself to provide flexibility to consumers. To this end, we exploit the well-known concept of object, an abstraction that couples data and code, and make it act and react according to the circumstances.Facultad de Informátic

    Sistema de virtualización con recursos distribuidos

    Get PDF
    Si bien los Sistemas Operativos disponen de características de seguridad, protección, gestión de recursos, etc. éstas parecen ser insuficientes para satisfacer los requerimientos de los sistemas informáticos actuales. Las tecnologías de virtualización existentes han sido y continúan siendo masivamente adoptadas para cubrir esas necesidades de los sistemas y aplicaciones por sus características de particionado de recursos, aislamiento, capacidad de consolidación, seguridad, soporte de aplicaciones heredadas, facilidades de administración, etc. Una limitante de las tecnologías de virtualización tradicionales es que el poder de cómputo de una Máquina Virtual está limitado al poder de cómputo de la máquina física que la contiene. Por otro lado, los Sistemas Operativos Distribuidos de Imagen Unica ofrecen un poder de cómputo que integra en forma transparente los recursos computacionales de los nodos que constituyen un cluster. Sus características de transparencia evita la reprogramación de las aplicaciones heredadas que fueron desarrolladas para sistemas centralizados. La línea de I/D aquí presentada se orienta hacia un Sistema de Virtualización con Recursos Distribuidos que permita construir Máquina Virtuales con mayor poder de cómputo que una máquina física combinando e integrando las tecnologías de virtualización y Sistemas Operativos Distribuidos de Imagen Unica.Eje: Arquitectura, Redes y Sistemas OperativosRed de Universidades con Carreras en Informática (RedUNCI

    Un mecanismo de IPC de microkernel embebido en el kernel de Linux

    Get PDF
    Existe una marcada tendencia en la industria de comercializar procesadores con múltiples núcleos, conocidos como multi-cores. Se prevé que en el mediano plazo la cantidad de núcleos aumente significativamente hasta miles de núcleos por procesador denominados many-cores. Esta tendencia requiere de sistemas operativos (OS) que puedan aprovechar éstas tecnologías y que adapten su funcionamiento de tal forma de que no se transformen en el cuello de botella de las aplicaciones que ejecutan sobre ellos como consecuencia de la contención de los recursos que comparten. Los OS basados en microkernel, los OS multi-kernel, algunos exokernels, y ciertas tecnologías de virtualización ofrecen ventajas significativas en su diseño para su adaptación a sistemas many-cores. Estas arquitecturas requieren de un mecanismo de transferencia de mensajes para comunicar entidades tales como procesos, hilos, kernels o máquinas virtuales. En este artículo se presentan el trabajo de investigación y desarrollo de un mecanismo de IPC basado en Minix 3 (denominado M3-IPC) embebido dentro del kernel de Linux. M3-IPC permite incorporar servicios de un OS basado en microkernel (Minix) dentro de un OS monolítico (Linux) conformando un sistema híbrido donde pueden convivir aplicaciones y servicios de ambas arquitecturas y adaptarlos de manera no abrupta a los sistemas many-cores.Eje: Arquitectura, Redes y Sistemas OperativosRed de Universidades con Carreras en Informática (RedUNCI

    Un sistema de virtualización distribuida

    Get PDF
    Este trabajo refiere a los avances, logros alcanzados y planes de investigación futuros sobre el proyecto del Sistema de Virtualización de Recursos Distribuidos presentado en WICC 2012 [1]. En las tecnologías de virtualización actuales, la potencia de cómputo y el uso de recursos de las máquinas virtuales se limitan a la máquina física donde se ejecutan. Para alcanzar otros niveles de rendimiento y escalabilidad, las aplicaciones Cloud suelen estar particionadas en varias VMs o Contenedores ubicados en diferentes nodos de un cluster de virtualización. Los desarrolladores a menudo usan ese modelo de procesamiento porque sus aplicaciones no pueden hacer uso de los servicios de la misma instancia del Sistema Operativo (OS) en todos los nodos donde se ejecutan suscomponentes. El sistema propuesto combina e integra tecnologías de Virtualización y Sistemas Distribuidos que puede proporcionar la misma instancia de un Sistema Operativo Virtual (VOS) en cada nodo del clúster. El resultado es un Sistema de Virtualización Distribuida (DVS) con los beneficios de ambos mundos, adecuado para ofrecer servicios Cloud de alto rendimiento y con posibilidades de ofrecer otras características que son requeridas por los proveedores de IaaS. Un DVS es capaz de ejecutar concurrentemente múltiples instancias de diferentes VOS, asignando un subconjunto de nodos para cada instancia, y a su vez compartiendo nodos entre ellas.Eje: Arquitectura, Redes y Sistemas Operativos.Red de Universidades con Carreras en Informática (RedUNCI

    An IPC Software Layer for Building a Distributed Virtualization System

    Get PDF
    Hardware virtualization technologies were principally designed for server consolidation, allowing multiple Operating Systems instances to be colocated on a single physical computer. But, IaaS providers always need higher levels of performance, scalability and availability for their virtualization services. These requirements could be met by a distributed virtualization technology, which extends the boundaries of a virtualization abstraction beyond a host. As a distributed system, it depends on the communications between its components scattered in several nodes of a virtualization cluster. This work contributes M3- IPC, an IPC software layer designed to facilitate the development of an OS-based distributed virtualization.XII Workshop de Arquitecturas, Redes y Sistemas Opearativos (WARSO).Red de Universidades con Carreras en Informática (RedUNCI

    Beyond The Cloud, How Should Next Generation Utility Computing Infrastructures Be Designed?

    Get PDF
    To accommodate the ever-increasing demand for Utility Computing (UC) resources, while taking into account both energy and economical issues, the current trend consists in building larger and larger data centers in a few strategic locations. Although such an approach enables to cope with the actual demand while continuing to operate UC resources through centralized software system, it is far from delivering sustainable and efficient UC infrastructures. We claim that a disruptive change in UC infrastructures is required: UC resources should be managed differently, considering locality as a primary concern. We propose to leverage any facilities available through the Internet in order to deliver widely distributed UC platforms that can better match the geographical dispersal of users as well as the unending demand. Critical to the emergence of such locality-based UC (LUC) platforms is the availability of appropriate operating mechanisms. In this paper, we advocate the implementation of a unified system driving the use of resources at an unprecedented scale by turning a complex and diverse infrastructure into a collection of abstracted computing facilities that is both easy to operate and reliable. By deploying and using such a LUC Operating System on backbones, our ultimate vision is to make possible to host/operate a large part of the Internet by its internal structure itself: A scalable and nearly infinite set of resources delivered by any computing facilities forming the Internet, starting from the larger hubs operated by ISPs, government and academic institutions to any idle resources that may be provided by end-users. Unlike previous researches on distributed operating systems, we propose to consider virtual machines (VMs) instead of processes as the basic element. System virtualization offers several capabilities that increase the flexibility of resources management, allowing to investigate novel decentralized schemes.Afin de supporter la demande croissante de calcul utilitaire (UC) tout en prenant en compte les aspects énergétique et financier, la tendance actuelle consiste à construire des centres de données (ou centrales numériques) de plus en plus grands dans un nombre limité de lieux stratégiques. Cette approche permet sans aucun doute de satisfaire la demande tout en conservant une approche centralisée de la gestion de ces ressources mais elle reste loin de pouvoir fournir des infrastructures de calcul utilitaire efficaces et durables. Après avoir indiqué pourquoi cette tendance n'est pas appropriée, nous proposons au travers de ce rapport, une proposition radicalement différente. De notre point de vue, les ressources de calcul utilitaire doivent être gérées de manière à pouvoir prendre en compte la localité des demandes dès le départ. Pour ce faire, nous proposons de tirer parti de tous les équipements disponibles sur l'Internet afin de fournir des infrastructures de calcul utilitaire qui permettront de part leur distribution de prendre en compte plus efficacement la dispersion géographique des utilisateurs et leur demande toujours croissante. Un des aspects critique pour l'émergence de telles plates-formes de calcul utilitaire ''local'' (LUC) est la disponibilité de mécanismes de gestion appropriés. Dans la deuxième partie de ce document, nous défendons la mise en oeuvre d'un système unifié gérant l'utilisation des ressources à une échelle sans précédent en transformant une infrastructure complexe et hétérogène en une collection d'équipements virtualisés qui seront à la fois plus simples à gérer et plus sûrs. En déployant un système de type LUC sur les coeurs de réseau, notre vision ultime est de rendre possible l'hébergement et la gestion de l'Internet sur sa propre infrastructure interne: un ensemble de ressources extensible et quasiment infini fourni par n'importe quel équipement constituant l'Internet, partant des gros noeud réseaux gérés par les ISPs, les gouvernements et les institutions acadèmiques jusqu'à n'importe quelle ressource inactive fournie par les utilisateurs finaux. Contrairement aux approches précédentes appliquées aux systèmes distribués, nous proposons de considérer les machines virtuelles comme la granularité élémentaire du système (à la place des processus). La virtualisation système offre plusieurs fonctionnalités qui améliorent la flexibilité de la gestion de ressources, permettant l'étude de nouveaux schémas de décentralisation
    • …
    corecore