11 research outputs found

    Mcredit2: Enhanced High-Performance Xen Scheduler via Dynamic Weight Allocation

    Get PDF
    Generally, operating only a single host on a single server results in hardware underutilization. Thus, hypervisors (e.g., Xen) have been developed to allow several hosts to operate on a single server. The Xen hypervisor provides processor schedulers (e.g., Credit and Credit2 schedulers) to assign processors to each host. The Credit2 scheduler provides work assurance to the domain relative to latency and it evenly assigns processors to each domain. In addition, the Credit2 scheduler can assign a weight value to each host. A greater host weight value allows processors to be assigned to a host for longer periods. However, the Credit2 scheduler shows poorer performance than the basic Credit scheduler, which utilizes idle processors. In this paper, we propose the Mcredit2 scheduler, which improves the Credit2 scheduler. The Credit2 scheduler takes no action when the load on a specific domain causes increased processor usage. The proposed Mcredit2 scheduler allows a domain to quickly process loads by temporarily assigning a greater weight value to a host with high processor usage. In addition, we introduce a processor monitoring tool that visualizes the processor usage

    Practical Implementation of the Virtual Organization Cluster Model

    Get PDF
    Virtualization has great potential in the realm of scientific computing because of its inherent advantages with regard to environment customization and isolation. Virtualization technology is not without it\u27s downsides, most notably, increased computational overhead. This thesis introduces the operating mechanisms of grid technologies in general, and the Open Science Grid in particular, including a discussion of general organization and specific software implementation. A model for utilization of virtualization resources with separate administrative domains for the virtual machines (VMs) and the physical resources is then presented. Two well-known virtual machine monitors, Xen and the Kernel-based Virtual Machine (KVM), are introduced and a performance analysis conducted. The High-Performance Computing Challenge (HPCC) benchmark suite is used in conjunction with independent High-Performance Linpack (HPL) trials in order to analyze specific performance issues. Xen was found to introduce much lower performance overhead than KVM, however, KVM retains advantages with regard to ease of deployment, both of the VMM itself and of the VM images. KVM\u27s snapshot mode is of special interest, as it allows multiple VMs to be instantiated from a single image located on a network store. With virtualization overhead shown to be acceptable for high-throughput computing tasks, the Virtual Organization Cluster (VOC) Model was implemented as a prototype. Dynamic scaling and multi-site scheduling extensions were also successfully implemented using this prototype. It is also shown that traditional overlay networks have scaling issues and that a new approach to wide-area scheduling is needed. The use of XMPP messaging and the Google App Engine service to implement a virtual machine monitoring system is presented. Detailed discussions of the relevant sections of the XMPP protocol and libraries are presented. XMPP is found to be a good choice for sending status information due to its inherent advantages in a bandwidth-limited NAT environment. Thus, it is concluded that the VOC Model is a practical way to implement virtualization of high-throughput computing tasks. Smaller VOCs may take advantage of traditional overlay networks whereas larger VOCs need an alternative approach to scheduling

    Securing Virtualized System via Active Protection

    Get PDF
    Virtualization is the predominant enabling technology of current cloud infrastructure

    COMPARACIÓN DE TECNOLOGÍAS DE VIRTUALIZACIÓN PARA OPTIMIZAR LA INFRAESTRUCTURA DE SERVIDORES EN UN CENTRO DE DATOS

    Get PDF
    Las virtualizaciones de servidores ayudan a las empresas a brindar un buen servicio a sus clientes y usuarios finales, dando seguridad y confiabilidad, esto representa un gran logro para las tecnólogas de la información. Las diferentes ventajas que brinda la virtualización de servidores, hacen que se convierta en una opción más agradable para los encargados de TICs por que ha permitido mejorar sus recursos y su eficiencia. La metodología empleada en esta investigación fue desarrollada de acuerdo a los objetivos y variables propuestos utilizando como objeto de estudio la Universidad Señor de Sipán, para poder generar un prototipo de acuerdo a lo observado y llevarlo a un entorno simulado, obteniendo las pruebas y conclusiones, todo esto se ha dado con el fin de mejorar los servicios que estos brindan , reducir los costos de operación y aumentar la seguridad de red informática y disponibilidad se los servicios que esta brindan.Tesi

    Avaliação de algoritmos de escalonamento de disco com qualidade de serviço em ambientes virtualizados

    Get PDF
    Resumo: Virtualização e uma técnica utilizada em diversas áreas de conhecimento, cada qual com seu objetivo específico. Porém todas possuem um ponto em comum: definem a virtualização como uma forma de abstrair um ambiente físico em um ambiente lógico. O foco deste trabalho e a virtualização de servidores. No contexto de virtualização de servidores, máquinas virtuais (VMs) possuem estudos bem definidos para os componentes processador, memória e rede. O componente disco ainda é alvo de pesquisas, pois discos virtuais adicionam novas características aos sistemas tradicionais de armazenamento. A virtualização de servidores deve permitir e gerenciar a execução de VMs simultaneamente. Com a execução simultânea, é necessário disponibilizar meios de controlar o uso do sistema, como a Qualidade de Serviço (QoS). A QoS surgiu como forma de priorizar determinados atributos de utilização em redes de computadores, mas pode ser expandida a qualquer canal de comunicação. Esta dissertação faz o levantamento dos requisitos necessários para se considerar processos de máquinas virtuais no escalonamento de requisições de disco. O objetivo é escalonar as requisições dos discos virtuais no sistema base e oferecer atributos de QoS diferentes para máquinas virtuais distintas. Como forma de avaliação, um algo ritmo para disco físico (HTBS) e adaptado para considerar VMs. O algoritmo resultante é comparado aos escalonadores de disco padrão do Linux

    Options for providing connectivity of virtual and real computers

    Get PDF
    Virtualization has enabled the development of cloud computing, which during the last couple of years, has increasingly become one of the most important Information Technology trends. With the numerous advantages afforded by virtualization and cloud computing, users can virtualize an increasing percentage of the existing IT infrastructure. However, there are cases where this cannot be done. Should this happen, it is often imperative to provide at least network connectivity for cloud infrastructures with the physical infrastructure in such a way as to guarantee that they are both located in the same local area network at these times. The Master’s Thesis first examines the field itself and the matter of existing technologies: virtualization, SDN, NV, NFV, as well as open-source cloud platforms. We have drawn up an overview of the user isolating mechanisms used for isolating the Layer 2 and Layer 3 networks through the use of virtual networks, software virtual switches, various software plugins and tunnelling protocols. We looked at various models and architectures which would enable a safe integration with the cloud infrastructure, especially its virtualized component, with physical IT infrastructure. We used practical examples to ascertain how such interfaces and communication can be allowed for networking and communication between virtual computers and the physical infrastructure, also looking into the orchestration and automation of the procedures employed in setting up such architectures. Our work mainly centred on the most frequently used open-source cloud platform, i.e. the OpenStack. In the end, we identified the limitations and shortcomings of various existing models and architecture, and evaluated the production maturity of individual possible solutions for linking the physical and virtual infrastructure

    Performance et qualité de service de l'ordonnanceur dans un environnement virtualisé

    Get PDF
    Confrontées à l'augmentation des coûts de mise en place et de maintenance des systèmes informatiques, les entreprises se tournent vers des solutions d'externalisation telles que le Cloud Computing. Le Cloud se basent sur la virtualisation comme principale technologie permettant la mutualisation. L'utilisation de la virtualisation apporte de nombreux défis donc les principaux portent sur les performances des applications dans les machines virtuelles (VM) et la prévisibilité de ces performances. Dans un système virtualisé, les ressources matérielles sont partagées entre toutes les VMs du système. Dans le cas du CPU, c'est l'ordonnanceur de l'hyperviseur qui se charge de le partager entre tous les processeurs virtuels (vCPU) des VMs. L'hyperviseur réalise une allocation à temps partagé du CPU entre tous les vCPUs des VMs. Chaque vCPU a accès au CPU périodiquement. Ainsi, les vCPUs des VMs n'ont pas accès de façon continue au CPU, mais plutôt discontinue. Cette discontinuité est à l'origine de nombreux problèmes sur des mécanismes tels que la gestion d'interruption et les mécanismes de synchronisation de bas niveau dans les OS invités. Dans cette thèse, nous proposons deux contributions pour répondre à ces problèmes dans la virtualisation. La première est un nouvel ordonnanceur de l'hyperviseur qui adapte dynamiquement la valeur du quantum dans l'hyperviseur en fonction du type des applications dans les VMs sur une plate-forme multi-coeurs. La seconde contribution est une nouvelle primitive de synchronisation (nommée I-Spinlock) dans l'OS invité. Dans un Cloud fournissant un service du type IaaS, la VM est l'unité d'allocation. Le fournisseur établit un catalogue des types de VMs présentant les différentes quantités de ressources qui sont allouées à la VM vis-à-vis des différents périphériques. Ces ressources allouées à la VM correspondent à un contrat sur une qualité de service négocié par le client auprès du fournisseur. L'imprévisibilité des performances est la conséquence de l'incapacité du fournisseur à garantir cette qualité de service. Deux principales causes sont à l'origine de ce problème dans le Cloud: (i) un mauvais partage des ressources entre les différentes VMs et (ii) l'hétérogénéité des infrastructures dans les centres d'hébergement. Dans cette thèse, nous proposons deux contributions pour répondre au problème d'imprévisibilité des performances. La première contribution s'intéresse au partage de la ressource logicielle responsable de la gestion des pilotes, et propose une approche de facturation du temps CPU utilisé par cette couche logiciel aux VMs. La deuxième contribution s'intéresse à l'allocation du CPU dans les Clouds hétérogènes. Dans cette contribution, nous proposons une approche d'allocation permettant de garantir la capacité de calcul allouée à une VM quelle que soit l'hétérogénéité des CPUs dans l'infrastructure

    Gestion de ressources de façon "éco-énergétique" dans un système virtualisé : application à l'ordonnanceur de marchines virtuelles

    Get PDF
    Face au coût de la gestion locale des infrastructures informatiques, de nombreuses entreprises ont décidé de la faire gérer par des fournisseurs externes. Ces derniers, connus sous le nom de IaaS (Infrastructure as a Service), mettent des ressources à la disposition des entreprises sous forme de machine virtuelle (VM - Virtual Machine). Ainsi, les entreprises n'utilisent qu'un nombre limité de machines virtuelles capables de satisfaire leur besoin. Ce qui contribue à la réduction des coûts de l'infrastructure informatique des entreprises clientes. Cependant, cette externalisation soulève pour le fournisseur, les problèmes de respect d'accord de niveau de service (SLA - Service Layer Agreement) souscrit par le client et d'optimisation de la consommation énergétique de son infrastructure. Au regard de l'importance que revêt ces deux défis, de nombreux travaux de recherches se sont intéressés à cette problématique. Les solutions de gestion d'énergie proposées consistent à faire varier la vitesse d'exécution des périphériques concernés. Cette variation de vitesse est implémentée, soit de façon native parce que le périphérique dispose des mécaniques intégrés, soit par simulation à travers des regroupements (spatial et temporel) des traitements. Toutefois, cette variation de vitesse permet d'optimiser la consommation énergétique d'un périphérique mais, a pour effet de bord d'impacter le niveau de service des clients. Cette situation entraine une incompatibilité entre les politiques de variation de vitesse pour la baisse d'énergie et le respect de l'accord de niveau de service. Dans cette thèse, nous étudions la conception et l'implantation d'un gestionnaire de ressources "éco énergétique" dans un système virtualisé. Un tel gestionnaire doit permettre un partage équitable des ressources entre les machines virtuelles tout en assurant une utilisation optimale de l'énergie que consomment ces ressources. Nous illustrons notre étude avec un ordonnanceur de machines virtuelles. La politique de variation de vitesse est implantée par le DVFS (Dynamic Voltage Frequency Scaling) et l'allocation de la capacité CPU aux machines virtuelles l'accord de niveau de service à respecter
    corecore