10 research outputs found

    PET-Redação: o uso do blog como estratégia para impulsionar o alcance de uma página Web

    Get PDF
    This paper presents some strategies and methods used by the Tutorial Education Program of the Computer Information Systems course (PET-SI) in the development of a project named PET-Redação. Through this project it was possible to boost the reach of the group to the community outside the university, as well as to promote the PET through publications of technological nature. Due to periodicity and relevance of the posts, the range of the group’s website has increased considerably: about 500% in the number of visitors. Besides, the PET-Redação encouraged the members of the group to search for new forms of knowledge, and so complementing the academic background of the students.Este trabalho tem por objetivo apresentar estratégias e métodos adotados pelo Programa de Educação Tutorial do curso de Sistemas de Informação (PET-SI) na implantação do projeto PET-Redação. Através deste projeto foi possı́vel impulsionar o alcance da página do grupo para a comunidade externa a universidade, além de promover o nome do PET por meio de publicações de cunho tecnológico acerca de assuntos pertinentes ao público geral. Devido à periodicidade e relevância das postagens, o alcance do website aumentou consideravelmente - cerca de 500% da quantidade de visitantes desde a primeira edição. Este fator incentivou os membros do grupo a escrever e buscar por novos conhecimentos, complementando a formação acadêmica dos estudantes

    O Balanceamento de Réplicas no HDFS frente a aplicações com uso intensivo de E/S, dados e CPU

    No full text
    International audienceA replicação de dados é essencial para o sistema de arquivos distribuído do Apache Hadoop (HDFS). Para garantir alta confiabilidade, disponibilidade e desempenho, as réplicas precisam estar armazenadas de forma otimizada pelos nodos do cluster. Entretanto, quando os nodos armazenam quantidades desproporcionais de dados, o funcionamento do sistema é afetado. Visando mitigar os problemas inerentes do desbalanceamento de réplicas, o HDFS Balancer é a solução oficial disponibilizada para a redistribuição dos dados já armazenados no cluster. Neste trabalho, nós avaliamos a efetividade do HDFS Balancer e como o sistema de arquivos explora a localidade dos dados em diferentes situações. Para uma análise aprofundada, aplicações com comportamentos distintos foram consideradas. Os resultados demonstram que o balanceamento de réplicas possibilita otimizações de desempenho significativas no HDFS

    Métricas e Critérios de Disparo para Instrumentar o Balanceamento de Réplicas no HDFS

    No full text
    International audienceO HDFS Balancer é a solução nativa do Apache Hadoop para o balanceamento de dados por meio de rearranjo de réplicas. Atualmente, é responsabilidade do administrador do sistema monitorar o estado do HDFS e, quando necessário, executar o balanceador. Este trabalho elenca um conjunto de métricas de interesse e critérios de disparo para que o processo de balanceamento de réplicas no HDFS se torne transparente. Por meio das definições apresentadas, as decisões do melhor momento para disparo do HDFS Balancer podem ser automatizadas, removendo a necessidade de intervenção manual

    Estratégia Reativa e Orientada a Eventos para o Balanceamento de Réplicas em um Cluster HDFS

    No full text
    International audienceO HDFS Balancer é a solução oficial para o balanceamento de réplicas no sistema de arquivos distribuído do Hadoop (HDFS). Atualmente, é responsabilidade do administrador do cluster monitorar o estado do sistema e, quando julgar necessário, disparar a execução do balanceador. A configuração e disparo sob demanda do HDFS Balancer, entretanto, apresentam limitações e podem comprometer o propósito do processo. Este trabalho apresenta uma estratégia para o balanceamento reativo que toma ações automáticas baseadas no estado de atividade e inatividade dos nodos. Os resultados obtidos demonstraram que a solução é capaz de reagir adequadamente a eventos de adição e redução de nodos, promovendo o balanceamento de réplicas no HDFS

    A practical analysis of balancing policies for rearranging data replicas in HDFS clusters

    No full text
    International audienceData replication is the main fault tolerance mechanism implemented by the HDFS. The placement of the replicated data across the nodes directly influences replica balancing and data locality, which are essential to ensure high reliability and data availability. The HDFS Balancer is the official solution to perform replica balancing through data redistribution. In this work, we conducted a practical experiment to evaluate different policies for replica rearrangement, namely: datanode, blockpool, and custom. The evaluation results underline the behavior and the effectiveness of each policy. In addition, we investigated the cost of the HDFS Balancer operation and the performance and availability improvements promoted by a balanced replica distribution

    The HDFS Replica Placement Policies: A Comparative Experimental Investigation

    No full text
    International audienc

    Gerenciamento Dinâmico de Memória em Aplicações com Reutilização de RDDs no Spark

    No full text
    International audienceO framework Apache Spark utiliza o algoritmo LRU (Least Recently Used) para a remoção de partições de RDDs (Resilient Distributed Datasets) em caso de sobrecarga da memória. Embora suponha que partições recentemente utilizadas sejam acessadas em um futuro próximo, o LRU pode degradar o desempenho de aplicações com acessos cíclicos à memória em que a quantidade de dados manipulados excede o espaço disponível. Este trabalho apresenta o DMM (Dynamic Memory Management), um modelo de Gerenciamento Dinâmico de Memória que verifica a necessidade de remoção de partições, instrumentando a execução de aplicações e identificando o bloco a ser removido, com base na reutilização dos RDDs. Os experimentos conduzidos demonstram que o DMM pode reduzir significativamente o tempo médio de execução da aplicação quando comparado ao algoritmo LRU nativamente implementado pelo Spark, provendo assim uma melhor utilização da memória e possibilitando maior estabilidade na execução das aplicações no cluster

    Café com Especialista e Conexão Sistemas: PET-SI promovendo discussão e diálogo entre alunos, professores e profissionais da Informática

    No full text
    O Programa de Educação Tutorial dentro dos cursos em que está inserido visa qualificar a formação dos alunos através de atividades de ensino, pesquisa e extensão. Especialmente na área da Computação, frequentemente surgem novas tecnologias, pesquisas e assuntos a serem abordados. Portanto, é essencial que o grupo encontre, junto à comunidade acadêmica, formas de se adaptar a essas mudanças e conhecer o que de fato está acontecendo na área. Algumas atividades específicas promovidas pelo grupo visam essencialmente as questões de adaptação dos profissionais que serão formados pelo curso através de debates e conversas informais com profissionais do meio
    corecore