461 research outputs found

    Migração de sistemas legados para ambiente de suporte a projetos e operação

    Get PDF
    Orientador : Geovane Cayres MagalhãesDissertação (mestrado) - Universidade Estadual de Campinas, Instituto de ComputaçãoResumo: Sistemas de Informação são imprescindíveis nas grandes corporações. Particularmente nas áreas de suporte a projeto e operações de empresas de telecomunicações, os sistemas de informação são a grande vantagem competitiva. Estes sistemas devem ser :flexíveis, estáveis e confiáveis para suportar grandes volumes de transações em um cenário de missão crítica. Este, porém, não é o ambiente mais comum nas grandes empresas. A quantidade de sistemas in:flexíveis, sem documentação, com dados pouco confiáveis e com alto custo de evolução e manutenção é grande. A saída para este impasse está na migração destes sistemas legados para um ambiente de sistemas de informação com arquitetura aberta, ambiente distribuído e que possam ser utilizados por todas as áreas, estando integrados com os demais sistemas da empresa. A migração destes grandes sistemas legados de uma forma abrupta seria um fracasso principalmente em virtude do desconhecimento dos sistemas legados. A migração incremental destes sistemas é a mais apropriada nestes casos. Esta dissertação apresenta uma metodologia para migração de sistemas legados para ambientes de suporte a projetos e operação em etapas. A metodologia desenvolvida foi validada num caso prático no contexto do SAGRE - um sistema de suporte a operações, projetos e informações geográficas desenvolvido pelo CPqDAbstract: Information Systems are essential for corporations. Particularly at design and operational support areas of telecommunications companies, information systems are the competitive advantage. These systems must be :flexible, stable and reliable in order to support a great volume of transactions in a mission critical scenarÍo. This is not the common environment within corporations. There is an expressive amount of inflexible, nondocumented, unreliable systems which bear costly maintenance and evolution. The solution for this situation is the migration of these legacy systems into a new integrated and distributed environment that can also be used by other corporate systems. The abrupt migration ofthese systems could not be successful due to a lack ofknowledge about them. The incremental approach is more appropriate in these cases. This dissertation shows a methodology for migrating legacy systems that support design and operational environments in an incremental mode. The methodology is validated by a case study within the context of SAGRE - a system which support geographic operations, projects and information, developed by CPqDMestradoMestre em Ciência da Computaçã

    Captura de proveniência assíncrona em simulações computacionais

    Get PDF
    Large-scale computational simulations are computational experiments increasingly more processing intensive. Users and developers of this type of simulation generally analyze data during simulation execution. This is not a trivial task since largescale simulations are often performed in high-performance processing environments and can produce a large volume of data. Existing solutions, as DfAnalyzer, use provenance data to assist analysis with success. However, these systems use synchronous approaches to gather data that makes difficult to set up it and, mainly, interferes in the performance of the computational simulation. This dissertation proposes an approach to asynchronously collect provenance data making it available for analysis during the execution of the simulation with the least possible delay. In order to evaluate the proposed strategies, a tool, Asynchronous Dataflow Analyzer. This implementation extends DfAnalyzer to use the proposed asynchronous approach and to simplify the configuration process by making the prospective provenance definition process more flexible. The experimental results, with a soils sedimentation simulation, show that the tool is able to meet the needs of users of large-scale computational simulations with lower overloads than similar tools.Simulações computacionais em larga escala são experimentos computacionais cada vez com mais processamento de dados. Usuários e desenvolvedores deste tipo de simulação geralmente realizam análises sobre dados científicos durante a execução da simulação. Esta não é uma tarefa trivial, já que as simulações em larga escala costumam ser executadas em ambientes de processamento de alto desempenho e produzir grande volume de dados. Soluções existentes, como o DfAnalyzer, fazem uso de dados de proveniência para auxiliar esta análise com muito sucesso. No entanto, esses sistemas possuem abordagens síncronas de coleta de dados, o que dificulta a sua instalação e, principalmente, interfere no desempenho da simulação computacional. Esta dissertação propõe uma abordagem assíncrona de coleta de dados de proveniência com o objetivo de disponibilizar dados científicos para consulta durante a execução da simulação sem muito impacto no seu tempo de execução. Para validar as estratégias propostas, foi desenvolvida a ferramenta Asynchronous Dataflow Analyzer. A implementação realizada estende o DfAnalyzer para adotar o assincronismo proposto e simplifica a configuração do sistema por meio da flexibilização da gerência da proveniência prospectiva. Os resultados experimentais, com uma simulação de processos de sedimentação de solos, mostram que a ferramenta é capaz de atender as necessidades de análises de dados dos usuários de simulações computacionais com sobrecargas inferiores a ferramentas existentes

    Banco de dados de equipamentos: uma proposta para gerenciar bens patrimoniais de informática nas unidades da Embrapa.

    Get PDF
    Este trabalho descreve a proposta de um banco de dados de equipamentos de informática. Ele tem como objetivo informar ao usuário onde um determinado bem se encontra na unidade, assim como o responsável pelo equipamento, o número de patrimônio e demais dados pertinentes ao bem patrimonial. Em muitas situações, faz-se necessário localizar um determinado bem patrimonial, para fins de auditoria, substituição de equipamentos, manutenção, etc. Assim, informações precisas sobre um dado equipamento são necessárias para a administração de qualquer Unidade. O banco de dados de equipamentos permite inserir, remover, alterar e consultar dados pela Internet. O agente patrimonial é quem pode inserir, alterar e remover dados. Um usuário qualquer pode apenas consultar os dados. Assim, qualquer pessoa pode ver qualquer equipamento de informática sabendo-se apenas o número do patrimônio. Espera-se que este trabalho seja útil a todos os usuários que necessitarem gerenciar bens patrimoniais, localizar um equipamento, ou saber sobre sua disponibilidade.bitstream/CNPTIA/10204/1/doc37.pdfAcesso em: 29 maio 2008

    Evaluation of a main-memory database for use on web applications

    Get PDF
    Orientador: Luiz Eduardo BuzatoDissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de ComputaçãoResumo: Aplicações web são cada vez mais comuns em nosso cotidiano e com isto torna-se necessária a busca por soluções para a melhora do desempenho no acesso a essas aplicações. Várias técnicas existem para esta melhora de desempenho, entre elas a replicação de aplicações e bancos de dados e o uso de bancos de dados em memória principal. Em busca da melhora de desempenho pensa-se em juntar um banco de dados de memória principal com as técnicas de replicação. Para isto, é necessário escolher um banco de dados de memória principal que seja estável e já tenha bom desempenho, para que a camada de replicação possa ser implementada utilizando-o como base. Este trabalho tem o objetivo de analisar o desempenho de um banco de dados de memória principal e compará-lo com o desempenho de dois bancos de dados tradicionais. Os bancos de dados escolhidos foram: Monet, de memória principal, e MySQL e PostgreSQL, tradicionais. Para que uma medida de desempenho seja feita de modo que seja válida para o uso em aplicações web, o benchmark escolhido foi o TPC-W, que especifica a implementação de uma loja de livros e browsers emulados para acessar essa loja, de modo que é possível fazer uma análise de desempenho. Este trabalho irá mostrar um estudo sobre as teorias envolvidas e os resultados dos testes aplicados, em que o Monet não mostra ter um desempenho superior em todos os casos e nem está maduro o suficiente para ser usado na prática em replicação de aplicações web. Portanto, outras soluções baseadas em sistemas de gerência de persistência alternativos devem ser consideradasAbstract: Web applications are very common applications nowadays and it is necessary to find solutions for performance improvements for these applications. There are several ways to implement these performance improvements, including applications and databases replication and usage of main-memory databases. Looking for performance improvements we can think about using main-memory databases together with replication algorithms. In order to implement this, it is necessary to choose a main-memory database that are stable and with good performance to be used to implement a replication layer on it. The objective of this work is analyzing a main-memory database performance and compares it with the performance of two traditional databases. The database systems chosen were: Monet, as a main-memory database, and MySQL and PostgreSQL, as traditional databases. In order to have a benchmark that is valid for web applications usage we chose the TPC-W benchmark, which specifies a book store implementation and emulated browsers to access this shop, which allows an analysis on database performance. This work will show a study about theories involved and the results of executed tests, where Monet¿s performance does not seem to be better performance in most cases and Monet seems not be stable enough to be used on a real system for replication of web applications. Therefore, other solutions based on alternative persistence management systems should be considered.MestradoEngenharia de ComputaçãoMestre em Ciência da Computaçã

    Sistema de Gerência de Bancos de Dados baseado em Blockchain

    Get PDF
    TCC(graduação) - Universidade Federal de Santa Catarina. Centro Tecnológico. Ciências da Computação.No cenário atual percebe-se que, os Sistemas de Gerência de Bancos de Dados Distri- buídos, para realizarem escritas em diversos bancos de dados e manterem integridade, usam de técnicas de eleição de um nó responsável e este força com que os outros sejam atualizados de acordo com os pedidos aprovados pelo mesmo. Desse cenário pode decorrer os seguintes problemas: conseguindo-se adicionar clandestinamente um banco de dados no sistema ele poderia clonar os dados usados pelos demais, e após isso, quando conseguir se eleger poderia causar interrupções de escritas nos mesmos, pois poderia negar todas as requisições, por exemplo. Também poderia ocor- rer a situação de queda de rede onde precisa-se eleger um novo gerente repetidamente pois ela não está consistente para manter a conexão entre os bancos, resultando em problemas de integridade em nodos que não conseguirem se comunicar com o gerente atual. O objetivo deste trabalho é implementar uma Blockchain para evitar com que os bancos de dados distribuídos possuam um ponto único de falha, denominado “gerente de bancos”, evitando problemas como queda de rede de parte dos bancos, garantir a integridade e aumentar a segurança dos dados passados entre os bancos de dados além de possibilitar o uso de diferentes tecnologias de bancos de dados. O método escolhido é o uso de uma Blockchain para garantir que haja consenso entre todos os nodos da rede, evitando assim os erros citados acima ao mesmo tempo pois não é necessário um nodo central para a gerência dos dados assim como adicionando uma camada de proveniência de dados. O resultado esperado é uma Application Pro- gramming Interface que se comunique entre dois bancos de dados estudados e uma Blockchain desenvolvida e que realize a função de “gerente de bancos”.In the current scenario it is realized that Distributed Databases Management Systems when performing writes on multiple databases and maintain integrity, use election tech- niques that requires a responsible node it ensures others are updated in accordance with the requests approved by the responsible. From that scenario, the following prob- lems can arise: by getting clandestinely a database added into the system this database could clone the data used by the others, and after that, when getting elected as the responsible could cause written interruptions in them, for it could negate all requisitions, for example. It could also occur the situation where network drops and those databases need to elect a new manager repeatedly as it is not possible to maintain the connection between the banks, resulting in problems of integrity in nodes who are unable to com- municate with the current manager. The goal of the work is to implement a Blockchain to prevent distributed databases from owning a single point of failure, named "man- ager", avoiding problems such as falling network of part of banks, ensuring integrity and increasing the security of past data between databases beyond enabling the use of different database technologies. The chosen method is the use of a Blockchain to ensure that there is consensus among all nodes of the network, thus avoiding the errors cited above at the same time as no central nod is required for data management as well as adding a layer of data provenance. The expected result is an Application Program- ming Interface that communicates between two studied databases and a developed Blockchain and which performs the function of "manager"

    Geoprocessing as a support tool the management of forest roads pavement

    Get PDF
    O objetivo do trabalho foi utilizar as técnicas de geoprocessamento na aquisição, manipulação, espacialização e visualização de dados do padrão de qualidade de estradas florestais, e na confecção de mapas temáticos,com a identificação de pontos críticos para o transporte de madeira, servindo como subsídio para o desenvolvimento de um programa de manutenção preventivo e regular. Identificaram-se e avaliaram-se a integridade e as condições de operação de estradas florestais mediante levantamento contínuo de defeitos na superfície de rolamento e obtenção do ICRNP (índice de condição da rodovia não pavimentada). A base dedados georreferenciada, a alocação das unidades amostra e a espacialização da rede viária foram obtidas com auxílio da imagem do satélite CBERS II, modelo de elevação do terreno SRTM, e GPS. A identificação e a avaliação das rodovias, por meio de levantamentos detalhados em campo, demonstraram as condições da superfície de rolamento das rodovias, gerando informações sobre os trechos mais críticos e a intensidade de cada defeito, apontando ainda ações e base de custos para manutenção das estradas florestais. As técnicas de geoprocessamento, GPS, sensoriamento remoto e SIG mostraram-se como eficientes ferramentas para a interpretação, qualificação e quantificação de fenômenos naturais da região de estudo e para auxílio na gerência de pavimentos das estradas florestais. O SIG integrou os dados referentes aos padrões de operaçãoe manutenção das rodovias à base de dados georreferenciada, manipulando, espacializando e disponibilizando visualmente, por meio de mapas, as informações geradas.This purpose of this research was to apply geoprocessing techniques for data acquisition, preparation, georeference, and display for assessing quality standards of forest roads and mapping critical points of the timber transportation, which contribute to support the development of a pavement preventive and ordinaryma intenance program. First, the road pavement integrity and condition were assessed by conducting a continuous survey on road defects and estimating the NPRCI (Non-Paved Road Condition Index). The georeferenced data set, the sampling unit’s allocation, and the road network spatial location were conducted using satellite(CBERS-II) and SRTM imagery and GPS field data. The road identification and the assessment of pavement condition were based on a detailed field survey, which revealed the road pavement conditions and derived useful supporting information regarding the most critical parts of the forest road and its defect severity, also pointing out practical mea sures to fix them, estimating costs for the required road maintenance. The Geoprocessing techniques, GPS, remote sensing data set, and GIS showed to be efficient tools for identifying,mapping, and quantifying this natural phenomenon in the region being studied and may support the definition of maintenance program of nonpaved forest roads. Results showed that the GIS could integrate the data set containing standards of forest road ordinary operation and maintenance to a geographic database, which subsequently allowed to georeference, manipulate, and display this information on thematic maps
    corecore