175 research outputs found

    Garantia de privacidade na exploração de bases de dados distribuídas

    Get PDF
    Anonymisation is currently one of the biggest challenges when sharing sensitive personal information. Its importance depends largely on the application domain, but when dealing with health information, this becomes a more serious issue. A simpler approach to avoid this disclosure is to ensure that all data that can be associated directly with an individual is removed from the original dataset. However, some studies have shown that simple anonymisation procedures can sometimes be reverted using specific patients’ characteristics, namely when the anonymisation is based on hidden key attributes. In this work, we propose a secure architecture to share information from distributed databases without compromising the subjects’ privacy. The work was initially focused on identifying techniques to link information between multiple data sources, in order to revert the anonymization procedures. In a second phase, we developed the methodology to perform queries over distributed databases was proposed. The architecture was validated using a standard data schema that is widely adopted in observational research studies.A garantia da anonimização de dados é atualmente um dos maiores desafios quando existe a necessidade de partilhar informações pessoais de carácter sensível. Apesar de ser um problema transversal a muitos domínios de aplicação, este torna-se mais crítico quando a anonimização envolve dados clinicos. Nestes casos, a abordagem mais comum para evitar a divulgação de dados, que possam ser associados diretamente a um indivíduo, consiste na remoção de atributos identificadores. No entanto, segundo a literatura, esta abordagem não oferece uma garantia total de anonimato, que pode ser quebrada através de ataques específicos que permitem a reidentificação dos sujeitos. Neste trabalho, é proposta uma arquitetura que permite partilhar dados armazenados em repositórios distribuídos, de forma segura e sem comprometer a privacidade. Numa primeira fase deste trabalho, foi feita uma análise de técnicas que permitam reverter os procedimentos de anonimização. Na fase seguinte, foi proposta uma metodologia que permite realizar pesquisas em bases de dados distribuídas, sem que o anonimato seja quebrado. Esta arquitetura foi validada sobre um esquema de base de dados relacional que é amplamente utilizado em estudos clínicos observacionais.Mestrado em Ciberseguranç

    Um modelo para compartilhamento de bases de dados distribuídas e heterogêneas

    Get PDF
    Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da ComputaçãoEste trabalho faz uma avaliação dos recursos disponíveis para viabilizar a interoperabilidade de bases de dados distribuídas e heterogêneas e propõe um modelo alternativo para a solução do problema. O modelo proposto se apresenta como definição metodológica, possível de ser implementado em qualquer ambiente operacional e aplicável em qualquer base de dados. O objetivo deste trabalho é mostrar que as alternativas disponíveis para solucionar esta problemática, quando já implementadas, apresentam um alto grau de complexidade e não atendem adequadamente todas as demandas relacionadas com a interoperabilidade de bases de dados distribuídas e heterogêneas. O trabalho apresenta uma proposta de mediador, modelado em UML (Unified Modeling Language), que permite a interoperabilidade entre bases de dados distribuídas e heterogêneas. Também é apresentada a implementação do modelo, onde são exploradas as características, comportamento e avaliada sua aplicabilidade em diferentes ambientes operacionais e linguagens de programação

    Mapeamento de qualidade de experiência (QOE) através de qualidade de serviço (QOS) focado em bases de dados distribuídas

    Get PDF
    Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2017.A falta de conceitualização congruente sobre qualidade de serviço (QoS) para bases de dados (BDs) foi o fator que impulsionou o estudo resultante nesta tese. A definição de QoS como uma simples verificação de se um nó corre risco de falha devido ao número de acessos, como faziam, na época do levantamento bibliométrico desta tese, alguns sistemas comerciais, era uma simplificação exagerada para englobar um conceito tão complexo. Outros trabalhos que dizem lidar com estes conceitos também não são exatos, em termos matemáticos, e não possuem definições concretas ou com qualidade passível de utilização ou replicação, o que torna inviável sua aplicação ou mesmo verificação. O foco deste estudo é direcionado à bases de dados distribuídas (BDDs), de maneira que a conceitualização aqui desenvolvida é também compatível, ao menos parcialmente, com modelos não distribuídos de BDs. As novas definições de QoS desenvolvidas são utilizadas para se lidar com o conceito correlacionado de qualidade de experiência (QoE), em uma abordagem em nível de sistema focada em completude de QoS. Mesmo sendo QoE um conceito multidimensional, difícil de ser mensurado, o foco é mantido em uma abordagem passível de mensuramento, de maneira a permitir que sistemas de BDDs possam lidar com autoavaliação. A proposta de autoavaliação surge da necessidade de identificação de problemas passíveis de autocorreção. Tendo-se QoS bem definida, de maneira estatística, pode-se fazer análise de comportamento e tendência comportamental de maneira a se inferir previsão de estados futuros, o que permite o início de processo de correção antes que se alcance estados inesperados, por predição estatística. Sendo o objetivo geral desta tese a definição de métricas de QoS e QoE, com foco em BDDs, lidando com a hipótese de que é possível se definir QoE estatisticamente com base em QoS, para propósitos de nível de sistema. Ambos os conceitos sendo novos para BDDs quando lidando com métricas mensuráveis exatas. E com estes conceitos então definidos, um modelo de recuperação arquitetural é apresentado e testado para demonstração de resultados quando da utilização das métricas definidas para predição comportamental.Abstract : The hitherto lack of quality of service (QoS) congruent conceptualization to databases (DBs) was the factor that drove the initial development of this thesis. To define QoS as a simple verification that if a node is at risk of failure due to memory over-commitment, as did some commercial systems at the time that was made the bibliometric survey of this thesis, it is an oversimplification to encompass such a complex concept. Other studies that quote to deal with this concept are not accurate and lack concrete definitions or quality allowing its use, making infeasible its application or even verification. Being the focus targeted to distributed databases (DDBs), the developed conceptualization is also compatible, at least partially, with models of non-distributed DBs. These newfound QoS settings are then used to handle the correlated concept of quality of experience (QoE) in a system-level approach, focused on QoS completeness. Being QoE a multidimensional concept, hard to be measured, the focus is kept in an approach liable of measurement, in a way to allow DDBs systems to deal with self-evaluation. The idea of self-evaluation arises from the need of identifying problems subject to self-correction. With QoS statistically well-defined, it is possible to analyse behavior and to indetify tendencies in order to predict future states, allowing early correction before the system reaches unexpected states. Being the general objective of this thesis the definition of metrics of QoS and QoE, focused on DDBs, dealing with the hypothesis that it is possible to define QoE statistically based on QoS, for system level purposes. Both these concepts being new to DDBs when dealing with exact measurable metrics. Once defined these concepts, an architectural recovering model is presented and tested to demonstrate the results when using the metrics defined for behavioral prediction

    A regulação sobre os treinamentos na aviação civil: assimetria de informação e o uso de blockchain como alternativa para os registros educacionais.

    Get PDF
    Este trabalho consiste numa pesquisa exploratória de cunho qualitativo que se destina a avaliar os procedimentos de controle sobre o licenciamento e a formação dos profissionais de aviação civil. Através da técnica de observação participante em conjunto com entrevistas com o pessoal-chave, envolvido na regulação do setor, será constatada a presença de assimetrias informacionais nos procedimentos de controle e supervisão dos treinamentos, indicando a necessidade de melhoria do modelo implementado na aviação brasileira para a efetivação dos objetivos de segurança operacional propostos pelo agente regulador. Como uma possível resposta ao problema, será procedida uma pesquisa sobre as boas práticas para os registros educacionais, com foco na substituição dos documentos em papel e dos arquivos digitais não interoperáveis atualmente empregados. Ao fim, o trabalho apontará caminhos para a melhoria do desenho regulatório utilizado para transacionar as informações sobre a educação dos profissionais, propondo a utilização da tecnologia de blockchain como uma alternativa promissora, em razão das características aplicadas na construção dos seus modelos de bases de dados distribuídas.44 páginasGovernanç

    Desenvolvimento de sistemas de informação empresariais com tecnologias open source e java EE

    Get PDF
    Relatório final para obtenção do Grau de Mestre em Engenharia Informática e de ComputadoresCada vez mais os sistemas de informação empresariais (do inglês, enterprise information systems) tendem a ter uma complexidade elevada associada, já que os clientes pretendem sistemas robustos, interoperáveis, íntegros, escaláveis, com alto desempenho e alta disponibilidade. Para conseguir estas metas, os sistemas de informação empresariais utilizam muitas vezes acesso concorrente aos dados, possivelmente, distribuídos, em âmbito transaccional e podendo envolver fontes de dados heterogéneas, como, por exemplo, bases de dados relacionais e filas de mensagens. Existem várias ferramentas proprietárias, por exemplo da Microsoft, que ajudam a minimizar esta complexidade, no entanto, podem colocar outras dificuldades como é o facto do sistema poder ficar dependente de determinada tecnologia ou o preço do sistema poder ter um custo muito elevado. Por outro lado, existem soluções open source que possibilitam o desenvolvimento de sistemas de informação empresariais, no entanto essas soluções, por vezes, são desenvolvidas por diferentes empresas o que obriga a uma complexidade extra (comparando com as soluções proprietárias) para integrar todo o sistema. Este estudo visa comparar o esforço despendido no desenvolvimento de sistemas de informação empresariais utilizando tecnologias open source, nomeadamente JEE 8 e MYSQL, em relação às tecnologias Microsoft, nomeadamente WCF e SQL Server.Increasingly, enterprise information systems tend to be associated with high complexity, since customers want robust, interoperable, scalable, high performance and high availability systems. To achieve these goals, enterprise information systems often use concurrent access to data, possibly distributed, in a transactional context and may involve heterogeneous data, such as relational databases and queues of message. There are a number of proprietary tools, such as Microsoft, that help to minimize this complexity, however, may pose other difficulties such as the fact that the system can be dependent on a given technology or the price of the system can be very expensive. On the other hand, there are open source solutions that enable the development of information systems but these solutions are sometimes developed by different enterprises, which leads to extra complexity (compared with the proprietary solutions) to integrate the entire system. This study aims at comparing the effort expended in the development of business information systems using open source technologies, namely JEE 8 and MYSQL, in relation to Microsoft technologies, namely WCF and SQL Server.N/

    Gestão de big data: novos paradigmas

    Get PDF
    A popularidade crescente de aplicações Web de acesso massivo que armazenam e analisam grandes quantidades de dados, sendo o Facebook, o Twitter, a Amazon e a Google alguns exemplos proeminentes de tais aplicações, apresentam novas exigências que desafiam os tradicionais SGBDR. Motivados principalmente por questões de escalabilidade, uma nova geração de bases de dados, apelidadas de NoSQL, tem vindo a ganhar alguma força. Neste artigo serão apresentadas as principais características dessas bases de dados. As bases de dados NoSQL são comparadas com os tradicionais SGBDR e conceitos importantes serão explanados.The growing popularity of massively accessed web applications that store and analyze large amounts of data, being Facebook, twitter and google search some prominent examples of such applications, have posed new requirements that greatly challenge traditional RDBMS. Driven primarily by scalability issues, a new generation of databases, called NoSQL, has gained some strength. This paper presents the main characteristics of these databases. NoSQL databases are compared with traditional RDBMS and important concepts are explained.UNIAG, R&D unit funded by the FCT – Portuguese Foundation for the Development of Science and Technology, Ministry of Science, Technology and Higher Education.info:eu-repo/semantics/publishedVersio

    Motor de integração de dados clínicos distribuídos e sua monitorização

    Get PDF
    Mestrado em Engenharia de Computadores e TelemáticaA evolução da tecnologia e da sociedade impôs um ritmo exigente ao crescimento dos sistemas de informação, tanto na qualidade como nas funcionalidades que facultam. Na área da saúde, a evolução dos sistemas de informação traduziu-se no surgimento de vários sistemas especializados e fontes heterogéneas de informação clínica. O acesso unificado a esse património de dados fragmentado passa pela adopção de soluções de integração de sistemas e conteúdos. A Rede Telemática da Saúde (RTS) da região de Aveiro é uma rede que procura implementar métodos para a partilha segura de dados entre instituições de saúde. Para isso, utiliza um motor de integração que acede aos sistemas de informação existentes de um modo não intrusivo e flexível para criar uma vista unificada da informação dos utentes. Com a entrada em produção da RTS, sentiu-se a necessidade de dispor de mecanismos para monitorar a execução dos processos distribuídos de integração, de modo a compreender a qualidade de serviço da rede, disponibilidade das fontes e análise dos pontos críticos da execução dos algoritmos de integração. Pretendia-se com a melhor compreensão dos processos existentes, introduzir optimizações, especialmente ao nível do motor de integração, que apresentava algumas limitações de desempenho. Destas necessidades surgem os objectivos a alcançar: a construção de uma ferramenta que permita o controlo e análise do desempenho e comportamento da rede e a optimização do algoritmo de integração, procurando melhorá-lo em função das características observadas na rede. No âmbito desta contribuição, avaliámos o algoritmo de integração pré-existente no sentido de identificar pontos de estrangulamento e propusemos algumas melhorias. Esta análise é suportada num conjunto de ferramentas que foram desenvolvidas, permitindo o registo de tempos de execução e a sua análise em gráficos. Apresentamos resultados obtidos antes e depois da intervenção ao nível do motor de integração. Os resultados ajudam a perceber a importância da optimização do algoritmo do motor de integração. As ferramentas de monitorização desenvolvidas foram introduzidas em produção, assistindo a análise do comportamento da rede e a tomada de decisões. ABSTRACT: The technology and society evolution make the information systems grow up, either in quality as in the supplied services. In health area, the quality is quite relevant: there are several and heterogeneous information sources that share of clinica and confidential information. The modern Information Society requirements forces the technology to develop in a fast and demanding pace, either in quality as in the supplied functionalities. In healthcare, the evolution of information systems has lead to the coexistence of specialized information systems and heterogeneous clinical data sources. The unified access to fragmented data in this domain requires the development of solutions integrating both systems and their content. The “Rede Telemática da Saúde” (RTS) aims at implementing such methods, allowing to securely share clinical data between healthcare institutions. The RTS makes use of a integration engine, which accesses the data sources in a flexible and non-intrusive way, to create a unified view of patients information. The introduction of RTS in a production environment raised a need for mechanisms to control the distributed integration processes, allowing the analysis of the network quality and the information sources availability. With these analysis mechanisms, it was possible to introduce some optimizations in the system, specially in the integration engine module, which was having some performance limitations. These needs set the scenario for this contribution: to build a toolkit allowing collecting distributed processes monitoring data and supporting its analysis. This information would them allow to assess the current deployments and support the integration engine optimization. The existing algorithm was assessed to find bottlenecks using the tools here described and resedign to optimize the long execution times. The results before and after the intervention are presented and discussed. The results obtained help to understand the impact of the integration engine optimization. Additionally, the monitoring tools were deployed in the production environment, assisting in the network analysis and decision taking

    UMA ANÁLISE DE ALGORITMOS DE CONSENSO PARA BLOCKCHAIN VISANDO À IMPLEMENTAÇÃO DE SISTEMAS DE INFORMAÇÃO DISTRIBUÍDOS TRANSPARENTES

    Get PDF
    Transparency in distributed-database information systems is only of real value when integration, sharing, consistency and integrity requirements are all firstly guaranteed. By its turn, the Blockchain technology is considered to be the most promising implementation solution to meet these requirements simultaneously. Within this context, this paper analyzes three important consensus algorithms for the Blockchain technology. This analysis includes a theoretical study and a comparative evaluation as well. The results allow us to better understand the most positive points and vulnerabilities of each analyzed algorithm. Finally, general conclusions and future work conclude this article. A transparência em sistemas de informação com bases de dados distribuídas somente tem real valor se antes estiverem garantidos os requisitos de integração, compartilhamento, consistência e integridade. Por sua vez, a tecnologia Blockchain é considerada a mais promissora solução de implementação para atender a esses requisitos conjuntamente. Neste contexto, este artigo analisa três importantes algoritmos de consenso para a tecnologia Blockchain. Esta análise contempla um estudo teórico e uma avaliação comparativa. Os resultados advindos permitem melhor compreender os pontos mais positivos e as vulnerabilidades de cada algoritmo analisado. Por fim, conclusões gerais e trabalhos futuros encerram este artigo

    Monitorização e controlo de aplicações na nuvem

    Get PDF
    Dissertação de mestrado em Engenharia InformáticaCloud orchestration systems, as Kubernetes, allow us to dynamically manage aspects such as location of components. This makes traditional resource-oriented monitoring systems inadequate. They also make it desirable that control mechanisms act directly on the orchestrator and not on individual components. This project aims to design, develop and test an application for monitoring and control distributed database systems, solving the challenges posed by this new environment. This dissertation motivated by project H2020 CloudDB Appliance.Os sistemas de orquestração na nuvem, como o Kubernetes, permitem gerir dinamicamente aspetos como a (co-)localização de componentes e o número de instâncias de cada um. Isto faz com que os sistemas tradicionais de monitorização, orientados aos recursos físicos, sejam desadequados. Fazem também com que seja desejável que os mecanismos de controlo ajam diretamente sobre o orquestrador e não sobre os componentes individualmente. Este projeto tem como objetivo projetar, desenvolver e testar uma aplicação para monitorização e controlo de sistemas de bases de dados distribuídas resolvendo os desafios colocados por este novo ambiente. Esta proposta de dissertação enquadra-se no projeto H2020 CloudDB Appliance
    corecore