175 research outputs found
Garantia de privacidade na exploração de bases de dados distribuídas
Anonymisation is currently one of the biggest challenges when sharing sensitive
personal information. Its importance depends largely on the application
domain, but when dealing with health information, this becomes a more serious
issue. A simpler approach to avoid this disclosure is to ensure that all
data that can be associated directly with an individual is removed from the
original dataset. However, some studies have shown that simple anonymisation
procedures can sometimes be reverted using specific patients’ characteristics,
namely when the anonymisation is based on hidden key attributes.
In this work, we propose a secure architecture to share information from distributed
databases without compromising the subjects’ privacy. The work
was initially focused on identifying techniques to link information between
multiple data sources, in order to revert the anonymization procedures. In
a second phase, we developed the methodology to perform queries over
distributed databases was proposed. The architecture was validated using
a standard data schema that is widely adopted in observational research
studies.A garantia da anonimização de dados é atualmente um dos maiores desafios
quando existe a necessidade de partilhar informações pessoais de carácter
sensível. Apesar de ser um problema transversal a muitos domínios de
aplicação, este torna-se mais crítico quando a anonimização envolve dados
clinicos. Nestes casos, a abordagem mais comum para evitar a divulgação
de dados, que possam ser associados diretamente a um indivíduo, consiste
na remoção de atributos identificadores. No entanto, segundo a literatura,
esta abordagem não oferece uma garantia total de anonimato, que pode ser
quebrada através de ataques específicos que permitem a reidentificação dos
sujeitos.
Neste trabalho, é proposta uma arquitetura que permite partilhar dados
armazenados em repositórios distribuídos, de forma segura e sem comprometer
a privacidade. Numa primeira fase deste trabalho, foi feita uma análise
de técnicas que permitam reverter os procedimentos de anonimização. Na
fase seguinte, foi proposta uma metodologia que permite realizar pesquisas
em bases de dados distribuídas, sem que o anonimato seja quebrado. Esta
arquitetura foi validada sobre um esquema de base de dados relacional que
é amplamente utilizado em estudos clínicos observacionais.Mestrado em Ciberseguranç
Um modelo para compartilhamento de bases de dados distribuídas e heterogêneas
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da ComputaçãoEste trabalho faz uma avaliação dos recursos disponíveis para viabilizar a interoperabilidade de bases de dados distribuídas e heterogêneas e propõe um modelo alternativo para a solução do problema. O modelo proposto se apresenta como definição metodológica, possível de ser implementado em qualquer ambiente operacional e aplicável em qualquer base de dados. O objetivo deste trabalho é mostrar que as alternativas disponíveis para solucionar esta problemática, quando já implementadas, apresentam um alto grau de complexidade e não atendem adequadamente todas as demandas relacionadas com a interoperabilidade de bases de dados distribuídas e heterogêneas. O trabalho apresenta uma proposta de mediador, modelado em UML (Unified Modeling Language), que permite a interoperabilidade entre bases de dados distribuídas e heterogêneas. Também é apresentada a implementação do modelo, onde são exploradas as características, comportamento e avaliada sua aplicabilidade em diferentes ambientes operacionais e linguagens de programação
Mapeamento de qualidade de experiência (QOE) através de qualidade de serviço (QOS) focado em bases de dados distribuídas
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2017.A falta de conceitualização congruente sobre qualidade de serviço (QoS) para bases de dados (BDs) foi o fator que impulsionou o estudo resultante nesta tese. A definição de QoS como uma simples verificação de se um nó corre risco de falha devido ao número de acessos, como faziam, na época do levantamento bibliométrico desta tese, alguns sistemas comerciais, era uma simplificação exagerada para englobar um conceito tão complexo. Outros trabalhos que dizem lidar com estes conceitos também não são exatos, em termos matemáticos, e não possuem definições concretas ou com qualidade passível de utilização ou replicação, o que torna inviável sua aplicação ou mesmo verificação. O foco deste estudo é direcionado à bases de dados distribuídas (BDDs), de maneira que a conceitualização aqui desenvolvida é também compatível, ao menos parcialmente, com modelos não distribuídos de BDs. As novas definições de QoS desenvolvidas são utilizadas para se lidar com o conceito correlacionado de qualidade de experiência (QoE), em uma abordagem em nível de sistema focada em completude de QoS. Mesmo sendo QoE um conceito multidimensional, difícil de ser mensurado, o foco é mantido em uma abordagem passível de mensuramento, de maneira a permitir que sistemas de BDDs possam lidar com autoavaliação. A proposta de autoavaliação surge da necessidade de identificação de problemas passíveis de autocorreção. Tendo-se QoS bem definida, de maneira estatística, pode-se fazer análise de comportamento e tendência comportamental de maneira a se inferir previsão de estados futuros, o que permite o início de processo de correção antes que se alcance estados inesperados, por predição estatística. Sendo o objetivo geral desta tese a definição de métricas de QoS e QoE, com foco em BDDs, lidando com a hipótese de que é possível se definir QoE estatisticamente com base em QoS, para propósitos de nível de sistema. Ambos os conceitos sendo novos para BDDs quando lidando com métricas mensuráveis exatas. E com estes conceitos então definidos, um modelo de recuperação arquitetural é apresentado e testado para demonstração de resultados quando da utilização das métricas definidas para predição comportamental.Abstract : The hitherto lack of quality of service (QoS) congruent conceptualization to databases (DBs) was the factor that drove the initial development of this thesis. To define QoS as a simple verification that if a node is at risk of failure due to memory over-commitment, as did some commercial systems at the time that was made the bibliometric survey of this thesis, it is an oversimplification to encompass such a complex concept. Other studies that quote to deal with this concept are not accurate and lack concrete definitions or quality allowing its use, making infeasible its application or even verification. Being the focus targeted to distributed databases (DDBs), the developed conceptualization is also compatible, at least partially, with models of non-distributed DBs. These newfound QoS settings are then used to handle the correlated concept of quality of experience (QoE) in a system-level approach, focused on QoS completeness. Being QoE a multidimensional concept, hard to be measured, the focus is kept in an approach liable of measurement, in a way to allow DDBs systems to deal with self-evaluation. The idea of self-evaluation arises from the need of identifying problems subject to self-correction. With QoS statistically well-defined, it is possible to analyse behavior and to indetify tendencies in order to predict future states, allowing early correction before the system reaches unexpected states. Being the general objective of this thesis the definition of metrics of QoS and QoE, focused on DDBs, dealing with the hypothesis that it is possible to define QoE statistically based on QoS, for system level purposes. Both these concepts being new to DDBs when dealing with exact measurable metrics. Once defined these concepts, an architectural recovering model is presented and tested to demonstrate the results when using the metrics defined for behavioral prediction
A regulação sobre os treinamentos na aviação civil: assimetria de informação e o uso de blockchain como alternativa para os registros educacionais.
Este trabalho consiste numa pesquisa exploratória de cunho qualitativo que se destina a avaliar os procedimentos de controle sobre o licenciamento e a formação dos profissionais de aviação civil. Através da técnica de observação participante em conjunto com entrevistas com o pessoal-chave, envolvido na regulação do setor, será constatada a presença de assimetrias informacionais nos procedimentos de controle e supervisão dos treinamentos, indicando a necessidade de melhoria do modelo implementado na aviação brasileira para a efetivação dos objetivos de segurança operacional propostos pelo agente regulador. Como uma possível resposta ao problema, será procedida uma pesquisa sobre as boas práticas para os registros educacionais, com foco na substituição dos documentos em papel e dos arquivos digitais não interoperáveis atualmente empregados. Ao fim, o trabalho apontará caminhos para a melhoria do desenho regulatório utilizado para transacionar as informações sobre a educação dos profissionais, propondo a utilização da tecnologia de blockchain como uma alternativa promissora, em razão das características aplicadas na construção dos seus modelos de bases de dados distribuídas.44 páginasGovernanç
Desenvolvimento de sistemas de informação empresariais com tecnologias open source e java EE
Relatório final para obtenção do Grau de Mestre em Engenharia Informática e de ComputadoresCada vez mais os sistemas de informação empresariais (do inglês, enterprise information systems) tendem a ter uma complexidade elevada associada, já que os clientes pretendem sistemas robustos, interoperáveis, íntegros, escaláveis, com alto desempenho e alta disponibilidade. Para conseguir estas metas, os sistemas de informação empresariais utilizam muitas vezes acesso concorrente aos dados, possivelmente, distribuídos, em âmbito transaccional e podendo envolver fontes de dados heterogéneas, como, por exemplo, bases de dados relacionais e filas de mensagens. Existem várias ferramentas proprietárias, por exemplo da Microsoft, que ajudam a minimizar esta complexidade, no entanto, podem colocar outras dificuldades como é o facto do sistema poder ficar dependente de determinada tecnologia ou o preço do sistema poder ter um custo muito elevado. Por outro lado, existem soluções open source que possibilitam o desenvolvimento de sistemas de informação empresariais, no entanto essas soluções, por vezes, são desenvolvidas por diferentes empresas o que obriga a uma complexidade extra (comparando com as soluções proprietárias) para integrar todo o sistema. Este estudo visa comparar o esforço despendido no desenvolvimento de sistemas de informação empresariais utilizando tecnologias open source, nomeadamente JEE 8 e MYSQL, em relação às tecnologias Microsoft, nomeadamente WCF e SQL Server.Increasingly, enterprise information systems tend to be associated with high complexity, since customers want robust, interoperable, scalable, high performance and high availability systems. To achieve these goals, enterprise information systems often use concurrent access to data, possibly distributed, in a transactional context and may involve heterogeneous data, such as relational databases and queues of message. There are a number of proprietary tools, such as Microsoft, that help to minimize this complexity, however, may pose other difficulties such as the fact that the system can be dependent on a given technology or the price of the system can be very expensive. On the other hand, there are open source solutions that enable the development of information systems but these solutions are sometimes developed by different enterprises, which leads to extra complexity (compared with the proprietary solutions) to integrate the entire system. This study aims at comparing the effort expended in the development of business information systems using open source technologies, namely JEE 8 and MYSQL, in relation to Microsoft technologies, namely WCF and SQL Server.N/
Gestão de big data: novos paradigmas
A popularidade crescente de aplicações Web de acesso massivo que armazenam e analisam grandes quantidades de dados, sendo o Facebook, o Twitter, a Amazon e a Google alguns exemplos proeminentes de tais aplicações, apresentam novas exigências que desafiam os tradicionais SGBDR. Motivados principalmente por questões de escalabilidade, uma nova geração de bases de dados, apelidadas de NoSQL, tem vindo a ganhar alguma força. Neste artigo serão apresentadas as principais características dessas bases de dados. As bases de dados NoSQL são comparadas com os tradicionais SGBDR e conceitos importantes serão explanados.The growing popularity of massively accessed web applications that store and analyze large
amounts of data, being Facebook, twitter and google search some prominent examples of such
applications, have posed new requirements that greatly challenge traditional RDBMS. Driven
primarily by scalability issues, a new generation of databases, called NoSQL, has gained some
strength. This paper presents the main characteristics of these databases. NoSQL databases are
compared with traditional RDBMS and important concepts are explained.UNIAG, R&D unit funded by the FCT – Portuguese Foundation for the Development of Science and Technology, Ministry of Science, Technology and Higher Education.info:eu-repo/semantics/publishedVersio
Motor de integração de dados clínicos distribuídos e sua monitorização
Mestrado em Engenharia de Computadores e TelemáticaA evolução da tecnologia e da sociedade impôs um ritmo
exigente ao crescimento dos sistemas de informação, tanto na qualidade
como nas funcionalidades que facultam. Na área da saúde, a evolução
dos sistemas de informação traduziu-se no surgimento de vários sistemas
especializados e fontes heterogéneas de informação clínica. O acesso
unificado a esse património de dados fragmentado passa pela adopção de
soluções de integração de sistemas e conteúdos. A Rede Telemática da
Saúde (RTS) da região de Aveiro é uma rede que procura implementar
métodos para a partilha segura de dados entre instituições de saúde. Para
isso, utiliza um motor de integração que acede aos sistemas de
informação existentes de um modo não intrusivo e flexível para criar
uma vista unificada da informação dos utentes.
Com a entrada em produção da RTS, sentiu-se a necessidade de
dispor de mecanismos para monitorar a execução dos processos
distribuídos de integração, de modo a compreender a qualidade de
serviço da rede, disponibilidade das fontes e análise dos pontos críticos
da execução dos algoritmos de integração. Pretendia-se com a melhor
compreensão dos processos existentes, introduzir optimizações,
especialmente ao nível do motor de integração, que apresentava algumas
limitações de desempenho.
Destas necessidades surgem os objectivos a alcançar: a
construção de uma ferramenta que permita o controlo e análise do
desempenho e comportamento da rede e a optimização do algoritmo de
integração, procurando melhorá-lo em função das características
observadas na rede.
No âmbito desta contribuição, avaliámos o algoritmo de
integração pré-existente no sentido de identificar pontos de
estrangulamento e propusemos algumas melhorias. Esta análise é
suportada num conjunto de ferramentas que foram desenvolvidas,
permitindo o registo de tempos de execução e a sua análise em gráficos.
Apresentamos resultados obtidos antes e depois da intervenção ao nível
do motor de integração.
Os resultados ajudam a perceber a importância da optimização do
algoritmo do motor de integração. As ferramentas de monitorização
desenvolvidas foram introduzidas em produção, assistindo a análise do
comportamento da rede e a tomada de decisões.
ABSTRACT: The technology and society evolution make the information
systems grow up, either in quality as in the supplied services. In health
area, the quality is quite relevant: there are several and heterogeneous
information sources that share of clinica and confidential information.
The modern Information Society requirements forces the
technology to develop in a fast and demanding pace, either in quality as
in the supplied functionalities. In healthcare, the evolution of
information systems has lead to the coexistence of specialized
information systems and heterogeneous clinical data sources. The
unified access to fragmented data in this domain requires the
development of solutions integrating both systems and their content. The
“Rede Telemática da Saúde” (RTS) aims at implementing such methods,
allowing to securely share clinical data between healthcare institutions.
The RTS makes use of a integration engine, which accesses the data
sources in a flexible and non-intrusive way, to create a unified view of
patients information.
The introduction of RTS in a production environment raised a
need for mechanisms to control the distributed integration processes,
allowing the analysis of the network quality and the information sources
availability. With these analysis mechanisms, it was possible to
introduce some optimizations in the system, specially in the integration
engine module, which was having some performance limitations.
These needs set the scenario for this contribution: to build a
toolkit allowing collecting distributed processes monitoring data and
supporting its analysis. This information would them allow to assess the
current deployments and support the integration engine optimization.
The existing algorithm was assessed to find bottlenecks using the
tools here described and resedign to optimize the long execution times.
The results before and after the intervention are presented and
discussed.
The results obtained help to understand the impact of the
integration engine optimization. Additionally, the monitoring tools were
deployed in the production environment, assisting in the network
analysis and decision taking
UMA ANÁLISE DE ALGORITMOS DE CONSENSO PARA BLOCKCHAIN VISANDO À IMPLEMENTAÇÃO DE SISTEMAS DE INFORMAÇÃO DISTRIBUÍDOS TRANSPARENTES
Transparency in distributed-database information systems is only of real value when integration, sharing, consistency and integrity requirements are all firstly guaranteed. By its turn, the Blockchain technology is considered to be the most promising implementation solution to meet these requirements simultaneously. Within this context, this paper analyzes three important consensus algorithms for the Blockchain technology. This analysis includes a theoretical study and a comparative evaluation as well. The results allow us to better understand the most positive points and vulnerabilities of each analyzed algorithm. Finally, general conclusions and future work conclude this article. A transparência em sistemas de informação com bases de dados distribuídas somente tem real valor se antes estiverem garantidos os requisitos de integração, compartilhamento, consistência e integridade. Por sua vez, a tecnologia Blockchain é considerada a mais promissora solução de implementação para atender a esses requisitos conjuntamente. Neste contexto, este artigo analisa três importantes algoritmos de consenso para a tecnologia Blockchain. Esta análise contempla um estudo teórico e uma avaliação comparativa. Os resultados advindos permitem melhor compreender os pontos mais positivos e as vulnerabilidades de cada algoritmo analisado. Por fim, conclusões gerais e trabalhos futuros encerram este artigo
Monitorização e controlo de aplicações na nuvem
Dissertação de mestrado em Engenharia InformáticaCloud orchestration systems, as Kubernetes, allow us to dynamically manage aspects
such as location of components. This makes traditional resource-oriented monitoring
systems inadequate. They also make it desirable that control mechanisms act directly on the
orchestrator and not on individual components.
This project aims to design, develop and test an application for monitoring and control
distributed database systems, solving the challenges posed by this new environment. This
dissertation motivated by project H2020 CloudDB Appliance.Os sistemas de orquestração na nuvem, como o Kubernetes, permitem gerir dinamicamente aspetos como a (co-)localização de componentes e o número de instâncias de cada um. Isto faz com que os sistemas tradicionais de monitorização, orientados aos recursos físicos, sejam desadequados. Fazem também com que seja desejável que os mecanismos de controlo ajam diretamente sobre o orquestrador e não sobre os componentes individualmente. Este projeto tem como objetivo projetar, desenvolver e testar uma aplicação para monitorização e controlo de sistemas de bases de dados distribuídas resolvendo os desafios colocados por este novo ambiente. Esta proposta de dissertação enquadra-se no projeto H2020 CloudDB Appliance
- …