10 research outputs found

    Collection Development Policy, Finance

    Get PDF

    Blockchain and the law: the rule of code

    Get PDF
    Divulgação dos SUMÁRIOS das obras recentemente incorporadas ao acervo da Biblioteca Ministro Oscar Saraiva do STJ. Em respeito à Lei de Direitos Autorais, não disponibilizamos a obra na íntegra.Localização na estante: 336.74:004 D313

    Novel Intrusion Detection Mechanism with Low Overhead for SCADA Systems

    Get PDF
    SCADA (Supervisory Control and Data Acquisition) systems are a critical part of modern national critical infrastructure (CI) systems. Due to the rapid increase of sophisticated cyber threats with exponentially destructive effects, intrusion detection systems (IDS) must systematically evolve. Specific intrusion detection systems that reassure both high accuracy, low rate of false alarms and decreased overhead on the network traffic must be designed for SCADA systems. In this book chapter we present a novel IDS, namely K-OCSVM, that combines both the capability of detecting novel attacks with high accuracy, due to its core One-Class Support Vector Machine (OCSVM) classification mechanism and the ability to effectively distinguish real alarms from possible attacks under different circumstances, due to its internal recursive k-means clustering algorithm. The effectiveness of the proposed method is evaluated through extensive simulations that are conducted using realistic datasets extracted from small and medium sized HTB SCADA testbeds

    Unmasking Optical Chaotic Cryptosystems Based on Delayed Optoelectronic Feedback

    Get PDF
    29 páginas, 22 figuras, 3 tablas.The authors analyze the security of optical chaotic communication systems. The chaotic carrier is generated by a laser diode subject to delayed optoelectronic feedback. Transmitters with one and two fixed delay times are considered. A new type of neural networks, modular neural networks, is used to reconstruct the nonlinear dynamics of the transmitter from experimental time series in the single-delay case, and from numerical simulations in single and two-delay cases. The authors show that the complexity of the model does not increase when the delay time is increased, in spite of the very high dimension of the chaotic attractor. However, it is found that nonlinear dynamics reconstruction is more difficult when the feedback strength is increased. The extracted model is used as an unauthorized receiver to recover the message. Therefore, the authors conclude that optical chaotic cryptosystems based on optoelectronic feedback systems with several fixed time delays are vulnerable.This work was supported by CICYT (Spain) under Project TEC2009-14581-C02-02.Peer reviewe

    Law, Metaphor, and the Encrypted Machine

    Get PDF
    The metaphors we use to imagine, describe, and regulate new technologies have profound legal implications. This article offers a critical examination of the metaphors we choose to describe encryption technology and aims to uncover some of the normative and legal implications of those choices. The article begins with a basic technical backgrounder and reviews the main legal and policy problems raised by strong encryption. Then it explores the relationship between metaphor and the law, demonstrating that legal metaphor may be particularly determinative wherever the law seeks to integrate novel technologies into old legal frameworks. The article establishes a loose framework for evaluating both the technological accuracy and the legal implications of encryption metaphors used by courts and lawmakers—from locked containers, car trunks, and combination safes to speech, shredded letters, untranslatable books, and unsolvable puzzles. What is captured by each of these cognitive models, and what is lost

    A machine learning taxonomic classifier for science publications

    Get PDF
    Dissertação de mestrado integrado em Engineering and Management of Information SystemsThe evolution in scientific production, associated with the growing interdomain collaboration of knowledge and the increasing co-authorship of scientific works remains supported by processes of manual, highly subjective classification, subject to misinterpretation. The very taxonomy on which this same classification process is based is not consensual, with governmental organizations resorting to taxonomies that do not keep up with changes in scientific areas, and indexers / repositories that seek to keep up with those changes. We find a reality distinct from what is expected and that the domains where scientific work is recorded can easily be misrepresentative of the work itself. The taxonomy applied today by governmental bodies, such as the one that regulates scientific production in Portugal, is not enough, is limiting, and promotes classification in areas close to the desired, therefore with great potential for error. An automatic classification process based on machine learning algorithms presents itself as a possible solution to the subjectivity problem in classification, and while it does not solve the issue of taxonomy mismatch this work shows this possibility with proved results. In this work, we propose a classification taxonomy, as well as we develop a process based on machine learning algorithms to solve the classification problem. We also present a set of directions for future work for an increasingly representative classification of evolution in science, which is not intended as airtight, but flexible and perhaps increasingly based on phenomena and not just disciplines.A evolução na produção de ciência, associada à crescente colaboração interdomínios do conhecimento e à também crescente coautoria de trabalhos permanece suportada por processos de classificação manual, subjetiva e sujeita a interpretações erradas. A própria taxonomia na qual assenta esse mesmo processo de classificação não é consensual, com organismos estatais a recorrerem a taxonomias que não acompanham as alterações nas áreas científicas, e indexadores/repositórios que procuram acompanhar essas mesmas alterações. Verificamos uma realidade distinta do espectável e que os domínios onde são registados os trabalhos científicos podem facilmente estar desenquadrados. A taxonomia hoje aplicada pelos organismos governamentais, como o caso do organismo que regulamenta a produção científica em Portugal, não é suficiente, é limitadora, e promove a classificação em domínios aproximados do desejado, logo com grande potencial para erro. Um processo de classificação automática com base em algoritmos de machine learning apresenta-se como uma possível solução para o problema da subjetividade na classificação, e embora não resolva a questão do desenquadramento da taxonomia utilizada, é apresentada neste trabalho como uma possibilidade comprovada. Neste trabalho propomos uma taxonomia de classificação, bem como nós desenvolvemos um processo baseado em machine learning algoritmos para resolver o problema de classificação. Apresentamos ainda um conjunto de direções para trabalhos futuros para uma classificação cada vez mais representativa da evolução nas ciências, que não pretende ser hermética, mas flexível e talvez cada vez mais baseada em fenómenos e não apenas em disciplinas

    Segurança de computadores por meio de autenticação intrínseca de hardware

    Get PDF
    Orientadores: Guido Costa Souza de Araújo, Mario Lúcio Côrtes e Diego de Freitas AranhaTese (doutorado) - Universidade Estadual de Campinas, Instituto de ComputaçãoResumo: Neste trabalho apresentamos Computer Security by Hardware-Intrinsic Authentication (CSHIA), uma arquitetura de computadores segura para sistemas embarcados que tem como objetivo prover autenticidade e integridade para código e dados. Este trabalho está divido em três fases: Projeto da Arquitetura, sua Implementação, e sua Avaliação de Segurança. Durante a fase de projeto, determinamos como integridade e autenticidade seriam garantidas através do uso de Funções Fisicamente Não Clonáveis (PUFs) e propusemos um algoritmo de extração de chaves criptográficas de memórias cache de processadores. Durante a implementação, flexibilizamos o projeto da arquitetura para fornecer diferentes possibilidades de configurações sem comprometimento da segurança. Então, avaliamos seu desempenho levando em consideração o incremento em área de chip, aumento de consumo de energia e memória adicional para diferentes configurações. Por fim, analisamos a segurança de PUFs e desenvolvemos um novo ataque de canal lateral que circunvê a propriedade de unicidade de PUFs por meio de seus elementos de construçãoAbstract: This work presents Computer Security by Hardware-Intrinsic Authentication (CSHIA), a secure computer architecture for embedded systems that aims at providing authenticity and integrity for code and data. The work encompassed three phases: Design, Implementation, and Security Evaluation. In design, we laid out the basic ideas behind CSHIA, namely, how integrity and authenticity are employed through the use of Physical Unclonable Functions (PUFs), and we proposed an algorithm to extract cryptographic keys from the intrinsic memories of processors. In implementation, we made CSHIA¿s design more flexible, allowing different configurations without compromising security. Then, we evaluated CSHIA¿s performance and overheads, such as area, energy, and memory, for multiple configurations. Finally, we evaluated security of PUFs, which led us to develop a new side-channel-based attack that enabled us to circumvent PUFs¿ uniqueness property through their architectural elementsDoutoradoCiência da ComputaçãoDoutor em Ciência da Computação2015/06829-2; 2016/25532-3147614/2014-7FAPESPCNP

    Otimização da variabilidade estatística em circuitos Physical Unclonable Functions baseados em atraso

    Get PDF
    Orientadores: Guido Costa Souza de Araújo, Mario Lúcio CôrtesDissertação (mestrado) - Universidade Estadual de Campinas, Instituto de ComputaçãoResumo: Physical Unclonable Functions (PUFs) são circuitos que exploram da variabilidade estatística do processo de fabricação para criar uma identidade única para os dispositivos. PUFs são usados na construção de primitivas criptográficas para aplicações tais como autenticação, geração de chaves e proteção de propriedade intelectual. Devido ao seu baixo custo e simplicidade de construção, Arbiter PUFs (APUFs) baseados em atraso são considerados um mecanismo criptográfico em potencial para a integração em dispositivos IoT de baixo custo (e.g. tags RFID). Embora APUFs já foram alvo de diversas pesquisas, pouco avanço foi feito em se avaliar como melhorar a imprevisibilidade destes circuitos utilizando técnicas de desenvolvimento de circuitos VLSI. Esta dissertação utiliza biblioteca AMS 350nm e simulação Monte-Carlo em SPICE para analisar como a seleção apropriada do elemento árbitro e o redimensionamento de células podem afetar a variabilidade de atraso de APUFs. Os resultados experimentais mostram que a combinação do árbitro apropriado e redimensionamento das células podem melhorar consideravelmente a distribuição do Peso de Hamming nas respostas do APUF, assim resultando em um projeto mais confiável e menos tendenciosoAbstract: Physical Unclonable Functions (PUFs) are circuits which exploit the statistical variability of the fabrication process to create a unique device identity. PUFs have been used in the design of cryptographic primitives for applications like device authentication, key generation and intellectual property protection. Due to its small cost and design simplicity, delay-based Arbiter PUFs (APUFs) have been considered a cryptographic engine candidate for the integration into low-cost IoT devices (e.g. RFID tags). Although APUFs have been extensively studied in the literature, not much work has been done in understanding how to improve its response variability using VLSI design techniques. This dissertation uses extensive AMS 350nm SPICE-based Monte-Carlo simulation to analyze how the proper selection of arbiter element and gate sizing can affect the delay variability of APUFs. Experimental results show that the combination of the appropriate arbiter and gate sizing configuration can considerably improve the Hamming Weight distribution of the APUF response, thus resulting in more reliable and less biased designsMestradoCiência da ComputaçãoMestre em Ciência da Computaçã

    LEON3-CONF : LEON3 processor with instructions and data confidentiality

    Get PDF
    Orientador: Guido Costa Souza de AraújoDissertação (mestrado) - Universidade Estadual de Campinas, Instituto de ComputaçãoResumo: Garantir a privacidade e integridade de dados e instruções e a corretude da computação que se deseja realizar é o objetivo central em segurança computational moderna. Mecanimos que evitem ataques aos dados e às instruções durante a execução de programas devem garantir a sua confidencialidade desde o momento em que eles são armazenados na memória até quando são executados internamente dentro do processador. O processador LEON3-CONF, proposto neste trabalho, garante a confidencialidade de instruções e/ou de dados na memória externa e durante seu transporte através do barramento processador-memória. Para isto, o LEON3-CONF encripta as instruções e/ou os dados antes de enviá-los à região não segura (composta pelo barramento processador-memória e pela memória externa) e os decripta antes de processá-los e/ou armazená-los. A arquitetura da camada de segurança do LEON3-CONF foi projetada para permitir que um algoritmo de encriptação e decriptação seja adicionado ao processador de forma simples e visando minimizar o impacto no tempo de execução dos programas. O algoritmo de encriptação e decriptação implementado nesta versão do LEON3-CONF é o AES (Advanced Encryption Standard). O objetivo principal deste trabalho é desenvolver e avaliar o impacto de cifração da memória e do barramento na arquitetura LEON3 e não propor um algoritmo novo para esta tarefa. A avaliação do desempenho dos mecanimos de cifração do LEON3-CONF foi feita em uma plataforma FPGA usando um conjunto de programas em linguagem C. Os resultados experimentais revelaram que: (a) o tempo de execução de um programa com apenas dados seguros é, no pior caso, 2,11 vezes o tempo de execução do mesmo programa sem instruções e dados seguros; (b) o tempo de execução de um programa com apenas instruções seguras é, no pior caso, 1,86 vezes o tempo de execução do mesmo programa sem instruções e dados seguros; e (c) o tempo de execução de um programa com instruções e dados seguros é, no pior caso, 2,66 vezes o tempo de execução do mesmo programa sem instruções e dados seguros. O resultado da síntese do LEON3-CONF indica que a camada de segurança utiliza 36,7% da lógica combinacional e 15,8% dos registradores do LEON3-CONF e que o algoritmo de encriptação e decriptação AES utiliza 84,9% da lógica combinacional e 41,9% dos registradores da camada de segurançaAbstract: Ensuring the privacy and integrity of data and instructions and the correctness of the computing that you want to accomplish is the central goal in modern computational security. Mechanisms that prevent attacks on data and instructions while running programs must guarantee their confidentiality from the time they are stored in memory until when they are run internally within the processor. The LEON3-CONF processor, proposed in this work, guarantees the confidentiality of instructions and/or data in the external memory and during their transport through the processor-memory bus. To do this, LEON3-CONF encrypts the instructions and/or data before sending them to the non-secure region (composed of the processor-memory bus and external memory) and decrypts them before processing and/or storing them. The architecture of the LEON3-CONF security layer was designed to allow an encryption and decryption algorithm to be added to the processor in a simple way and to minimize the impact on the programs runtime. The encryption and decryption algorithm implemented in this version of LEON3-CONF is AES (Advanced Encryption Standard). The main objective of this work is to develop and evaluate the impact of memory and bus encryption on the LEON3 architecture and not propose a new algorithm for this task. The performance evaluation of the LEON3-CONF encryption mechanisms was done in an FPGA platform using a set of C language programs. The experimental results showed that: (a) the runtime of a program with only safe data is, in the worst case, 2.11 times the runtime of the same program without safe instructions and data; (b) the runtime of a program with only safe instructions is, in the worst case, 1.86 times the runtime of the same program without safe instructions and data; and (c) the runtime of a program with safe instructions and data is, in the worst case, 2.66 times the runtime of the same program without safe instructions and data. The result of the LEON3-CONF synthesis indicates that the security layer uses 36.7% of the LEON3-CONF combinational logic and 15.8% of the LEON3-CONF registers and that the AES encryption and decryption algorithm uses 84.9% of the security layer combinational logic and 41.9% of the security layer registersMestradoCiência da ComputaçãoMestra em Ciência da Computaçã

    Implementação em software de cifradores autenticados para processadores ARM

    Get PDF
    Orientador: Julio César López HernándezDissertação (mestrado) - Universidade Estadual de Campinas, Instituto de ComputaçãoResumo: Algoritmos de cifração autenticada são ferramentas usadas para proteger dados, de forma a garantir tanto sigilo quanto autenticidade e integridade. Implementações criptográficas não possuem apenas exatidão e eficiência como seus principais objetivos: sistemas computacionais podem vazar informação sobre seu com- portamento interno, de forma que uma má implementação pode comprometer a segu- rança de um bom algoritmo. Dessa forma, esta dissertação tem o objetivo de estudar as formas de implementar corretamente algoritmos criptográficos e os métodos para optimizá-los sem que percam suas características de segurança. Um aspecto impor- tante a ser levado em consideração quando implementando algoritmos é a arquitetura alvo. Nesta dissertação concentra-se na família de processadores ARM. ARM é uma das arquiteturas mais utilizadas no mundo, com mais de 100 bilhões de chips vendidos. Esta dissertação foca em estudar e implementar duas famílias de cifradores auten- ticados: NORX e Ascon, especificamente para processadores ARM Cortex-A de 32 e 64 bits. Descrevemos uma técnica de optimização orientada a pipeline para NORX que possui desempenho melhor que o atual estado da arte, e discutimos técnicas utilizadas em uma implementação vetorial do NORX. Também analisamos as características de uma implementação vetorial do Ascon, assim como uma implementação vetorial de múltiplas mensagensAbstract: Authenticated encryption algorithms are tools used to protect data, in a way that guar- antees both its secrecy, authenticity, and integrity. Cryptographic implementations do not have only correctness and efficiency as its main goals: computer systems can leak information about their internal behavior, and a bad implementation can compromise the security of a good algorithm. Therefore, this dissertation aims to study the forms of correctly and efficiently implementing crypto- graphic algorithms and the methods of optimizing them without losing security char- acteristics. One important aspect to take into account during implementation and opti- mization is the target architecture. In this dissertation, the focus is on the ARM family of processors. ARM is one of the most widespread architectures in the world, with more than 100 billion chips deployed. This dissertation focus on studying and implementing two different families of au- thenticated encryption algorithms: NORX and Ascon, targeting 32-bits and 64-bits ARM Cortex-A processors. We show a pipeline oriented technique to implement NORX that¿s faster than the current state-of-art; and we also discuss the techniques used on a vectorial implementation of NORX. We also describe and analyze the characteristics of a vectorial implementation of Ascon, as well as a multiple message vectorial imple- mentationMestradoCiência da ComputaçãoMestre em Ciência da Computaçã
    corecore