317 research outputs found

    dLibra User Guide (version 4.0)

    Get PDF

    Hardware-Assisted Secure Computation

    Get PDF
    The theory community has worked on Secure Multiparty Computation (SMC) for more than two decades, and has produced many protocols for many settings. One common thread in these works is that the protocols cannot use a Trusted Third Party (TTP), even though this is conceptually the simplest and most general solution. Thus, current protocols involve only the direct players---we call such protocols self-reliant. They often use blinded boolean circuits, which has several sources of overhead, some due to the circuit representation and some due to the blinding. However, secure coprocessors like the IBM 4758 have actual security properties similar to ideal TTPs. They also have little RAM and a slow CPU.We call such devices Tiny TTPs. The availability of real tiny TTPs opens the door for a different approach to SMC problems. One major challenge with this approach is how to execute large programs on large inputs using the small protected memory of a tiny TTP, while preserving the trust properties that an ideal TTP provides. In this thesis we have investigated the use of real TTPs to help with the solution of SMC problems. We start with the use of such TTPs to solve the Private Information Retrieval (PIR) problem, which is one important instance of SMC. Our implementation utilizes a 4758. The rest of the thesis is targeted at general SMC. Our SMC system, Faerieplay, moves some functionality into a tiny TTP, and thus avoids the blinded circuit overhead. Faerieplay consists of a compiler from high-level code to an arithmetic circuit with special gates for efficient indirect array access, and a virtual machine to execute this circuit on a tiny TTP while maintaining the typical SMC trust properties. We report on Faerieplay\u27s security properties, the specification of its components, and our implementation and experiments. These include comparisons with the Fairplay circuit-based two-party system, and an implementation of the Dijkstra graph shortest path algorithm. We also provide an implementation of an oblivious RAM which supports similar tiny TTP-based SMC functionality but using a standard RAM program. Performance comparisons show Faerieplay\u27s circuit approach to be considerably faster, at the expense of a more constrained programming environment when targeting a circuit

    dLibra User Guide (version 4.0)

    Get PDF

    Helmholtz Portfolio Theme Large-Scale Data Management and Analysis (LSDMA)

    Get PDF
    The Helmholtz Association funded the "Large-Scale Data Management and Analysis" portfolio theme from 2012-2016. Four Helmholtz centres, six universities and another research institution in Germany joined to enable data-intensive science by optimising data life cycles in selected scientific communities. In our Data Life cycle Labs, data experts performed joint R&D together with scientific communities. The Data Services Integration Team focused on generic solutions applied by several communities

    System for Cross-Domain Identity Management

    Get PDF
    System for Cross-Domain Identity Management (SCIM) was first introduced in 2011 to provide a specification for cloud-based identity management. The identity and access management (IAM) sector is growing rapidly and SCIM aims to meet the needs. SCIM aims to bring a simple, easy and cheap way of managing identities in cloud-based applications, by providing clear protocols and schemas. The protocol and core schema make up the backbone of the specification. SCIM enables developers to choose the implementation methods by themselves which helps with keeping the security because the specification does not rely on one authentication method. The SCIM specifications have been updated twice from 1.0 to 1.1 in 2012 and then to version 2.0 in 2015. The latest version will be used to make a working SCIM application to see what it does. To understand SCIM better and why it was invented the thesis will contain information about IAM and services around it. The core schema and protocol of the SCIM specification will also be looked at and explaining them more understandably. The project will gather all the information gained and show what the SCIM is in practice

    DSpace 1.8 manual

    Get PDF

    A MAP for the library portal: through the labyrinth of online information sources

    Get PDF
    In as little as 25 years, online information provision has been transformed. This has largely been uncontrolled, yet the resources now available offer rich returns for the data-hungry end user. Increasingly, many users require their information immediately and really do not care where it is stored. Such demands, coupled with librarians’ natural tendency to apply order, have led to the development of library portals which aim to solve the problems arising from trying to navigate this labyrinth of information. The MAP portal is one such product. Using the NISO OpenURL standard, MAP offers three main elements – contextual linking via WebBridge, one step “multi” searching using MetaFind and resource authentication through Web Access Management (WAM). Use of this portal at the University of Exeter Library has made a considerable, positive impact on the recent use of online full-text systems and services and the experiences undoubtedly point to a strong future for such interfaces everywhere

    Dematerialization of information management processes

    Get PDF
    Trabalho de projecto de mestrado, Engenharia Informática (Arquitectura, Sistemas e Redes de Computadores), Universidade de Lisboa, Faculdade de Ciências, 2014Com o objectivo de expandir a diversidade de opções para os seus clientes, a Novabase tem interesse em explorar alternativas open source na área de enterprise search (ES), enterprise content management (ECM) e business process management (BPM). ES é um motor de busca composto por dois componentes, sendo o mais importante a pesquisa num índice invertido. Os candidatos são o Search Daimon [70], Solr [72] e ElasticSearch [21]. O Search Daimon é uma solução já muito completa, com muitas funcionalidades já feitas mas, não foi possível encontrar um manual ou o quer que seja que ajudasse a navegar e a modificar o código fonte e no excerto que vi, não estava comentado e foi difícil de ler. Uma alternativa de pesquisa open-source é o Lucene. O Lucene [51] é um motor de busca open source de muito elevada eficiência que trabalha sobre um índice invertido. É actualmente mantido pela Apache. O Solr [72] ´e um sistema que altera, melhora e diversifica a interface do Lucene permitindo usar o Lucene com um API REST e um conjunto de funcionalidades de alto nível. O Solr é desenvolvido pela Apache no qual, recentemente, foi lançada a funcionalidade de trabalhar em cloud. O ElasticSearch é um search engine que altera, melhora e diversifica a interface do Lucene permitindo usar o Lucene com um API REST. O Search daimon [70], pouco chega a ser considerado por causa da falta de informação sobre como trabalhar com ele sem ser com a interface gráfica. O Solr tem um manual muito completo [73], bem como o ElasticSearch [27]. As versões mais recentes do Solr permitem funcionar em cloud, o mesmo para o ElasticSearch. Aliás, o ElasticSearch sempre foi pensado para funcionar em cloud ao contrário do Solr que foi adaptado para funcionar em cloud. O ElasticSearch permite alterar muitas das suas opções incluindo adicionar e remover nós do swarm sem ser necessário reiniciar o servidor [28]. O Solr necessita de reiniciar sempre que existe uma alteração a fazer. Para pesquisa, o Solr só funciona usando uma query string. O ElasticSearch funciona com uma query string e também funciona com um objecto JavaScript Object Notation (JSON) bem estruturado [27]. O Solr usa JSON, Extensible Markup Language (XML) e comma-separated values (CSV) para alterar opções e para gravar dados. Destes dois, o ElasticSearch foi escolhido como sendo o melhor. Na parte de Enterprise content management (ECM), foram escolhidas as plataformas Nuxeo [55] e Alfresco [4]. Como critério, é necessário que os ECM tenham todas as versões open source. O Alfresco tem uma versão que necessita de uma licença paga mas o seu código é open source. O Nuxeo tem a versão completa, que permite usar o potencial todo do programa, disponível livre de custos. Sem contar com as interfaces como o utilizador (GUI) de que o utilizador tem acesso, ambos oferecem as mesmas funcionalidades com muito pequenas diferenças (ver quadros na sub-seccão “Comparing solutions” do 2.2.2). Embora o Alfresco community e o Nuxeo sejam muito parecidos, o Nuxeo desenvolveu uma ferramenta online paga, Nuxeo studio, que faz o mesmo que o Alfresco Enterprise. O Nuxeo studio [61] ´e um conjunto de ferramentas que oferecem um GUI [62] para controlar quase tudo no Nuxeo. Por causa da grande quantidade de semelhanças entre os dois e como os projectos em que ECM pode ser usado, torna-se impossível escolher qual dos dois é a melhor opção para o maior número de projectos. Mesmo assim, tendo em conta os vários parâmetros e caracteristicas do Nuxeo que estudei vs o equivalente do Alfresco e vice versa e com a nova vers˜ao do Nuxeo, concluo que o Nuxeo, embora não seja uma escolha ideal, é um ECM melhor pelas funcionalidades que tem, facilidade de personalização e pela organização e simplicidade. O ECM escolhido foi o Alfresco porque, independentemente que o Nuxeo seja melhor, se não for suficientemente conhecido, é o mesmo que não existir, independentemente do quão bom ele seja e estável, sem erros. O BPM decidido foi o que estava previsto na proposta inicial. Tendo já estes dados todos prontos, foi-me dada a tarefa de desenvolver um programa para integrar o ECM escolhido (Alfresco) com o BPM escolhido (jBPM). Durante a análise do jBPM, a empresa introduziu-me o Activiti como uma alternativa a ter a conta. Por estar a não usar um framework no primeiro projecto, um segundo projecto, baseado no primeiro, foi iniciado para executar o mesmo que o antecessor. Este projecto foi desenvolvido usando o primefaces e tinha, como um dos objectivos, comparar o Activiti e o jBPM. Com o prazo a acabar e por falta de informac¸ ˜ao dos superiores, este foi abandonado incompleto e o promeiro projecto foi retomado. No final, o primeiro projecto ficou uma prova de conceito para demonstrar uma possível interface muito versátil e muito personalizável que usa o Activiti (faltam algumas funcionalidades) ou o jBPM (suporte completo) como fonte para BPM e uma ligação CMIS para uma ligação ECM usando os dois para trabalho em equipa para desenvolver tarefas humanas.Enterprise content management (ECM) [77] appeared some years ago with the main purpose to reduce the amount of time dedicated to deal with the paperwork required to run a business. Assets were (and still are, for most companies) stored in large warehouses with strict sorting and very strict access rights. Without an ECM, when an employee requires a specific document, he would have to ask someone to search the document, get the document, and deliver the document to him, potentially, in a different building. Having an employee whose main purpose is to search and deliver company’s assets to whom requires them is probably not the most productive way of using an employee’s time. The ECM’s main work is to place a mirror to that repository and those employees who would run around delivering the documents (or copies of them) and manage the assets as if it was physical paper documents, except everything is digital while doing many other asset related tasks in the background. The usual setup is having an ECM working along an enterprise search backend and, optionally, a business process management (BPM) [15]. The enterprise search backend is responsible for indexing all search relevant information that exists in the ECM so that everything can be easily found with the known information about the thing. The BPM takes care of many internal system communications with the workflow management as its main feature
    corecore