2,083 research outputs found

    Über den Satz vom primitiven Element bei Schiefkörpern

    Get PDF

    About Shor's algorithm and quantum computers

    Full text link
    Diese Bachelorarbeit dient der Erläuterung des Shor-Algorithmus mit besonderem Augenmerk auf seine nicht-klassischen Bestandteile. Sie beinhaltet einen einführenden Teil zu theoretischer Informatik und Quantum Computing, eine detaillierte Darstellung des Algorithmus mit seinen Konstituenten wie Quantenphasenschätzung und Quantenfouriertransformation sowie eine Herleitung einer Abschätzung für die Laufzeitkomplexität des Algorithmus und einem kurzen Teil über die Schwierigkeiten bei der praktischen Umsetzung des Algorithmus, das heißt der Konstruktion von Quantencomputern.This Bachelor’s thesis focuses on the explanation of Shor’s algorithm, especially the quantum part. It encompasses an introductory part on theoretical computer science and quantum computing giving the necessary knowledge for understanding Shor’s algorithm, a detailed presentation of the algorithm itself with its constituent parts like quantum phase approximation and the quantum fourier transform, as well as a derivation of the algorithm’s running time complexity and a short part on the difficulties of constructing quantum computers that could implement Shor’s algorithm

    Ressourceneffiziente Hardware-Software-Kombinationen für Kryptographie mit elliptischen Kurven

    Get PDF
    Puttmann C. Ressourceneffiziente Hardware-Software-Kombinationen für Kryptographie mit elliptischen Kurven. Bielefeld: Universität Bielefeld; 2014.In der heutigen Informationsgesellschaft spielt die sichere Übertragung von elektronischen Daten eine immer wichtigere Rolle. Die hierfür eingesetzten Endgeräte beschränken sich mittlerweile nicht mehr auf klassische, stationäre Computer, sondern es setzen zunehmend mobile Alltagsgegenstände (z.B. Smartphone oder Reisepass) eine sichere Datenübertragung zwingend voraus. Die Anforderungen bezüglich der Ressourcen einer Hardware-Software-Kombination variieren dabei für verschiedene Anwendungsszenarien sehr stark. Kryptographie auf Basis von elliptischen Kurven stellt eine attraktive Alternative zu etablierten asymmetrischen Verfahren dar und wird vermehrt eingesetzt, um sicherheitskritische Daten zu ver- bzw. entschlüsseln sowie deren Integrität und Authentizität sicherzustellen. Im Rahmen dieser Arbeit werden, am Beispiel von Algorithmen für die Kryptographie mit elliptischen Kurven, verschiedene Methoden vorgestellt, um ressourceneffiziente Hardware-Software-Kombinationen zu entwickeln. Es wird eine automatisierte Testumgebung vorgestellt, welche die systematische Entwicklung von ressourceneffizienten Hardware-Software-Kombinationen ermöglicht. Um verschiedene Implementierungen im Hinblick auf ein spezielles Anwendungsszenario miteinander vergleichen zu können, wird eine allgemeine Bewertungsmetrik eingeführt, welche die drei wesentlichen Parameter (Chipfläche, Verlustleistung, Ausführungsdauer) des Entwurfsraumes einer ASIC-Entwicklung berücksichtigt. Basierend auf einer hierarchisch entwickelten, skalierbaren Systemarchitektur wird eine Entwurfsraumexploration für zwei exemplarische Anwendungsszenarien durchgeführt. Mit den angewandten Konzepten der Instruktionssatzerweiterung, der Parallelisierung sowie eines Coprozessor-Ansatzes wird die Ressourceneffizienz auf unterschiedlichen Hierarchieebenen der zugrundeliegenden Systemarchitektur anwendungsspezifisch optimiert. Die Ergebnisse werden mit Hilfe einer FPGA-basierten Entwicklungsumgebung prototypisch evaluiert sowie durch eine ASIC-Realisierung in einer 65-nm-CMOS-Standardzellentechnologie praktisch belegt

    Kryptoanalytische Verfahren für die Elliptische-Kurven-Kryptographie

    Get PDF
    In der vorliegenden Masterarbeit werden die neuesten Entwicklungen kryptoanalytischer Verfahren zur Lösung des diskreten Logarithmus in der Elliptischen-Kurven-Kryptographie zusammengefasst, um Schlussfolgerungen über die Sicherheit aktuell verwendbarer Schlüssellängen aufzustellen. Dabei werden auch derzeit eingesetzte Hardwarelösungen betrachtet, die ebenfalls die Sicherheit aktuell verwendbarer Schlüssellängen beeinflusse

    Überblick und Klassifikation leichtgewichtiger Kompressionsverfahren im Kontext hauptspeicherbasierter Datenbanksysteme

    Get PDF
    Im Kontext von In-Memory-Datenbanksystemen nehmen leichtgewichtige Kompressionsalgorithmen eine entscheidende Rolle ein, um eine effiziente Speicherung und Verarbeitung großer Datenmengen im Hauptspeicher zu realisieren. Verglichen mit klassischen Komprimierungstechniken wie z.B. Huffman erzielen leichtgewichtige Kompressionsalgorithmen vergleichbare Kompressionsraten aufgrund der Einbeziehung von Kontextwissen und erlauben eine schnellere Kompression und Dekompression. Die Vielfalt der leichtgewichtigen Kompressionsalgorithmen hat in den letzten Jahren zugenommen, da ein großes Optimierungspotential über die Einbeziehung des Kontextwissens besteht. Um diese Vielfalt zu bewältigen haben wir uns mit der Modularisierung von leichtgewichtigen Kompressionsalgorithmen beschäftigt und ein allgemeines Kompressionsschema entwickelt. Durch den Austausch einzelner Module oder auch nur eingehender Parameter lassen sich verschiedene Algorithmen einfach realisieren.:1 Einleitung 1 2 Modularisierung von Komprimierungsmethoden 5 2.1 Zum Literaturstand 5 2.2 Einfaches Schema zur Komprimierung 7 2.3 Weitere Betrachtungen 11 2.3.1 Splitmodul und Wortgenerator mit mehreren Ausgaben 11 2.3.2 Hierarchische Datenorganisation 13 2.3.3 Mehrmaliger Aufruf des Schemas 15 2.4 Bewertung und Begründung der Modularisierung 17 2.5 Zusammenfassung 17 3 Modularisierung für verschiedene Kompressionsmuster 19 3.1 Frame of Reference (FOR) 19 3.2 Differenzkodierung (DELTA) 21 3.3 Symbolunterdrückung 23 3.4 Lauflängenkodierung (RLE) 23 3.5 Wörterbuchkompression (DICT) 24 3.6 Bitvektoren (BV) 26 3.7 Vergleich verschiedener Muster und Techniken 26 3.8 Zusammenfassung 30 4 Konkrete Algorithmen 31 4.1 Binary Packing 31 4.2 FOR mit Binary Packing 33 4.3 Adaptive FOR und VSEncoding 35 4.4 PFOR-Algorithmen 38 4.4.1 PFOR und PFOR2008 38 4.4.2 NewPFD und OptPFD 42 4.4.3 SimplePFOR und FastPFOR 46 4.4.4 Anmerkungen zur differenzkodierten Daten 49 5.4 Simple-Algorithmen 49 4.5.1 Simple-9 49 4.5.2 Simple-16 50 4.5.3 Relative-10 und Carryover-12 52 4.6 Byteorientierte Kodierungen 55 4.6.1 Varint-SU und Varint-PU 56 4.6.2 Varint-GU 56 4.6.3 Varint-PB 59 4.6.4 Varint-GB 61 4.6.5 Vergleich der Module der Varint-Algorithmen 62 4.6.6 RLE VByte 62 4.7 Wörterbuchalgorithmen 63 4.7.1 ZIL 63 4.7.2 Sigmakodierte invertierte Dateien 65 4.8 Zusammenfassung 66 5 Eigenschaften von Komprimierungsmethoden 69 5.1 Anpassbarkeit 69 5.2 Anzahl der Pässe 71 5.3 Genutzte Information 74 5.4 Art der Daten und Arten von Redundanz 74 5.5 Zusammenfassung 77 6 Zusammenfassung und Ausblick 7

    Trusted Computing für adaptive Automobilsteuergeräte im Umfeld der Inter-Fahrzeug-Kommunikation

    Get PDF
    Die vorliegende Arbeit beschäftigt sich mit der Sicherheit (Security) von Automobilelektronik, speziell der Kommunikation zwischen Fahrzeugen für Safety-Anwendungen. Hierzu wird die Absicherung der Kommunikation über digitale Signaturen betrachtet und eine prototypische Implementierung auf rekonfigurierbarer Hardware vorgestellt. Darüber hinaus wird die Absicherung der Kommunikationsplattform selbst über die Anwendung von Trusted Computing für rekonfigurierbare Systeme sichergestellt

    Ökonometrische Analyse diskreter dynamischer Entscheidungsprozesse

    Get PDF
    Eine Vielzahl ökonomischer Entscheidungen ist diskreter Natur und weist ein intertemporales, sequentielles Element auf. Beispiele sind das Ersatzproblem für dauerhafte Wirtschaftsgüter, die Investitionsentscheidung bei endogenem Marktaustritt, die Wahl des Verrentungszeitpunktes sowie die Migrationsentscheidung. Wegen ihrer sequentiellen Struktur sollte die Analyse dieser Entscheidungen in ein intertemporales Optimierungmodell eingebettet werden; in diesen Fällen spricht man von diskreten dynamischen Entscheidungsprozessen. Die strukturelle ökonometrische Analyse derartiger Modelle ist anspruchsvoll, weil sie eine Lösung des zugrundeliegenden dynamischen Optimierungsmodells erfordert. In den letzten Jahren wurden dazu eine Reihe von Verfahren entwickelt, die in dieser Arbeit vorgestellt werden sollen. Der Schwerpunkt liegt dabei auf einem von Rust (1987, 1988) entwickelten Maximum-Likelihood-Verfahren, dem geschachtelten Fixpunkt-Algorithmus. Dieses Verfahren ist vielseitig einsetzbar, aber numerisch aufwendig. Praktische Erfahrungen mit diesem Verfahren werden anhand der genannten vier Anwendungen (Ersatzinvestition, Betriebsschließung, Ruhestandsentscheidung, Migration) illustriert

    Die XXL—Suchmaschine zur ontologiebasierten Ähnlichkeitssuche in XML—Dokumenten

    Get PDF
    Die effektive und effiziente Informationssuche in großen Mengen semistrukturierter Daten im XML-Format stehen im Mittelpunkt dieser Arbeit. In dieser Arbeit wird die XXL-Suchmaschine vorgestellt. Sie wertet Anfragen aus, die in der XML-Anfragesprache XXL formuliert sind. Eine XXL-Anfrage umfasst dabei Suchbedingungen an die Struktur und an den Inhalt von XML-Dokumenten. Als Ergebnis wird eine nach ihrer Relevanz absteigend sortierte Liste von Treffern produziert, wobei ein Treffer ein relevantes XML-Dokument oder nur der relevante Teil eines XML-Dokuments sein kann. Die relevanzorientierte Auswertung von gegebenen Suchbedingungen beruht zum einen auf Verfahren aus dem Vektorraummodell und zum anderen wird semantisches Wissen einer quantifizierten Ontologie hinzugezogen. Zu diesem Zweck werden Datenbank-Technologien und Verfahren aus dem Information Retrieval kombiniert, um die Qualität der Suchergebnisse im Vergleich zur traditionellen Stichwortsuche in Textdokumenten zu verbessern. Die hier vorgestellten Konzepte wurden in einem Prototypen implementiert und umfangreich evaluiert.The effective and efficient information retrieval in large sets of semistructured data using the XML format is the main theme of this thesis. This thesis presents the XXL search engine, which executes queries formulated in the XML query language XXL. An XXL query consists of search conditions on the structure and search conditions on the content of XML documents. The result is a ranked result list in descending order of relevance, where a result can be a relevant XML document or only the relevant part of an XML document. The relevance-based query evaluation uses methods from the vector space model and semantic knowledge from a quantified ontology. For this purpose, we combine database technologies and methods from information retrieval to improve the quality of search results in comparison to traditional keyword-based text retrieval. The presented concepts have been implemented and exhaustively evaluated
    corecore