9 research outputs found

    Kommunikation und Bildverarbeitung in der Automation

    Get PDF
    In diesem Open Access-Tagungsband sind die besten Beiträge des 11. Jahreskolloquiums "Kommunikation in der Automation" (KommA 2020) und des 7. Jahreskolloquiums "Bildverarbeitung in der Automation" (BVAu 2020) enthalten. Die Kolloquien fanden am 28. und 29. Oktober 2020 statt und wurden erstmalig als digitale Webveranstaltung auf dem Innovation Campus Lemgo organisiert. Die vorgestellten neuesten Forschungsergebnisse auf den Gebieten der industriellen Kommunikationstechnik und Bildverarbeitung erweitern den aktuellen Stand der Forschung und Technik. Die in den Beiträgen enthaltenen anschauliche Anwendungsbeispiele aus dem Bereich der Automation setzen die Ergebnisse in den direkten Anwendungsbezug

    Kommunikation und Bildverarbeitung in der Automation

    Get PDF

    Performanz Evaluation von PQC in TLS 1.3 unter variierenden Netzwerkcharakteristiken

    Full text link
    Quantum computers could break currently used asymmetric cryptographic schemes in a few years using Shor's algorithm. They are used in numerous protocols and applications to secure authenticity as well as key agreement, and quantum-safe alternatives are urgently needed. NIST therefore initiated a standardization process. This requires intensive evaluation, also with regard to performance and integrability. Here, the integration into TLS 1.3 plays an important role, since it is used for 90% of all Internet connections. In the present work, algorithms for quantum-safe key exchange during TLS 1.3 handshake were reviewed. The focus is on the influence of dedicated network parameters such as transmission rate or packet loss in order to gain insights regarding the suitability of the algorithms under corresponding network conditions. For the implementation, a framework by Paquin et al. was extended to emulate network scenarios and capture the handshake duration for selected algorithms. It is shown that the evaluated candidates Kyber, Saber and NTRU as well as the alternative NTRU Prime have a very good overall performance and partly undercut the handshake duration of the classical ECDH. The choice of a higher security level or hybrid variants does not make a significant difference here. This is not the case with alternatives such as FrodoKEM, SIKE, HQC or BIKE, which have individual disadvantages and whose respective performance varies greatly depending on the security level and hybrid implementation. This is especially true for the data-intensive algorithm FrodoKEM. In general, the prevailing network characteristics should be taken into account when choosing scheme and variant. Further it becomes clear that the performance of the handshake is influenced by external factors such as TCP mechanisms or MTU, which could compensate for possible disadvantages due to PQC if configured appropriately.Comment: Master's thesis, 160 pages, in Germa

    Datenwirtschaft und Datentechnologie

    Get PDF
    In diesem Open-Access-Buch stehen die wirtschaftliche Verwertung von Daten und die dazu gehörenden technischen und organisatorischen Prozesse und Strukturen in Unternehmen im Fokus. Es behandelt Themen wie Datenmonetarisierung, Datenverträge, Data Governance, Informationssicherheit, Datenschutz und die Vertrauenswürdigkeit von Daten. Seit Jahren wird davon gesprochen, dass „Daten das neue Öl“ sind. Expertinnen und Experten sind sich einig: Das Wertschöpfungspotential von Daten ist enorm und das über fast alle Branchen und Geschäftsfelder hinweg. Und dennoch bleibt ein Großteil dieses Potentials ungehoben. Deshalb nimmt dieser Sammelband konkrete Innovationshemmnisse, die bei der Erschließung des wirtschaftlichen Werts von Daten auftreten können, in den Blick. Er bietet praktische Lösungsansätze für diese Hürden an den Schnittstellen von Ökonomie, Recht, Akzeptanz und Technik. Dazu folgen die Autorinnen und Autoren einem interdisziplinären Ansatz und greifen aktuelle Diskussionen aus der Wissenschaft auf, adressieren praxisnahe Herausforderungen und geben branchenunabhängige Handlungsempfehlungen. Den Leserinnen und Lesern soll eine transparente Informationsbasis angeboten werden und damit die Teilnahme an der Datenwirtschaft erleichtert werden. Dieses Buch richtet sich an Entscheidungsträgerinnen und Entscheidungsträger in Unternehmen sowie an Entwicklerinnen und Entwickler datenbasierter Dienste und Produkte. Der Band ist ebenfalls für Fachkräfte der angewandten Forschung wie auch für interdisziplinär Studierende z.B. der Wirtschaftsinformatik, der technikorientierten Rechtswissenschaft oder der Techniksoziologie relevant

    Konzeptionelle Erstellung einer universellen Versuchsanlage für moderne Zugbeeinflussungssysteme

    Get PDF
    Das System Eisenbahn erfordert technische Lösungen und umfangreiche Vorschrif-ten, um das komplexe Zusammenwirken der beteiligten Komponenten trotz vielfäl-tiger Randbedingungen zu einem sicheren Verkehrssystem zu kombinieren. Um die Einhaltung der Vorgaben sicherzustellen, überwachen Zugbeeinflussungssysteme das Handeln des Triebfahrzeugführers. Durch die Harmonisierung des europäi-schen Eisenbahnverkehrs und die damit verbundene Einführung des European Train Control System kommt dabei ein komplexes, umfangreiches und leistungsfä-higes Zugbeeinflussungssystem zum Einsatz. Um auch zukünftig den Bedarf an sehr gut ausgebildeten Fachkräften der Bahnsicherungstechnik decken zu können, be-steht der Wunsch nach einer generischen Versuchsanlage für moderne Zugbeein-flussungssysteme, die sowohl zur Ausbildung angehender Ingenieure als auch zur Forschung und Weiterentwicklung bestehender Systeme angewendet werden kann. Für die Errichtung dieser Versuchsanlage wird in dieser wissenschaftlichen Arbeit ein Konzept entwickelt. Dabei wird ein generisches Modell des Bahnsystems mit dem Fokus auf moderne Zugbeeinflussungssysteme entwickelt. Hierbei stehen ein modularer Aufbau und die Verwendung von standardisierten Schnittstellen zur Da-tenübertragung im Vordergrund. Die Möglichkeiten zur Umsetzung werden be-schrieben und diskutiert, praktische Anwendungsvarianten werden vorgestellt

    Datenwirtschaft und Datentechnologie

    Get PDF

    Konzepte für Datensicherheit und Datenschutz in mobilen Anwendungen

    Get PDF
    Smart Devices und insbesondere Smartphones nehmen eine immer wichtigere Rolle in unserem Leben ein. Aufgrund einer kontinuierlich anwachsenden Akkulaufzeit können diese Geräte nahezu ununterbrochen mitgeführt und genutzt werden. Zusätzlich sorgen stetig günstiger werdende Mobilfunktarife und ansteigende Datenraten dafür, dass den Nutzern mit diesen Geräten eine immerwährende Verbindung zum Internet zur Verfügung steht. Smart Devices sind dadurch nicht mehr reine Kommunikationsmittel sondern ebenfalls Informationsquellen. Darüber hinaus gibt es eine Vielzahl an Anwendungen von Drittanbietern für diese Geräte. Dank der darin verbauten Sensoren, können darauf beispielsweise ortsbasierte Anwendungen, Gesundheitsanwendungen oder Anwendungen für die Industrie 4.0 ausgeführt werden, um nur einige zu nennen. Solche Anwendungen stellen allerdings nicht nur ein großes Nutzen-, sondern zu gleich ein immenses Gefahrenpotential dar. Über die Sensoren können die unterschiedlichsten Kontextdaten erfasst und relativ präzise Rückschlüsse auf den Nutzer gezogen werden. Daher sollte bei diesen Geräten ein besonderes Augenmerk auf die Datensicherheit und insbesondere auf den Datenschutz gelegt werden. Betrachtet man allerdings die bestehenden Datensicherheits- und Datenschutzkomponenten in den aktuell vorherrschenden mobilen Plattformen, so fällt auf, dass keine der Plattformen die speziellen Anforderungen an ein mobiles Datensicherheits- und Datenschutzsystem zufriedenstellend erfüllt. Aus diesem Grund steht im Zentrum der vorliegende Arbeit die Konzeption und Umsetzung neuartiger Datensicherheits- und Datenschutzkonzepte für mobile Anwendungen. Hierfür werden die folgenden fünf Forschungsbeiträge erbracht: [FB1] Bestehende Datensicherheits- und Datenschutzkonzepte werden analysiert, um deren Schwachstellen zu identifizieren. [FB2] Ein kontextsensitives Berechtigungsmodell wird erstellt. [FB3] Das Berechtigungsmodell wird in einem flexiblen Datenschutzsystem konzeptionell eingebettet und anschließend implementiert. [FB4] Das Datenschutzsystem wird zu einem holistischen Sicherheitssystem erweitert. [FB5] Das daraus entstandene holistische Sicherheitssystem wird evaluiert. Um die Forschungsziele zu erreichen, wird mit dem Privacy Policy Model (PPM) ein gänzlich neues Modell zur Formulierung von feingranularen Berechtigungsregeln eingeführt, die es dem Nutzer ermöglichen, je nach Bedarf, einzelne Funktionseinheiten einer Anwendung zu deaktivieren, um dadurch die Zugriffsrechte der Anwendung einzuschränken. Zusätzlich kann der Nutzer auch die Genauigkeit der Daten, die der Anwendung zur Verfügung gestellt werden, reduzieren. Das PPM wird in der Privacy Policy Platform (PMP) implementiert. Die PMP ist ein Berechtigungssystem, das nicht nur für die Einhaltung der Datenschutzrichtlinien sorgt, sondern auch einige der Schutzziele der Datensicherheit erfüllt. Für die PMP werden mehrere Implementierungsstrategien diskutiert und deren Vor- und Nachteile gegeneinander abgewogen. Um neben den Datenschutz auch die Datensicherheit gewährleisten zu können, wird die PMP um den Secure Data Container (SDC) erweitert. Mit dem SDC können sensible Daten sicher gespeichert und zwischen Anwendungen ausgetauscht werden. Die Anwendbarkeit der PMP und des SDCs wird an Praxisbeispielen aus vier unterschiedlichen Domänen (ortsbasierte Anwendungen, Gesundheitsanwendungen, Anwendungen in der Industrie 4.0 und Anwendungen für das Internet der Dinge) demonstriert. Bei dieser Analyse zeigt sich, dass die Kombination aus PMP und SDC nicht nur sämtliche Schutzziele, die im Rahmen der vorliegenden Arbeit relevant sind und sich am ISO-Standard ISO/IEC 27000:2009 orientieren, erfüllt, sondern darüber hinaus sehr performant ist. Durch die Verwendung der PMP und des SDCs kann der Akkuverbrauch von Anwendungen halbiert werden

    Methoden und Werkzeuge für eine datengetriebene Entwicklung digitaler Gesundheitsanwendungen

    Get PDF
    Dem Paradigma der Präzisionsmedizin folgend schaffen digitale Gesundheitsanwendungen die Grundlage für eine personalisierte Versorgung, um damit die Effizienz und Effektivität von Gesundheitssystemen zu erhöhen. Im Kontext weltweit entstehender digitaler Gesundheitsökosysteme stehen dabei Daten als treibender Faktor im Mittelpunkt des Entwicklungsprozesses. Welche Methoden und Werkzeuge benötigt werden, um das dadurch mögliche Zusammenspiel zwischen einer datengetriebenen und einer wissensbasierten Entwicklung von digitalen Gesundheitsanwendungen zu unterstützen, wird in dieser Arbeit untersucht und anhand eines Rahmenwerks beschrieben. Durch Anwendung der Design Science Research Methode werden diesbezügliche Artefakte einem probleminitiierten Ansatz folgend entworfen, implementiert und durch quantitative sowie qualitative Methoden evaluiert. Dafür wird zunächst ein Vorgehensmodell abgeleitet, welches die zu beantwortenden Fragen in den Phasen der Digitalisierung, Automatisierung und Optimierung bis hin zur Translation in die medizinische Versorgung adressiert. Unter Beachtung entsprechender Normen findet eine Verknüpfung von interdisziplinären Methoden, Anforderungen sowie technologischen Ansätzen zu einer Wissensbasis statt, womit die Grundlage für zu entwickelnde Werkzeuge gelegt wird. Diese werden im Anwendungskontext dementieller Syndrome eruiert und pro Artefakt demonstriert sowie im Detail mit nn Probanden multiperspektivisch validiert. In Kooperation mit einer gerontopsychiatrischen Klinik werden diesbezüglich domänenspezifische Anforderungen an digitale Gesundheitsanwendungen bestimmt. Hierfür findet exemplarisch die explorative Entwicklung eines ambulanten Systems zur Messung kognitiver Leistungsparameter statt. Eine im Kontext dieser Zusammenarbeit durchgeführte Feldstudie (n=55n=55) mit kognitiv eingeschränkten Personen zeigt Potentiale und Herausforderungen, welche durch die digitale Erfassung, Vernetzung und Auswertung von neuropsychologischen Daten entstehen. Dabei werden ebenfalls Anforderungen bezüglich der zielgruppenspezifischen Gestaltung einer gebrauchstauglichen Nutzerschnittstelle (n=91n=91) gesammelt, welche in einem Leitfaden zusammenfließen und in einer grafischen Benutzeroberfläche iterativ implementiert werden. Aus der Perspektive von Datensubjekten (n=238n=238) wird zusätzlich untersucht, welchen Stellenwert ein selbstbestimmter Umgang mit dieser Art von personenbezogenen Daten hat und für welche Zwecke diese aus deren Sicht eingesetzt werden sollten. Im Zuge dieses Entwicklungsprozesses sind ebenfalls Ansätze zur Automatisierung und Optimierung der Datenauswertung für die Ableitung des Gesundheitszustandes notwendig. Diese Schritte liefern als Artefakte, neben den Ergebnissen zum Vergleich verschiedener Algorithmen aus dem Bereich des maschinellen Lernens, die Identifikation von dafür geeigneten Leistungs- und Optimierungsmaßen sowie Merkmalsselektionsverfahren. Im Vergleich mit schwellwertbasierten Verfahren zur Operationalisierung von Bewertungsmetriken (maximaler Cohen\u27s Kappa κ=0,67\kappa = 0,67) erreicht die durch maschinelles Lernen gestützte Softwareanwendung eine höhere durchschnittliche Sensitivität von 83% bei einer 93%igen Spezifität (maximaler Cohen\u27s Kappa κ=0,79\kappa = 0,79) für die Erkennung von kognitiven Einschränkungen. Die automatisierte Erfassung hierfür notwendiger Merkmale erfolgt durch neu entwickelte Ansätze und zeigt zukünftige Forschungsaktivitäten auf, welche die damit verbundenen Herausforderungen adressieren. Dabei werden Indikatoren identifiziert, wodurch sich die Potentiale in computergestützten Modellen aufzeigen. Diese liefern zusätzliche Erkenntnisse über das Spannungsfeld zwischen einer zuverlässigen Erfüllung klinischer Leitlinien sowie regulatorischer Implikationen insbesondere hinsichtlich der Erklärbarkeit datengetriebener Optimierungs- und Automatisierungsansätze. Eine Untersuchung der Transferpotentiale in die deutsche Regelversorgung aus der Perspektive unterschiedlicher Interessenvertreter unterstreicht diese Punkte. Hierfür konzipierte Werkzeuge und Methoden ermöglichen einerseits die empirische Untersuchung der Adhärenz solcher digitaler Lösungen bezüglich der Nutzungsbereitschaft (n=29n=29) sowie deren zeitliche Entwicklung (n=18n=18). Andererseits werden damit die Akzeptanzkriterien der kassenärztlich organisierten Leistungserbringer im deutschen Gesundheitswesen (n=301n=301) erhoben und dargestellt, welchen Einfluss diese auf Markteintrittsstrategien haben. Darauf aufbauend werden Wege definiert, um einen Beitrag zur Entlastung des Gesundheitssystems zu leisten. Die gesammelten Erkenntnisse werden hierfür in einem ganzheitlichen Plattformkonzept zur Entwicklung personalisierter Präventions- und Behandlungsprogramme gebündelt
    corecore