77 research outputs found

    RFID fĂŒr Bibliothekare : ein Vademecum

    Get PDF
    Die BeitrĂ€ge, so der auch oft an die Herausgeber herangetragene Wunsch, sollten erlĂ€uternder sein, als die verfĂŒgbaren online-PrĂ€sentationen, somit auch denen verstĂ€ndlich, welche nicht an den RFID-Symposien teilnehmen konnten. Die thematische Spannweite ist dabei sehr groß und könnte sogar unter Anspielung auf einen alten Filmtitel etwas erweitert werden zu dem Motto: Was Sie schon immer ĂŒber RFID wissen wollten und sollten, aber bisher nicht zu fragen wagten oder zu fragen gedachten! Die im vorliegenden Nachschlagewerk enthaltenen BeitrĂ€ge greifen Themen wie das Innovationspotenzial, Lobbyarbeit, wirtschaftliche Aspekte, die Entwicklung der Bibliothekstechnik generell auf, nehmen sich aber auch rechtlicher Aspekte an, den Inventurverfahren, möglicher gesundheitlicher GefĂ€hrdungen, der QualitĂ€t und den Standards, den zwei gĂ€ngigen Schnittstellen zum Bibliotheksmanagementsystem, den bauphysikalischen Aspekte, verschiedenen Betrachtungswinkeln auf den Logistikkreislauf, Problemfeldern von Fernleihe bis NFC-befĂ€higten Smartphones, weiteren Features etc. Insofern stellt diese Projektarbeit oder ins Tagewerk einfließende Aufgabe eine nicht zu unterschĂ€tzende Herausforderung fĂŒr den damit beauftragten und beschĂ€ftigten Bibliothekar dar. Die KollegInnen in diesem Aufgabenbereich zu unterstĂŒtzen, ist das erste Ziel des vorliegenden Bandes. Und derer, die im Berufsalltag damit konfrontiert sind, werden es zunehmend mehr, da die EinfĂŒhrung von RFID-Technologie in Bibliotheken und Informationseinrichtungen ein rasantes Tempo annimmt. Das primĂ€re Ziel jedoch dieses Bandes ist es, der oder dem mit Funketiketten, RFID Selbstverbuchern und Schleusen beschĂ€ftigten Kollegin oder Kollegen, ein unentbehrlicher Begleiter, ein Vademecum, zu sein

    Kritische Betrachtung der Sicherheitsaspekte von BPM in der Cloud

    Get PDF
    Das Thema Cloud Computing hat in den letzten Jahren immer mehr an Bedeutung gewonnen, insbesondere Klein- und mittelstĂ€ndische Firmen können von der Cloud profitieren, da z.B. weniger in den Aufbau einer eigenen IT investiert werden muss. Die Kombination von BPM und Cloud Computing steht allerdings noch am Anfang ihrer Entwicklung. Zwar bieten schon einige Unternehmen BPM in der Cloud an (BPMaaS) und der Markt wĂ€chst stetig aber das Angebot ist momentan noch ĂŒberschaubar, in Bezug auf Benutzung und Entwicklung. Der Vorteil GeschĂ€ftsprozesse in der Cloud zu bearbeiten geht Hand in Hand mit den Vorteilen des Cloud Computing im Allgemeinen. Allerdings muss auch, ungeachtet der Vorteile, die die Cloud mit sich bringt, genau bedacht werden, welche Daten in die Cloud ĂŒbermittelt werden und welcher Cloudanbieter ausgewĂ€hlt wird. Insbesondere der Datenschutz und die Datensicherheit spielen hier eine große Rolle. Denn wenn in Deutschland personenbezogene Daten in die Cloud ausgelagert werden, mĂŒssen diese gemĂ€ĂŸ den Regelungen des Bundesdatenschutzgesetzes behandelt werden. Da der Cloudnutzer fĂŒr den Schutz dieser Daten verantwortlich bleibt, auch wenn diese auf den Servern des Cloud Service Provider liegen, besteht hierbei große Vorsicht bei der Auswahl des Cloudanbieters. Vor allem wenn die Server desjenigen außerhalb des EuropĂ€ischen Wirtschaftsraumes (EWR) liegen, wie z.B. in den USA, da dort ein weitaus geringeres Datenschutzniveau besteht als in Deutschland. Das Ziel dieser Diplomarbeit ist es, diese Schwierigkeiten in Bezug auf Datenschutz und Datensicherheit offenzulegen. Mittels eines Kriterienkataloges werden die wichtigsten Anforderungen und Sicherheitskriterien an die Cloud aufgelistet und mit denen der Cloudanbieter verglichen und eingeordnet. Vor diesem Hintergrund werden auch Möglichkeiten betrachtet, inwiefern und mit welchen Mitteln sensible Daten anonymisiert werden können, um eine rechtskonforme Speicherung der Daten, gemĂ€ĂŸ dem Bundesdatenschutzgesetzes, gewĂ€hrleisten zu können.The topic of cloud computing became more important in the last few years, especially in relation to small enterprises, because they can benefit from the advantages of the Cloud, such as less investment in the own IT infrastructure. But the combination of BPM and Cloud Computing is only just beginning to develop. Although some companies offer Business Process Management in the Cloud and the market continues to grow, but the offer is relatively modest. The benefits of moving business processes into the cloud (such as BPMaaS) are the same as those which offers cloud computing in general. What need to be considered, however, is which data is to be outsourced in the cloud and which provider needs to be selected. In particular, data protection and data security play an important role in this topic. If german personal data are transferred into the cloud, the data must be treated in accordance with the German Federal Data Protection Act. The cloud computing user stays responsible for all content and data, even if this data will be stored on the provider’s server, so caution is also recommended in this case. Especially when these servers are outside of the European Economic Area, such as USA, because there consist a much lower level of data privacy protection than in Germany. The purpose of this diploma thesis is to explore these difficulties in relation to data protection and data security. By means of a catalog of criteria, the most important requirements and security criteria will be listed and compared with those of the provider. Against this background a number of possible opportunities for a concept of "anonymization" of data are considered, to secure that the data storage complies with legal requirements, such as the German Federal Data Protection Act

    Netzwerkmanagement und Hochleistungskommunikation. Teil XXII. Seminar SS 2000

    Get PDF
    Zusammenfassung Der vorliegende interne Bericht enthĂ€lt die BeitrĂ€ge zum Seminar "`Netzwerkmanagement und Hochleistungskommunikation"\u27, das im Sommersemester 2000 zum 22. Mal stattgefunden hat. Die Themenauswahl kann grob in folgende drei Blöcke gegliedert werden: enumerate Ein Block ist der Hochgeschwindigkeits-Technologie gewidmet. Im ersten Beitrag wird das Konzepts des Multiprotocol Label Switchings (MPLS) vorgestellt, welches gegenĂŒber herkömmlichem Routing einen Geschwindigkeitsvorteil im Bereich einer GrĂ¶ĂŸenordnung mit sich bringt. Der zweite Beitrag beschreibt effiziente Verfahren und Algorithmen zur Klassifikation von IP-Paketen, welche bei stĂ€ndig zunehmender Geschwindigkeit der Router zunehmend an Bedeutung gewinnen. Der dritte Beitrag behandelt Varianten des Transmission Control Protocols TCP, dessen Mechanismen fĂŒr höhere Leistung oder mobile Einsatzszenarien erweitert werden mĂŒssen. Ein zweiter Block beschĂ€ftigt sich mit verschiedenen Themen aus den Bereichen drahtlose Kommunikation, Netzwerkmanagement und Sicherheit. Hier wird zum einen die Protokoll-Architektur des Wireless Application Protocols (WAP) vorgestellt, welches die speziellen Anforderungen mobiler Teilnehmer mit kleinsten drahtlos angebundenen EndgerĂ€ten, beispielsweise Mobiltelefonen, in Bezug auf die Internet- bzw. Datenkommunikation berĂŒcksichtigt. Zum anderen wird im Beitrag zur automatischen Netzwerk-Konfiguration auf ein im Zeitalter der stĂ€ndig wachsenden Netze zunehmend wichtiges Netzwerkmanagement-Thema eingegangen. Schließlich werden im dritten Thema Zero-Knowledge-Protokolle, elegante Verfahren zur Authentisierung, vorgestellt, welche etwa im Bereich des elektronischen Zahlungsverkehrs eingesetzt werden können. Der dritte Block umfasst den Themenbereich der Gruppenkommunikation. Hier werden einerseits neuere AnsĂ€tze zum Multicast-Routing beschrieben und andererseits eine Auswahl der funktional darĂŒber angeordneten, zahlrei chen Multicast-Transportprotokolle. enumerate Abstract This Technical Report includes student papers produced within a seminar of `Network Management and High Performance Communications\u27. For the 22nd time this seminar has attracted a largenumber of diligent students, proving the broad interest in topics of network management and high performance communications. The topics of this report may be divided into three blocks: enumerate One block is devoted to high speed and high performance technology. At first, the concept of Multiprotocol Label Switchings (MPLS) is described. Subsequently, Efficient Methods and Algorithms for Classification of IP Packets and Variants of TCP are presented. A second block deals with various topics such as wireless communications, network management and security. The first article shows advantages of the Wireless Application Protocol (WAP) to access Internet information in mobile environments. The second article describes Automatic Network Configuration Mechanisms which are of increasing importance. Third, Zero Knowledge Protocols for secure authentication are examined and presented. The third block deals with group communication and shows New Approaches for Multicast Routing as well as an overview of some Multicast Transport Protocols

    Arbeitsbericht Nr. 2011-03, September 2011

    Get PDF
    Ilmenauer BeitrĂ€ge zur Wirtschaftsinformatik Nr. 2011-03 / Technische UniversitĂ€t Ilmenau, FakultĂ€t fĂŒr Wirtschaftswissenschaften, Institut fĂŒr Wirtschaftsinformatik ISSN 1861-9223 ISBN 978-3-938940-35-

    Klausurtagung des Instituts fĂŒr Telematik. Schloss Dagstuhl, 29. MĂ€rz bis 1. April 2000

    Get PDF
    Der vorliegende Bericht gibt einen Überblick ĂŒber aktuelle Forschungsarbeiten des Instituts fĂŒr Telematik an der UniversitĂ€t Karlsruhe (TH). Das Institut fĂŒr Telematik ist in einem Teilgebiet der Informatik tĂ€tig, welches durch das Zusammenwachsen von Informatik und Kommunikationstechnik zur Telematik geprĂ€gt ist. Es gliedert sich in die Forschungsbereiche Telematik, Telecooperation Office (TecO), Cooperation & Management, Hochleistungsnetze und Netzwerkmanagement sowie dezentrale Systeme und Netzdienste. Die Schwerpunkte des Forschungsbereichs "Telematik" (Prof. Dr. Dr. h.c. mult. G. KrĂŒger) liegen in den Bereichen "DienstgĂŒte", "Mobilkommunikation" und "Verteilte Systeme". Gemeinsames Ziel ist die Integration heterogener Netze (Festnetze und Funknetze), Rechnersysteme (von Workstations bis zu PDAs) und Softwarekomponenten, um damit den Anwendern eine Vielzahl von integrierten Diensten effizient und mit grĂ¶ĂŸtmöglicher QualitĂ€t zu erbringen. Das "Telecooperation Office" (TecO, Prof. Dr. Dr. h.c. mult. G. KrĂŒger) ist ein Institutsbereich, der in Zusammenarbeit mit der Industrie anwendungsnahe Forschungsthemen der Telematik aufgreift. Im Mittelpunkt steht die innovative Nutzung von Kommunikationsinfrastrukturen mit den Schwerpunkten Softwaretechnik fĂŒr Web-Anwendungen, neue Formen der Telekooperation sowie tragbare und allgegenwĂ€rtige Technologien (Ubiquitous Computing). Die Kernkompetenz des Forschungsbereichs "Cooperation & Management" (Prof. Dr. S. Abeck) liegt im prozessorientierten Netz-, System- und Anwendungsmanagement. Es werden werkzeuggestĂŒtzte Managementlösungen fĂŒr Betriebsprozesse entwickelt und in realen Szenarien erprobt. Ein wichtiges Szenario stellt das multimediale Informationssystem "NEXUS" dar, das als Plattform eines europaweit verteilten Lehr- und Lernsystems genutzt wird. Der Forschungsbereich "Hochleistungsnetze & Netzwerkmanagement" (Prof. Dr. W. Juling) befasst sich mit Technologie und Konzepten moderner leistungsfĂ€higer Netzwerke sowie darĂŒber hinaus mit sĂ€mtlichen Aspekten des Managements dieser zumeist ausgedehnten Netze. Um eine enge Abstimmung zwischen ForschungsaktivitĂ€ten und betrieblicher Praxis zu erzielen, werden insbesondere auch Synergien zwischen Institut und Rechenzentrum angestrebt. Die Arbeiten des Forschungsbereichs "Dezentrale Systeme und Netzdienste" (Prof. Dr. L. Wolf) befassen sich mit der UnterstĂŒtzung verteilter Multimedia-Systeme, auch unter BerĂŒcksichtigung von Komponenten mit drahtlosem Zugang und den dafĂŒr geeigneten Architekturen und Infrastrukturen. Dabei werden vor allem Aspekte der Kommunikationssysteme wie Protokollmechanismen, Ressourcenverwaltung und adaptive und heterogene Systeme untersucht

    Resilient Anonymity Networks

    Get PDF
    Unverkettbare Nachrichten sind ein Grundbaustein anonymer Kommunikation. Anonymisierungsnetze schĂŒtzen mittels Unverkettbarkeit, wer mit wem kommuniziert sowie die IdentitĂ€t der Beteiligten einer Kommunikationsbeziehung. Anonymisierungsnetze benötigen Kooperation, da die AnonymitĂ€t durch Ressourcen anderer Teilnehmer geschĂŒtzt wird. Wenn die Kosten und der Nutzen eines Anonymisierungsnetzes transparent sind, ergeben sich Zielkonflikte zwischen rationalen Teilnehmern. Es wird daher untersucht, inwiefern daraus resultierendes egoistisches Verhalten die WiderstandsfĂ€higkeit dieser Netze beeintrĂ€chtigt. Störungen werden in einem spieltheoretischen Modell untersucht, um widerstandsfĂ€hige Konfigurationen von Anonymisierungsnetzen zu ermitteln. Eine weitere Störquelle sind Überflutungsangriffe mittels unverkettbarer Nachrichten. Es soll sowohl die VerfĂŒgbarkeit als auch die AnonymitĂ€t geschĂŒtzt werden. Dazu wird Unverkettbarkeit fĂŒr Nachrichten aufrecht erhalten, außer wenn die Senderate eines Nachrichtenstroms eine Richtlinie ĂŒberschreitet. Innerhalb verkettbarer Nachrichten können Überflutungsangriffe erkannt werden. DarĂŒber kann die VerfĂŒgbarkeit des Netzdienstes geschĂŒtzt werden

    Eine Bewertung von TCPA unter technischen und ökonomischen Aspekten

    Get PDF
    Die Konvergenz von Medien, Telekommunikation sowie Informationstechnologie fĂŒhrt zu einer gesteigerten Interaktion zwischen den ComputergerĂ€ten dieser drei Wirtschaftssektoren. Zugleich steigt die Anzahl mutierender WĂŒrmer, Viren und Trojanische Pferde, wie z.B. Varianten der Bagle- und Sober-WĂŒrmer oder der Netsky- und MyDoom-Viren, im Tagesrhythmus und bedrohen die Sicherheit von Computerplattformen. Die Daten der Systeme sind daher potenziellen Risiken ausgesetzt. Um dieser steigenden Bedrohung zu entgegnen, entwickelt die industrielle Initiative „Trusted Computing Group“ (TCG), ehemals „Trusted Computing Platform Alliance“ (TCPA), einen Standard, welcher die Sicherheit der verschiedenen GerĂ€tetypen verbessern soll. Abbildung 1 dokumentiert dabei die SicherheitsmĂ€ngel, welche durch die verschiedenen Typen der Attacken oder den entdeckten Missbrauch veranschaulicht werden. Speziell Viren und der Missbrauch der NetzwerkzugĂ€nge innerhalb des Unternehmens können aus der Abbildung 1 als hĂ€ufigste Ursache entnommen werden. Verlust des Laptops, nicht autorisierte Zugriffe durch Insider und Denial of Service Angriffe folgen auf den weiteren PlĂ€tzen. Die Gesamtkosten der ComputerkriminalitĂ€t sind zwar unter das Niveau vom Jahre 2000 gefallen, speziell von 2002 auf 2003 haben sich diese mehr als halbiert, obwohl seit 1999 besonders die Urheberrechtsverletzungen proprietĂ€rer Informationen stetig angestiegen sind. Der Verlust proprietĂ€rer Informationen steht mit 21 Prozent nicht direkt im Vordergrund der obigen Abbildung. Allerdings schlĂ€gt der Diebstahl von proprietĂ€ren Informationen mit 35 Prozent der Gesamtkosten der ComputerkriminalitĂ€t zu buche und fĂŒhrt damit die geschĂ€tzten Verluste aus Abbildung 2 an. Auf Platz zwei folgen Denial of Service Angriffe, die Kosten von ca. 65,6 Millionen Dollar verursachen. Viren, Missbrauch des Netzes durch Insider sowie finanzieller Betrug folgen auf weiteren PlĂ€tzen. In der Studie vom Computer Security Institute werden die Bestrebungen der TCG, vertrauenswĂŒrdige Plattformen herzustellen, als mögliche Lösung des Problems des Diebstahls von proprietĂ€ren Informationen betrachtet. Deren Effekte werden sich voraussichtlich in fĂŒnf bis zehn Jahren auf die Computersicherheit bemerkbar machen. Auch das „Federal Bureau of Investigation“ (FBI) hat mittlerweile eine Initiative zusammen mit der Entertainment- und Softwareindustrie gegen den Diebstahl von urheberrechtlich geschĂŒtztem Material abgeschlossen, da die Verluste in der Summe mehrere Billionen Dollar verursachen. Die beiden ersten Abbildungen in Verbindung mit dem dazugehörigen Zahlenmaterial belegen die Diskrepanz der TCG. Dazu stĂŒtzt sich die TCG auf die steigende Anzahl an Attacken und MissbrĂ€uche, ohne die geschĂ€tzten Verluste der einzelnen Attacken zu berĂŒcksichtigen. Gerade die enorme wirtschaftliche Bedeutung von Information und deren Missbrauch offenbart allerdings einen möglichen Antrieb, die Sicherheit bestehender Rechnersysteme zu verbessern. Diese Erkenntnis ist jedoch nicht ĂŒbereinstimmend mit der Triebkraft der TCG, die ihre Initiative auf die steigende Anzahl an Schwachstellen stĂŒtzt, um vermutlich ihre eigentlichen BeweggrĂŒnde zu verschleiern. Ziel dieser Arbeit ist zum einen den technischen Standard der TCG sowie mögliche Umsetzungen vorzustellen und zum anderen die Standardisierung unter ökonomischen Ansichten zu untersuchen, um sie anschließend zu bewerten. Dazu wird im zweiten Kapitel ein erster Einblick ĂŒber das Standardisierungsgremium, deren BeweggrĂŒnde sowie den historischen Kontext zwischen TCPA und TCG gegeben. Das dritte Kapitel dient als Grundlage und EinfĂŒhrung in die Informationsökonomie, um die KomplexitĂ€t und ZusammenhĂ€nge hinsichtlich der Standardisierung und abschließenden Bewertung in den folgenden Kapiteln besser zu erfassen. Neben der Technologie und Information spielt die Auswahl der Erlöse in Verbindung mit der Preisdiskriminierung eine wichtige Rolle. BezĂŒglich der Standardisierung und Bewertung haben Lock-in sowie Wechselkosten erhebliche Auswirkungen auf die Kon-sumenten. Das gilt ebenfalls fĂŒr die GrĂ¶ĂŸenvorteile, vor allem auf die NetzwerkexternalitĂ€ten. Die Standardisierung der TCG wird im vierten Kapitel ausfĂŒhrlicher behandelt, wobei Standards definiert, abgegrenzt und klassifiziert werden. Zudem wird die koope-rative Standardisierung in Form einer Allianz sowie die daraus folgende Problematik des Umgangs mit geistigem Eigentum eingegangen. Das fĂŒnfte Kapitel geht direkt auf die technischen Spezifikationen der TCG ein, erklĂ€rt das Grundkonzept vertrauenswĂŒrdiger Plattformen und behandelt als Schwerpunkt die Komponente des „Trusted Platform Modules“ (TPM) sowie dessen Implementierung in einen Computer. Im Anschluss daran werden im sechsten Abschnitt technischen Umsetzungen auf praktische Anwendungen und Szenarien vorgestellt. Dazu werden als Erstes verfĂŒgbare Umsetzungen sowie die Hardwarearchitektur am Beispiel von Intel LaGrande dargestellt, worauf die anschließenden Softwareanwendungen unter den beiden Betriebssystemen Windows und Linux aufbauen. Das siebte Kapitel behandelt die Bewertung der kooperativen Standardisierung und zeigt die ZusammenhĂ€nge zwischen HardwarekompatibilitĂ€t und NetzwerkexternalitĂ€ten auf. DarĂŒber hinaus wird die Adoption dieser neuen Technologie unter statischen und dynamischen AnsĂ€tzen berechnet und abschließend die SchwĂ€chen und Risiken dieser neuen Technologie erlĂ€utert

    Kommunikation und Bildverarbeitung in der Automation

    Get PDF
    In diesem Open Access-Tagungsband sind die besten BeitrÀge des 11. Jahreskolloquiums "Kommunikation in der Automation" (KommA 2020) und des 7. Jahreskolloquiums "Bildverarbeitung in der Automation" (BVAu 2020) enthalten. Die Kolloquien fanden am 28. und 29. Oktober 2020 statt und wurden erstmalig als digitale Webveranstaltung auf dem Innovation Campus Lemgo organisiert. Die vorgestellten neuesten Forschungsergebnisse auf den Gebieten der industriellen Kommunikationstechnik und Bildverarbeitung erweitern den aktuellen Stand der Forschung und Technik. Die in den BeitrÀgen enthaltenen anschauliche Anwendungsbeispiele aus dem Bereich der Automation setzen die Ergebnisse in den direkten Anwendungsbezug

    Verteilte Nutzungskontrolle und Provenance Tracking am Beispiel von Cloud-Technologien

    Get PDF
    In den letzten Jahrzehnten haben sich Daten zu einem der wertvollsten Rohstoffe entwickelt. Im Zuge dessen werden Forderungen nach einem transparenten und kontrollierbaren Umgang mit Daten immer lauter. Nutzungskontrolle und Provenance Tracking sind Konzepte, mit denen diese Forderungen umgesetzt werden können. Nutzungskontrolle ergĂ€nzt hierzu die Zugriffskontrolle um den Umstand, dass die Nutzung von Daten – auch nachdem sie verbreitet wurden – kontrolliert werden kann. Provenance Tracking dient hingegen zur Bestimmung der Herkunft eines Datums. Das fĂŒr Nutzungskontrolle und Provenance Tracking notwendige Fundament – die Infrastruktur - könnte hierbei durch Cloud-Technologien, wie Kubernetes, bereitgestellt werden. Dahingehend bietet diese Arbeit einen Überblick ĂŒber den aktuellen Forschungsstand zu Nutzungskontrolle und Provenance Tracking. Dies umfasst insbesondere mögliche BezĂŒge zum Themengebiet Cloud Computing und aktuelle Forschungsprojekte, wie International Data Spaces (IDS) und deren Referenzarchitektur. Des Weiteren wird ein grundlegendes VerstĂ€ndnis fĂŒr den Begriff Cloud geschaffen. Im Besonderen wird auf die Aspekte Sicherheit und Recht im Kontext von Cloud Computing eingegangen. Schlussendlich werden die dadurch gewonnen Erkenntnisse zur Ausbringung einer prototypischen Nutzungskontroll- sowie Provenance sammelnden Infrastruktur genutzt. Die Cloud-Technologie Kubernetes sowie hierfĂŒr entwickelte Dummy-Komponenten der Referenzarchitektur bilden das Fundament dieser Infrastruktur. Die Modellierung und Implementierung ist daraufhin Gegenstand einer Evaluation und Diskussion mit Fokus auf operativen und sicherheitsrelevanten Aspekten
    • 

    corecore