77 research outputs found
RFID fĂŒr Bibliothekare : ein Vademecum
Die BeitrĂ€ge, so der auch oft an die Herausgeber herangetragene Wunsch, sollten erlĂ€uternder sein, als die verfĂŒgbaren online-PrĂ€sentationen, somit auch denen verstĂ€ndlich, welche nicht an den RFID-Symposien teilnehmen konnten.
Die thematische Spannweite ist dabei sehr groĂ und könnte sogar unter Anspielung auf einen alten Filmtitel etwas erweitert werden zu dem Motto: Was Sie schon immer ĂŒber RFID wissen wollten und sollten, aber bisher nicht zu fragen wagten oder zu fragen gedachten!
Die im vorliegenden Nachschlagewerk enthaltenen BeitrÀge greifen Themen wie das Innovationspotenzial, Lobbyarbeit, wirtschaftliche Aspekte, die Entwicklung der Bibliothekstechnik generell auf, nehmen sich aber auch rechtlicher Aspekte an, den Inventurverfahren, möglicher gesundheitlicher GefÀhrdungen, der QualitÀt und den Standards, den zwei gÀngigen Schnittstellen zum Bibliotheksmanagementsystem, den bauphysikalischen Aspekte, verschiedenen Betrachtungswinkeln auf den Logistikkreislauf, Problemfeldern von Fernleihe bis NFC-befÀhigten Smartphones, weiteren Features etc.
Insofern stellt diese Projektarbeit oder ins Tagewerk einflieĂende Aufgabe eine nicht zu unterschĂ€tzende Herausforderung fĂŒr den damit beauftragten und beschĂ€ftigten Bibliothekar dar. Die KollegInnen in diesem Aufgabenbereich zu unterstĂŒtzen, ist das erste Ziel des vorliegenden Bandes. Und derer, die im Berufsalltag damit konfrontiert sind, werden es zunehmend mehr, da die EinfĂŒhrung von RFID-Technologie in Bibliotheken und Informationseinrichtungen ein rasantes Tempo annimmt.
Das primÀre Ziel jedoch dieses Bandes ist es, der oder dem mit Funketiketten, RFID Selbstverbuchern und Schleusen beschÀftigten Kollegin oder Kollegen, ein unentbehrlicher Begleiter, ein Vademecum, zu sein
Kritische Betrachtung der Sicherheitsaspekte von BPM in der Cloud
Das Thema Cloud Computing hat in den letzten Jahren immer mehr an Bedeutung gewonnen, insbesondere Klein- und mittelstĂ€ndische Firmen können von der Cloud profitieren, da z.B. weniger in den Aufbau einer eigenen IT investiert werden muss. Die Kombination von BPM und Cloud Computing steht allerdings noch am Anfang ihrer Entwicklung. Zwar bieten schon einige Unternehmen BPM in der Cloud an (BPMaaS) und der Markt wĂ€chst stetig aber das Angebot ist momentan noch ĂŒberschaubar, in Bezug auf Benutzung und Entwicklung. Der Vorteil GeschĂ€ftsprozesse in der Cloud zu bearbeiten geht Hand in Hand mit den Vorteilen des Cloud Computing im Allgemeinen. Allerdings muss auch, ungeachtet der Vorteile, die die Cloud mit sich bringt, genau bedacht werden, welche Daten in die Cloud ĂŒbermittelt werden und welcher Cloudanbieter ausgewĂ€hlt wird. Insbesondere der Datenschutz und die Datensicherheit spielen hier eine groĂe Rolle. Denn wenn in Deutschland personenbezogene Daten in die Cloud ausgelagert werden, mĂŒssen diese gemÀà den Regelungen des Bundesdatenschutzgesetzes behandelt werden. Da der Cloudnutzer fĂŒr den Schutz dieser Daten verantwortlich bleibt, auch wenn diese auf den Servern des Cloud Service Provider liegen, besteht hierbei groĂe Vorsicht bei der Auswahl des Cloudanbieters. Vor allem wenn die Server desjenigen auĂerhalb des EuropĂ€ischen Wirtschaftsraumes (EWR) liegen, wie z.B. in den USA, da dort ein weitaus geringeres Datenschutzniveau besteht als in Deutschland. Das Ziel dieser Diplomarbeit ist es, diese Schwierigkeiten in Bezug auf Datenschutz und Datensicherheit offenzulegen. Mittels eines Kriterienkataloges werden die wichtigsten Anforderungen und Sicherheitskriterien an die Cloud aufgelistet und mit denen der Cloudanbieter verglichen und eingeordnet. Vor diesem Hintergrund werden auch Möglichkeiten betrachtet, inwiefern und mit welchen Mitteln sensible Daten anonymisiert werden können, um eine rechtskonforme Speicherung der Daten, gemÀà dem Bundesdatenschutzgesetzes, gewĂ€hrleisten zu können.The topic of cloud computing became more important in the last few years, especially in relation to small enterprises, because they can benefit from the advantages of the Cloud, such as less investment in the own IT infrastructure. But the combination of BPM and Cloud Computing is only just beginning to develop. Although some companies offer Business Process Management in the Cloud and the market continues to grow, but the offer is relatively modest. The benefits of moving business processes into the cloud (such as BPMaaS) are the same as those which offers cloud computing in general. What need to be considered, however, is which data is to be outsourced in the cloud and which provider needs to be selected. In particular, data protection and data security play an important role in this topic. If german personal data are transferred into the cloud, the data must be treated in accordance with the German Federal Data Protection Act. The cloud computing user stays responsible for all content and data, even if this data will be stored on the providerâs server, so caution is also recommended in this case. Especially when these servers are outside of the European Economic Area, such as USA, because there consist a much lower level of data privacy protection than in Germany. The purpose of this diploma thesis is to explore these difficulties in relation to data protection and data security. By means of a catalog of criteria, the most important requirements and security criteria will be listed and compared with those of the provider. Against this background a number of possible opportunities for a concept of "anonymization" of data are considered, to secure that the data storage complies with legal requirements, such as the German Federal Data Protection Act
Netzwerkmanagement und Hochleistungskommunikation. Teil XXII. Seminar SS 2000
Zusammenfassung
Der vorliegende interne Bericht enthÀlt die BeitrÀge zum Seminar
"`Netzwerkmanagement und Hochleistungskommunikation"\u27, das im
Sommersemester 2000 zum 22. Mal stattgefunden hat.
Die Themenauswahl kann grob in folgende drei Blöcke gegliedert
werden:
enumerate
Ein Block ist der Hochgeschwindigkeits-Technologie gewidmet.
Im ersten
Beitrag wird das Konzepts des Multiprotocol Label
Switchings (MPLS) vorgestellt, welches gegenĂŒber
herkömmlichem
Routing einen Geschwindigkeitsvorteil im Bereich einer
GröĂenordnung mit sich bringt. Der zweite Beitrag
beschreibt effiziente Verfahren und Algorithmen zur
Klassifikation von IP-Paketen, welche bei stÀndig
zunehmender
Geschwindigkeit der Router zunehmend an Bedeutung
gewinnen.
Der dritte Beitrag behandelt Varianten des Transmission
Control
Protocols TCP, dessen Mechanismen fĂŒr höhere Leistung oder
mobile
Einsatzszenarien erweitert werden mĂŒssen.
Ein zweiter Block beschÀftigt sich mit verschiedenen Themen
aus den Bereichen drahtlose Kommunikation,
Netzwerkmanagement
und Sicherheit. Hier wird zum einen die
Protokoll-Architektur
des Wireless Application Protocols (WAP) vorgestellt,
welches die speziellen Anforderungen mobiler Teilnehmer
mit
kleinsten drahtlos angebundenen EndgerÀten, beispielsweise
Mobiltelefonen, in Bezug auf die Internet-
bzw. Datenkommunikation berĂŒcksichtigt. Zum anderen wird
im
Beitrag zur automatischen Netzwerk-Konfiguration auf ein
im Zeitalter der stÀndig wachsenden Netze zunehmend
wichtiges
Netzwerkmanagement-Thema eingegangen. SchlieĂlich werden
im
dritten Thema Zero-Knowledge-Protokolle, elegante
Verfahren zur Authentisierung, vorgestellt, welche etwa im
Bereich des elektronischen Zahlungsverkehrs eingesetzt
werden
können.
Der dritte Block umfasst den Themenbereich der
Gruppenkommunikation.
Hier werden einerseits neuere AnsÀtze zum
Multicast-Routing beschrieben
und andererseits eine Auswahl der funktional darĂŒber
angeordneten, zahlrei
chen
Multicast-Transportprotokolle.
enumerate
Abstract
This Technical Report includes student papers produced within a
seminar of `Network Management and High Performance
Communications\u27. For the 22nd time this seminar has attracted a
largenumber of diligent students, proving the broad interest in
topics of
network management and high performance communications.
The topics of this report may be divided into three blocks:
enumerate
One block is devoted to high speed and high performance
technology.
At first, the concept of Multiprotocol Label Switchings
(MPLS) is described. Subsequently, Efficient Methods and
Algorithms for Classification of IP Packets and Variants
of TCP are presented.
A second block deals with various topics such as wireless
communications, network management and security. The
first article
shows advantages of the Wireless Application Protocol
(WAP) to
access Internet information in mobile environments. The
second
article describes Automatic Network Configuration
Mechanisms which are of increasing importance. Third,
Zero Knowledge Protocols for secure authentication are
examined and presented.
The third block deals with group communication and shows
New Approaches for Multicast Routing as well as
an overview of some Multicast Transport Protocols
Arbeitsbericht Nr. 2011-03, September 2011
Ilmenauer BeitrĂ€ge zur Wirtschaftsinformatik Nr. 2011-03 / Technische UniversitĂ€t Ilmenau, FakultĂ€t fĂŒr Wirtschaftswissenschaften, Institut fĂŒr Wirtschaftsinformatik
ISSN 1861-9223
ISBN 978-3-938940-35-
Klausurtagung des Instituts fĂŒr Telematik. Schloss Dagstuhl, 29. MĂ€rz bis 1. April 2000
Der vorliegende Bericht gibt einen Ăberblick ĂŒber aktuelle
Forschungsarbeiten des Instituts fĂŒr Telematik an der
UniversitÀt
Karlsruhe (TH). Das Institut fĂŒr Telematik ist in einem
Teilgebiet der
Informatik tÀtig, welches durch das Zusammenwachsen von
Informatik
und Kommunikationstechnik zur Telematik geprÀgt ist. Es
gliedert sich
in die Forschungsbereiche Telematik, Telecooperation Office
(TecO),
Cooperation & Management, Hochleistungsnetze und
Netzwerkmanagement
sowie dezentrale Systeme und Netzdienste.
Die Schwerpunkte des Forschungsbereichs "Telematik"
(Prof. Dr. Dr. h.c. mult. G. KrĂŒger) liegen in den Bereichen
"DienstgĂŒte", "Mobilkommunikation" und "Verteilte
Systeme". Gemeinsames Ziel ist die Integration heterogener Netze
(Festnetze und Funknetze), Rechnersysteme (von Workstations bis
zu
PDAs) und Softwarekomponenten, um damit den Anwendern eine
Vielzahl
von integrierten Diensten effizient und mit gröĂtmöglicher
QualitÀt zu erbringen.
Das "Telecooperation Office" (TecO,
Prof. Dr. Dr. h.c. mult. G. KrĂŒger) ist ein Institutsbereich,
der in
Zusammenarbeit mit der Industrie anwendungsnahe
Forschungsthemen der
Telematik aufgreift. Im Mittelpunkt steht die innovative
Nutzung von
Kommunikationsinfrastrukturen mit den Schwerpunkten
Softwaretechnik
fĂŒr Web-Anwendungen, neue Formen der Telekooperation sowie
tragbare
und allgegenwÀrtige Technologien (Ubiquitous Computing).
Die Kernkompetenz des Forschungsbereichs "Cooperation &
Management"
(Prof. Dr. S. Abeck) liegt im prozessorientierten Netz-, System-
und
Anwendungsmanagement. Es werden werkzeuggestĂŒtzte
Managementlösungen fĂŒr Betriebsprozesse entwickelt und in realen
Szenarien erprobt. Ein wichtiges Szenario stellt das
multimediale
Informationssystem "NEXUS" dar, das als Plattform eines
europaweit
verteilten Lehr- und Lernsystems genutzt wird.
Der Forschungsbereich "Hochleistungsnetze & Netzwerkmanagement"
(Prof. Dr. W. Juling) befasst sich mit Technologie und Konzepten
moderner leistungsfĂ€higer Netzwerke sowie darĂŒber hinaus mit
sÀmtlichen Aspekten des Managements dieser zumeist ausgedehnten
Netze. Um eine enge Abstimmung zwischen ForschungsaktivitÀten
und
betrieblicher Praxis zu erzielen, werden insbesondere auch
Synergien
zwischen Institut und Rechenzentrum angestrebt.
Die Arbeiten des Forschungsbereichs "Dezentrale Systeme und
Netzdienste" (Prof. Dr. L. Wolf) befassen sich mit der
UnterstĂŒtzung
verteilter Multimedia-Systeme, auch unter BerĂŒcksichtigung von
Komponenten mit drahtlosem Zugang und den dafĂŒr geeigneten
Architekturen und Infrastrukturen. Dabei werden vor allem
Aspekte der
Kommunikationssysteme wie Protokollmechanismen,
Ressourcenverwaltung
und adaptive und heterogene Systeme untersucht
Resilient Anonymity Networks
Unverkettbare Nachrichten sind ein Grundbaustein anonymer Kommunikation. Anonymisierungsnetze schĂŒtzen mittels Unverkettbarkeit, wer mit wem kommuniziert sowie die IdentitĂ€t der Beteiligten einer Kommunikationsbeziehung. Anonymisierungsnetze benötigen Kooperation, da die AnonymitĂ€t durch Ressourcen anderer Teilnehmer geschĂŒtzt wird. Wenn die Kosten und der Nutzen eines Anonymisierungsnetzes transparent sind, ergeben sich Zielkonflikte zwischen rationalen Teilnehmern. Es wird daher untersucht, inwiefern daraus resultierendes egoistisches Verhalten die WiderstandsfĂ€higkeit dieser Netze beeintrĂ€chtigt. Störungen werden in einem spieltheoretischen Modell untersucht, um widerstandsfĂ€hige Konfigurationen von Anonymisierungsnetzen zu ermitteln. Eine weitere Störquelle sind Ăberflutungsangriffe mittels unverkettbarer Nachrichten. Es soll sowohl die VerfĂŒgbarkeit als auch die AnonymitĂ€t geschĂŒtzt werden. Dazu wird Unverkettbarkeit fĂŒr Nachrichten aufrecht erhalten, auĂer wenn die Senderate eines Nachrichtenstroms eine Richtlinie ĂŒberschreitet. Innerhalb verkettbarer Nachrichten können Ăberflutungsangriffe erkannt werden. DarĂŒber kann die VerfĂŒgbarkeit des Netzdienstes geschĂŒtzt werden
Eine Bewertung von TCPA unter technischen und ökonomischen Aspekten
Die Konvergenz von Medien, Telekommunikation sowie Informationstechnologie fĂŒhrt zu einer gesteigerten Interaktion zwischen den ComputergerĂ€ten dieser drei Wirtschaftssektoren. Zugleich steigt die Anzahl mutierender WĂŒrmer, Viren und Trojanische Pferde, wie z.B. Varianten der Bagle- und Sober-WĂŒrmer oder der Netsky- und MyDoom-Viren, im Tagesrhythmus und bedrohen die Sicherheit von Computerplattformen. Die Daten der Systeme sind daher potenziellen Risiken ausgesetzt. Um dieser steigenden Bedrohung zu entgegnen, entwickelt die industrielle Initiative âTrusted Computing Groupâ (TCG), ehemals âTrusted Computing Platform Allianceâ (TCPA), einen Standard, welcher die Sicherheit der verschiedenen GerĂ€tetypen verbessern soll. Abbildung 1 dokumentiert dabei die SicherheitsmĂ€ngel, welche durch die verschiedenen Typen der Attacken oder den entdeckten Missbrauch veranschaulicht werden. Speziell Viren und der Missbrauch der NetzwerkzugĂ€nge innerhalb des Unternehmens können aus der Abbildung 1 als hĂ€ufigste Ursache entnommen werden. Verlust des Laptops, nicht autorisierte Zugriffe durch Insider und Denial of Service Angriffe folgen auf den weiteren PlĂ€tzen. Die Gesamtkosten der ComputerkriminalitĂ€t sind zwar unter das Niveau vom Jahre 2000 gefallen, speziell von 2002 auf 2003 haben sich diese mehr als halbiert, obwohl seit 1999 besonders die Urheberrechtsverletzungen proprietĂ€rer Informationen stetig angestiegen sind. Der Verlust proprietĂ€rer Informationen steht mit 21 Prozent nicht direkt im Vordergrund der obigen Abbildung. Allerdings schlĂ€gt der Diebstahl von proprietĂ€ren Informationen mit 35 Prozent der Gesamtkosten der ComputerkriminalitĂ€t zu buche und fĂŒhrt damit die geschĂ€tzten Verluste aus Abbildung 2 an. Auf Platz zwei folgen Denial of Service Angriffe, die Kosten von ca. 65,6 Millionen Dollar verursachen. Viren, Missbrauch des Netzes durch Insider sowie finanzieller Betrug folgen auf weiteren PlĂ€tzen. In der Studie vom Computer Security Institute werden die Bestrebungen der TCG, vertrauenswĂŒrdige Plattformen herzustellen, als mögliche Lösung des Problems des Diebstahls von proprietĂ€ren Informationen betrachtet. Deren Effekte werden sich voraussichtlich in fĂŒnf bis zehn Jahren auf die Computersicherheit bemerkbar machen. Auch das âFederal Bureau of Investigationâ (FBI) hat mittlerweile eine Initiative zusammen mit der Entertainment- und Softwareindustrie gegen den Diebstahl von urheberrechtlich geschĂŒtztem Material abgeschlossen, da die Verluste in der Summe mehrere Billionen Dollar verursachen. Die beiden ersten Abbildungen in Verbindung mit dem dazugehörigen Zahlenmaterial belegen die Diskrepanz der TCG. Dazu stĂŒtzt sich die TCG auf die steigende Anzahl an Attacken und MissbrĂ€uche, ohne die geschĂ€tzten Verluste der einzelnen Attacken zu berĂŒcksichtigen. Gerade die enorme wirtschaftliche Bedeutung von Information und deren Missbrauch offenbart allerdings einen möglichen Antrieb, die Sicherheit bestehender Rechnersysteme zu verbessern. Diese Erkenntnis ist jedoch nicht ĂŒbereinstimmend mit der Triebkraft der TCG, die ihre Initiative auf die steigende Anzahl an Schwachstellen stĂŒtzt, um vermutlich ihre eigentlichen BeweggrĂŒnde zu verschleiern. Ziel dieser Arbeit ist zum einen den technischen Standard der TCG sowie mögliche Umsetzungen vorzustellen und zum anderen die Standardisierung unter ökonomischen Ansichten zu untersuchen, um sie anschlieĂend zu bewerten. Dazu wird im zweiten Kapitel ein erster Einblick ĂŒber das Standardisierungsgremium, deren BeweggrĂŒnde sowie den historischen Kontext zwischen TCPA und TCG gegeben. Das dritte Kapitel dient als Grundlage und EinfĂŒhrung in die Informationsökonomie, um die KomplexitĂ€t und ZusammenhĂ€nge hinsichtlich der Standardisierung und abschlieĂenden Bewertung in den folgenden Kapiteln besser zu erfassen. Neben der Technologie und Information spielt die Auswahl der Erlöse in Verbindung mit der Preisdiskriminierung eine wichtige Rolle. BezĂŒglich der Standardisierung und Bewertung haben Lock-in sowie Wechselkosten erhebliche Auswirkungen auf die Kon-sumenten. Das gilt ebenfalls fĂŒr die GröĂenvorteile, vor allem auf die NetzwerkexternalitĂ€ten. Die Standardisierung der TCG wird im vierten Kapitel ausfĂŒhrlicher behandelt, wobei Standards definiert, abgegrenzt und klassifiziert werden. Zudem wird die koope-rative Standardisierung in Form einer Allianz sowie die daraus folgende Problematik des Umgangs mit geistigem Eigentum eingegangen. Das fĂŒnfte Kapitel geht direkt auf die technischen Spezifikationen der TCG ein, erklĂ€rt das Grundkonzept vertrauenswĂŒrdiger Plattformen und behandelt als Schwerpunkt die Komponente des âTrusted Platform Modulesâ (TPM) sowie dessen Implementierung in einen Computer. Im Anschluss daran werden im sechsten Abschnitt technischen Umsetzungen auf praktische Anwendungen und Szenarien vorgestellt. Dazu werden als Erstes verfĂŒgbare Umsetzungen sowie die Hardwarearchitektur am Beispiel von Intel LaGrande dargestellt, worauf die anschlieĂenden Softwareanwendungen unter den beiden Betriebssystemen Windows und Linux aufbauen. Das siebte Kapitel behandelt die Bewertung der kooperativen Standardisierung und zeigt die ZusammenhĂ€nge zwischen HardwarekompatibilitĂ€t und NetzwerkexternalitĂ€ten auf. DarĂŒber hinaus wird die Adoption dieser neuen Technologie unter statischen und dynamischen AnsĂ€tzen berechnet und abschlieĂend die SchwĂ€chen und Risiken dieser neuen Technologie erlĂ€utert
Kommunikation und Bildverarbeitung in der Automation
In diesem Open Access-Tagungsband sind die besten BeitrÀge des 11. Jahreskolloquiums "Kommunikation in der Automation" (KommA 2020) und des 7. Jahreskolloquiums "Bildverarbeitung in der Automation" (BVAu 2020) enthalten. Die Kolloquien fanden am 28. und 29. Oktober 2020 statt und wurden erstmalig als digitale Webveranstaltung auf dem Innovation Campus Lemgo organisiert. Die vorgestellten neuesten Forschungsergebnisse auf den Gebieten der industriellen Kommunikationstechnik und Bildverarbeitung erweitern den aktuellen Stand der Forschung und Technik. Die in den BeitrÀgen enthaltenen anschauliche Anwendungsbeispiele aus dem Bereich der Automation setzen die Ergebnisse in den direkten Anwendungsbezug
Verteilte Nutzungskontrolle und Provenance Tracking am Beispiel von Cloud-Technologien
In den letzten Jahrzehnten haben sich Daten zu einem der wertvollsten Rohstoffe entwickelt. Im Zuge dessen werden Forderungen nach einem transparenten und kontrollierbaren Umgang mit Daten immer lauter. Nutzungskontrolle und Provenance Tracking sind Konzepte, mit denen diese Forderungen umgesetzt werden können. Nutzungskontrolle ergĂ€nzt hierzu die Zugriffskontrolle um den Umstand, dass die Nutzung von Daten â auch nachdem sie verbreitet wurden â kontrolliert werden kann. Provenance Tracking dient hingegen zur Bestimmung der Herkunft eines Datums. Das fĂŒr Nutzungskontrolle und Provenance Tracking notwendige Fundament â die Infrastruktur - könnte hierbei durch Cloud-Technologien, wie Kubernetes, bereitgestellt werden. Dahingehend bietet diese Arbeit einen Ăberblick ĂŒber den aktuellen Forschungsstand zu Nutzungskontrolle und Provenance Tracking. Dies umfasst insbesondere mögliche BezĂŒge zum Themengebiet Cloud Computing und aktuelle Forschungsprojekte, wie International Data Spaces (IDS) und deren Referenzarchitektur. Des Weiteren wird ein grundlegendes VerstĂ€ndnis fĂŒr den Begriff Cloud geschaffen. Im Besonderen wird auf die Aspekte Sicherheit und Recht im Kontext von Cloud Computing eingegangen. Schlussendlich werden die dadurch gewonnen Erkenntnisse zur Ausbringung einer prototypischen Nutzungskontroll- sowie Provenance sammelnden Infrastruktur genutzt. Die Cloud-Technologie Kubernetes sowie hierfĂŒr entwickelte Dummy-Komponenten der Referenzarchitektur bilden das Fundament dieser Infrastruktur. Die Modellierung und Implementierung ist daraufhin Gegenstand einer Evaluation und Diskussion mit Fokus auf operativen und sicherheitsrelevanten Aspekten
- âŠ