128 research outputs found

    Kooperative Angriffserkennung in drahtlosen Ad-hoc- und Infrastrukturnetzen: Anforderungsanalyse, Systementwurf und Umsetzung

    Get PDF
    Mit der zunehmenden Verbreitung mobiler Endgeräte und Dienste ergeben sich auch neue Herausforderungen für ihre Sicherheit. Diese lassen sich nur teilweise mit herkömmlichen Sicherheitsparadigmen und -mechanismen meistern. Die Gründe hierfür sind in den veränderten Voraussetzungen durch die inhärenten Eigenschaften mobiler Systeme zu suchen. Die vorliegende Arbeit thematisiert am Beispiel von Wireless LANs die Entwicklung von Sicherheitsmechanismen für drahtlose Ad-hoc- und Infrastrukturnetze. Sie stellt dabei den umfassenden Schutz der einzelnen Endgeräte in den Vordergrund, die zur Kompensation fehlender infrastruktureller Sicherheitsmaßnahmen miteinander kooperieren. Den Ausgangspunkt der Arbeit bildet eine Analyse der Charakteristika mobiler Umgebungen, um grundlegende Anforderungen an eine Sicherheitslösung zu identifizieren. Anhand dieser werden existierende Lösungen bewertet und miteinander verglichen. Der so gewonnene Einblick in die Vor- und Nachteile präventiver, reaktiver und angriffstoleranter Mechanismen führt zu der Konzeption einer hybriden universellen Rahmenarchitektur zur Integration beliebiger Sicherheitsmechanismen in einem kooperativen Verbund. Die Validierung des Systementwurfs erfolgt anhand einer zweigeteilten prototypischen Implementierung. Den ersten Teil bildet die Realisierung eines verteilten Network Intrusion Detection Systems als Beispiel für einen Sicherheitsmechanismus. Hierzu wird eine Methodik beschrieben, um anomalie- und missbrauchserkennende Strategien auf beliebige Netzprotokolle anzuwenden. Die Machbarkeit des geschilderten Ansatzes wird am Beispiel von infrastrukturellem WLAN nach IEEE 802.11 demonstriert. Den zweiten Teil der Validierung bildet der Prototyp einer Kooperations-Middleware auf Basis von Peer-to-Peer-Technologien für die gemeinsame Angriffserkennung lose gekoppelter Endgeräte. Dieser kompensiert bisher fehlende Mechanismen zur optimierten Abbildung des Overlay-Netzes auf die physische Struktur drahtloser Netze, indem er nachträglich die räumliche Position mobiler Knoten in die Auswahl eines Kooperationspartners einbezieht. Die zusätzlich definierte Schnittstelle zu einem Vertrauensmanagementsystem ermöglicht die Etablierung von Vertrauensbeziehungen auf Kooperationsebene als wichtige Voraussetzung für den Einsatz in realen Umgebungen. Als Beispiel für ein Vertrauensmanagementsystem wird der Einsatz von Reputationssystemen zur Bewertung der Verlässlichkeit eines mobilen Knotens diskutiert. Neben einem kurzen Abriss zum Stand der Forschung in diesem Gebiet werden dazu zwei Vorschläge für die Gestaltung eines solchen Systems für mobile Ad-hoc-Netze gemacht.The increasing deployment of mobile devices and accompanying services leads to new security challenges. Due to the changed premises caused by particular features of mobile systems, these obstacles cannot be solved solely by traditional security paradigms and mechanisms. Drawing on the example of wireless LANs, this thesis examines the development of security mechanisms for wireless ad hoc and infrastructural networks. It places special emphasis on the comprehensive protection of each single device as well as compensating missing infrastructural security means by cooperation. As a starting point this thesis analyses the characteristics of mobile environments to identify basic requirements for a security solution. Based on these requirements existing preventive, reactive and intrusion tolerant approaches are evaluated. This leads to the conception of a hybrid and universal framework to integrate arbitrary security mechanisms within cooperative formations. The resulting system design is then validated by a twofold prototype implementation. The first part consists of a distributed network intrusion detection system as an example for a security mechanism. After describing a methodology for applying anomaly- as well as misuse-based detection strategies to arbitrary network protocols, the feasibility of this approach is demonstrated for IEEE 802.11 infrastructural wireless LAN. The second part of the validation is represented by the prototype of a P2P-based cooperation middleware for collaborative intrusion detection by loosely coupled devices. Missing mechanisms for the improved mapping of overlay and physical network structures are compensated by subsequently considering the spatial position of a mobile node when choosing a cooperation partner. Furthermore, an additional interface to an external trust management system enables the establishment of trust relationships as a prerequisite for a deployment in real world scenarios. Reputation systems serve as an example of such a trust management system that can be used to estimate the reliability of a mobile node. After outlining the state of the art, two design patterns of a reputation system for mobile ad hoc networks are presented

    Secure Web Services für ambiente eingebettete Systeme

    Get PDF
    Das Internet der Dinge oder Smart Homes haben gemeinsam, dass in ihnen Kleinstgeräte ihren Dienst verrichten, die nicht über die Kapazitäten verfügen, klassische Sicherheitsmechanismen auszuführen. Außerdem müssen sie auch von technischen Laien sicher betrieben werden können. Diese Arbeit schlägt die Sicherheitsinfrastruktur DPWSec vor. DPWSec bildet eine Sicherheitsinfrastruktur, die einer ausführlichen Anforderungsliste genügt. Es wird gezeigt, dass sich die Kernkonzepte von DPWSec auf andere Basistechnologien übertragen lassen, wodurch eine sichere Protokollinteroperabilität möglich wird

    Konzepte zur Kollaboration zwischen Intelligenten Geräten zum Aufbau vernetzter Städte

    Get PDF

    A trustworthy architecture for sharing user-generated content on the web

    Get PDF
    Die Dynamik des Social Webs motiviert zum Teilen nutzergenerierter Inhalte. Diese entstehen in zahlreichen Social Networks meist unter Missachtung der Schutzziele der IT-Sicherheit: Vertraulichkeit, Verfügbarkeit und Integrität von Nutzerdaten. Betreiber von Web-Anwendungen können Inhalte ihrer Nutzer einsehen, fälschen, löschen oder zu unbekannten Zwecken auswerten und verfügen über Wissen über Kommunikationspartner und -verhalten - ohne, dass sich Benutzer wirksam davor absichern könnten. Von dem im Grundgesetz verankerten Recht auf Privatsphäre ausgehend soll im Rahmen dieser Ausarbeitung eine neuartige Architektur zum Teilen nutzergenerierter Inhalte im Web entwickelt werden, die Benutzeranforderungen an die Erfüllung der Schutzziele der IT-Sicherheit vollständig gewährleistet und darüber hinaus durch eine bewusste Kommunikation dieser Qualität als vertrauenswürdig aufgefasst werden kann. In einem Goal-directed Design-Prozess wird eine Architekturskizze entwickelt, welche die im Prozess erarbeiteten Benutzeranforderungen durch die Bereitstellung zweier Web-Services erfüllt: Der Signed Content Storage adressiert als zuverlässiger und durch den Urheber autorisierter Web-Speicherort signierter, nutzergenerierter Inhalte die Schutzziele Verfügbarkeit und Integrität. In Kombination mit dem Identity Provider, der gesicherte Informationen von Urheber und Teilhabern zur Verfügung stellt, ist ein vertrauliches Teilen von Inhalten im Web möglich. Vertrauenswürdigkeit gewinnt diese Architektur durch konsequente Transparenz, Selbstbeschreibungsfähigkeit, externe Bewertbarkeit und der Dokumentationsfähigkeit von Nutzungserfahrungen

    Eine Bewertung von TCPA unter technischen und ökonomischen Aspekten

    Get PDF
    Die Konvergenz von Medien, Telekommunikation sowie Informationstechnologie führt zu einer gesteigerten Interaktion zwischen den Computergeräten dieser drei Wirtschaftssektoren. Zugleich steigt die Anzahl mutierender Würmer, Viren und Trojanische Pferde, wie z.B. Varianten der Bagle- und Sober-Würmer oder der Netsky- und MyDoom-Viren, im Tagesrhythmus und bedrohen die Sicherheit von Computerplattformen. Die Daten der Systeme sind daher potenziellen Risiken ausgesetzt. Um dieser steigenden Bedrohung zu entgegnen, entwickelt die industrielle Initiative „Trusted Computing Group“ (TCG), ehemals „Trusted Computing Platform Alliance“ (TCPA), einen Standard, welcher die Sicherheit der verschiedenen Gerätetypen verbessern soll. Abbildung 1 dokumentiert dabei die Sicherheitsmängel, welche durch die verschiedenen Typen der Attacken oder den entdeckten Missbrauch veranschaulicht werden. Speziell Viren und der Missbrauch der Netzwerkzugänge innerhalb des Unternehmens können aus der Abbildung 1 als häufigste Ursache entnommen werden. Verlust des Laptops, nicht autorisierte Zugriffe durch Insider und Denial of Service Angriffe folgen auf den weiteren Plätzen. Die Gesamtkosten der Computerkriminalität sind zwar unter das Niveau vom Jahre 2000 gefallen, speziell von 2002 auf 2003 haben sich diese mehr als halbiert, obwohl seit 1999 besonders die Urheberrechtsverletzungen proprietärer Informationen stetig angestiegen sind. Der Verlust proprietärer Informationen steht mit 21 Prozent nicht direkt im Vordergrund der obigen Abbildung. Allerdings schlägt der Diebstahl von proprietären Informationen mit 35 Prozent der Gesamtkosten der Computerkriminalität zu buche und führt damit die geschätzten Verluste aus Abbildung 2 an. Auf Platz zwei folgen Denial of Service Angriffe, die Kosten von ca. 65,6 Millionen Dollar verursachen. Viren, Missbrauch des Netzes durch Insider sowie finanzieller Betrug folgen auf weiteren Plätzen. In der Studie vom Computer Security Institute werden die Bestrebungen der TCG, vertrauenswürdige Plattformen herzustellen, als mögliche Lösung des Problems des Diebstahls von proprietären Informationen betrachtet. Deren Effekte werden sich voraussichtlich in fünf bis zehn Jahren auf die Computersicherheit bemerkbar machen. Auch das „Federal Bureau of Investigation“ (FBI) hat mittlerweile eine Initiative zusammen mit der Entertainment- und Softwareindustrie gegen den Diebstahl von urheberrechtlich geschütztem Material abgeschlossen, da die Verluste in der Summe mehrere Billionen Dollar verursachen. Die beiden ersten Abbildungen in Verbindung mit dem dazugehörigen Zahlenmaterial belegen die Diskrepanz der TCG. Dazu stützt sich die TCG auf die steigende Anzahl an Attacken und Missbräuche, ohne die geschätzten Verluste der einzelnen Attacken zu berücksichtigen. Gerade die enorme wirtschaftliche Bedeutung von Information und deren Missbrauch offenbart allerdings einen möglichen Antrieb, die Sicherheit bestehender Rechnersysteme zu verbessern. Diese Erkenntnis ist jedoch nicht übereinstimmend mit der Triebkraft der TCG, die ihre Initiative auf die steigende Anzahl an Schwachstellen stützt, um vermutlich ihre eigentlichen Beweggründe zu verschleiern. Ziel dieser Arbeit ist zum einen den technischen Standard der TCG sowie mögliche Umsetzungen vorzustellen und zum anderen die Standardisierung unter ökonomischen Ansichten zu untersuchen, um sie anschließend zu bewerten. Dazu wird im zweiten Kapitel ein erster Einblick über das Standardisierungsgremium, deren Beweggründe sowie den historischen Kontext zwischen TCPA und TCG gegeben. Das dritte Kapitel dient als Grundlage und Einführung in die Informationsökonomie, um die Komplexität und Zusammenhänge hinsichtlich der Standardisierung und abschließenden Bewertung in den folgenden Kapiteln besser zu erfassen. Neben der Technologie und Information spielt die Auswahl der Erlöse in Verbindung mit der Preisdiskriminierung eine wichtige Rolle. Bezüglich der Standardisierung und Bewertung haben Lock-in sowie Wechselkosten erhebliche Auswirkungen auf die Kon-sumenten. Das gilt ebenfalls für die Größenvorteile, vor allem auf die Netzwerkexternalitäten. Die Standardisierung der TCG wird im vierten Kapitel ausführlicher behandelt, wobei Standards definiert, abgegrenzt und klassifiziert werden. Zudem wird die koope-rative Standardisierung in Form einer Allianz sowie die daraus folgende Problematik des Umgangs mit geistigem Eigentum eingegangen. Das fünfte Kapitel geht direkt auf die technischen Spezifikationen der TCG ein, erklärt das Grundkonzept vertrauenswürdiger Plattformen und behandelt als Schwerpunkt die Komponente des „Trusted Platform Modules“ (TPM) sowie dessen Implementierung in einen Computer. Im Anschluss daran werden im sechsten Abschnitt technischen Umsetzungen auf praktische Anwendungen und Szenarien vorgestellt. Dazu werden als Erstes verfügbare Umsetzungen sowie die Hardwarearchitektur am Beispiel von Intel LaGrande dargestellt, worauf die anschließenden Softwareanwendungen unter den beiden Betriebssystemen Windows und Linux aufbauen. Das siebte Kapitel behandelt die Bewertung der kooperativen Standardisierung und zeigt die Zusammenhänge zwischen Hardwarekompatibilität und Netzwerkexternalitäten auf. Darüber hinaus wird die Adoption dieser neuen Technologie unter statischen und dynamischen Ansätzen berechnet und abschließend die Schwächen und Risiken dieser neuen Technologie erläutert

    Mediale Hochschul-Perspektiven 2020 in Baden-Württemberg : empirische Untersuchung im Rahmen der Allianz "Forward IT"

    Get PDF
    Die Digitalisierung in der akademischen Bildung wird in der Studie aus der organisationalen Perspektive einer Hochschule - als „Modell“ – betrachtet und konkretisiert anhand der Fallbeispiele des Karlsruher Instituts für Technologie und der Universität Stuttgart. Als wesentliche Einflussbereiche gelten die digitale Durchdringung der Wissenschaft und des Studiums, die digitale Vernetzung der hochschulischen Systeme sowie die gewohnheitsmäßige Nutzung digitaler Medien bei Lehrenden und Lernenden

    Resilient Anonymity Networks

    Get PDF
    Unverkettbare Nachrichten sind ein Grundbaustein anonymer Kommunikation. Anonymisierungsnetze schützen mittels Unverkettbarkeit, wer mit wem kommuniziert sowie die Identität der Beteiligten einer Kommunikationsbeziehung. Anonymisierungsnetze benötigen Kooperation, da die Anonymität durch Ressourcen anderer Teilnehmer geschützt wird. Wenn die Kosten und der Nutzen eines Anonymisierungsnetzes transparent sind, ergeben sich Zielkonflikte zwischen rationalen Teilnehmern. Es wird daher untersucht, inwiefern daraus resultierendes egoistisches Verhalten die Widerstandsfähigkeit dieser Netze beeinträchtigt. Störungen werden in einem spieltheoretischen Modell untersucht, um widerstandsfähige Konfigurationen von Anonymisierungsnetzen zu ermitteln. Eine weitere Störquelle sind Überflutungsangriffe mittels unverkettbarer Nachrichten. Es soll sowohl die Verfügbarkeit als auch die Anonymität geschützt werden. Dazu wird Unverkettbarkeit für Nachrichten aufrecht erhalten, außer wenn die Senderate eines Nachrichtenstroms eine Richtlinie überschreitet. Innerhalb verkettbarer Nachrichten können Überflutungsangriffe erkannt werden. Darüber kann die Verfügbarkeit des Netzdienstes geschützt werden

    Confidential Computing : eine Chance für die datenschutzkonforme Ausgestaltung von risikoreichen Datenbearbeitungen?

    Get PDF
    Seit der Jahrtausendwende ist die Zunahme leistungsfähiger IT-Infrastrukturen und die Beschaffung und Analyse von grossen Datenmengen klar erkennbar. Die Vertrauenswürdigkeit und die Integrität von IT-Infrastrukturen und Daten waren und sind zentrale Themen. Bereits damals wurde mit Trusted Computing eine Technologie eingeführt, um die Vertrauenswürdigkeit eines Computersystems zu gewährleisten. Dazu wird eine Vertrauenskette zwischen der Hardware und dem Betriebssystem geschaffen, welche vor bösartigen Plattformmanipulationen schützt. Diese Technologie wird heutzutage standardmässig eingesetzt. Durch die zunehmende digitale Vernetzung, insbesondere die Speicherung und Bearbeitung von personenbezogenen Daten innerhalb einer Cloud, haben sich neue rechtliche Anforderungen hinsichtlich der Datenbearbeitung ergeben. Trusted Computing allein ist längst nicht mehr ausreichend. Eine Auslagerung von Daten bringt immer einen Kontrollverlust mit sich. Einerseits kann der Serverstandort des Anbieters datenschutzrechtlich hohe Risiken für die Privatsphäre der betroffenen Person auslösen, da der Datenschutz international unterschiedlich ausgelegt wird. Zum anderen ist die Art des genutzten Cloud-Services ausschlaggebend. Werden in einer Cloud lediglich personenbezogene Daten gespeichert, können Verantwortliche diese durch Ver-schlüsselung vor Zugriff schützen. Werden Daten jedoch in einer Cloud bearbeitet, braucht der Anbieter vollen Zugriff auf die Daten. Diese Zugriffsrisiken können nicht mit jeder Art von personenbezogenen Daten, insbesondere besonders schützenswerte Daten, vereinbart werden. Confidential Computing bietet als innovative Technologie in dieser Hinsicht eine Lösung. Während Trusted Computing den Fokus auf der Vertrauenswürdigkeit der Plattform selbst hat, setzt Confidential Computing bei der Vertraulichkeit der Datenbearbeitung an. Es handelt sich um ergänzende Technologien. Die Forschungsarbeit zeigt auf, dass mit Confidential Computing eine isolierte Enklave eingeführt wird, welche die Möglichkeit bietet, risikoreiche Datenbearbeitungen durchzuführen, welche bisher nicht datenschutzkonform ausgeführt werden konnten. Der Schutz der Daten wird zu jederzeit – auch in einer Cloud – gewährleistet und der Zweck der Datenbearbeitung wird im Voraus technisch definiert. Die Technologie findet namentlich in der Gesundheits- und Marketingbranche sowie in der Nutzung von Sekundärdaten Anwendung. Dazu benötigt es praktikable, regulatorische Bestimmungen und Best-Practice-Beispiele, welche mehr Klarheit sowie Vertrauen in die Technologie schaffen.Since the turn of the millennium, the increase in powerful IT infrastructures and the acquisition and analysis of large amounts of data has been clearly visible. The trustworthiness and integrity of IT infrastructures and data were and are central issues. Already at that time, a technology was introduced with Trusted Computing to guarantee the trustworthiness of a computer system. For this purpose, a chain of trust is created between the hardware and the operating system, which protects against malicious platform manipulation. This technology is used by default today. The increasing digital networking, especially the storage and processing of personal data within a cloud, has resulted in new legal requirements with regard to data handling. Trusted computing alone is no longer sufficient. Outsourcing data always entails a loss of control. On the one hand, the server location of the provider can trigger high risks for the privacy of the person concerned in terms of data protection law, as data protection is interpreted differently internationally. On the other hand, the type of cloud service used is decisive. If only personal data is stored in a cloud, data controllers can protect it from access through encryption. However, if data is processed in a cloud, the provider needs full access to the data. These access risks cannot be reconciled with every type of personal data, especially data requiring special protection. Confidential computing, as an innovative technology, offers a solution in this regard. While Trusted Computing focuses on the trustworthiness of the platform itself, Confidential Computing focuses on the confidentiality of data processing. These are complementary technologies. The research paper shows that Confidential Computing introduces an isolated enclave that offers the possibility of performing risky data processing that could not previously be accomplished in accordance with data protection. Data protection is guaranteed at all times - even in a cloud - and the purpose of the data processing is technically defined in advance. The technology is used particularly in the health and marketing sectors as well as in the use of secondary data. This requires practicable regulatory provisions and best-practice examples that create more clarity and trust in the technology

    Untersuchungen zur Risikominimierungstechnik Stealth Computing für verteilte datenverarbeitende Software-Anwendungen mit nutzerkontrollierbar zusicherbaren Eigenschaften

    Get PDF
    Die Sicherheit und Zuverlässigkeit von Anwendungen, welche schutzwürdige Daten verarbeiten, lässt sich durch die geschützte Verlagerung in die Cloud mit einer Kombination aus zielgrößenabhängiger Datenkodierung, kontinuierlicher mehrfacher Dienstauswahl, dienstabhängiger optimierter Datenverteilung und kodierungsabhängiger Algorithmen deutlich erhöhen und anwenderseitig kontrollieren. Die Kombination der Verfahren zu einer anwendungsintegrierten Stealth-Schutzschicht ist eine notwendige Grundlage für die Konstruktion sicherer Anwendungen mit zusicherbaren Sicherheitseigenschaften im Rahmen eines darauf angepassten Softwareentwicklungsprozesses.:1 Problemdarstellung 1.1 Einführung 1.2 Grundlegende Betrachtungen 1.3 Problemdefinition 1.4 Einordnung und Abgrenzung 2 Vorgehensweise und Problemlösungsmethodik 2.1 Annahmen und Beiträge 2.2 Wissenschaftliche Methoden 2.3 Struktur der Arbeit 3 Stealth-Kodierung für die abgesicherte Datennutzung 3.1 Datenkodierung 3.2 Datenverteilung 3.3 Semantische Verknüpfung verteilter kodierter Daten 3.4 Verarbeitung verteilter kodierter Daten 3.5 Zusammenfassung der Beiträge 4 Stealth-Konzepte für zuverlässige Dienste und Anwendungen 4.1 Überblick über Plattformkonzepte und -dienste 4.2 Netzwerkmultiplexerschnittstelle 4.3 Dateispeicherschnittstelle 4.4 Datenbankschnittstelle 4.5 Stromspeicherdienstschnittstelle 4.6 Ereignisverarbeitungsschnittstelle 4.7 Dienstintegration 4.8 Entwicklung von Anwendungen 4.9 Plattformäquivalente Cloud-Integration sicherer Dienste und Anwendungen 4.10 Zusammenfassung der Beiträge 5 Szenarien und Anwendungsfelder 5.1 Online-Speicherung von Dateien mit Suchfunktion 5.2 Persönliche Datenanalyse 5.3 Mehrwertdienste für das Internet der Dinge 6 Validierung 6.1 Infrastruktur für Experimente 6.2 Experimentelle Validierung der Datenkodierung 6.3 Experimentelle Validierung der Datenverteilung 6.4 Experimentelle Validierung der Datenverarbeitung 6.5 Funktionstüchtigkeit und Eigenschaften der Speicherdienstanbindung 6.6 Funktionstüchtigkeit und Eigenschaften der Speicherdienstintegration 6.7 Funktionstüchtigkeit und Eigenschaften der Datenverwaltung 6.8 Funktionstüchtigkeit und Eigenschaften der Datenstromverarbeitung 6.9 Integriertes Szenario: Online-Speicherung von Dateien 6.10 Integriertes Szenario: Persönliche Datenanalyse 6.11 Integriertes Szenario: Mobile Anwendungen für das Internet der Dinge 7 Zusammenfassung 7.1 Zusammenfassung der Beiträge 7.2 Kritische Diskussion und Bewertung 7.3 Ausblick Verzeichnisse Tabellenverzeichnis Abbildungsverzeichnis Listings Literaturverzeichnis Symbole und Notationen Software-Beiträge für native Cloud-Anwendungen Repositorien mit ExperimentdatenThe security and reliability of applications processing sensitive data can be significantly increased and controlled by the user by a combination of techniques. These encompass a targeted data coding, continuous multiple service selection, service-specific optimal data distribution and coding-specific algorithms. The combination of the techniques towards an application-integrated stealth protection layer is a necessary precondition for the construction of safe applications with guaranteeable safety properties in the context of a custom software development process.:1 Problemdarstellung 1.1 Einführung 1.2 Grundlegende Betrachtungen 1.3 Problemdefinition 1.4 Einordnung und Abgrenzung 2 Vorgehensweise und Problemlösungsmethodik 2.1 Annahmen und Beiträge 2.2 Wissenschaftliche Methoden 2.3 Struktur der Arbeit 3 Stealth-Kodierung für die abgesicherte Datennutzung 3.1 Datenkodierung 3.2 Datenverteilung 3.3 Semantische Verknüpfung verteilter kodierter Daten 3.4 Verarbeitung verteilter kodierter Daten 3.5 Zusammenfassung der Beiträge 4 Stealth-Konzepte für zuverlässige Dienste und Anwendungen 4.1 Überblick über Plattformkonzepte und -dienste 4.2 Netzwerkmultiplexerschnittstelle 4.3 Dateispeicherschnittstelle 4.4 Datenbankschnittstelle 4.5 Stromspeicherdienstschnittstelle 4.6 Ereignisverarbeitungsschnittstelle 4.7 Dienstintegration 4.8 Entwicklung von Anwendungen 4.9 Plattformäquivalente Cloud-Integration sicherer Dienste und Anwendungen 4.10 Zusammenfassung der Beiträge 5 Szenarien und Anwendungsfelder 5.1 Online-Speicherung von Dateien mit Suchfunktion 5.2 Persönliche Datenanalyse 5.3 Mehrwertdienste für das Internet der Dinge 6 Validierung 6.1 Infrastruktur für Experimente 6.2 Experimentelle Validierung der Datenkodierung 6.3 Experimentelle Validierung der Datenverteilung 6.4 Experimentelle Validierung der Datenverarbeitung 6.5 Funktionstüchtigkeit und Eigenschaften der Speicherdienstanbindung 6.6 Funktionstüchtigkeit und Eigenschaften der Speicherdienstintegration 6.7 Funktionstüchtigkeit und Eigenschaften der Datenverwaltung 6.8 Funktionstüchtigkeit und Eigenschaften der Datenstromverarbeitung 6.9 Integriertes Szenario: Online-Speicherung von Dateien 6.10 Integriertes Szenario: Persönliche Datenanalyse 6.11 Integriertes Szenario: Mobile Anwendungen für das Internet der Dinge 7 Zusammenfassung 7.1 Zusammenfassung der Beiträge 7.2 Kritische Diskussion und Bewertung 7.3 Ausblick Verzeichnisse Tabellenverzeichnis Abbildungsverzeichnis Listings Literaturverzeichnis Symbole und Notationen Software-Beiträge für native Cloud-Anwendungen Repositorien mit Experimentdate
    corecore