119 research outputs found
Datenerfassung und Privatsphäre in partizipativen Sensornetzen
Partizipative Sensornetze (PSNs) stellen eine neue Art von Sensornetzen dar, die auf Basis von freiwillig zur Verfügung gestellten Mobiltelefonen etabliert werden. Sie ermöglichen eine großflächige Erfassung von Messdaten im direkten Umfeld von Menschen und können für zahlreiche Anwendungsszenarien verwendet werden. Neben ihren Vorzügen bringen PSNs aber auch Schwierigkeiten mit sich. Zwei zentrale Herausforderungen sind die ressourcenschonende Datenerfassung und der Schutz der Privatsphäre – beide resultieren aus der Instrumentalisierung privater Mobiltelefone zur Datenerfassung. Da der primäre Verwendungszweck der Geräte nicht die Aufzeichnung von Messdaten ist, darf diese deren Ressourcen nicht merklich belasten. Außerdem muss sichergestellt werden, dass durch die Erfassung von Messdaten die Privatsphäre der teilnehmenden Nutzer nicht verletzt wird.
Der erste Teil der Arbeit beschäftigt sich mit dem Aspekt der ressourcenschonenden Datenerfassung. Zunächst werden PSNs betrachtet, bei denen punktuell Messungen durchgeführt werden. Bei diesen Netzen müssen die teilnehmenden Geräte über die durchzuführenden Messungen unterrichtet werden. Damit hierbei die Ressourcen der Endgeräte nicht unnötig belastet werden, wird ein Konzept vorgestellt, das einerseits eine robuste Verteilung der Messaufgaben sicherstellt, gleichzeitig jedoch versucht, die Energieressourcen der Mobiltelefone zu schonen. Bei PSNs mit großflächiger und kontinuierlicher Datenerfassung spielt die Verteilung der Messaufgaben keine so entscheidende Rolle. Hier muss vielmehr sichergestellt werden, dass die Energie- und die Übertragungskosten auf Seiten der Nutzer möglichst gering bleiben. Aus diesem Grund wird ein Ansatz zur lokalen Gruppierung von Messknoten beschrieben, der durch eine Aufteilung der anfallenden Aufgaben und eine intelligente Auswahl der Knoten zu einer ressourcenschonenden und weniger redundanten Datenerfassung führt.
Der zweite Teil der Arbeit befasst sich mit dem Schutz der Privatsphäre der Teilnehmer und beinhaltet zwei Themenblöcke. Zum einen wird ein Ansatz zur automatisierten Erzeugung von Privatsphäre-Zonen vorgestellt, der ohne das Eingreifen der Nutzer die Zonen an das jeweilige Umfeld anpasst. Diese Zonen werden um die vom Nutzer häufig besuchten Orte erstellt und verhindern so mögliche, auf der Identifikation dieser Orte basierende Deanonymisierungsangriffe. Zum anderen wird ein Kalibrierungssystem für PSNs beschrieben, dessen Fokus sowohl auf der Verbesserung der Datenqualität als auch auf der Wahrung der Privatsphäre der Nutzer liegt. Hierfür ermöglicht dieses eine rückwirkende Anpassung bereits übertragener Daten, verhindert aber gleichzeitig durch eine Modifikation der Kalibrierungsparameter und der Upload-Zeitpunkte eine direkte Zuordnung zu einem Nutzer.Participatory Sensing Networks (PSNs) represent a new kind of sensor networks that are established on the basis of voluntarily provided mobile phones. They allow for large-scale data collection in the immediate environment of people and can be used for various application scenarios. However, alongside their advantages, PSNs entail several difficulties. Two key challenges are the resource-efficient data collection and the protection of privacy - both resulting from exploiting private mobile phones for data collection. As the recording of measurement data is not the devices’ primary purpose, it must not significantly burden their resources. In addition, it has to be ensured that the privacy of participating users is not violated by the acquisition of measurement data.
The first part of this thesis addresses the issue of resource-efficient data collection. At first, PSNs are examined in which measurements are only conducted at selected places. In these networks, the participating devices have to be informed about the required measurements. To avoid an unnecessary burdening of device resources at this stage, a concept is presented that ensures a robust distribution of measurement tasks and, at the same time, tries to conserve the mobile phones’ energy resources. In PSNs with large and continuous data collection, the distribution of measurement tasks is less essential. It is rather necessary to ensure that energy and transmission costs on the user side remain as low as possible. For this reason, an approach for the local clustering of measurement nodes is described that allows for a resource-efficient and less redundant data collection by dividing and intelligently assigning occurring tasks.
The second part of the thesis deals with the protection of the participants’ privacy and contains two thematic blocks. Firstly, an approach to automate the generation of privacy zones is presented. It adjusts the zones to the environment without the intervention of the user. These zones are created around the user’s frequently visited places and thereby prevent deanonymisation attacks based on the identification of these places. Secondly, a calibration system for PSNs is described that focuses both on improving data quality and on the protection of user privacy. It allows for a retroactive adjustment of already transferred data, but simultaneously prevents an unambiguous attribution to a user by modifying the calibration parameters and the time of their transmission
Datenerfassung und Privatsphäre in partizipativen Sensornetzen
Partizipative Sensornetze (PSNs) stellen eine neue Art von Sensornetzen dar, die auf Basis von freiwillig zur Verfügung gestellten Mobiltelefonen etabliert werden. Sie ermöglichen eine großflächige Erfassung von Messdaten im direkten Umfeld von Menschen und können für zahlreiche Anwendungsszenarien verwendet werden. Neben ihren Vorzügen bringen PSNs aber auch Schwierigkeiten mit sich. Zwei zentrale Herausforderungen sind die ressourcenschonende Datenerfassung und der Schutz der Privatsphäre – beide resultieren aus der Instrumentalisierung privater Mobiltelefone zur Datenerfassung. Da der primäre Verwendungszweck der Geräte nicht die Aufzeichnung von Messdaten ist, darf diese deren Ressourcen nicht merklich belasten. Außerdem muss sichergestellt werden, dass durch die Erfassung von Messdaten die Privatsphäre der teilnehmenden Nutzer nicht verletzt wird.
Der erste Teil der Arbeit beschäftigt sich mit dem Aspekt der ressourcenschonenden Datenerfassung. Zunächst werden PSNs betrachtet, bei denen punktuell Messungen durchgeführt werden. Bei diesen Netzen müssen die teilnehmenden Geräte über die durchzuführenden Messungen unterrichtet werden. Damit hierbei die Ressourcen der Endgeräte nicht unnötig belastet werden, wird ein Konzept vorgestellt, das einerseits eine robuste Verteilung der Messaufgaben sicherstellt, gleichzeitig jedoch versucht, die Energieressourcen der Mobiltelefone zu schonen. Bei PSNs mit großflächiger und kontinuierlicher Datenerfassung spielt die Verteilung der Messaufgaben keine so entscheidende Rolle. Hier muss vielmehr sichergestellt werden, dass die Energie- und die Übertragungskosten auf Seiten der Nutzer möglichst gering bleiben. Aus diesem Grund wird ein Ansatz zur lokalen Gruppierung von Messknoten beschrieben, der durch eine Aufteilung der anfallenden Aufgaben und eine intelligente Auswahl der Knoten zu einer ressourcenschonenden und weniger redundanten Datenerfassung führt.
Der zweite Teil der Arbeit befasst sich mit dem Schutz der Privatsphäre der Teilnehmer und beinhaltet zwei Themenblöcke. Zum einen wird ein Ansatz zur automatisierten Erzeugung von Privatsphäre-Zonen vorgestellt, der ohne das Eingreifen der Nutzer die Zonen an das jeweilige Umfeld anpasst. Diese Zonen werden um die vom Nutzer häufig besuchten Orte erstellt und verhindern so mögliche, auf der Identifikation dieser Orte basierende Deanonymisierungsangriffe. Zum anderen wird ein Kalibrierungssystem für PSNs beschrieben, dessen Fokus sowohl auf der Verbesserung der Datenqualität als auch auf der Wahrung der Privatsphäre der Nutzer liegt. Hierfür ermöglicht dieses eine rückwirkende Anpassung bereits übertragener Daten, verhindert aber gleichzeitig durch eine Modifikation der Kalibrierungsparameter und der Upload-Zeitpunkte eine direkte Zuordnung zu einem Nutzer.Participatory Sensing Networks (PSNs) represent a new kind of sensor networks that are established on the basis of voluntarily provided mobile phones. They allow for large-scale data collection in the immediate environment of people and can be used for various application scenarios. However, alongside their advantages, PSNs entail several difficulties. Two key challenges are the resource-efficient data collection and the protection of privacy - both resulting from exploiting private mobile phones for data collection. As the recording of measurement data is not the devices’ primary purpose, it must not significantly burden their resources. In addition, it has to be ensured that the privacy of participating users is not violated by the acquisition of measurement data.
The first part of this thesis addresses the issue of resource-efficient data collection. At first, PSNs are examined in which measurements are only conducted at selected places. In these networks, the participating devices have to be informed about the required measurements. To avoid an unnecessary burdening of device resources at this stage, a concept is presented that ensures a robust distribution of measurement tasks and, at the same time, tries to conserve the mobile phones’ energy resources. In PSNs with large and continuous data collection, the distribution of measurement tasks is less essential. It is rather necessary to ensure that energy and transmission costs on the user side remain as low as possible. For this reason, an approach for the local clustering of measurement nodes is described that allows for a resource-efficient and less redundant data collection by dividing and intelligently assigning occurring tasks.
The second part of the thesis deals with the protection of the participants’ privacy and contains two thematic blocks. Firstly, an approach to automate the generation of privacy zones is presented. It adjusts the zones to the environment without the intervention of the user. These zones are created around the user’s frequently visited places and thereby prevent deanonymisation attacks based on the identification of these places. Secondly, a calibration system for PSNs is described that focuses both on improving data quality and on the protection of user privacy. It allows for a retroactive adjustment of already transferred data, but simultaneously prevents an unambiguous attribution to a user by modifying the calibration parameters and the time of their transmission
Graphdatenbanken fĂĽr die textorientierten e-Humanities
Vor dem Hintergrund zahlreicher Digitalisierungsinitiativen befinden sich weite Teile der Geistes- und Sozialwissenschaften derzeit in einer Transition hin zur großflächigen Anwendung digitaler Methoden. Zwischen den Fachdisziplinen und der Informatik zeigen sich große Differenzen in der Methodik und bei der gemeinsamen Kommunikation. Diese durch interdisziplinäre Projektarbeit zu überbrücken, ist das zentrale Anliegen der sogenannten e-Humanities. Da Text der häufigste Untersuchungsgegenstand in diesem Feld ist, wurden bereits viele Verfahren des Text Mining auf Problemstellungen der Fächer angepasst und angewendet. Während sich langsam generelle Arbeitsabläufe und Best Practices etablieren, zeigt sich, dass generische Lösungen für spezifische Teilprobleme oftmals nicht geeignet sind. Um für diese Anwendungsfälle maßgeschneiderte digitale Werkzeuge erstellen zu können, ist eines der Kernprobleme die adäquate digitale Repräsentation von Text sowie seinen vielen Kontexten und Bezügen.
In dieser Arbeit wird eine neue Form der Textrepräsentation vorgestellt, die auf Property-Graph-Datenbanken beruht – einer aktuellen Technologie für die Speicherung und Abfrage hochverknüpfter Daten. Darauf aufbauend wird das Textrecherchesystem „Kadmos“ vorgestellt, mit welchem nutzerdefinierte asynchrone Webservices erstellt werden können. Es bietet flexible Möglichkeiten zur Erweiterung des Datenmodells und der Programmfunktionalität und kann Textsammlungen mit mehreren hundert Millionen Wörtern auf einzelnen Rechnern und weitaus größere in Rechnerclustern speichern. Es wird gezeigt, wie verschiedene Text-Mining-Verfahren über diese Graphrepräsentation realisiert und an sie angepasst werden können. Die feine Granularität der Zugriffsebene erlaubt die Erstellung passender Werkzeuge für spezifische fachwissenschaftliche Anwendungen. Zusätzlich wird demonstriert, wie die graphbasierte Modellierung auch über die rein textorientierte Forschung hinaus gewinnbringend eingesetzt werden kann.In light of the recent massive digitization efforts, most of the humanities disciplines are currently undergoing a fundamental transition towards the widespread application of digital methods. In between those traditional scholarly fields and computer science exists a methodological and communicational gap, that the so-called \\\"e-Humanities\\\" aim to bridge systematically, via interdisciplinary project work. With text being the most common object of study in this field, many approaches from the area of Text Mining have been adapted to problems of the disciplines. While common workflows and best practices slowly emerge, it is evident that generic solutions are no ultimate fit for many specific application scenarios. To be able to create custom-tailored digital tools, one of the central issues is to digitally represent the text, as well as its many contexts and related objects of interest in an adequate manner.
This thesis introduces a novel form of text representation that is based on Property Graph databases – an emerging technology that is used to store and query highly interconnected data sets. Based on this modeling paradigm, a new text research system called \\\"Kadmos\\\" is introduced. It provides user-definable asynchronous web services and is built to allow for a flexible extension of the data model and system functionality within a prototype-driven development process. With Kadmos it is possible to easily scale up to text collections containing hundreds of millions of words on a single device and even further when using a machine cluster. It is shown how various methods of Text Mining can be implemented with and adapted for the graph representation at a very fine granularity level, allowing the creation of fitting digital tools for different aspects of scholarly work. In extended usage scenarios it is demonstrated how the graph-based modeling of domain data can be beneficial even in research scenarios that go beyond a purely text-based study
Entwicklung eines rationalen Entscheidungsprozesses fĂĽr Architekturentscheidungen
AbstractIt is one of the critical tasks to make the right design- and
architectural-decisions in huge and complex developing or reengineering
projects. Such decisions have different types. On the one hand there are
decisions with minimal effects on the architecture and the software system.
On the other hand there are more strategic decisions which effect the
architecture widely and change the central characteristics of the software
system. Particularly the strategic decisions are very complex, risky and
include many uncertain facts about hidden dependencies. The complexity and
risks rise if such decisions have to be made in huge projects with 50 or
more developers. The decisionmaker, mostly the project manager or the
client, is confronted with various factors, assumptions and constraints.
Typical examples are competing objectives, alternative solutions and
incomplete information about external third-party systems. If such complex
decisions have to be made in an unsystematic way, they will lead to
uncalculatable risks with enormous bad consequences for the software system
and the development project. Examples are changed or missed deadlines,
risen development costs or monetary losses due to an outage of a business
critical system.However, the specific characteristics of architectural
decisions are not considered by existing methods and concepts to support
decision making. They are too detailed, focussed on source code and require
information in a formal quality and completeness. These information can not
be gathered within such huge projects because of the high effort, time
pressure and lacking resources. Therefore an architectural decision process
is missing to structure the various information, assumptions and subjective
estimations and so you can make such complex and risky decisions in a
systematic and focussed way.The main objective of the following
dissertation is to reduce the complexity, uncertainty and risks of
architectural decisions in order to avoid additional changes and
adjustments as well as to achieve the desired objectives. An architectural
decision process with four phases is developed on the basis of the generic
proceeding of the decision theory. This process includes methods and
concepts in order to establish alternative solutions on the basis of the
objectives, conditions and the model of the existing architecture. The
various alternative solutions are evaluated through a systematic proceeding
in order to identify and select the best solution. The developed process
includes the specific characteristics of software architectures:Besides
incomplete information and uncertainties, it is possible to observe hidden
dependencies through scenario-based analysis methods, establishted by the
concepts of the Architecture-Level-Modifiability-Analysis (ALMA).Due to the
complexity and risks, huge architectural changes have to be separated into
smaller tasks. This is supported by a stepped planning, from abtract
analysis to more detailed planning.To achieve a reasonable relation between
the analysis effort and the benefis from the analysis in terms of reduced
risks, complexity and uncertainty, the depths of the analysis can be
adjusted flexibly by clear objectives. Two practical applications show, how
to make architectural decisions in a systematic way by using the decision
process. Afterwards, the assumptions and expectations, which have been used
for the decision making, are evaluated by comparing with the consequences
of the real implementation. Due to the results of the comparison it can be
described clearly, which advantages and disadvantages the application of
the decision process has.In Softwareentwicklungsprozessen mĂĽssen permanent die richtigen
Design- und Architekturentscheidungen getroffen werden, damit die mit dem
Entwicklungs- oder Reengineeringprojekt verbundenen Ziele in vollem Umfang
erfüllt werden können. Diese Entscheidungen können dabei von
unterschiedlicher Natur sein. So werden einerseits Entscheidungen
getroffen, die nur geringe Auswirkungen auf das Softwaresystem haben. Auf
der anderen Seite existieren Entscheidungen mit strategischem Charakter,
die sich auf groĂźe Teile der Architektur und auf zentrale
Systemeigenschaften auswirken. Gerade die strategischen
Architekturentscheidungen sind in GroĂźprojekten mit 50 oder mehr
Entwicklern von hoher kombinatorischer Komplexität und beinhalten große
Unsicherheiten über versteckte Abhängigkeiten. Der Entscheidungsträger,
meist der Architekt oder der Projektleiter, ist mit einer Vielzahl
unterschiedlicher Faktoren und Bedingungen konfrontiert. Hierzu zählen
konkurrierende Ziele oder alternative Lösungsansätze, für die meist nur
unvollständige Informationen vorliegen. Unter diesen Voraussetzungen führen
unsystematische Entscheidungen zu unkalkulierbaren Risiken mit gravierenden
Folgen fĂĽr das Softwaresystem und das Entwicklungsprojekt, wie z. B. eine
deutliche Erhöhung der Entwicklungskosten oder zeitliche Verzögerungen. Die
bereits existierenden Methoden zur EntscheidungsunterstĂĽtzung
berĂĽcksichtigen die spezifischen Eigenschaften von Softwarearchitekturen zu
wenig. Sie sind zu feingranular, codeorientiert und benötigen Informationen
in einer formalen Genauigkeit und Vollständigkeit, die bei
Architekturentscheidungen in GroĂźprojekten aus AufwandsgrĂĽnden nicht
erhoben werden können. Somit fehlt eine Unterstützung des
Entscheidungsträgers, um die Vielzahl an Einzelinformationen und
subjektiven Einschätzungen zu strukturieren sowie die Entscheidungsfindung
systematisch und fokussiert durchzufĂĽhren. Mit der vorliegenden
Dissertation wird das Ziel verfolgt, die Komplexität, Unsicherheiten und
Risiken bei Architekturentscheidungen zu reduzieren, um aufwandsintensive
Korrekturen zu vermeiden und die Architekturziele in vollem Umfang zu
erfĂĽllen. Auf der Grundlage des in der Entscheidungstheorie beschriebenen
generischen Vorgehens zur Entscheidungsfindung wird ein
Vier-Phasen-Entscheidungsprozess entwickelt. Dieser Prozess beinhaltet
Methoden und Konzepte, um ausgehend von den Zielen, Rahmenbedingungen und
der existierenden Architektur systematisch alternative Lösungsansätze zu
entwickeln. Im Anschluss werden die Lösungsansätze nach rationalen
Gesichtspunkten im Hinblick auf die Zielerreichung bewertet, um eine
ausgewogene Entscheidung zu treffen. Der entwickelte Entscheidungsprozess
berĂĽcksichtigt dabei die speziellen Eigenschaften von
Softwarearchitekturen: Trotz unvollständiger Informationen und
Unsicherheiten können versteckte Abhängigkeiten mit einem szenariobasierten
Analyse- und Bewertungsansatz, auf der Grundlage der
Architecture-Level-Modifiability-Analysis (ALMA), sichtbar gemacht werden.
Die systematische Aufteilung komplexer Entscheidungen in handhabbare
Einzelentscheidungen wird durch die Anwendung eines gestuften Verfahrens
mit Grob- und Feinplanung erreicht.Um ein ökonomisch sinnvolles Verhältnis
zwischen dem Aufwand zur Entscheidungsfindung und dem Nutzen in Form von
reduzierten Risiken, Unsicherheiten und einer geringeren Komplexität zu
ermöglichen, kann die Detailtiefe der Analysen anhand eindeutiger Kriterien
flexibel angepasst werden.Zwei praktische prototypische Anwendungen des
Entscheidungsprozesses zeigen auf, wie eine Architekturentscheidung
systematisch und nach rationalen Gesichtspunkten durchgefĂĽhrt werden kann.
Die während der Entscheidungsfindung getroffenen Annahmen und Erwartungen
werden im Anschluss mit den Ergebnissen der realen Implementierung
verglichen. Anhand des Vergleichs wird klar erkennbar, welche versteckten
Abhängigkeiten durch den Einsatz des Entscheidungsprozesses bereits
frĂĽhzeitig erkannt wurden sowie welche Vorteile die richtige
Entscheidungsfindung fĂĽr das Softwaresystem und das Entwicklungsprojekt
hat
Designing Cross-Company Business Intelligence Networks
Business Intelligence (BI) ist der allgemein akzeptierte Begriff für Methoden, Konzepte und Werkzeuge zur Sammlung, Aufbereitung, Speicherung, Verteilung und Analyse von Daten für Management- und Geschäftsentscheidungen. Obwohl unternehmensübergreifende Kooperation in den vergangenen Jahrzehnten stets an Einfluss gewonnen hat, existieren nur wenige Forschungsergebnisse im Bereich unternehmensübergreifender BI. Die vorliegende Arbeit stellt eine Arbeitsdefinition des Begriffs Cross-Company BI (CCBI) vor und grenzt diesen von gemeinschaftlicher Entscheidungsfindung ab. Auf Basis eines Referenzmodells, das existierende Arbeiten und Ansätze verwandter Forschungsbereiche berücksichtigt, werden umfangreiche Simulationen und Parametertests unternehmensübergreifender BI-Netzwerke durchgeführt. Es wird gezeigt, dass eine Peer-To-Peer-basierte Gestaltung der Netzwerke leistungsfähig und kompetitiv zu existierenden zentral-fokussierten Ansätzen ist. Zur Quantifizierung der Beobachtungen werden Messgrößen geprüft, die sich aus existierenden Konzepten zur Schemaüberführung multidimensionaler Daten sowie Überlegungen zur Daten- und Informationsqualität ableiten oder entwickeln lassen.Business Intelligence (BI) is a well-established term for methods, concepts and tools to retrieve, store, deliver and analyze data for management and business purposes. Although collaboration across company borders has substantially increased over the past decades, little research has been conducted specifically on Cross-Company BI (CCBI). In this thesis, a working definition and distinction from general collaborative decision making is proposed. Based on a reference model that takes existing research and related approaches of adjacent fields into account a peer-to-peer network design is created. With an extensive simulation and parameter testing it is shown that the design proves valuable and competitive to centralized approaches and that obtaining a critical mass of participants leads to improved usefulness of the network. To quantify the observations, appropriate quality measures rigorously derived from respected concepts on data and information quality and multidimensional data models are introduced and validated
Präliminarien einer Korpusgrammatik
Der korpuslinguistische Ansatz des Projekts »Korpusgrammatik« eröffnet neue Perspektiven auf unsere Sprachwirklichkeit allgemein und grammatische Regularitäten im Besonderen. Der vorliegende Band klärt auf, wie man korpuslinguistisch nach dem Standard fragen kann, wie die Projektkorpora aufgebaut und in einer Korpusdatenbank erschlossen sind, wie man in einem automatischen Abfragesystem der Variabilität der Sprache zu Leibe rückt und sie sogar messbar macht, schließlich aber auch, wo die Grenzen quantitativer Korpusanalysen liegen. Pilotstudien deuten an, wie der Ansatz unsere grammatischen Horizonte erweitert und die Grammatikografie voranbringt
Nicht-reaktive Erhebungsverfahren: 8. Wissenschaftliche Tagung
Der vorliegende Tagungsband dokumentiert die Beiträge der wissenschaftlichen Tagung "Nicht-reaktive Erhebungsverfahren", die am 25. und 26. Juni 2009 gemeinsam vom Statistischen Bundesamt, dem ADM Arbeitskreis Deutscher Markt- und Sozialforschungsinstitute e.V. und der Arbeitsgemeinschaft Sozialwissenschaftlicher Institute e.V. (ASI) in Wiesbaden durchgeführt wurde. Inhaltsverzeichnis: Roderich Egeler: Begrüßung (7-10); Frank Faulbaum: Nicht-reaktive Erhebungsverfahren: Einführung (11-20); Hartmut Scheffler: Datenerhebung jenseits der Umfrage: Möglichkeiten und Grenzen (21-32); Franz Kilzer: Verhaltensbeobachtungen am Point-of-Sale (POS) (33-449; Rainer Schnell: Biometrische Daten (45-60); Holger Heidrich-Riske: Einsatz von Geoinformationssystemen in der amtlichen Statistik (61-72); Andreas Czaplicki: Nutzung von GPS-Daten - Analyse der Besucherwege des Leipziger Zoos (73-82); Tanja Hackenbruch: Datenerhebung mit Hilfe der Mediawatch (83-102); Martin Welker: Logfile-Analysen: Einsatz und Problemfelder (103-118); Andrea Maldonado: Zensus 2011 - Aufbau des Anschriften- und Gebäuderegisters (AGR) (119-128); Ulf-Dietrich Reips: Schöne neue Forschungswelt - Zukunftstrends (129-138)
Ein Repository fĂĽr Modellierungsmethoden
Im Bereich der Wirtschaftsinformatik gewinnen Modelle und vor allem die verwendeten Modellierungsmethoden immer mehr an Bedeutung. Daher wurde 2008 die Open Model Initiative gegründet, die sich mit der Entwicklung und Bereitstellung von Modellierungsmethoden und deren Anwendungsmöglichkeiten beschäftigt. Um die Entwickler von Modellierungsmethoden zu unterstützen wird nun ein Repositorykonzept benötigt. Dadurch sollen dem Anwender sowohl Verwaltungsfunktionalität als auch Analysemöglichkeiten geboten werden.
Die Konzeption dieses Repositories basiert im Gegensatz zu den in der Literatur am häufigsten auftretenden Datenbank-basierenden Repositorykonzepten auf einem Metamodellierungsansatz, wodurch sich insbesonders einige wesentliche Vorteile ergeben. Diese Vorteile sind vor allem die einfache Integration der Modellierungsumgebung für die verwalteten Modellierungsmethoden sowie die Verwendung von Metamodellierungskonzepten sowohl für das Repository als auch für die Anwendung.
Ziel dieser Arbeit ist es nun ein Konzept für ein Modellierungsmethoden-Repository zu erstellen, welches alle notwendigen Funktionalitäten für deren Verwaltung zur Verfügung stellt und an die Bedürfnisse der Methodenentwickler angepasst ist. Das Konzept soll anschließend die Spezifikationsgrundlage für eine darauffolgende Implementierung bieten, wodurch eine weitere Verwendung des Repositories innerhalb der Open Model Initiative geboten wird.Models and their used modelling methods become more important in the field of business informatics. Therefore, the Open Models Initiative was founded in 2008. This initiative deals with the development and supply of modelling methods and their applicability. A repository concept is needed due to the growing number of modelling methods and to support the method developer. This ensures the provision of management functionality as well as analytical possibilities.
The conception of this repository is based on a metamodelling approach in contrast to the most common concepts based on database technologies. This results in various advantages like easy integration of the modelling methods into the modelling environment and the usage of metamodelling approaches for the repository as well as for the use.
Aim of this work is the creation of a concept for a modelling method repository. This concept specifies all necessary functionalities and is adapted to the needs of method developers. The following implementation of the repository is based on this provided specification. Through which further usage of the repository within the Open Models Initiative is given
- …