3 research outputs found

    Temporale Aspekte und Provenance-Anfragen im Umfeld des Forschungsdatenmanagements

    Get PDF
    Zur Verbesserung der Qualität wissenschaftlicher Arbeiten besteht Interesse an der Rückverfolgbarkeit und Nachnutzung von Forschungsdaten. Die Erhebung von diesen Daten erfolgt einerseits manuell, andererseits automatisiert durch Instrumente und Sensoren der im Forschungsgebiet genutzten Geräte. Das Leibniz-Institut für Ostseeforschung Warnemünde betreibt eine instrumentierte Messplattform (GODESS) zur Untersuchung von physikalischen und chemischen Umweltparametern der Ostsee in verschiedenen Tiefen. Durch den modularen Aufbau und Konfiguration der Plattform ergeben sich Änderungen in den Datenformaten sowie Anpassungen der Auswerte- und Analysefunktionen. Im Kontext von Datenbanken entspricht dies Änderungen des relationalen Datenbankschemas sowie von SQL-Funktionen. In dieser Arbeit wird untersucht, unter welchen Voraussetzungen veränderte SQL-Funktionen auf veränderte Schemata angewendet werden können. Dazu wird im Konzept gezeigt, wie Veränderungen von SQL-Funktionen durch Techniken der temporalen Datenhaltung aufgezeichnet werden können. Das Festhalten und Verfolgen von Schemaänderungen wird zusätzlich skizziert. Danach erfolgt die Untersuchung der Anwendbarkeit von Funktionen auf sich verändernde Schemata sowie die Anwendbarkeit von Funktionen bei Funktionsänderungen. Die Ergebnisse werden zusammenfassend in Form von Tabellen präsentiert. Ferner wird auf Möglichkeiten der automatisierten Kompensation der Änderungen zur Wahrung der weiteren Anwendbarkeit der Funktionen mittels Schemaintegrationstechniken eingegangen. Danach wird der Zusammenhang der Herkunft von Daten und Aspekten der temporalen Datenhaltung beschrieben. Es folgt eine prototypische Umsetzung der Versionierung von SQL-Funktionen. Abschließend wird die Arbeit zusammengefasst und ein Ausblick auf weitere mögliche und weiterführende Themen gegeben.To improve the quality of scientific work it is necessary to trace research data and provide it for a subsequent use. The data is acquired manually as well as automatically, generated with instruments and sensors of the involved devices in the particular scientific discipline. The Leibniz Institute for Baltic Sea Research Warnemünde runs a profiling monitoring station (GODESS) to measure physical and chemical environmental data at several depths of the Baltic Sea. The modular structure and configuration of the platform leads to changes in the data formats and the functions by which the data is analyzed. In the context of databases these changes correspond to changes in the relational schemata and SQL-functions. This thesis analyses the requirements to use changed SQL-functions on changed schemata. For that purpose it will be demonstrated how changes of SQL-functions could be recorded with techniques of temporal data management. Furthermore the recording of relational schema changes will be outlined. The applicability of SQL-functions on changed schemata and the applicability of SQL-functions on changed functions will be analyzed. The results will be summarized and presented in tables. Moreover options to compensate the changes to reuse the function are shown with techniques of schema integration. The link between data provenance and temporal data management will be described. A prototype to record changes of SQL-functions over a period of time is proposed. The thesis will be summarized and provides an outlook of possible future topics and further papers

    Datenqualität als kritischer Erfolgsfaktor bei Datenmigrationen

    Get PDF
    In der vorliegenden Bachelorarbeit wird der Einfluss der Datenqualität auf den Erfolg einer Datenmigration untersucht. Zu diesem Thema wurde in der Forschung bis heute erst wenig geforscht. Die meisten Autorenwerke legen Ihren Fokus auf die Wichtigkeit der Datenqualität in Data-Warehouse-Systemen. Diese Arbeit versucht eine Antwort auf die Frage, welche Auswirkung die Datenqualität auf den Erfolg einer Datenmigration hat, herzuleiten. Eine Datenmigration kommt zu Stande, wenn ein Unternehmen beschliesst, ein altes System abzulösen und durch ein neues zu ersetzen. Das Ergebnis ist eine Aussage darüber, inwiefern die Datenqualität den Erfolg einer Datenmigration beeinflusst. Im theoretischen Teil werden die grundlegenden Begriffe dieser Arbeit definiert, sowie die Relevanz der Datenqualität aufgezeigt. Darauf basierend werden im empirischen Teil dieser Forschungsarbeit ein mündliches Experteninterview sowie eine quantitative Erhebung durchgeführt. Aufgrund der empirischen Untersuchung ist es möglich, eine Handlungsempfehlung an Migrationsprojekte abgeben zu können. Die Empfehlungen basieren auf der bestehenden Literatur, den Aussagen aus der Expertenbefragung und den Resultaten der quantitativen Untersuchung. Die Auswertung der quantitativen Untersuchung zeigt, dass die Datenqualität den Migrationserfolg zu 49.4% beeinflusst. Dies weist darauf hin, dass die Datenqualität ein sehr wichtiger Faktor ist, um ein Migrationsprojekt zum Erfolg zu führen. Für die quantitative Untersuchung wurden acht Datenqualitätskriterien und sieben Erfolgskriterien herangezogen. Das Ergebnis dieser quantitativen Untersuchung wurde mittels einem Strukturgleichungsmodell erlangt. Weiter zeigt das Experteninterview, dass die Datenbereinigung möglichst früh im Projekt angegangen werden muss. Dabei ist es wichtig, dass sich ein Team um die Beauftragung und Überwachung der Datenbereinigungen kümmert. Die Datenqualität ist in der heutigen Zeit ein wichtiges Thema. Diese Arbeit zeigt, dass die Datenqualität bei einer Datenmigration eine wichtige Rolle spielt und nicht ausser Acht gelassen werden darf. Ohne eine akzeptable Datenqualität ist eine Datenmigration unmöglich. Zum Schluss wird eine Handlungsempfehlung an Unternehmen mit Migrationsprojekten abgegeben. Diese erläutert, wie ein Migrationsprojekt in Zukunft, in Bezug auf die Datenqualität, besser unterstützt werden kann. Es ist wichtig, die Datenqualität früh im Projekt zu integrieren. In Bezug auf die Datenmigration und die Datenqualität müssen Qualitätskennzahlen definiert werden. Die Kennzahlen müssen überwacht werden, damit im Falle einer Nichterfüllung noch vor der Datenmigration reagiert werden kann. Das Bestehen einer Data Governance im Unternehmen ist sowohl in Bezug auf eine Datenmigration als auch im Geschäftsalltag ein wichtiges Element. In der Data Governance werden Richtlinien und Regeln an die Daten definiert. Dadurch ist es möglich, auch nach der Datenmigration, eine hohe Datenqualität zu gewährleisten

    Sharing knowledge: scientfic communication: 9. Kongress der IuK-Initiative der Wissenschaftlichen Fachgesellschaft in Deutschland

    Full text link
    Inhaltsverzeichnis: Heike Andermann: Entwicklung von alternativen Publikationsstrukturen in Europa und den USA. DFG-Projekt: Perspektiven für den Bezug elektronischer Fachinformation in der Bundesrepublik Deutschland (11-20); Elke Brenstein, Olaf Klos: Qualitätssicherung und Nutzung von wissenschaftsrelevanten Angeboten auf dem Deutschen Bildungsserver: empirische Befunde einer vergleichenden Logfile-Analyse (21-36); Christine Burblies, Tamara Pianos: vascoda - das gemeinsame Portal von Informationsverbänden, Elektronischer Zeitschriftenbibliothek und Virtuellen Fachbibliotheken (37-46); Klaus Hahn: Probleme der Integration digitaler Bibliothekssysteme: semantische Heterogenität bei datenbankübergreifenden Recherchen (47-58); Heiko Hellweg, Bernd Hermes, Maximilian Stempfhuber: Unterstützung kooperativer Verfahren zum Aufbau von Fachportalen (59-70); Michael Hohlfeld, Thomas Severiens: PhysNet und seine Spiegel - das Projekt SINN (71-82); Nikola Korb: Online-Hochschulschriften für die Praxis (83-94); Rudi Schmiede, Stephan Körnig: Infrastrukturen für innovative Digital Library-Dienste. Perspektiven des Kompetenznetzwerks "Neue Dienste, Standardisierung, Metadaten" (95-106); Jutta von Maurice: Das Psychologische Datenarchiv PsychData. Zur Frage der angemessenen Dokumentation von Primärdaten der empirisch-psychologischen Forschung (107-118); Astrid Nechvátal: Maßnahmen zur Förderung der Informationskompetenz durch den Fachinformationsanbieter ZPID (119-130); Olaf Ninnemann, Bernd Wegner: LIMES - a system for a distributed database production in mathematics (131-138); Frank Oldenettel, Michael Malachinski: Integration von digitalen Bibliotheken in Learning-Management-Systeme (139-156); Judith Plümer: MPRESS - transition of metadata formats (157-168); Dennis Reil: Einsatz von Lernmanagementsystemen in traditionellen Lehrveranstaltungen am Beispiel der Universitäten Oldenburg und Osnabrück. Ein Erfahrungsbericht (169-180); Hans E. Roosendaal, Peter A.Th.M. Geurts: Reflections on the value chain of scientific information (181-192); Natascha Schumann, Wolfgang Meier, Sue Heise, Rudi Schmiede: SozioNet - Web-Ressourcen für ein künftiges Fachportal Sozialwissenschaften (193-204); Thomas Severiens, Esther Tobschall: ViFaPhys - Virtuelle Fachbibliothek Physik. Ein kooperatives Dienstleistungsangebot für die Physik (205-212); Günther Specht, Michael G. Bauer: Weiterentwicklung von digitalen Biblithekssystemen zu OpenArchives-Systemen (213-226); Markus Kalb, Günther Specht: Zeitliche Verwaltung XML-basierter Metadaten in digitalen Bibliotheken (227-238); Maximilian Stempfhuber: infoconnex - der Informationsverbund Pädagogik - Sozialwissenschaften - Psychologie (239-248); Christian Swertz: Das didaktische Metadatensystem DML - Grundlagen und praktische Anwendung (249-266); Paul van der Vet, Eelco Mossel: The C2M project: a wrapper generator for chemistry and biology (267-282); Josef Wiemeyer: Analyse der Qualität der multimedialen Lernumgebung "BioPrinz" (283-292)
    corecore