63 research outputs found

    Entwicklung eines Systems zur automatisierten Extraktion von Metadaten und dessen prototypische Anwendung innerhalb des Cloud-Speichers OX Drive

    Get PDF
    Die Menge an Informationen steigt seit Jahren immer weiter an. Dies lässt sich auch leicht an der Entwicklung der Speichermedien feststellen. So bot die erste 5,25-Zoll Festplatte, eine Seagate ST- 506, lediglich 5 MB Speicherkapazität. Heutige 3,5-Zoll Festplatten verfügen hingegen über bis zu 8 TB Speicherkapazität und werden ebenso ausgenutzt wie ihre Vorgänger aus der Anfangszeit der Magnet-festplatten. Zusätzlich geht die Tendenz dorthin, alle Daten jederzeit zur Verfügung zu haben. Sei es daheim am Rechner, auf der Arbeit oder per Tablet oder Smartphone unterwegs, dank der immer mehr verbreiteten Cloud-Speicher stehen die Daten jederzeit zur Verfügung. Mit dem enormen Zuwachs an Dateien und auch an Dateiformaten wird es jedoch immer schwieriger, diese Masse zu überblicken und bestimmte Inhalte in annehmbarer Zeit wiederzufinden. Beispiels- weise hostet der Internetdienst Flikr die schier unüberschaubare Menge von über 6 Milliarden Bilder. Doch nicht nur die großen Servicedienstleister besitzen große Datenmengen, auch Einzelpersonen haben derweil große Musik- und Bildsammlungen, zumal jedes aktuelle Smartphone über eine Kamera verfügt. Jeder ist somit praktisch zu jeder Zeit in der Lage, ein Foto in hochauflösender Qualität zu schießen und direkt in seine Cloud hochzuladen. Diese Datenmengen manuell zu ordnen, erfordert einen sehr hohen Aufwand, den nicht alle Menschen gewillt sind zu leisten. Vor allem am Smartphone geht dieses Benennen und Einsortieren aufgrund der vorhandenen Technik nicht so leicht von der Hand. In der Praxis sammeln sich die Aufnahmen mit der Zeit immer weiter an und letztlich befinden sich mehrere hundert wenn nicht gar tausend Bilder in einem Ordner, welche sich namentlich meist nur durch eine fort- laufende Nummer unterscheiden. Diesen Umstand Rechnung tragend, treten Metainfor-mationen immer mehr in den Vordergrund. So speichern die zuvor genannten mobilen Alleskönner meist viele informative Daten mit in den Bilddateien ab. Beispielsweise kann dank der eingebauten GPS-Module der Ort der Aufnahme aus den Bildern ausgelesen werden. Die Dienstleister für Cloud-speicher nutzen diese Informationen jedoch nur marginal aus und bieten dem Endanwender kaum Unterstützung bei der Suche nach be- stimmten Inhalten, wie etwa beim OX Drive, der Cloudlösung der Firma Open-Xchange. Die vorliegende Master Thesis zeigt, wie dieser Cloud-Speicher, welcher in die Hauseigene OX App Suite integriert ist, um sogenannte Smartfeatures erweitert werden kann. Diese Smartfeatures sollen dem Endan-wender helfen, die Daten einfacher – wenn nicht gar automatisch – zu ordnen und somit leichter bestimmte Inhalte wiederzufinden. Kernthema dieser Arbeit ist daher die auto- matische Extraktion von unterschiedlichen Metadaten aus diversen Dateiformaten. Des Weiteren wird gezeigt, wie diese Daten effizient gespeichert und abgefragt werden können. Die Thesis stellt hierzu den Document Store Elasticsearch vor und vergleicht diesen mit seinem Konkurrenten Apache Solr

    Elektronisches Publizieren von Digitalen Forschungsdaten am Beispiel des TextGrid Repositorys : Umsetzung von Digitalen Publikationsworkflows für die eHumanities

    Get PDF
    Die digitale Transformation führt auch bei Bibliotheken und bei Forschungsinfrastrukturen, die durch die Geistes- und Kulturwissenschaften genutzt werden, zu strukturellen Veränderungen. So werden kritische Editionen und Wörterbücher elektronisch publiziert, große Mengen an Büchern digitalisiert und deren Inhalt als elektronisch erschlossene Volltexte der Öffentlichkeit zur Verfügung gestellt. In den eHumanities etablieren sich durch die Anwendung computergestützter Verfahren neue Publikationsformen. Es werden neue Arbeitsabläufe für die Publikation und die langfristige Speicherung der Daten benötigt. Im Rahmen dieser Studie werden Entwicklungspotenziale dieser neuen fachwissenschaftlichen Anforderungen am Beispiel der Virtuellen Forschungsumgebung TextGrid analysiert. Es werden zugleich Konzepte und Lösungen entwickelt, die als Funktionserweiterungen in dieses System implementiert werden. Zugleich stehen neben der Funktionserweiterung, basierend auf konkreten, erhobenen Anforderungen, die ebenfalls im Rahmen dieser Arbeit vorgestellt und diskutiert werden, intuitiv bedienbare Implementierungen im Fokus. Darüber hinaus werden technische Erweiterungen für die Langzeitarchivierungs-Strategien des TextGrid Repositorys und die Verbesserung des Import- und Publikationsprozesses implementiert und beschrieben.The digital transformation is leading to structural changes for libraries and research infrastructures used by the humanities and cultural sciences. Critical editions and dictionaries are published electronically, large numbers of books are digitised and their content is made available to the public as electronically accessible full texts. In the eHumanities, new forms of publication are becoming established due to the use of computer-aided methods. New workflows are required for publication and long-term storage of data. This study analyses the development potential of these new scientific requirements using the example of the TextGrid Virtual Research Environment. At the same time, concepts and solutions are being developed, which are implemented in this system as functional extensions. Besides the functional enhancement, that is based on concrete, collected requirements, which are also presented and discussed in this study, it also focuses on intuitive implementations. In addition, technical enhancements for the long-term archiving strategies of the TextGrid Repository and the improvement of the import and publication processes are implemented and described

    Datentypgetriebene Dynamische Komposition von Prozessbeschreibungen

    Get PDF
    This diploma thesis examines approaches for the efficient handling of process variants by a workflow management system. The foundation is a publication process for the creation and publishment of a multimedia document in digital libraries. Its modeling and management has to satisfy a plurality of requirements. Using the best ideas from the examined approaches satisfying the requirements, a new concept is created. It is based on the dynamic composition of process description. A proof-of.concept demonstrates the feasibility on the example of an appropriate workflow management system

    nestor Handbuch : eine kleine Enzyklopädie der digitalen Langzeitarchivierung

    Get PDF
    Die Überlieferung des kulturellen Erbes, traditionell eine der Aufgaben von Bibliotheken, Archiven und Museen, ist durch die Einführung digitaler Medien und innovativer Informationstechnologien deutlich anspruchsvoller geworden. In der heutigen Zeit werden zunehmend mehr Informationen (nur) digital erstellt und veröffentlicht. Diese digitalen Informationen, die Güter des Informations- und Wissenszeitalters, sind einerseits wertvolle kulturelle und wissenschaftliche Ressourcen, andererseits sind sie z.B. durch die Kurzlebigkeit vieler Formate sehr vergänglich. Die Datenträger sind ebenso der Alterung unterworfen wie die Datenformate oder die zur Darstellung notwendige Hard- und Software. Um langfristig die Nutzbarkeit der digitalen Güter sicherzustellen, muss schon frühzeitig Vorsorge getroffen werden. Es müssen Strategien zur digitalen Langzeitarchivierung entwickelt und umgesetzt werden. ..

    Optimierung der informationellen Infrastruktur für die wissenschaftliche Kommunikation

    Get PDF
    Die Arbeit beschreibt, wie die wissenschaftliche Kommunikation durch den Einsatz elektronischer Publikationen verbessert werden kann und welche Anforderungen sich daraus an die zugrundeliegende Infrastruktur ergeben. Ausgehend von der wissenschaftlichen Fachzeitschrift werden dabei diejenigen Problemfelder besprochen, die eine Transformation von gedruckten Publikationen zu elektronisch verfügbaren Publikationen mit sich bringen. Ausgehend von den Problembereichen und den Mehrwertfunktionen von elektronischen Publikationen wird ein Szenario für eine optimierte wissenschaftliche Kommunikation über das Internet entworfen. Dem Szenario werden konkrete Lösungen aus Forschung und Praxis gegenübergestellt, und es wird untersucht, inwiefern die einzelnen Komponenten des Szenarios mit verfügbaren Technologien realisierbar sind. Der Schwerpunkt der Arbeit liegt auf der technischen Infrastruktur, die für eine effektive wissenschaftliche Kommunikation über das Internet notwendig ist. Die ökonomischen, rechtlichen und sozialen Implikationen eines Übergangs von gedruckten zu elektronischen Publikationen werden dabei nur gestreift

    Optimierung der informationellen Infrastruktur für die wissenschaftliche Kommunikation

    Get PDF
    Die Arbeit beschreibt, wie die wissenschaftliche Kommunikation durch den Einsatz elektronischer Publikationen verbessert werden kann und welche Anforderungen sich daraus an die zugrundeliegende Infrastruktur ergeben. Ausgehend von der wissenschaftlichen Fachzeitschrift werden dabei diejenigen Problemfelder besprochen, die eine Transformation von gedruckten Publikationen zu elektronisch verfügbaren Publikationen mit sich bringen. Ausgehend von den Problembereichen und den Mehrwertfunktionen von elektronischen Publikationen wird ein Szenario für eine optimierte wissenschaftliche Kommunikation über das Internet entworfen. Dem Szenario werden konkrete Lösungen aus Forschung und Praxis gegenübergestellt, und es wird untersucht, inwiefern die einzelnen Komponenten des Szenarios mit verfügbaren Technologien realisierbar sind. Der Schwerpunkt der Arbeit liegt auf der technischen Infrastruktur, die für eine effektive wissenschaftliche Kommunikation über das Internet notwendig ist. Die ökonomischen, rechtlichen und sozialen Implikationen eines Übergangs von gedruckten zu elektronischen Publikationen werden dabei nur gestreift

    nestor-Handbuch - Eine kleine Enzyklopädie der digitalen Langzeitarchivierung

    Get PDF
    Das nestor Handbuch will nach dem Konzept des „Living Document“ das derzeitige Wissen über das vielfältige und komplexe Thema der Langzeitarchivierung und Langzeitverfügbarkeit digitaler Objekte und seine unterschiedlichen Teilaspekte sammeln und über eine „kleine Enzyklopädie“ in strukturierter Form den Interessierten in deutscher Sprache zugänglich machen. Einzelne, von verschiedenen Experten erstellte Fachbeiträge gestatten einen Überblick, manchmal auch einen vertieften Einblick in die diversen Themengebiete der Langzeitarchivierung: von technischen und rechtlichen Aspekten bis hin zur Definition von Rahmenbedingungen.1 Einführung 2 Rechtliche Aspekte 3 State of the Art 4 Rahmenbedingungen für die Langzeitarchivierung digitaler Objekte 5 Geschäftsmodelle 6 Organisation 7 Das Referenzmodell OAIS - Open Archival Information System 8 Vertrauenswürdigkeit von digitalen Langzeitarchiven 9 Formate 10 Standards und Standardisierungsbemühungen 11 Hardware 12 Digitale Erhaltungsstrategien 13 Access 14 Technischer Workflow 15 Anwendungsfelder in der Praxis 16 Lernen und weitergeben – Aus- und Weiterbildungsangebote zur Langzeitarchivierun

    Pattern-basierte Definition der Datenbereitstellung für Simulationen zu Strukturänderungen in Knochen

    Get PDF
    Workflows haben sich im Business Bereich bereits seit langem bewährt. Nun werden sie auch im wissenschaftlichen Bereich immer häufiger eingesetzt. Eines der Haupteinsatzgebiete ist die Modellierung von Simulationsabläufen. Oftmals müssen dabei riesige Datensätze in unterschiedlichen Formaten für die Simulationsumgebung bereitgestellt und in passende Formate transformiert werden. Dies führt dazu, dass sich Wissenschaftler nicht mehr auf ihre Kernkompetenzen konzentrieren können und erhöht das Risiko von Fehlern bei der Umsetzung der Datenbereitstellung. Eine Möglichkeit dieses Problem zu lösen sind sogenannte Workflow Patterns. Patterns reduzieren die Menge an Eingabevariablen die ein Wissenschaftler vor der Ausführung einer Simulation bereitstellen muss und abstrahieren komplexe Datentransfer- und Transformationsschritte. Dadurch kommt es zu einer Trennung der Zuständigkeiten bei der Implementierung einer Simulation. Wissenschaftler können sich auf die eigentliche Simulation konzentrieren, während beispielsweise Datenbank Experten die nötigen Patterns für die Datenbereitstellung implementieren. Im Zentrum dieser Arbeit steht die Implementierung einer Simulation der Strukturänderungen in Knochen. Im Rahmen dieser Arbeit werden zwei Workflows für diese Simulation angepasst. Außerdem werden für die Datenbereitstellungsschritte der beiden Workflows entsprechende Patterns für jede Ebene der Patternhierarchie erarbeitet und deren Transformation mittels entsprechender Abbildungsregeln und zugehöriger Metadaten bis hin zu ausführbaren Workflowfragmenten implementiert. Abschließend werden die erarbeiteten Patterns auf ihre Abstraktionsunterstützung, sowie generische Einsetzbarkeit hin bewertet
    corecore