13 research outputs found
From a Dynamic Image Annotation Process within the Humanities to a Canonical Workflow
One idea of the Canonical Workflow Framework for Research (CWFR) is to improve the reusability and automation in research. In this paper, we aim to deliver a concrete view on the application of CWFRs to a use case of the arts and humanities to enrich further discussions on the practical realization of canonical workflows and the benefits that come with it. This use case involves context dependent data transformation and feature extraction, ingests into multiple repositories as well as a âhuman-in-the-loopâ workflow step, which introduces a certain complexity into the mapping to a canonical workflow
The whole is greater than the sum of its parts analyzing aristotle commentaries in collaboration between philology and data science
This paper aims at presenting the surplus value of collaboration between philologists and data scientists in the research on medieval digitized manuscripts. Both the great potential and the challenges of such a collaboration will be addressed. The following case study originates from research which is conducted in the Collaborative Research Center âEpisteme in Motion. Transfer from the Ancient World to the Early Modern Periodâ which is located at the Freie Universitšat Berlin and funded by the German Research Foundation (DFG). One of the goals of this collaboration is to advance research questions in which the data basis is complex or too complex for traditional research methods. The case study presented in this paper will deal with the knowledge transfer and text transmission in manuscripts of Aristotleâs ancient Greek treatises on logic, the so-called Organon, and will focus on the manuscripts of his work de interpretatione (On Interpretation) and on commentaries and explanations which are found as paratexts in the manuscripts
Annotating Humanities Research Data - Episteme, Metaphors and the Torah
Annotieren ist eine der Ă€ltesten Kulturtechniken der Menschheit. WĂ€hrend in den vergangenen Jahrhunderten Stift und Papier die Mittel der Wahl waren um Anmerkungen zu einer Quelle hinzuzufĂŒgen, verschiebt sich diese AktivitĂ€t in den letzten Jahren zunehmend in die digitale Welt. Mit der W3C-Empfehlung âWeb Annotation Data Modelâ steht seit 2017 ein mĂ€chtiges Werkzeug zur VerfĂŒgung, um Annotationen in verschiedensten Disziplinen zu modellieren und eine disziplin- sowie plattformĂŒbergreifende Auswertung zu ermöglichen.
In diesem Poster möchten wir einen Einblick in unsere Annotationsinfrastruktur geben, die in drei geisteswissenschaftlichen Forschungsprojekten im Einsatz ist. Dabei stehen sowohl ein eigens entwickelter Annotationsserver mit RDF-Backend (vollstĂ€ndig kompatibel zum âWeb Annotation Protocolâ) als auch unsere AnnotationsoberflĂ€chen im Fokus. Es sollen das Zusammenspiel dieser Komponenten untereinander aber auch mit weiteren Infrastrukturkomponenten, wie beispielsweise einem Forschungsdatenrepositorium oder einem Vokabulareditor, sowie die tĂ€gliche Arbeit der Forschenden mit diesen Komponenten illustriert werden.
Besonderesr Augenmerk soll auf die Modellierung der Annotationen in unseren unterschiedlichen AnwendungsfĂ€llen gelegt werden. Die Beispiele reichen dabei von Auszeichnungen logischer Diagramme in mittelalterlichen Aristoteles-Handschriften, ĂŒber die Analyse von Metaphern im Prozessin religiöser Sinnbildung bis hin zur Erfassung besonderer hebrĂ€ischern Buchstabenvariationen in Torarollen. Die Diskussion von Gemeinsamkeiten und Unterschieden in diesen AnwendungsfĂ€llen birgt dabei ein groĂes Potential fĂŒr die Ăbertragbarkeit und Fruchtbarmachung in weiteren wissenschaftlichen Disziplinen
EVOKS - Benutzerfreundliche Erstellung kontrollierter Vokabulare fĂŒr die Geisteswissenschaften
EVOKS ist ein Werkzeug zur benutzerfreundlichen, kollaborativen Erstellung, Bearbeitung und Veröffentlichung von Wissensgraphen im SKOS-Format durch Fachwissenschaftler:innen ohne tiefe Vorkenntnisse in Ontologieentwicklung. Bei der Entwicklung wurden die FAIR-Prinzipien beachtet. Hieraus folgt die Verwendung von standardisierten Schnittstellen, Datenmodellen und Protokollen sowie Persistenz durch feste IDs und eine Versionierung. Durch eine Nutzer:innen- und Gruppenverwaltung wird ein einfacher Reviewprozess ermöglicht sowie die Urheberschaft aller erstellen Inhalte sichergestellt. EVOKS wird bereits in verschiedenen, gröĂtenteils geisteswissenschaftlichen Forschungsprojekten genutzt bzw. erprobt. Daher ist das Ziel des Posters, EVOKS der Forschungsgemeinschaft vorzustellen und wertvolles Feedback zu erhalten, um die Software weiterzuentwickeln
Easy Creation of Controlled Vocabularies Using EVOKS
Controlled vocabularies describe domain-specific knowledge, offering a comprehensive collection of terms that reduce data ambiguity and enhance semantic interoperability. They are essential in metadata schemas and facilitate ontology integration.
EVOKS, the Editor for Vocabularies to Know Semantics, is a general-purpose vocabulary service that allows data stewards and scientists to easily create or import, edit, curate, and publish controlled vocabularies using the W3C-recommended SKOS data model [1]. Access to published vocabularies is effectively ensured through the implementation of SKOSMOS [2] as a dedicated vocabulary browser instance.
To demonstrate the benefits of using the EVOKS vocabulary service, the poster presents two use cases.
The first use case, "Creation of the Sample Description Vocabulary and Conversion to OWL," demonstrates how the ontology creation process can be facilitated by starting with the vocabulary. The most time-consuming part of ontology creation is defining the terms and their descriptions. This task requires collaborative work from domain experts and researchers who are not always experts in the ontology creation process and tools. EVOKS provides a very user-friendly interface and collaborative work opportunities that can help to make this process easier and faster. After defining terms and their definitions in EVOKS, an ontology expert can convert the vocabulary into an ontology using our special SKOS-to-OWL Converter, thereby creating a more complex ontology from the vocabulary.
As an application use case, the poster also demonstrates the integration of controlled vocabularies into metadata schemas. Specifically, it illustrates how the narrower concepts of a term from a controlled vocabulary appear as selectable options in the schema\u27s drop-down menu when a metadata editor interface is configured.
The EVOKS interface is intuitive and user-friendly, speeding up vocabulary creation, enhancing interoperability, and supporting FAIR principles. It is also applicable to HMC projects for controlled vocabulary development.
[1] http://www.w3.org/TR/skos-reference
[2] https://skosmos.org
FAIR Data Commons / Essential Services and Tools for Metadata Management Supporting Science
A sophisticated ensemble of services and tools enables high-level research data and research metadata management in science. On a technical level, research datasets need to be registered, preserved, and made interactively accessible using repositories that meet the specific requirements of scientists in terms of flexibility and performance. These requirements are fulfilled by the Base Repo and the MetaStore of the KIT Data Manager Framework.
In our data management architecture, data and metadata are represented as FAIR Digital Objects that are machine actionable. The Typed PID Maker and the FAIR Digital Object Lab provide support for the creation and management of data objects. Other tools enable editing of metadata documents, annotation of data and metadata, building collections of data objects, and creating controlled vocabularies.
Information systems such as the Metadata Standards Catalog and the Data Collections Explorer help researchers select domain-specific metadata standards and schemas and identify data collections of interest.
Infrastructure developers search the Catalog of Repository Systems for information on modern repository systems, and the FAIR Digital Object Cookbook for recipes for creating FAIR Digital Objects.
Existing knowledge about metadata management, services, tools, and information systems has been applied to create research data management architectures for a variety of fields, including digital humanities, materials science, biology, and nanoscience. For Scanning Electron Microscopy, Transmission Electron Microscopy and Magnetic Resonance Imaging, metadata schemas were developed in close cooperation with the domain specialists and incorporated in the research data management architectures.
This research has been supported by the research program âEngineering Digital Futuresâ of the Helmholtz Association of German Research Centers, the Helmholtz Metadata Collaboration (HMC) Platform, the German National Research Data Infrastructure (NFDI), the German Research Foundation (DFG) and the Joint Lab âIntegrated Model and Data Driven Materials Characterization (MDMC)â. Also, this project has received funding from the European Unionâs Horizon 2020 research and innovation programme under grant agreement No. 101007417 within the framework of the NFFA-Europe Pilot (NEP) Joint Activities
ComputergestĂŒtzte Analyse von Illustrationswiederverwendungen in deutschsprachigen Drucken des 16. Jahrhunderts. Am Beispiel Frankfurt am Main.
Die Untersuchung historischen Bildmaterials auf seine Ăhnlichkeiten hin ist eine wissenschaftliche Praxis, die so alt ist wie die Geisteswissenschaften selbst. Von Beginn an wurden ĂŒberlieferte Bilder in mĂŒhsamer Detailarbeit gesammelt und zur Beantwortung wissenschaftlicher Fragestellungen herangezogen, etwa zur Lösung von Datierungsproblemen. Seit jeher ĂŒbersteigt auch die Aufgabe, die erhaltenen Bilder alleine nach diesem Gesichtspunkt zu sichten und zu ordnen, rasch die KapazitĂ€t einzelner ForschungstĂ€tigkeiten. Ein Problem, das mit der groĂen Menge digital verfĂŒgbarer Daten noch gewachsen ist. Die BildĂ€hnlichkeitssuche -- das Auffinden korrespondierender Bilder in einem Datensatz durch Eingabe einer Bilddatei -- ist gĂ€ngiger Baustein im Werkzeugkasten groĂer Web-Suchmaschinen geworden. Im Bereich der geisteswissenschaftlichen Forschung wird sie jedoch noch wenig fĂŒr analytische Zwecke zum Einsatz gebracht. Ein SchlĂŒsselelement fĂŒr die erfolgreiche Nutzung zur Analyse von BildbestĂ€nden ist es, die Suche nicht nur als exploratives Werkzeug, sondern auch als Konzept fĂŒr vollstĂ€ndige ErschlieĂung eines klar definierten Suchraums zu denken und zu nutzen. Bilddaten, die aus groĂ angelegten Digitalisierungsworkflows historischer BuchbestĂ€nde stammen, stellen eine unerschöpfliche Fundgrube fĂŒr die historische Forschung dar. Milliarden von Buchseiten sind heute als Bilddaten in Bibliotheken und Archiven auf der ganzen Welt verstreut. WĂ€hrend sich viele digitale Methoden auf die Aufgabe konzentrieren, Textdaten aus den digitalisierten Buchseiten zu extrahieren, sind die weniger fokussierten Illustrationen eine ebenso wertvolle Quelle fĂŒr die historisch-epistemologische Forschung.
In dieser Arbeit wird eine exemplarische Lösung fĂŒr die Nutzung visueller Suche fĂŒr analytische Zwecke vorgeschlagen. Der vorgestellte Anwendungsfall konzentriert sich auf ein Datenkorpus, das aus einer der groĂen deutschen BuchdruckstĂ€dte in der aufkommenden MassendruckĂ€ra der frĂŒhen Neuzeit stammt. Der Anwendungsfall ist von besonderem Interesse, da Holzschnittillustrationen im Buchdruck dieser Zeit in hohem MaĂe Wiederverwendung finden. In der Arbeit wird ein wissenschaftlicher Workflow fĂŒr die Analyse der Wiederverwendungen von Illustrationen entwickelt. Er besteht aus den Schritten Bildsegmentierung, Bildsuche und Graphgenerierung. Der Workflow wird auf ein Korpus von ĂŒber 1700 digitalisierten Buchausgaben der Stadt Frankfurt am Main angewendet, die im 16. Jahrhundert gedruckt wurden. Der Anwendungsfall wird genutzt, um das Potential von mixed methods-AnsĂ€tzen zur Analyse groĂer heterogener DatensĂ€tze im Bereich der Kulturerbe-Sammlungen zu diskutieren.
Zentrale BeitrĂ€ge der Arbeit sind die Entwicklung einer schnellen, leichtgewichtigen morphologischen Bildsegmentierung fĂŒr groĂe Datenmengen sowie die Anwendung von Graphtechnologien zur Datenmodellierung, Datenvisualisierung und Datenanalyse visueller Suchergebnisse. Die Arbeit liefert neue quantitativ-qualitative Einblicke in die Buchproduktion Frankfurts und beleuchtet die wichtigsten Akteure und die Entstehung und den Einfluss ihrer Netzwerke im neu entstehenden Literaturbetrieb des 16. Jahrhunderts unter dem Schlaglicht ihrer materiellen Illustrationswiederverwendungen
An der Schnittstelle von Fach- und Informationswissenschaft:
In bewusst enger Verzahnung von Fach- und Informationswissenschaft entwickelt und implementiert das INF-Projekt des an der Freien UniversitĂ€t Berlin angesiedelten Sonderforschungsbereichs 980 "Episteme in Bewegung: Wissenstransfers von der Alten Welt bis in die frĂŒhe Neuzeit" in der gegenwĂ€rtigen Förderphase unter dem Titel âBĂŒcher auf Reisen. Informationstechnologische ErschlieĂung von Wissensbewegungen in vormodernen Kulturenâ zum einen ein zentrales Forschungsdatenrepositorium fĂŒr den SFB und betreibt zum anderen gemeinsame Forschung und Entwicklung mit derzeit vier ausgewĂ€hlten Teilprojekten. Der vorliegende Beitrag skizziert, wie die Kollaboration von Geisteswissenschaften, Computerphilologie und Informatik sowohl innerhalb des INF-Projekts als auch im Zusammenspiel mit den Pilotprojekten ausgestaltet wird, welche Herausforderungen bei gemeinsamer Forschung entstehen und welche Rolle das INF-Projekt eines groĂen geisteswissenschaftlichen Verbundes in den NachhaltigkeitsĂŒberlegungen der Heimatinstitution spielen kann