13 research outputs found

    From a Dynamic Image Annotation Process within the Humanities to a Canonical Workflow

    Get PDF
    One idea of the Canonical Workflow Framework for Research (CWFR) is to improve the reusability and automation in research. In this paper, we aim to deliver a concrete view on the application of CWFRs to a use case of the arts and humanities to enrich further discussions on the practical realization of canonical workflows and the benefits that come with it. This use case involves context dependent data transformation and feature extraction, ingests into multiple repositories as well as a “human-in-the-loop” workflow step, which introduces a certain complexity into the mapping to a canonical workflow

    The whole is greater than the sum of its parts analyzing aristotle commentaries in collaboration between philology and data science

    Get PDF
    This paper aims at presenting the surplus value of collaboration between philologists and data scientists in the research on medieval digitized manuscripts. Both the great potential and the challenges of such a collaboration will be addressed. The following case study originates from research which is conducted in the Collaborative Research Center “Episteme in Motion. Transfer from the Ancient World to the Early Modern Period” which is located at the Freie Universit¹at Berlin and funded by the German Research Foundation (DFG). One of the goals of this collaboration is to advance research questions in which the data basis is complex or too complex for traditional research methods. The case study presented in this paper will deal with the knowledge transfer and text transmission in manuscripts of Aristotle’s ancient Greek treatises on logic, the so-called Organon, and will focus on the manuscripts of his work de interpretatione (On Interpretation) and on commentaries and explanations which are found as paratexts in the manuscripts

    Annotating Humanities Research Data - Episteme, Metaphors and the Torah

    Get PDF
    Annotieren ist eine der Ă€ltesten Kulturtechniken der Menschheit. WĂ€hrend in den vergangenen Jahrhunderten Stift und Papier die Mittel der Wahl waren um Anmerkungen zu einer Quelle hinzuzufĂŒgen, verschiebt sich diese AktivitĂ€t in den letzten Jahren zunehmend in die digitale Welt. Mit der W3C-Empfehlung ‘Web Annotation Data Model’ steht seit 2017 ein mĂ€chtiges Werkzeug zur VerfĂŒgung, um Annotationen in verschiedensten Disziplinen zu modellieren und eine disziplin- sowie plattformĂŒbergreifende Auswertung zu ermöglichen. In diesem Poster möchten wir einen Einblick in unsere Annotationsinfrastruktur geben, die in drei geisteswissenschaftlichen Forschungsprojekten im Einsatz ist. Dabei stehen sowohl ein eigens entwickelter Annotationsserver mit RDF-Backend (vollstĂ€ndig kompatibel zum ‘Web Annotation Protocol’) als auch unsere AnnotationsoberflĂ€chen im Fokus. Es sollen das Zusammenspiel dieser Komponenten untereinander aber auch mit weiteren Infrastrukturkomponenten, wie beispielsweise einem Forschungsdatenrepositorium oder einem Vokabulareditor, sowie die tĂ€gliche Arbeit der Forschenden mit diesen Komponenten illustriert werden. Besonderesr Augenmerk soll auf die Modellierung der Annotationen in unseren unterschiedlichen AnwendungsfĂ€llen gelegt werden. Die Beispiele reichen dabei von Auszeichnungen logischer Diagramme in mittelalterlichen Aristoteles-Handschriften, ĂŒber die Analyse von Metaphern im Prozessin religiöser Sinnbildung bis hin zur Erfassung besonderer hebrĂ€ischern Buchstabenvariationen in Torarollen. Die Diskussion von Gemeinsamkeiten und Unterschieden in diesen AnwendungsfĂ€llen birgt dabei ein großes Potential fĂŒr die Übertragbarkeit und Fruchtbarmachung in weiteren wissenschaftlichen Disziplinen

    EVOKS - Benutzerfreundliche Erstellung kontrollierter Vokabulare fĂŒr die Geisteswissenschaften

    Get PDF
    EVOKS ist ein Werkzeug zur benutzerfreundlichen, kollaborativen Erstellung, Bearbeitung und Veröffentlichung von Wissensgraphen im SKOS-Format durch Fachwissenschaftler:innen ohne tiefe Vorkenntnisse in Ontologieentwicklung. Bei der Entwicklung wurden die FAIR-Prinzipien beachtet. Hieraus folgt die Verwendung von standardisierten Schnittstellen, Datenmodellen und Protokollen sowie Persistenz durch feste IDs und eine Versionierung. Durch eine Nutzer:innen- und Gruppenverwaltung wird ein einfacher Reviewprozess ermöglicht sowie die Urheberschaft aller erstellen Inhalte sichergestellt. EVOKS wird bereits in verschiedenen, grĂ¶ĂŸtenteils geisteswissenschaftlichen Forschungsprojekten genutzt bzw. erprobt. Daher ist das Ziel des Posters, EVOKS der Forschungsgemeinschaft vorzustellen und wertvolles Feedback zu erhalten, um die Software weiterzuentwickeln

    Easy Creation of Controlled Vocabularies Using EVOKS

    Get PDF
    Controlled vocabularies describe domain-specific knowledge, offering a comprehensive collection of terms that reduce data ambiguity and enhance semantic interoperability. They are essential in metadata schemas and facilitate ontology integration. EVOKS, the Editor for Vocabularies to Know Semantics, is a general-purpose vocabulary service that allows data stewards and scientists to easily create or import, edit, curate, and publish controlled vocabularies using the W3C-recommended SKOS data model [1]. Access to published vocabularies is effectively ensured through the implementation of SKOSMOS [2] as a dedicated vocabulary browser instance. To demonstrate the benefits of using the EVOKS vocabulary service, the poster presents two use cases. The first use case, "Creation of the Sample Description Vocabulary and Conversion to OWL," demonstrates how the ontology creation process can be facilitated by starting with the vocabulary. The most time-consuming part of ontology creation is defining the terms and their descriptions. This task requires collaborative work from domain experts and researchers who are not always experts in the ontology creation process and tools. EVOKS provides a very user-friendly interface and collaborative work opportunities that can help to make this process easier and faster. After defining terms and their definitions in EVOKS, an ontology expert can convert the vocabulary into an ontology using our special SKOS-to-OWL Converter, thereby creating a more complex ontology from the vocabulary. As an application use case, the poster also demonstrates the integration of controlled vocabularies into metadata schemas. Specifically, it illustrates how the narrower concepts of a term from a controlled vocabulary appear as selectable options in the schema\u27s drop-down menu when a metadata editor interface is configured. The EVOKS interface is intuitive and user-friendly, speeding up vocabulary creation, enhancing interoperability, and supporting FAIR principles. It is also applicable to HMC projects for controlled vocabulary development. [1] http://www.w3.org/TR/skos-reference [2] https://skosmos.org

    FAIR Data Commons / Essential Services and Tools for Metadata Management Supporting Science

    Get PDF
    A sophisticated ensemble of services and tools enables high-level research data and research metadata management in science. On a technical level, research datasets need to be registered, preserved, and made interactively accessible using repositories that meet the specific requirements of scientists in terms of flexibility and performance. These requirements are fulfilled by the Base Repo and the MetaStore of the KIT Data Manager Framework. In our data management architecture, data and metadata are represented as FAIR Digital Objects that are machine actionable. The Typed PID Maker and the FAIR Digital Object Lab provide support for the creation and management of data objects. Other tools enable editing of metadata documents, annotation of data and metadata, building collections of data objects, and creating controlled vocabularies. Information systems such as the Metadata Standards Catalog and the Data Collections Explorer help researchers select domain-specific metadata standards and schemas and identify data collections of interest. Infrastructure developers search the Catalog of Repository Systems for information on modern repository systems, and the FAIR Digital Object Cookbook for recipes for creating FAIR Digital Objects. Existing knowledge about metadata management, services, tools, and information systems has been applied to create research data management architectures for a variety of fields, including digital humanities, materials science, biology, and nanoscience. For Scanning Electron Microscopy, Transmission Electron Microscopy and Magnetic Resonance Imaging, metadata schemas were developed in close cooperation with the domain specialists and incorporated in the research data management architectures. This research has been supported by the research program ‘Engineering Digital Futures’ of the Helmholtz Association of German Research Centers, the Helmholtz Metadata Collaboration (HMC) Platform, the German National Research Data Infrastructure (NFDI), the German Research Foundation (DFG) and the Joint Lab “Integrated Model and Data Driven Materials Characterization (MDMC)”. Also, this project has received funding from the European Union’s Horizon 2020 research and innovation programme under grant agreement No. 101007417 within the framework of the NFFA-Europe Pilot (NEP) Joint Activities

    ComputergestĂŒtzte Analyse von Illustrationswiederverwendungen in deutschsprachigen Drucken des 16. Jahrhunderts. Am Beispiel Frankfurt am Main.

    Get PDF
    Die Untersuchung historischen Bildmaterials auf seine Ähnlichkeiten hin ist eine wissenschaftliche Praxis, die so alt ist wie die Geisteswissenschaften selbst. Von Beginn an wurden ĂŒberlieferte Bilder in mĂŒhsamer Detailarbeit gesammelt und zur Beantwortung wissenschaftlicher Fragestellungen herangezogen, etwa zur Lösung von Datierungsproblemen. Seit jeher ĂŒbersteigt auch die Aufgabe, die erhaltenen Bilder alleine nach diesem Gesichtspunkt zu sichten und zu ordnen, rasch die KapazitĂ€t einzelner ForschungstĂ€tigkeiten. Ein Problem, das mit der großen Menge digital verfĂŒgbarer Daten noch gewachsen ist. Die BildĂ€hnlichkeitssuche -- das Auffinden korrespondierender Bilder in einem Datensatz durch Eingabe einer Bilddatei -- ist gĂ€ngiger Baustein im Werkzeugkasten großer Web-Suchmaschinen geworden. Im Bereich der geisteswissenschaftlichen Forschung wird sie jedoch noch wenig fĂŒr analytische Zwecke zum Einsatz gebracht. Ein SchlĂŒsselelement fĂŒr die erfolgreiche Nutzung zur Analyse von BildbestĂ€nden ist es, die Suche nicht nur als exploratives Werkzeug, sondern auch als Konzept fĂŒr vollstĂ€ndige Erschließung eines klar definierten Suchraums zu denken und zu nutzen. Bilddaten, die aus groß angelegten Digitalisierungsworkflows historischer BuchbestĂ€nde stammen, stellen eine unerschöpfliche Fundgrube fĂŒr die historische Forschung dar. Milliarden von Buchseiten sind heute als Bilddaten in Bibliotheken und Archiven auf der ganzen Welt verstreut. WĂ€hrend sich viele digitale Methoden auf die Aufgabe konzentrieren, Textdaten aus den digitalisierten Buchseiten zu extrahieren, sind die weniger fokussierten Illustrationen eine ebenso wertvolle Quelle fĂŒr die historisch-epistemologische Forschung. In dieser Arbeit wird eine exemplarische Lösung fĂŒr die Nutzung visueller Suche fĂŒr analytische Zwecke vorgeschlagen. Der vorgestellte Anwendungsfall konzentriert sich auf ein Datenkorpus, das aus einer der großen deutschen BuchdruckstĂ€dte in der aufkommenden MassendruckĂ€ra der frĂŒhen Neuzeit stammt. Der Anwendungsfall ist von besonderem Interesse, da Holzschnittillustrationen im Buchdruck dieser Zeit in hohem Maße Wiederverwendung finden. In der Arbeit wird ein wissenschaftlicher Workflow fĂŒr die Analyse der Wiederverwendungen von Illustrationen entwickelt. Er besteht aus den Schritten Bildsegmentierung, Bildsuche und Graphgenerierung. Der Workflow wird auf ein Korpus von ĂŒber 1700 digitalisierten Buchausgaben der Stadt Frankfurt am Main angewendet, die im 16. Jahrhundert gedruckt wurden. Der Anwendungsfall wird genutzt, um das Potential von mixed methods-AnsĂ€tzen zur Analyse großer heterogener DatensĂ€tze im Bereich der Kulturerbe-Sammlungen zu diskutieren. Zentrale BeitrĂ€ge der Arbeit sind die Entwicklung einer schnellen, leichtgewichtigen morphologischen Bildsegmentierung fĂŒr große Datenmengen sowie die Anwendung von Graphtechnologien zur Datenmodellierung, Datenvisualisierung und Datenanalyse visueller Suchergebnisse. Die Arbeit liefert neue quantitativ-qualitative Einblicke in die Buchproduktion Frankfurts und beleuchtet die wichtigsten Akteure und die Entstehung und den Einfluss ihrer Netzwerke im neu entstehenden Literaturbetrieb des 16. Jahrhunderts unter dem Schlaglicht ihrer materiellen Illustrationswiederverwendungen

    Annotationen und ihre infrastrukturellen Prämissen

    No full text

    An der Schnittstelle von Fach- und Informationswissenschaft:

    Get PDF
    In bewusst enger Verzahnung von Fach- und Informationswissenschaft entwickelt und implementiert das INF-Projekt des an der Freien UniversitĂ€t Berlin angesiedelten Sonderforschungsbereichs 980 "Episteme in Bewegung: Wissenstransfers von der Alten Welt bis in die frĂŒhe Neuzeit" in der gegenwĂ€rtigen Förderphase unter dem Titel „BĂŒcher auf Reisen. Informationstechnologische Erschließung von Wissensbewegungen in vormodernen Kulturen” zum einen ein zentrales Forschungsdatenrepositorium fĂŒr den SFB und betreibt zum anderen gemeinsame Forschung und Entwicklung mit derzeit vier ausgewĂ€hlten Teilprojekten. Der vorliegende Beitrag skizziert, wie die Kollaboration von Geisteswissenschaften, Computerphilologie und Informatik sowohl innerhalb des INF-Projekts als auch im Zusammenspiel mit den Pilotprojekten ausgestaltet wird, welche Herausforderungen bei gemeinsamer Forschung entstehen und welche Rolle das INF-Projekt eines großen geisteswissenschaftlichen Verbundes in den NachhaltigkeitsĂŒberlegungen der Heimatinstitution spielen kann
    corecore