9 research outputs found
SDC4Lit – Infrastruktur, Methodik und Kompetenzvermittlung für einen Datenlebenszyklus Digitaler Literatur
Digitale Literatur ist aufgrund ihrer Medialität und Ästhetik ein besonderer Gegenstand. Mit
Digitaler Literatur sind dabei nicht digitalisierte Texte gemeint, die vorher oder auch primär als
gedruckte Texte produziert und in die Distribution gebracht werden, sondern genuin digitale
Formate. In SDC4Lit gehören dazu Werke der Netzliteratur, literarische Blogs und
Computerspiele.
Die besondere Ästhetik und Medialität digitaler Literatur erfordern je spezifische Ansätze im
archivarischen und forschungsorientierten Umgang. Die Dimension des Digitalen im Umgang
mit diesen Born-digitals ist dabei eine zentrale, aber nicht die einzige Dimension, sodass neue
literarische Formen auch innovative Ansätze im Umgang mit neuen Datentypen erfordern. Neue
Lösungen für die Archivierung und Bereitstellung von digitalen Objekten sind nötig. Es reicht
nicht aus, historische digitale Texte nur zu speichern, sondern es müssen Mechanismen und
Methoden für die Rekonstruktion, Wiedergabe und Analyse dieser Texte vorhanden sein.
Mit diesem Poster wird das Science Data Center für Literatur (SDC4Lit) vorgestellt. Das
Zentrum ist mit dem Ziel entstanden, die Anforderungen, die Digitale Literatur an ihre
Archivierung, Erforschung und Vermittlung stellt, systematisch zu reflektieren und
entsprechende Lösungen für einen nachhaltigen Datenlebenszyklus für Literaturforschung und -
vermittlung langfristig umzusetzen. Im Zuge dessen ist ein langzeitverfügbares Repositorium für
Digitale Literatur entstanden. Das Repositorium dient als zentraler Speicher für verschiedene
gesammelte Formen von Digitaler Literatur, sowie daraus abgeleitete Derivate, insbesondere
Text- und Netzwerkstrukturdaten, als Grundlage für weitere Analysen.
Die interdisziplinäre Zusammenarbeit im Projekt verbindet Expertisen aus den Bereichen
Archiv, Literaturwissenschaft, Höchstleistungsrechnen, Maschinelle Sprachverarbeitung und
Digital Humanities. Diese Kooperation erlaubt dem Zentrum, eine Infrastruktur anzubieten und
das erarbeitete Know-How und Erfahrungen mit Nutzer*innen zu teilen. Neben den für die
Analyse angebotenen Daten bietet das Zentrum mehrere Anleitungen an, wie mit den
Beständen des Repositoriums gearbeitet werden kann. Die entwickelte Infrastruktur zusammen
mit dazugehörigem Wissen zu Analysemethoden und Tools erlauben die Unterstützung aller
notwendigen Arbeiten in einem nachhaltigen Datenlebenszyklus Digitaler Literatur
Kriterien für die Auswahl einer Softwarelösung für den Betrieb eines Repositoriums für Forschungsdaten
Die öffentliche Bereitstellung von Forschungsdaten zur Nachnutzung im Sinne von Open Science ist Bestandteil des Lebenszyklus von Forschungsdaten und erlangt zunehmende Relevanz. Eine zitierbare Veröffentlichung dieser Daten zeugt von einer transparenten Forschung, belegt die Forschungsleistung eines Forschenden sowie der jeweiligen Einrichtung und macht Forschung reproduzierbar und damit überprüfbar. Forschungsförderer erwarten bereits bei der Antragstellung die Dokumentation und Planung eines umsichtigen und nachhaltigen Umgangs mit Forschungsdaten, bspw. in Form eines Datenmanagementplans, der unter anderem Angaben zu geplanten Lizenzen für Forschungsdaten, Rechten an Daten etc. enthält. Die Umsetzung des Datenmanagementplans ist ein kontinuierlicher Prozess im Laufe eines Projekts und nicht auf eine Datenveröffentlichung zum Projektende hin beschränkt. Der Umgang mit Forschungsdaten wird unter anderem in den Richtlinien Guter Wissenschaftlicher Praxis[1], den Open-Access-Policies von Hochschulen, Forschungsinstituten und Forschungsförderern sowie in den “Data Policies” von Zeitschriften adressiert. Repositorien bilden das technische Grundgerüst für das Forschungsdatenmanagement, da sie den gesamten Prozess von der Übernahme über die Qualitätskontrolle bis hin zur zitierfähigen Veröffentlichung unterstützen. Softwarelösungen für Repositorien sind für unterschiedliche Zwecke und Einsatzszenarien verfügbar. Zu den verbreitetsten zählen beispielsweise Fedora, DSpace, MyCoRe, Islandora, EPrints, Dataverse, Rosetta, Archivematica und Invenio. Die Bestimmung von Kriterien für die Auswahl eines Repositoriums ist nicht trivial und es müssen neben Aspekten der Wirtschaftlichkeit, Skalierbarkeit und Funktionalität noch weitere Kriterien wie die Dokumentation, Verbreitung, Entwicklungsperspektive sowie das Daten- und Lizenzmodell berücksichtigt werden. Der Aufwand für die Erarbeitung eines Kriterienkatalogs darf nicht unterschätzt werden. Im Folgenden bezeichnet Repositorium eine Softwarelösung, die - eingebettet in eine Organisationsstruktur und gegebenenfalls im Kontext weiterer Systeme - Forschungsdaten übernimmt, verwaltet und publiziert. Daraus ergeben sich zwangsläufig Abhängigkeiten zur betreibenden organisatorischen Einheit und der grundlegenden technischen Infrastruktur für den Betrieb der Software und die Speicherung der Daten. In diesem Artikel werden verschiedene Aspekte präsentiert, die für den Auswahlprozess potentiell relevant sind. [1] Siehe auch Kodex der DFG zur guten wissenschaftlichen Praxis: https://www.dfg.de/foerderung/grundlagen_rahmenbedingungen/gwp
Kallias: Katalog des Literaturarchivs Marbach. Verbundzugang mit einem autonomen Lokalsystem. Vortrag auf dem 4. BSZ-Kolloquium am 17.09.2002 in Stuttgart
Die Marbacher Institute der Deutschen Schillergesellschaft bilden eine einheitliche Institution mit dem Namen Schiller-Nationalmuseum und Deutsches Literaturarchiv. Sie verfolgen das gemeinsame Ziel, Texte und Dokumente der neueren deutschen Literatur zu sammeln, zu ordnen und zu erschließen. Die Ergebnisse werden im Museum durch Ausstellungen und Kataloge, vom Archiv durch wissenschaftliche Veröffentlichungen, Lese- und Studienausgaben und mancherlei Verzeichnisse in verschiedenen Schriftenreihen der Deutschen Schillergesellschaft der interessierten Öffentlichkeit zugänglich gemacht.
Eine hohe Auskunfts- und Erschließungsqualität auch unter schwierigen personellen und materiellen Rahmenbedingungen aufrechtzuerhalten, ist das Ziel des integrierten EDV-Systems "Kallías". Die Handschriftenabteilung verwahrt über 1.000 Autorennachlässe, Teilnachlässe und geschlossene Sammlungen sowie etwa 10 Millionen Einzelautographen (Manuskripte, Briefe, Lebensdokumente etc.) aus dem Bereich der neueren deutschen Literatur. Die Bibliothek des Deutschen Literaturarchivs ist mit über 700.000 Büchern und Zeitschriften heute eine der größten Spezialbibliotheken für neuere deutsche Literatur und Literaturwissenschaft von der Aufklärung bis zur Gegenwart. In den Katalogen sind zudem rund 1.200.000 unselbständige Beiträge nachgewiesen.
Zur Bibliothek gehört die Dokumentationsstelle, die neben einer umfangreichen Zeitungsausschnittsammlung, neben Theaterprogrammen und Dokumenten des literarischen Lebens, einen Bestand an 32.000 Hörfunk- und Fernsehmanuskripten sowie 18.000 Ton- und Bildträgern umfasst. In der Bildabteilung finden sich die Museumsobjekte, also ca. 200.000 Skulpturen, Gemälde, Graphiken, Photographien und Gegenstände.
Die vielfältigen Objekte der sammelnden Abteilungen lassen sich mit einem reinen Bibliothekssystem nicht sachgerecht erschließen. Die Deutsche Schillergesellschaft hat deshalb Ende 1995 eine europaweite Ausschreibung für eine integrierte Bestandsverwaltung durchgeführt, die den spezifischen Bedürfnissen gerecht werden und gleichzeitig eine übergreifende Recherche und abteilungsübergreifende Zusammenarbeit ermöglichen sollte. Die Anbindung des Lokalsystems an den Südwestdeutschen Bibliotheksverbund war ebenfalls eine Kernforderung der Ausschreibung.
Den Zuschlag erhielt das Systemhaus BB-Data, das als Generalunternehmer die Software aDIS/BMS der Entwicklungsfirma aStec anbot. Etwa 50% der Anwendung "Kallías", wie sie nun genannt wurde, konnte auf dieses Standard-Bibliothekssystem zurückgreifen, weitere 50% waren eine Auftragsentwicklung vor allem für die Handschriften- und Bildabteilung. Im Laufe der Jahre 1996-1998 wurden in enger Zusammenarbeit mit aStec die Anforderungen an das System präzisiert, drei Prototypen entwickelt und intensiv getestet und optimiert. Im Dezember 1998 wurde Kallías dann nach umfangreichen Schulungen in allen Abteilungen in Betrieb genommen, zunächst jedoch mit einer nur lesenden Verbundanbindung, die Fremddatenübernahme, aber keine aktiven Meldungen erlaubte. Diese technisch komplexe Anbindung kam erst zusammen mit dem so genannten "Client II", der 2001 eine wesentliche Erweiterung und einen umfassenden Generationswechsel der Anwendung markierte. Im Oktober 2002 schließlich wurde der HTML-basierte Kallías-Online-Katalog auch für die Öffentlichkeit im Internet zugänglich gemacht, nachdem er zuvor nur auf dem Marbacher Campus nutzbar war
Kallias: Katalog des Literaturarchivs Marbach. Verbundzugang mit einem autonomen Lokalsystem. Vortragsfolien vom 4. BSZ-Kolloquium am 17.09.2002 in Stuttgart
Die Marbacher Institute der Deutschen Schillergesellschaft bilden eine einheitliche Institution mit dem Namen Schiller-Nationalmuseum und Deutsches Literaturarchiv. Sie verfolgen das gemeinsame Ziel, Texte und Dokumente der neueren deutschen Literatur zu sammeln, zu ordnen und zu erschließen. Die Ergebnisse werden im Museum durch Ausstellungen und Kataloge, vom Archiv durch wissenschaftliche Veröffentlichungen, Lese- und Studienausgaben und mancherlei Verzeichnisse in verschiedenen Schriftenreihen der Deutschen Schillergesellschaft der interessierten Öffentlichkeit zugänglich gemacht.
Eine hohe Auskunfts- und Erschließungsqualität auch unter schwierigen personellen und materiellen Rahmenbedingungen aufrechtzuerhalten, ist das Ziel des integrierten EDV-Systems "Kallías". Die Handschriftenabteilung verwahrt über 1.000 Autorennachlässe, Teilnachlässe und geschlossene Sammlungen sowie etwa 10 Millionen Einzelautographen (Manuskripte, Briefe, Lebensdokumente etc.) aus dem Bereich der neueren deutschen Literatur. Die Bibliothek des Deutschen Literaturarchivs ist mit über 700.000 Büchern und Zeitschriften heute eine der größten Spezialbibliotheken für neuere deutsche Literatur und Literaturwissenschaft von der Aufklärung bis zur Gegenwart. In den Katalogen sind zudem rund 1.200.000 unselbständige Beiträge nachgewiesen.
Zur Bibliothek gehört die Dokumentationsstelle, die neben einer umfangreichen Zeitungsausschnittsammlung, neben Theaterprogrammen und Dokumenten des literarischen Lebens, einen Bestand an 32.000 Hörfunk- und Fernsehmanuskripten sowie 18.000 Ton- und Bildträgern umfasst.
In der Bildabteilung finden sich die Museumsobjekte, also ca. 200.000 Skulpturen, Gemälde, Graphiken, Photographien und Gegenstände. Die vielfältigen Objekte der sammelnden Abteilungen lassen sich mit einem reinen Bibliothekssystem nicht sachgerecht erschließen. Die Deutsche Schillergesellschaft hat deshalb Ende 1995 eine europaweite Ausschreibung für eine integrierte Bestandsverwaltung durchgeführt, die den spezifischen Bedürfnissen gerecht werden und gleichzeitig eine übergreifende Recherche und abteilungsübergreifende Zusammenarbeit ermöglichen sollte.
Die Anbindung des Lokalsystems an den Südwestdeutschen Bibliotheksverbund war ebenfalls eine Kernforderung der Ausschreibung. Den Zuschlag erhielt das Systemhaus BB-Data, das als Generalunternehmer die Software aDIS/BMS der Entwicklungsfirma aStec anbot. Etwa 50% der Anwendung "Kallías", wie sie nun genannt wurde, konnte auf dieses Standard-Bibliothekssystem zurückgreifen, weitere 50% waren eine Auftragsentwicklung vor allem für die Handschriften- und Bildabteilung. Im Laufe der Jahre 1996-1998 wurden in enger Zusammenarbeit mit aStec die Anforderungen an das System präzisiert, drei Prototypen entwickelt und intensiv getestet und optimiert. Im Dezember 1998 wurde Kallías dann nach umfangreichen Schulungen in allen Abteilungen in Betrieb genommen, zunächst jedoch mit einer nur lesenden Verbundanbindung, die Fremddatenübernahme, aber keine aktiven Meldungen erlaubte.
Diese technisch komplexe Anbindung kam erst zusammen mit dem so genannten "Client II", der 2001 eine wesentliche Erweiterung und einen umfassenden Generationswechsel der Anwendung markierte. Im Oktober 2002 schließlich wurde der HTML-basierte Kallías-Online-Katalog auch für die Öffentlichkeit im Internet zugänglich gemacht, nachdem er zuvor nur auf dem Marbacher Campus nutzbar war
Exploring Friedrich Kittler’s Digital Legacy on Different Levels: Paper - iPRES 2016 - Swiss National Library, Bern
Based on the example of Friedrich Kittler’s digital papers at the Deutsches Literaturarchiv Marbach (DLA), this paper explores digital estates and their challenges on different logical levels within the pre-archival analysis, documentation and indexing process. As opposed to long-term digital preservation procedures, which are set about afterwards when relevant digital objects have already been identified, this process starts shortly after physical material (computers, hard drives, disks…) is delivered to the archive and has been ingested and safeguarded into volume image files. In this situation, it is important to get an overview of the “current state”: Which data was delivered (amount, formats, duplicates, versions)? What is the legal status of the stored data? Which digital objects are relevant and should be accessible for which types of users/researchers etc.? What kind of contextual knowledge needs to be preserved for the future? In order to address these questions and to assign meaning to both technological and documentation needs, the digital analysis tool “Indexer”1 was developed [3]. It combines automated, information retrieval routines with human interaction features, thereby completing the necessary toolset for processing unstructured digital estates. It turns out however, that intellectual work and deep knowledge of the collection context still play an important role and must work hand in hand with the new automation efforts
SDC4Lit - a science data center for literature
The newly founded interdisciplinary Science Data Center for Literature (SDC4Lit) aims to systematically reflect the technical and aesthetic nature and the resulting requirements of digital literature. Research and development take into account that modeling, archiving and analyzing digital literature needs to be closely connected to research questions in the respective domains. SDC4Lit focuses on archival solutions and research methods. The group will develop longterm repositories for digital literature and respective research data and a web platform providing access to the repositories and to computational research tools. Thus, the project will develop and implement a sustainable data life cycle for born digital literature within its institutional framework
SDC4Lit - Science Data Center for Literature
Die Digitalisierung verändert die Bedingungen für die Produktion, Distribution, Rezeption und Erforschung von Literatur. Die veränderten medialen Bedingungen führen nicht nur zur Übersetzung von gedruckten Texten in digitale Objekte, sondern bringen selbst produktiv neue Literaturformen und -gattungen hervor. Hierzu zählen etwa literarische Hypertexte, Blog-Formate, literarische Tweets, aber auch Texte und Textgeneratoren, die auf computerlinguistische Methoden setzen.
Zum einem scheinen sich diese Texte zur Anwendung computergestützter Analysemethoden besonders anzubieten, da sie genuin in elektronischer Form vorliegen. Zum anderen bringt diese Form für ihre Archivierung und Bereitstellung eine Reihe von besonderen Anforderungen mit sich. So führen die hochfrequenten Erneuerungszyklen digitaler Technik dazu, dass die ursprünglichen Darbietungsformen historischer elektronischer Texte teils aufwendig rekonstruiert werden müssen, da die entsprechende Hard- oder Software schnell veraltet ist.
Das Science Data Center for Literature (SDC4Lit) hat sich das Ziel gesetzt, die Anforderungen, die Digitale Literatur an ihre Archivierung, Erforschung und Vermittlung stellt, systematisch zu reflektieren und entsprechende Lösungen für einen nachhaltigen Datenlebenszyklus für Literaturforschung und -vermittlung langfristig umzusetzen. Im Zentrum stehen dabei der Aufbau verteilter langzeitverfügbarer Repositories für (Digitale) Literatur und die Entwicklung einer Forschungsplattform. Die Repositories bilden den zentralen Speicher für das Harvesting von elektronischer Literatur im künftigen Betrieb des SDC4Lit. Die Forschungsplattform bietet die Möglichkeit zum computergestützten Arbeiten mit den Beständen der Repositories. Da eine solche Repository-Struktur, die Sammeln, Archivierung und Analyse miteinander verzahnt, nur in der interdisziplinären Zusammenarbeit zu bewerkstelligen ist, sind im Projekt Partner mit Expertisen in den Bereichen Archiv, Höchstleistungsrechnen, Maschinelle Sprachverarbeitung und Digital Humanities vereint.
Eine wichtige Aufgabe des Projekts ist die Modellierung von Formen digitaler Literatur, die zunächst beispielorientiert anhand des bereits vorhandenen Korpus digitaler Literatur erfolgt. Daraus entstehen sowohl technische als auch gattungspoetologische Herausforderungen, etwa bei der medienbezogenen Abgrenzung von digitaler, nicht-digitaler und post-digitaler Literatur oder in Bezug auf gattungspoetologische und literaturgeschichtliche Fragen.
Neben digitalen Objekten und entsprechenden Metadaten werden auch Forschungsdaten nachvollziehbar und nachhaltig gespeichert. Dazu zählen einerseits die bei der Arbeit des Projekts anfallenden Forschungsdaten, insbesondere solche, die für das Anbieten von Diensten auf der Plattform notwendig sind. Andererseits soll das Repository die Möglichkeit bieten, die von Nutzer*innen der Forschungsplattform generierten Forschungsdaten strukturiert zu speichern und zur Verfügung zu stellen
Kriterien für die Auswahl einer Softwarelösung für den Betrieb eines Repositoriums für Forschungsdaten
Die öffentliche Bereitstellung von Forschungsdaten zur Nachnutzung im Sinne von Open Science ist Bestandteil des Lebenszyklus von Forschungsdaten und erlangt zunehmende Relevanz. Eine zitierbare Veröffentlichung dieser Daten zeugt von einer transparenten Forschung, belegt die Forschungsleistung eines Forschenden sowie der jeweiligen Einrichtung und macht Forschung reproduzierbar und damit überprüfbar. Forschungsförderer erwarten bereits bei der Antragstellung die Dokumentation und Planung eines umsichtigen und nachhaltigen Umgangs mit Forschungsdaten, bspw. in Form eines Datenmanagementplans, der unter anderem Angaben zu geplanten Lizenzen für Forschungsdaten, Rechten an Daten etc. enthält. Die Umsetzung des Datenmanagementplans ist ein kontinuierlicher Prozess im Laufe eines Projekts und nicht auf eine Datenveröffentlichung zum Projektende hin beschränkt. Der Umgang mit Forschungsdaten wird unter anderem in den Richtlinien Guter Wissenschaftlicher Praxis[1], den Open-Access-Policies von Hochschulen, Forschungsinstituten und Forschungsförderern sowie in den “Data Policies” von Zeitschriften adressiert. Repositorien bilden das technische Grundgerüst für das Forschungsdatenmanagement, da sie den gesamten Prozess von der Übernahme über die Qualitätskontrolle bis hin zur zitierfähigen Veröffentlichung unterstützen.
Softwarelösungen für Repositorien sind für unterschiedliche Zwecke und Einsatzszenarien verfügbar. Zu den verbreitetsten zählen beispielsweise Fedora, DSpace, MyCoRe, Islandora, EPrints, Dataverse, Rosetta, Archivematica und Invenio. Die Bestimmung von Kriterien für die Auswahl eines Repositoriums ist nicht trivial und es müssen neben Aspekten der Wirtschaftlichkeit, Skalierbarkeit und Funktionalität noch weitere Kriterien wie die Dokumentation, Verbreitung, Entwicklungsperspektive sowie das Daten- und Lizenzmodell berücksichtigt werden. Der Aufwand für die Erarbeitung eines Kriterienkatalogs darf nicht unterschätzt werden. Im Folgenden bezeichnet Repositorium eine Softwarelösung, die - eingebettet in eine Organisationsstruktur und gegebenenfalls im Kontext weiterer Systeme - Forschungsdaten übernimmt, verwaltet und publiziert. Daraus ergeben sich zwangsläufig Abhängigkeiten zur betreibenden organisatorischen Einheit und der grundlegenden technischen Infrastruktur für den Betrieb der Software und die Speicherung der Daten. In diesem Artikel werden verschiedene Aspekte präsentiert, die für den Auswahlprozess potentiell relevant sind.
[1] Siehe auch Kodex der DFG zur guten wissenschaftlichen Praxis: https://www.dfg.de/foerderung/grundlagen_rahmenbedingungen/gwp/</a