18 research outputs found

    Kriterien für die Auswahl einer Softwarelösung für den Betrieb eines Repositoriums für Forschungsdaten

    Get PDF
    Die öffentliche Bereitstellung von Forschungsdaten zur Nachnutzung im Sinne von Open Science ist Bestandteil des Lebenszyklus von Forschungsdaten und erlangt zunehmende Relevanz. Eine zitierbare Veröffentlichung dieser Daten zeugt von einer transparenten Forschung, belegt die Forschungsleistung eines Forschenden sowie der jeweiligen Einrichtung und macht Forschung reproduzierbar und damit überprüfbar. Forschungsförderer erwarten bereits bei der Antragstellung die Dokumentation und Planung eines umsichtigen und nachhaltigen Umgangs mit Forschungsdaten, bspw. in Form eines Datenmanagementplans, der unter anderem Angaben zu geplanten Lizenzen für Forschungsdaten, Rechten an Daten etc. enthält. Die Umsetzung des Datenmanagementplans ist ein kontinuierlicher Prozess im Laufe eines Projekts und nicht auf eine Datenveröffentlichung zum Projektende hin beschränkt. Der Umgang mit Forschungsdaten wird unter anderem in den Richtlinien Guter Wissenschaftlicher Praxis[1], den Open-Access-Policies von Hochschulen, Forschungsinstituten und Forschungsförderern sowie in den “Data Policies” von Zeitschriften adressiert. Repositorien bilden das technische Grundgerüst für das Forschungsdatenmanagement, da sie den gesamten Prozess von der Übernahme über die Qualitätskontrolle bis hin zur zitierfähigen Veröffentlichung unterstützen. Softwarelösungen für Repositorien sind für unterschiedliche Zwecke und Einsatzszenarien verfügbar. Zu den verbreitetsten zählen beispielsweise Fedora, DSpace, MyCoRe, Islandora, EPrints, Dataverse, Rosetta, Archivematica und Invenio. Die Bestimmung von Kriterien für die Auswahl eines Repositoriums ist nicht trivial und es müssen neben Aspekten der Wirtschaftlichkeit, Skalierbarkeit und Funktionalität noch weitere Kriterien wie die Dokumentation, Verbreitung, Entwicklungsperspektive sowie das Daten- und Lizenzmodell berücksichtigt werden. Der Aufwand für die Erarbeitung eines Kriterienkatalogs darf nicht unterschätzt werden. Im Folgenden bezeichnet Repositorium eine Softwarelösung, die - eingebettet in eine Organisationsstruktur und gegebenenfalls im Kontext weiterer Systeme - Forschungsdaten übernimmt, verwaltet und publiziert. Daraus ergeben sich zwangsläufig Abhängigkeiten zur betreibenden organisatorischen Einheit und der grundlegenden technischen Infrastruktur für den Betrieb der Software und die Speicherung der Daten. In diesem Artikel werden verschiedene Aspekte präsentiert, die für den Auswahlprozess potentiell relevant sind. [1] Siehe auch Kodex der DFG zur guten wissenschaftlichen Praxis: https://www.dfg.de/foerderung/grundlagen_rahmenbedingungen/gwp

    SDC4Lit - Science Data Center for Literature

    No full text
    Die Digitalisierung verändert die Bedingungen für die Produktion, Distribution, Rezeption und Erforschung von Literatur. Die veränderten medialen Bedingungen führen nicht nur zur Übersetzung von gedruckten Texten in digitale Objekte, sondern bringen selbst produktiv neue Literaturformen und -gattungen hervor. Hierzu zählen etwa literarische Hypertexte, Blog-Formate, literarische Tweets, aber auch Texte und Textgeneratoren, die auf computerlinguistische Methoden setzen. Zum einem scheinen sich diese Texte zur Anwendung computergestützter Analysemethoden besonders anzubieten, da sie genuin in elektronischer Form vorliegen. Zum anderen bringt diese Form für ihre Archivierung und Bereitstellung eine Reihe von besonderen Anforderungen mit sich. So führen die hochfrequenten Erneuerungszyklen digitaler Technik dazu, dass die ursprünglichen Darbietungsformen historischer elektronischer Texte teils aufwendig rekonstruiert werden müssen, da die entsprechende Hard- oder Software schnell veraltet ist. Das Science Data Center for Literature (SDC4Lit) hat sich das Ziel gesetzt, die Anforderungen, die Digitale Literatur an ihre Archivierung, Erforschung und Vermittlung stellt, systematisch zu reflektieren und entsprechende Lösungen für einen nachhaltigen Datenlebenszyklus für Literaturforschung und -vermittlung langfristig umzusetzen. Im Zentrum stehen dabei der Aufbau verteilter langzeitverfügbarer Repositories für (Digitale) Literatur und die Entwicklung einer Forschungsplattform. Die Repositories bilden den zentralen Speicher für das Harvesting von elektronischer Literatur im künftigen Betrieb des SDC4Lit. Die Forschungsplattform bietet die Möglichkeit zum computergestützten Arbeiten mit den Beständen der Repositories. Da eine solche Repository-Struktur, die Sammeln, Archivierung und Analyse miteinander verzahnt, nur in der interdisziplinären Zusammenarbeit zu bewerkstelligen ist, sind im Projekt Partner mit Expertisen in den Bereichen Archiv, Höchstleistungsrechnen, Maschinelle Sprachverarbeitung und Digital Humanities vereint. Eine wichtige Aufgabe des Projekts ist die Modellierung von Formen digitaler Literatur, die zunächst beispielorientiert anhand des bereits vorhandenen Korpus digitaler Literatur erfolgt. Daraus entstehen sowohl technische als auch gattungspoetologische Herausforderungen, etwa bei der medienbezogenen Abgrenzung von digitaler, nicht-digitaler und post-digitaler Literatur oder in Bezug auf gattungspoetologische und literaturgeschichtliche Fragen. Neben digitalen Objekten und entsprechenden Metadaten werden auch Forschungsdaten nachvollziehbar und nachhaltig gespeichert. Dazu zählen einerseits die bei der Arbeit des Projekts anfallenden Forschungsdaten, insbesondere solche, die für das Anbieten von Diensten auf der Plattform notwendig sind. Andererseits soll das Repository die Möglichkeit bieten, die von Nutzer*innen der Forschungsplattform generierten Forschungsdaten strukturiert zu speichern und zur Verfügung zu stellen

    Kriterien für die Auswahl einer Softwarelösung für den Betrieb eines Repositoriums für Forschungsdaten

    No full text
    Die öffentliche Bereitstellung von Forschungsdaten zur Nachnutzung im Sinne von Open Science ist Bestandteil des Lebenszyklus von Forschungsdaten und erlangt zunehmende Relevanz. Eine zitierbare Veröffentlichung dieser Daten zeugt von einer transparenten Forschung, belegt die Forschungsleistung eines Forschenden sowie der jeweiligen Einrichtung und macht Forschung reproduzierbar und damit überprüfbar. Forschungsförderer erwarten bereits bei der Antragstellung die Dokumentation und Planung eines umsichtigen und nachhaltigen Umgangs mit Forschungsdaten, bspw. in Form eines Datenmanagementplans, der unter anderem Angaben zu geplanten Lizenzen für Forschungsdaten, Rechten an Daten etc. enthält. Die Umsetzung des Datenmanagementplans ist ein kontinuierlicher Prozess im Laufe eines Projekts und nicht auf eine Datenveröffentlichung zum Projektende hin beschränkt. Der Umgang mit Forschungsdaten wird unter anderem in den Richtlinien Guter Wissenschaftlicher Praxis[1], den Open-Access-Policies von Hochschulen, Forschungsinstituten und Forschungsförderern sowie in den “Data Policies” von Zeitschriften adressiert. Repositorien bilden das technische Grundgerüst für das Forschungsdatenmanagement, da sie den gesamten Prozess von der Übernahme über die Qualitätskontrolle bis hin zur zitierfähigen Veröffentlichung unterstützen. Softwarelösungen für Repositorien sind für unterschiedliche Zwecke und Einsatzszenarien verfügbar. Zu den verbreitetsten zählen beispielsweise Fedora, DSpace, MyCoRe, Islandora, EPrints, Dataverse, Rosetta, Archivematica und Invenio. Die Bestimmung von Kriterien für die Auswahl eines Repositoriums ist nicht trivial und es müssen neben Aspekten der Wirtschaftlichkeit, Skalierbarkeit und Funktionalität noch weitere Kriterien wie die Dokumentation, Verbreitung, Entwicklungsperspektive sowie das Daten- und Lizenzmodell berücksichtigt werden. Der Aufwand für die Erarbeitung eines Kriterienkatalogs darf nicht unterschätzt werden. Im Folgenden bezeichnet Repositorium eine Softwarelösung, die - eingebettet in eine Organisationsstruktur und gegebenenfalls im Kontext weiterer Systeme - Forschungsdaten übernimmt, verwaltet und publiziert. Daraus ergeben sich zwangsläufig Abhängigkeiten zur betreibenden organisatorischen Einheit und der grundlegenden technischen Infrastruktur für den Betrieb der Software und die Speicherung der Daten. In diesem Artikel werden verschiedene Aspekte präsentiert, die für den Auswahlprozess potentiell relevant sind. &nbsp; [1] Siehe auch Kodex der DFG zur guten wissenschaftlichen Praxis: https://www.dfg.de/foerderung/grundlagen_rahmenbedingungen/gwp/</a

    SDG 17 partnerships for the goals: global business networks: accounting for sustainability

    No full text
    Corporate accountability has expanded rapidly in recent years as a tool that business can employ to respond for corporate performance. Nevertheless, the exercise of corporate accountability is challenging as it requires stronger corporate capacity and commitment to respond to external stakeholders in alignment with voluntary regulatory norms. In response, corporate agendas are being significantly shaped by internal and external stakeholders that are employees, suppliers, and customers. Yet, an examination of the current status of accountability both as a historical trend and in current corporate agendas in selected cases shows an increasing gap between policy and impact. Based on a case study method and theory building, the research reported in this article shows the status of corporate accountability of companies operating in Asia-Pacific and adhered to the Global Compact Network. It also provides some conceptual and practical tools toward enhanced accountability, contributing to the achievement of the Sustainable Development Goal 17 (SDG 17) and its targets Multi-stakeholder partnerships (17.16 and 17.17) and Data, monitoring, and accountability

    Implementing corporate social responsibility: Empirical insights on the impact and accountability of the UN Global Compact

    Full text link
    The implementation of Corporate Social Responsibility (CSR) is crucial for organizational legitimacy in today’s globalized world. In the absence of a global governance system, several initiatives have emerged to support companies in designing, implementing and communicating CSR. However, research has so far mainly neglected to empirically evaluate the impact of such initiatives on organizational practices. This study aims to close this gap by analyzing on a large quantitative basis how business participants in the largest voluntary CSR initiative - the UN Global Compact (UNGC) - embed CSR into their organizations. Drawing on insights from institutional and stakeholder theory, I derive determinants of UNGC implementation and analyze the accountability of the initiative. My study contributes to the literature in several ways: I develop a theoretical model to describe and explain variation in UNGC implementation, and scrutinize the new measure for UNGC implementation. My results show that the initiative affects organizational practices: Contrary to the bluewashing arguments of UNGC critics, the level of CSR implementation increases with the time of membership in the UNGC. However, my findings also suggest that the declared participant information still lacks credibility - higher UNGC implementation levels are not associated with significantly less UNGC scandals. Implications for CSR research, the Global Compact and its participants are discussed
    corecore