11 research outputs found

    SDC BioDATEN - Final workshop

    Get PDF
    The SDC BioDATEN was mainly active between 01.07.2019 - 30.06.2023. The key results are the strengthening of Baden-Württemberg as an excellent research location by kick-starting various NFDI consortia. The BioDATEN community was also active and involved in several national and international conferences and workshops. BioDATEN supported a sustainable approach that combined available infrastructure and resources such as de.NBI Cloud, bwHPC, and bwSFS with tools, frameworks, and other assets provided by the project partners. In this way, products created by and within BioDATEN can be handed to other communities. The slides serve as a summary of the project activities and highlight the overall project and team work

    Research Data Management: Basics and Services

    Get PDF

    Position und Verarbeitung VP-interner Adjunkte

    Get PDF
    In dieser Dissertation aus dem Fachbereich Linguistik wird das Zusammenspiel von Position und Verarbeitung VP-interner Adjunkte untersucht. In einer Reihe empirischer Experimente geschieht dies am Beispiel von Adverbialen der Art und Weise (MR) im Deutschen. Die aus Offline-Experimenten gewonnen Daten zeigen, dass die Position und Definitheit des direkten Objekts einen modulierenden Effekt auf die wahrgenommene Basisposition von MR hat, während vergleichbare Effekte in Online-Experimenten nicht zu finden sind. Bei definiten direkten Objekten zeigt sich eine Präferenz für eine Position des MR zwischen Objekt und Verb. Bei indefiniten Objekten zeigt sich keine Positionspräferenz. Die Festlegung der Lesart eines indefiniten Objekts in einem sentence fragment arrangement task zeigt, dass spezifisch interpretierte indefinite Objekte oberhalb eines MR präferiert werden

    Ein Werkzeug zur XSD basierten Metadatenannotation

    Get PDF
    Die Beschreibung von Forschungsdaten mit Metadaten ist ein wichtiger Baustein des Forschungsdatenlebenszyklus. Die Auffindbarkeit und Nachnutzbarkeit der Forschungsergebnisse, im Sinne der FAIR-Prinzipien, ist direkt davon betroffen. Aus diesem Grund stehen viele Dienste im Bereich des Forschungsdatenmanagements vor der Herausforderung, ihren Nutzer*innen ein Werkzeug anzubieten, mit dem sie ihre Daten mit passenden Metadatenstandards beschreiben können. Diese werden in vielen Fällen nicht vom Dienst selbst entwickelt und gepflegt. Dadurch kommt es zu Änderungen, die wiederum Aufwand bei der Implementierung im Werkzeug der Wahl mit sich bringen. Das Poster stellt ein Werkzeug vor, das einen generischen Ansatz bei der Bereitstellung von Formularen zur Metadatenbeschreibung verfolgt. Anstatt ein festes Metadatenschema zu hin terlegen, können jegliche Schemata verwendet werden, solange eine XML-Schema-Beschreibung (XSD) für sie existiert. Aus dieser formalen Beschreibung werden anschließend HTML-Formulare generiert, die Nutzer*innen ausfüllen können. Dadurch lassen sich beispielsweise mehrere Schemata nebeneinander befüllen, um so eine Metadatenbeschreibung zu erreichen, die exakt auf die Bedarfe der Nutzer*innen zugeschnitten ist. Eine automatisierte Validierung der Ergebnisse ist auf diese Weise ebenfalls möglich, wodurch Fehler direkt bei der Eingabe erkannt und korrigiert werden können. Der Aufwand bei der Implementierung von Aktualisierungen wird dadurch reduziert, dass diese sich direkt in die Formulare integrieren lassen, solange sie im XSD beschrieben sind. Eine Administrationsoberfläche ermöglicht Anpassungen an der Darstellung der Formulare hinsichtlich Reihenfolge und Sichtbarkeit von Elementen und den Eingabefeldern. Auf diese Weise werden Anpassungen in der XSD-Datei umgangen und gleichzeitig Flexibilität erzeugt. Das Annotationstool ist technisch in der Lage, auf verschiedene Identity Provider zurückzugreifen und so den Zugang zu den Formularen zu beschränken bzw. zu steuern. Um die Nutzer*innen beim Umgang mit dem Werkzeug zu unterstützen und die Qualität ihrer Eingaben zu erhöhen, wurde die Einbindung von Ontologien und Vokabularen in das Werkzeug integriert. Über eine Adminstrationsoberfläche lässt sich konfigurieren, welche Metadatenfelder aus welchen Vokabularen befüllt werden sollen. Die Ontologien selbst werden dabei aus externen Quellen eingebunden, sodass auch hier auf sich wandelnde Bedarfe der Nutzer*innen eingegangen werden kann. Das Poster demonstriert die technischen Grundlagen für diesen Ansatz und ihre Umsetzung. Weiterhin wird exemplarisch ein Beispiel aus der Praxis gezeigt, bei dem das Werkzeug genutzt wird, um Metadatensätze zu erstellen. Bei diesen wird das generische DataCite-Metadaten schema zur Registrierung von DOIs mit einem eigens für das Projekt erstellte fachspezifische Metadatenschema kombiniert und Letzteres mit Ontologien angereichert

    Kriterien für die Auswahl einer Softwarelösung für den Betrieb eines Repositoriums für Forschungsdaten

    Get PDF
    Die öffentliche Bereitstellung von Forschungsdaten zur Nachnutzung im Sinne von Open Science ist Bestandteil des Lebenszyklus von Forschungsdaten und erlangt zunehmende Relevanz. Eine zitierbare Veröffentlichung dieser Daten zeugt von einer transparenten Forschung, belegt die Forschungsleistung eines Forschenden sowie der jeweiligen Einrichtung und macht Forschung reproduzierbar und damit überprüfbar. Forschungsförderer erwarten bereits bei der Antragstellung die Dokumentation und Planung eines umsichtigen und nachhaltigen Umgangs mit Forschungsdaten, bspw. in Form eines Datenmanagementplans, der unter anderem Angaben zu geplanten Lizenzen für Forschungsdaten, Rechten an Daten etc. enthält. Die Umsetzung des Datenmanagementplans ist ein kontinuierlicher Prozess im Laufe eines Projekts und nicht auf eine Datenveröffentlichung zum Projektende hin beschränkt. Der Umgang mit Forschungsdaten wird unter anderem in den Richtlinien Guter Wissenschaftlicher Praxis[1], den Open-Access-Policies von Hochschulen, Forschungsinstituten und Forschungsförderern sowie in den “Data Policies” von Zeitschriften adressiert. Repositorien bilden das technische Grundgerüst für das Forschungsdatenmanagement, da sie den gesamten Prozess von der Übernahme über die Qualitätskontrolle bis hin zur zitierfähigen Veröffentlichung unterstützen. Softwarelösungen für Repositorien sind für unterschiedliche Zwecke und Einsatzszenarien verfügbar. Zu den verbreitetsten zählen beispielsweise Fedora, DSpace, MyCoRe, Islandora, EPrints, Dataverse, Rosetta, Archivematica und Invenio. Die Bestimmung von Kriterien für die Auswahl eines Repositoriums ist nicht trivial und es müssen neben Aspekten der Wirtschaftlichkeit, Skalierbarkeit und Funktionalität noch weitere Kriterien wie die Dokumentation, Verbreitung, Entwicklungsperspektive sowie das Daten- und Lizenzmodell berücksichtigt werden. Der Aufwand für die Erarbeitung eines Kriterienkatalogs darf nicht unterschätzt werden. Im Folgenden bezeichnet Repositorium eine Softwarelösung, die - eingebettet in eine Organisationsstruktur und gegebenenfalls im Kontext weiterer Systeme - Forschungsdaten übernimmt, verwaltet und publiziert. Daraus ergeben sich zwangsläufig Abhängigkeiten zur betreibenden organisatorischen Einheit und der grundlegenden technischen Infrastruktur für den Betrieb der Software und die Speicherung der Daten. In diesem Artikel werden verschiedene Aspekte präsentiert, die für den Auswahlprozess potentiell relevant sind. [1] Siehe auch Kodex der DFG zur guten wissenschaftlichen Praxis: https://www.dfg.de/foerderung/grundlagen_rahmenbedingungen/gwp

    Projekt bwDataBib

    No full text
    Auf der Suche nach einer gemeinsamen Lösung für die digitale Langzeitarchivierung in Baden-Württemberg

    HUBzero als open-source Science Gateway

    No full text
    Der offene Austausch von Forschungsdaten ist essentiell für die Kollaboration von Forschenden und steigert den Erkenntnisgewinn. Im Unterschied zu Plattformen für die Datenpublikation oder für kollaborative Zusammenarbeit ermöglichen Science Gateways eine umfänglichere Integration von Storage, Repositorien und HPC-Infrastrukturen und bieten darüber hinaus Module zur Interaktion und Dokumentation. Sie bieten damit der wissenschaftlichen Community webbasierten Zugang zu Analysewerkzeugen, Speicher und erleichtern das Projekt- und Wissensmanagement. Bisher erfolgt die Publikation von Forschungsdaten begleitend zu einer Publikation gegen Ende des Lebenszyklus von Forschungsdaten. In der Zeit zwischen Erstellung und Veröffentlichung der Forschungsdaten dürften die meisten Forschenden bei nationalen und internationalen Kollaborationen auf Dienste wie Google Drive, Dropbox oder von Rechenzentren bereitgestellte Infrastrukturen wie bwSync&Share sowie auf Wiki-Systeme zurückgreifen. Als primäres Kommunikationsmedium werden dabei E-Mail und Messengerdienste verwendet. Die Erfassung von disziplinspezifischen Metadaten während der Erstellung und Analyse von Daten im Sinne von untersuchter Spezies, untersuchtem Gewebe, Probenaufbereitung, verwendeten Workflows etc. erfolgt primär mittels verbreiteter Software für Tabellenkalkulation und über die bereits genannten Austausch- und Kommunikationskanäle. Gerade größere Projekte und Projekte mit hoher Personalfluktuation profitieren bei ihrer Arbeit von Wissensmanagement durch Wiki-Artikel oder bereitgestelltes Schulungsmaterial. HUBzero als open-source Framework für ein Science Gateway bietet zum einen ein Content Management System zum Aufbau einer zentralen, öffentlichen Webpage, zum anderen ein Framework zur Integration verschiedener Module, um Funktionen für die nutzende Community zu integrieren beziehungsweise dieser anzubieten. Ein Science Gateway auf Basis von HUBzero dient dem SDC BioDATEN als zentraler Einstiegspunkt für die wissenschaftliche Fachcommunity und ermöglicht dieser eine effektive Kommunikation, den Austausch von Daten, die Annotation von forschungsspezifischen Metadaten und Projekt- beziehungsweise Wissensmanagement. Gleichzeitig wird Forschenden der webbasierte Zugang zu HPC-Infrastrukturen für Analyse und Speicherung ermöglicht. Durch die Anbindung der Elixir AAI wird der Community ein etabliertes und verbreitetes single sign-on System für die Authentifizierung und Autorisierung angeboten. Forschende können selbstständig Projekte und Gruppen anlegen, um beispielsweise nur mit bestimmten Forschenden oder Gutachtern Daten auszutauschen oder die Projektarbeit durch interne To-do-Listen zu erleichtern. Ein Science Gateway auf Basis von HUBzero wird momentan im Rahmen von BioDATEN aufgebaut und aktuelle Entwicklungen wie die Integration der Elixir AAI und die Bereitstellung von Speicher sollen neben allgemeinen Funktionen des Science Gateways vorgestellt werden

    Data Stewards as ambassadors between the NFDI and the community

    No full text
    The slow adoption and dissemination of common standards, concepts of research data management and workflow services is still a hindrance to collaboration, data sharing and reuse as well as open science in many scientific communities. The NFDI consortium DataPLANT (https://nfdi4plants.de/) focusing on fundamental plant research envisions data stewards as a core element of its strategy for managing research data. Research groups will profit from direct support in their daily tasks ranging from data organization to the selection of the proper tools, workflows and standards. Data stewards play a special hinge role between service providers, individual researchers, groups and the wider community. They also help bridging the gap between researchers and technical systems. The coordinated deployment of data stewards supports the adherence to good scientific practice among the research community. DataPLANT came up with a dispatch model that initially focuses on the major research groups and prioritizes their demand through an initial survey. The approximately 10.000 available data steward hours - equivalent to 8 FTE - will be provided by eight experts recruited specifically for this purpose. For initial startup, each group or individual gets time equivalent to the amount of data. An application submitted through a survey, giving information on data, quantity, type and objectives of the research project, is gathered through a simple web form. The median of expected initial support is 100 hours per request. In the first assignment, the data stewards will help to implement the relevant organisational and computational workflows. To ensure quality standards and fair distribution of support, evaluation criteria for data steward requests will be applied: Initially for the first call comparably low hurdles are set. After a ramp up period, followed by an evaluation of the process, an adjustment of the distribution will get implemented if necessary. In further phases, the delivered, annotated and published data sets entitle participants for additional allowance for further support by data stewards. To ensure productivity, the applications will be evaluated according to a community agreed distribution. To grow with the demand from new participants and a broader adaptation of DataPLANT within the community, requests can be supported by co-funding from participants, new members or own personnel. Individuals with similar workplace descriptions are welcome to participate in the data steward team and board. They provide the research groups with the necessary expertise and can help to acquire newly funded projects as well as junior scientists. If future collaborative research centres and similar project proposals plan for personnel and infrastructure services directly contributing to the NFDI, a sustainable financing and reimbursement model can be created, beneficial for the broader community. Small projects can then receive qualified support from a range of experts according to their contribution. Data stewards in large projects do not work on their own, but get integrated into a broadly qualified team working on cutting-edge research of the field
    corecore