8 research outputs found

    Andrews Graduates Receive Awards at Film Festival

    Get PDF
    Hintergrund: Am Helmholtz-Zentrum für Umweltforschung - UFZ arbeiten Forschende an Fragestellungen, die sich u.a. mit den aktuellen Veränderungen des Klimas und dessen Auswirkungen auf die Landnutzung beschäftigen. Dazu werden an verschiedenen Orten eine Vielzahl unterschiedlichster Umweltparameter mit Sensoren erfasst. Diese Daten werden kontinuierlich erhoben, um die Veränderungen möglichst in Echtzeit zu beobachten (Monitoring). Teilweise kommen pro Beobachtungsort mehrere Hunderte solcher Sensoren zum Einsatz. Die dafür eingesetzten Sensoren erfassen z.B. Bodenfeuchte, Niederschlagsmenge, Strahlungen und andere abiotische Kenngrößen. Damit die Daten (nach)nutzbar sind, müssen sie so aufbereitet und beschrieben werden, dass sie für nachfolgende Prozesse maschinen-lesbar bearbeitet werden können und in einer Form vorliegen, die eine Veröffentlichung nach den FAIR-Prinzipien ermöglicht. Herausforderung: Die erhobenen Messdaten müssen nicht nur gesichert werden, sondern auch auf Plausibilität geprüft, prozessiert und mit hinreichender Detailtiefe beschrieben werden, damit sie nachfolgend den Forschenden für die Beantwortung ihrer Forschungsfragen als Grundlage zur Verfügung stehen. Eine Herausforderung dabei ist, dass die Daten kontinuierlich als Datenstrom anfallen. Folglich müssen Prozesse wie die strukturierte Ablage, die Anreicherung mit Metadaten sowie Prüfung auf Fehlmessungen (sog. Qualitätssicherung) automatisiert werden. Aufgrund der Heterogenität der Sensoren (unterschiedliche Hersteller stellen Daten in unterschiedlichen Formaten zur Verfügung) muss bei diesen Prozessen auch eine Formatumwandlung erfolgen. Darüber hinaus sind je nach Messgröße und -verfahren verschiedene Methoden zur Plausibiläts- und Qualitätsprüfung anzuwenden. Lösungsansatz: Das Research Data Management Team des UFZ hat gemeinsam mit der IT-Abteilung einen Daten-Workflow entwickelt, der die unterschiedlichen Daten automatisch zusammenführt, sichert und nach einem vordefinierten Schema mit Metadaten anreichert. Der Einsatz des Workflows wird exemplarisch anhand von aktuellen Forschungsprojekten vorgestellt und die darin enthaltenen Schritte detailliert beschrieben, wobei auch auf die technische Umsetzung eingegangen wird. Insbesondere werden die Komponenten zur Datenstrukturierung und semiautomatischen Qualitätssicherung vorgestellt, bei denen auch Methoden des Machine Mearning zum Einsatz kommen. Innerhalb des Workflows können die prozessierten Daten nach verschieden Verfahren aggregiert und weiterverarbeitet werden. Das geschieht u.a. über definierte Schnittstellen zu internen und externen Services (z.B. durch Bereitstellung als Sensor Observation Service (SOS) oder mittels einer API). Fazit: Die im Rahmen des hier vorgestellten Workflows entwickelten Prozesse und Komponenten zum automatisierten Management von Forschungsdaten bilden eine wichtige Grundlage für das Forschungsdatenmanagement am UFZ. Durch die modulare Ausgestaltung können die Komponenten an den Bedarf der Forschenden angepasst werden und sind auch für Szenarien geeignet, in denen die Messdaten nicht als Datenstrom anfallen. Mit diesem Workflow ist die Voraussetzung geschaffen, die am UFZ erhobene Daten auch als Linked Data der wissenschaftlichen Community und anderen Stakeholdern zur Verfügung zu stellen

    Checkliste zur Unterstützung der Helmholtz-Zentren bei der Implementierung von Richtlinien für nachhaltige Forschungssoftware

    Get PDF
    Mit der voranschreitenden Digitalisierung von Forschung und Lehre steigt die Zahl an Software-Lösungen, die an wissenschaftlichen Einrichtungen entstehen und zur Erkenntnisgewinnung genutzt werden. Die – unter dem Stichwort Open Science geforderte – Zugänglichkeit und Nachnutzung von wissenschaftlichen Ergebnissen kann in vielen Fachgebieten nur sichergestellt werden, wenn neben Forschungsdaten auch Programmcode offen zugänglich gemacht wird. Die vorliegende Handreichung richtet sich an Entscheider*innen in den Helmholtz-Zentren, die sich mit der Implementierung von Richtlinien für nachhaltige Forschungssoftware befassen. Sie ergänzt eine Muster-Richtlinie, die den Zentren bereits eine richtungsweisende und nachnutzbare Vorlage zur Erstellung von Regelungen für einen nachhaltigen Umgang mit Forschungssoftware gibt

    Vom Sensor zum Forschungsdatensatz: Automatisierte Datenflüsse am UFZ

    No full text
    Hintergrund: Am Helmholtz-Zentrum für Umweltforschung - UFZ arbeiten Forschende an Fragestellungen, die sich u.a. mit den aktuellen Veränderungen des Klimas und dessen Auswirkungen auf die Landnutzung beschäftigen. Dazu werden an verschiedenen Orten eine Vielzahl unterschiedlichster Umweltparameter mit Sensoren erfasst. Diese Daten werden kontinuierlich erhoben, um die Veränderungen möglichst in Echtzeit zu beobachten (Monitoring). Teilweise kommen pro Beobachtungsort mehrere Hunderte solcher Sensoren zum Einsatz. Die dafür eingesetzten Sensoren erfassen z.B. Bodenfeuchte, Niederschlagsmenge, Strahlungen und andere abiotische Kenngrößen. Damit die Daten (nach)nutzbar sind, müssen sie so aufbereitet und beschrieben werden, dass sie für nachfolgende Prozesse maschinen-lesbar bearbeitet werden können und in einer Form vorliegen, die eine Veröffentlichung nach den FAIR-Prinzipien ermöglicht. Herausforderung: Die erhobenen Messdaten müssen nicht nur gesichert werden, sondern auch auf Plausibilität geprüft, prozessiert und mit hinreichender Detailtiefe beschrieben werden, damit sie nachfolgend den Forschenden für die Beantwortung ihrer Forschungsfragen als Grundlage zur Verfügung stehen. Eine Herausforderung dabei ist, dass die Daten kontinuierlich als Datenstrom anfallen. Folglich müssen Prozesse wie die strukturierte Ablage, die Anreicherung mit Metadaten sowie Prüfung auf Fehlmessungen (sog. Qualitätssicherung) automatisiert werden. Aufgrund der Heterogenität der Sensoren (unterschiedliche Hersteller stellen Daten in unterschiedlichen Formaten zur Verfügung) muss bei diesen Prozessen auch eine Formatumwandlung erfolgen. Darüber hinaus sind je nach Messgröße und -verfahren verschiedene Methoden zur Plausibiläts- und Qualitätsprüfung anzuwenden. Lösungsansatz: Das Research Data Management Team des UFZ hat gemeinsam mit der IT-Abteilung einen Daten-Workflow entwickelt, der die unterschiedlichen Daten automatisch zusammenführt, sichert und nach einem vordefinierten Schema mit Metadaten anreichert. Der Einsatz des Workflows wird exemplarisch anhand von aktuellen Forschungsprojekten vorgestellt und die darin enthaltenen Schritte detailliert beschrieben, wobei auch auf die technische Umsetzung eingegangen wird. Insbesondere werden die Komponenten zur Datenstrukturierung und semiautomatischen Qualitätssicherung vorgestellt, bei denen auch Methoden des Machine Mearning zum Einsatz kommen. Innerhalb des Workflows können die prozessierten Daten nach verschieden Verfahren aggregiert und weiterverarbeitet werden. Das geschieht u.a. über definierte Schnittstellen zu internen und externen Services (z.B. durch Bereitstellung als Sensor Observation Service (SOS) oder mittels einer API). Fazit: Die im Rahmen des hier vorgestellten Workflows entwickelten Prozesse und Komponenten zum automatisierten Management von Forschungsdaten bilden eine wichtige Grundlage für das Forschungsdatenmanagement am UFZ. Durch die modulare Ausgestaltung können die Komponenten an den Bedarf der Forschenden angepasst werden und sind auch für Szenarien geeignet, in denen die Messdaten nicht als Datenstrom anfallen. Mit diesem Workflow ist die Voraussetzung geschaffen, die am UFZ erhobene Daten auch als Linked Data der wissenschaftlichen Community und anderen Stakeholdern zur Verfügung zu stellen

    Speculative Temporal Decoupling Using fork ()

    No full text
    Temporal decoupling is a state-of-the-art method to speed up virtual prototypes. In this technique, a process is allowed to run ahead of simulation time for a specific interval called quantum. By using this method, the number of synchronization points, i.e. context switches, in the simulator is reduced and therefore, the simulation speed can be increased significantly. However, using this approach can introduce functional simulation errors due to missed synchronization events. Thus, using temporal decoupling implies a trade-off between speed and accuracy and the size of the quantum must be chosen wisely with respect to the simulated application. In loosely timed simulations most of the functional errors are tolerable for the sake of simulation speed. However, for instance safety critical errors are rare but can lead to fatal results and must be handled carefully. Prior works present mechanisms based on checkpoints (storing/restoring the internal state of the simulation model) in order to rollback in simulation time and correct the occurred errors by forcing synchronization. However, checkpointing approaches are intrusive and require changes to both the source code of all the used simulation models and the kernel of the simulator. In this paper we present a non-intrusive rollback approach for error-free temporal decoupling, which allows the usage of closed source models by using Unix's fork() system call. Furthermore, we provide a case study based on the IEEE simulation standard SystemC

    Checklist to Support the Helmholtz Centers in Implementing Policies on Sustainable Research Software

    No full text
    As the digitalization of research and teaching progresses, the number of software solutions developed at scientific institutions and used for the purpose of knowledge production is increasing. The accessibility and reuse of scientific results called for under the heading “open science” can be ensured in many fields only if, in addition to research data, program code is also made openly accessible. The present guide is addressed to decision-makers at the Helmholtz Centers who deal with the implementation of policies on sustainable research software. They supplement a model policy that already gives the Centers a forward-looking and reusable template for drawing up rules on sustainable research software management
    corecore