12 research outputs found
Kriterien für die Auswahl einer Softwarelösung für den Betrieb eines Repositoriums für Forschungsdaten
Die öffentliche Bereitstellung von Forschungsdaten zur Nachnutzung im Sinne von Open Science ist Bestandteil des Lebenszyklus von Forschungsdaten und erlangt zunehmende Relevanz. Eine zitierbare Veröffentlichung dieser Daten zeugt von einer transparenten Forschung, belegt die Forschungsleistung eines Forschenden sowie der jeweiligen Einrichtung und macht Forschung reproduzierbar und damit überprüfbar. Forschungsförderer erwarten bereits bei der Antragstellung die Dokumentation und Planung eines umsichtigen und nachhaltigen Umgangs mit Forschungsdaten, bspw. in Form eines Datenmanagementplans, der unter anderem Angaben zu geplanten Lizenzen für Forschungsdaten, Rechten an Daten etc. enthält. Die Umsetzung des Datenmanagementplans ist ein kontinuierlicher Prozess im Laufe eines Projekts und nicht auf eine Datenveröffentlichung zum Projektende hin beschränkt. Der Umgang mit Forschungsdaten wird unter anderem in den Richtlinien Guter Wissenschaftlicher Praxis[1], den Open-Access-Policies von Hochschulen, Forschungsinstituten und Forschungsförderern sowie in den “Data Policies” von Zeitschriften adressiert. Repositorien bilden das technische Grundgerüst für das Forschungsdatenmanagement, da sie den gesamten Prozess von der Übernahme über die Qualitätskontrolle bis hin zur zitierfähigen Veröffentlichung unterstützen. Softwarelösungen für Repositorien sind für unterschiedliche Zwecke und Einsatzszenarien verfügbar. Zu den verbreitetsten zählen beispielsweise Fedora, DSpace, MyCoRe, Islandora, EPrints, Dataverse, Rosetta, Archivematica und Invenio. Die Bestimmung von Kriterien für die Auswahl eines Repositoriums ist nicht trivial und es müssen neben Aspekten der Wirtschaftlichkeit, Skalierbarkeit und Funktionalität noch weitere Kriterien wie die Dokumentation, Verbreitung, Entwicklungsperspektive sowie das Daten- und Lizenzmodell berücksichtigt werden. Der Aufwand für die Erarbeitung eines Kriterienkatalogs darf nicht unterschätzt werden. Im Folgenden bezeichnet Repositorium eine Softwarelösung, die - eingebettet in eine Organisationsstruktur und gegebenenfalls im Kontext weiterer Systeme - Forschungsdaten übernimmt, verwaltet und publiziert. Daraus ergeben sich zwangsläufig Abhängigkeiten zur betreibenden organisatorischen Einheit und der grundlegenden technischen Infrastruktur für den Betrieb der Software und die Speicherung der Daten. In diesem Artikel werden verschiedene Aspekte präsentiert, die für den Auswahlprozess potentiell relevant sind. [1] Siehe auch Kodex der DFG zur guten wissenschaftlichen Praxis: https://www.dfg.de/foerderung/grundlagen_rahmenbedingungen/gwp
Den Wert der Daten korrelieren. Wertschöpfung mit Big Data
We are drowning in information but starved for knowledge. Der im Jahr 1982 von John Naisbitt formulierte Satz hat noch nie so zugetroffen wie heute. Im Zeitalter digital gestützter Produktionssysteme rücken nun verstärkt Technologien und Konzepte in den Vordergrund, um nützliche Informationen aus stetig steigenen Datenmengen zu gewinnen. Dieser Beitrag liefert Einblicke in den potenziellen Nutzen und Ansätze im Umgang mit Big Data
Wertvolle Seen in der Produktion. Mit Data Lakes Informationen bedarfsgerecht und einfach bereitstellen
In der Produktion fallen große Datenmengen an, die Unternehmen für neue Geschäftsmodelle und Verbesserung ihrer Produkt- und Prozessqualität nutzen könnten. Dieses Potenzial wird jedoch nur selten gehoben, da die Daten nicht miteinander verknüpft werden. Data-Lake-Systeme übernehmen die Aufbereitung und homogenisieren verschiedenartige Daten
Agile datenbasierte Prozessgestaltung
Deutsch: Vorhandene Ressourcen zu erkennen, zu verstehen und sich der Digitalisierung zu stellen, bildet maßgeblich die Grundlage für stabile Prozesse und eine intelligente Prozessführung. Der Trend hin zu Individualisierung legt die Forderung nach mehr Agilität bei der Prozessgestaltung in produzierenden Unternehmen nahe. Eine konsistente und kausal-getriebende Datenerfassung und -verknüpfung entlang der Wertschöpfungskette hilft, Wissen auf allen Ebenen der Produktionsorganisation zu erzeugen. Damit wird nicht nur eine effiziente Prozessgestaltung und -organisation ermöglicht, sondern auch Maßnahmen zur Fehlervermeidung und Effizienzsteigerung identifiziert und umgesetzt. Im Rahmen vieler Industrie 4.0-Bestrebungen liegt der Fokus oft rein auf der Produktion. Um technisches Wissen übe r Daten aufbauen zu können, ist jedoch eine Vernetzung aller Prozesse entlang des Produktlebenszyklus notwendig. Hier kann die Entwicklung eines technologischen Arbeitsplans, der sich in jeglichen Bereichen und Phasen der Produkterstellung wiederfindet, in Form eines digitalen Abbildes, eine mögliche Lösungsbasis schaffen. Das Produkt und Produktionsprozesse optimal zu planen, abzustimmen und abzusichern, steht damit im Vordergrund. Englisch: To be aware of existing resources as well as facing digitalization are essential to form the basis for robust processes and smart process control. Additionally, the increasing trend of individualization demands more agility of producing companies regarding the process design. A consistent and casual-driven data acquisition and linkage along the whole value stream is sufficient to generate knowledge on all level of the production organization. Doing so, an efficient process design and organization is enabled and measures are identified to proactively avoid failures and increase efficiency. Looking at many Industrie 4.0-activities, the focus often is laid just on production environment. To generate technical knowledge based on data, a consistent linking of processes along the whole product life cycle ist necessary. Here, the development of a technological workplan that is part of all areas and phases of the product creation procedure, a digital replica, can provide a possible solution basis. Summarized, the focus is to properly plan and ensure the product's and production processes' quality and robustness