23 research outputs found

    Entwicklungsstand und Entwicklungsperspektiven der Referenzmodellierung:Proceedings zur Veranstaltung vom 10. MĂ€rz 1997

    Full text link
    Die effiziente Gestaltung, EinfĂŒhrung und Realisierung von kundenindividuellen Informationssystemen ist mittlerweile in nahezu allen Branchen zu einem wichtigen Erfolgsfaktor geworden. Mit der Architektur „ARIS - House of Business Engineering“ wird ein rozeßorientiertes Rahmenkonzept zur Modellierung und Umsetzung von Referenzmodellen vorgestellt. Es umfaßt auf den vier Ebenen „Prozeßoptimierung“, „Prozeßmanagement“, „Workflow“ und „Bearbeitung“ Methoden und Werkzeuge fĂŒr ein referenzmodellbasiertes Softwarekonzept. Gleichzeitig wird durch die RĂŒckkopplung zwischen den Ebenen eine kontinuierliche Verbesserung der GeschĂ€ftsprozesse erreicht

    Dynamische Erzeugung von Diagrammen aus standardisierten Geodatendiensten

    Get PDF
    Geodateninfrastrukturen (GDI) erfahren in den letzten Jahren immer weitere Verbreitung durch die Schaffung neuer Standards zum Austausch von Geodaten. Die vom Open Geospatial Consortium (OGC), einem Zusammenschluss aus Forschungseinrichtungen und privaten Firmen, entwickelten offenen Beschreibungen von Dienste-Schnittstellen verbessern die InteroperabilitĂ€t in GDI. OGC-konforme Geodienste werden momentan hauptsĂ€chlich zur Aufnahme, Verwaltung, Prozessierung und Visualisierung von Geodaten verwendet. Durch das vermehrte Aufkommen von Geodiensten steigt die VerfĂŒgbarkeit von Geodaten. Gleichzeitig hĂ€lt der Trend zur Generierung immer grĂ¶ĂŸerer Datenmengen beispielsweise durch wissenschaftliche Simulationen an (Unwin et al., 2006). Dieser fĂŒhrt zu einem wachsenden Bedarf an FunktionalitĂ€t zur effektiven Exploration und Analyse von Geodaten, da komplexe ZusammenhĂ€nge in großen DatenbestĂ€nden untersucht und relevante Informationen heraus gefiltert werden mĂŒssen. Dazu angewendete Techniken werden im Forschungsfeld Visual Analytics (Visuelle Analyse) umfassend beschrieben. Die visuelle Analyse beschĂ€ftigt sich mit der Entwicklung von Werkzeugen und Techniken zur automatisierten Analyse und interaktiven Visualisierung zum VerstĂ€ndnis großer und komplexer DatensĂ€tze (Keim et al., 2008). Bei aktuellen Web-basierten Anwendungen zur Exploration und Analyse handelt es sich hauptsĂ€chlich um Client-Server-Systeme, die auf fest gekoppelten Datenbanken arbeiten. Mit den wachsenden FĂ€higkeiten von Geodateninfrastrukturen steigt das Interesse, FunktionalitĂ€ten zur Datenanalyse in einer GDI anzubieten. Das Zusammenspiel von bekannten Analysetechniken und etablierten Standards zur Verarbeitung von Geodaten kann dem Nutzer die Möglichkeit geben, in einer Webanwendung interaktiv auf ad hoc eingebundenen Geodaten zu arbeiten. Damit lassen sich mittels aktueller Technologien Einsichten in komplexe Daten gewinnen, ihnen zugrunde liegende ZusammenhĂ€nge verstehen und Aussagen zur EntscheidungsunterstĂŒtzung ableiten. In dieser Arbeit wird die Eignung der OGC WMS GetFeatureInfo-Operation zur Analyse raum-zeitlicher Geodaten in einer GDI untersucht. Der Schwerpunkt liegt auf der dynamischen Generierung von Diagrammen unter Nutzung externer Web Map Service (WMS) als Datenquellen. Nach der Besprechung von Grundlagen zur Datenmodellierung und GDIStandards, wird auf relevante Aspekte der Datenanalyse und Visualisierung von Diagrammen eingegangen. Die Aufstellung einer Task Taxonomie dient der Untersuchung, welche raumzeitlichen Analysen sich durch die GetFeatureInfo-Operation umsetzen lassen. Es erfolgt die Konzeption einer Systemarchitektur zur Umsetzung der Datenanalyse auf verteilten Geodaten. Zur Sicherstellung eines konsistenten und OGC-konformen Datenaustauschs zwischen den Systemkomponenenten, wird ein GML-Schema erarbeitet. Anschließend wird durch eine prototypischen Implementierung die Machbarkeit der Diagramm-basierten Analyse auf Klimasimulationsdaten des ECHAM5-Modells verifiziert.Spatial data infrastructures (SDI) have been subject to a widening dispersion in the last decade, through the development of standards for the exchange of geodata. The open descriptions of service interfaces, developed by the OGC, a consortium from research institutions and private sector companies, alter interoperability in SDI. Until now, OGC-conform geoservices are mainly utilised for the recording, management, processing and visualisation of geodata. Through the ongoing emergence of spatial data services there is a rise in the availability of geodata. At the same time, the trend of the generation of ever increasing amounts of data, e. g. by scientific simulation (Unwin et al., 2006), continues. By this, the need for capabilities to effectively explore and analyse geodata is growing. Complex relations in huge data need to be determined and relevant information extracted. Techniques, which are capable of this, are being described extensively by Visual Analytics. This field of research engages in the development of tools and techniques for automated analysis and interactive visualisation of huge and complex data (Keim et al., 2008). Current web-based applications for the exploration and analysis are usually established as Client-Server approaches, working on a tightly coupled data storage (see subsection 3.3). With the growing capabilities of SDI, there is an increasing interest in offering functionality for data analysis. The combination of widely used analysis techniques and well-established standards for the treatment of geodata may offer the possibility of working interactively on ad hoc integrated data. This will allow insights into large amounts of complex data, understand natural interrelations and derive knowledge for spatial decision support by the use of state-of-the-art technologies. In this paper, the capabilities of the OGC WMS GetFeatureInfo operation for the analysis of spatio-temporal geodata in a SDI are investigated. The main focus is on dynamic generation of diagrams by the use of distributed WMS as a data storage. After the review of basics in data modelling and SDI-standards, relevant aspects of data analysis and visualisation of diagrams are treated. The compilation of a task taxonomy aids in the determination of realisable spatio-temporal analysis tasks by use of the GetFeatureInfo operation. In the following, conceptual design of a multi-layered system architecture to accomplish data analysis on distributed datasets, is carried out. In response to one of the main issues, a GML-schema is developed to ensure consistent and OGC-conform data exchange among the system components. To verify the feasibility of integration of diagram-based analysis in a SDI, a system prototype is developed to explore ECHAM5 climate model data

    Entwicklung von prozessorientierten Informationssystemen fĂŒr die industrielle Dienstleistungsbeschaffung

    Get PDF
    In der industriellen Dienstleistungsbeschaffung mangelt es an adĂ€quaten domĂ€nenspezifischen LösungsansĂ€tzen fĂŒr die prĂ€zise Modellierung, qualitative und quantitative Analyse und Implementierung elektronischer GeschĂ€ftsprozesse in prozessorientierte Informationssysteme. In der vorliegenden Arbeit werden neue LösungsansĂ€tze auf Basis von Methoden, Modellen und E-Business-Lösungen erarbeitet, um die Entwicklung und Gestaltung prozessorientierter Informationssysteme zu verbessern

    Gewinnung, Verwaltung und Anwendung von Performance-Daten zur UnterstĂŒtzung des autonomen Datenbank-Tuning

    Get PDF
    In den letzten Jahrzehnten ist die KomplexitĂ€t und HeterogenitĂ€t von Informationssystemen rapide gestiegen. Die Folge ist, dass viele moderne IT-Systeme aufgrund ihrer heterogenen Architektur- und Applikationsvielfalt sehr kostenintensiv in der Entwicklung, fehleranfĂ€llig in der Nutzung und schwierig durch Administratoren kontrollier- bzw. konfigurierbar sind. Initiativen wie das Autonomic Computing helfen, der steigenden KomplexitĂ€t Herr zu werden, indem sie den „Problemfaktor Mensch“ entlasten und Technik nutzen, um Technik zu verwalten. Durch die Anpassung bzw. Erweiterung der System-Umgebung versuchen derartige AnsĂ€tze neben derzeitiger manueller, reaktiver Performance-Optimierung, eine automatisierte reaktive und proaktive Performance-Kontrolle zu gewĂ€hrleisten. Zentrale Grundvoraussetzung fĂŒr eine autonome Infrastruktur ist eine verlĂ€ssliche, globale Daten- bzw. Wissensbasis. Wir erarbeiten, wie Performance-Daten ĂŒber das Verhalten und den Zustand des Systems mit aus dem Data-Warehousing bekannten Techniken gesammelt, konsolidiert, verwaltet und zur Laufzeit ausgewertet werden können. Neben der Architektur und den funktionalen Komponenten eines solchen Performance Data Warehouse wird zudem dessen Datenmodell erlĂ€utert und die Anbindung an das vorausgehende Monitoring sowie die nachfolgende Analyse spezifiziert. Mit dem Ziel, die menschliche Vorgehensweise „nachzuahmen“ und somit die Administratoren bei ihren Routine-TĂ€tigkeiten zu entlasten, widmen wir uns der Konzipierung und Beschreibung einer möglichen Infrastruktur zur Automatisierung typischer Tuning-Aufgaben. Wir erarbeiten allgemein und anhand von Beispielen, wie Tuning-Wissen und bewĂ€hrte Praktiken von DBAs abgebildet, in Form von Workflows formalisiert und zur Laufzeit fĂŒr die Problemlösung angewendet werden können

    Interaction Design Patterns und CSCL-Scripts fĂŒr Videolernumgebungen

    Get PDF
    In den letzten Jahren haben Lernvideos im Bereich des informellen und formellen Lernens an Bedeutung gewonnen. Inwieweit Lernende bei der Nutzung von Videos unterstĂŒtzt werden und Lehrende didaktische Szenarien umsetzen können, hĂ€ngt jedoch von der eingesetzten Videolernumgebung ab. Es ist Anliegen der vorliegende Arbeit, Prinzipien des User Interface Designs sowie Komponenten und Mechanismen videobasierter Lehr-Lern-Szenarien in Bezug auf Videolernumgebungen zu identifizieren, zu beschreiben und technisch zu realisieren. Das Ziel besteht darin, Gestaltungsprinzipien in Form von Interaction Design Patterns zu erarbeiten und computergestĂŒtzte videobasierte Lehr-Lern-Szenarien mit Hilfe von CSCL-Scripts durch eine geeignete Spezifikation und Formalisierung zu realisieren. FĂŒr die Erarbeitung der Interaction Design Patterns wurden 121 Videolernumgebungen hinsichtlich 50 Kategorien in einer Inhaltsanalyse empirisch untersucht und dokumentiert. Unter BerĂŒcksichtigung Ă€hnlicher Patterns aus thematisch verwandten Pattern Languages und den Erfahrungen aus der Implementierung und dem Einsatz von Videolernumgebungen entstanden 45 Interaction Design Patterns fĂŒr verbreitete Lösungen fĂŒr wiederkehrende Probleme bei der Gestaltung und Entwicklung von Videolernumgebungen. Diese Patterns wurden auf Pattern Konferenzen diskutiert und im Anschluss evaluiert sowie bei der Konzeption, Entwicklung und Bewertung mehrerer Videolernumgebungen angewendet. Zudem wurde das Software Framework VI-TWO vorgestellt, mit dem sich fast alle Patterns auf einfache Weise in Web-Anwendungen realisieren lassen. Zur Spezifikation videobasierter CSCL-Scripts wurden existierende videobasierte und nicht videobasierte Scripts analysiert. Im Ergebnis unterschieden sich videobasierte CSCL-Scripts von allgemeinen CSCL-Scripts vor allem hinsichtlich der mit dem Video verknĂŒpften oder darin verankerten Aufgaben und AktivitĂ€ten. Videos werden dabei nicht als monolithische Einheiten, sondern als zeitkontinuierliche Medien betrachtet, in denen weitere Informationen zeitgenau verankert und LernaktivitĂ€ten stattfinden können. Außerdem ließen sich drei Typen videobasierter CSCL-Scripts identifizieren: (1) Scripts zur Analyse und Diskussion von Videoinhalten, (2) Peer Annotation Scripts einschließlich dem Peer Assessment und (3) Jigsaw-Scripts, die das problembasierte Lernen mit Hilfe von Videos ermöglichen. UnabhĂ€ngig davon variiert die KomplexitĂ€t der Scripts auf drei Stufen: (1) sofern voneinander abgegrenzte zeitliche Phasen von LernaktivitĂ€ten bestehen, (2) wenn darĂŒber hinaus die Teilnehmer innerhalb von Gruppen Aufgaben bearbeiten (intra-group) und (3) falls außerdem Aufgaben auch gruppenĂŒbergreifend bearbeitet werden (inter-group). Auf Grundlage der Spezifikation konnte ein Datenmodell und ein Modell fĂŒr die nutzerseitige Modellierung von Scripts verschiedener KomplexitĂ€tsstufen sowie Typen entwickelt und in dem CSCL-System VI-LAB realisiert werden. Diese Arbeit leistet in zweifacher Hinsicht einen Beitrag zur Forschung im Bereich E-Learning. Zum einen beschreiben die Interaction Design Patterns wiederkehrende User Interface Lösungen und stellen somit ein Hilfsmittel fĂŒr Designer, Software Entwickler und Lehrende bei der Gestaltung und Implementierung von Videolernumgebungen dar. Zum anderen wurden durch die Spezifikation und softwareseitige Umsetzung videobasierter CSCL-Scripts Voraussetzungen geschaffen, die den praktischen Einsatz und die weitere Untersuchung des kollaborativen Lernens mit Videos ermöglichen.:1 EinfĂŒhrung 19 1.1 Motivation 19 1.2 Herausforderungen und Forschungsfragen 20 1.2.1 Interaction Design Patterns 20 1.2.2 Videobasierte CSCL-Scripts 22 1.3 KapitelĂŒbersicht und Forschungsmethoden 25 1.3.1 KapitelĂŒbersicht 25 1.3.2 Forschungsmethoden je Kapitel 27 2 Lernen mit Videos 29 2.1 Terminologie, Einsatzfelder und Potentiale von Lernvideos 30 2.1.1 Begriffsbestimmung 30 2.1.2 Einsatzfelder und Szenarien fĂŒr das Lernen mit Videos 32 2.1.3 Potentiale des Medium Video 34 2.2 Videos im Kontext kognitiver Lerntheorien 36 2.2.1 Theorie der kognitiven Last 36 2.2.2 Kognitive Theorie des Lernens mit Multimedia 38 2.3 InteraktivitĂ€t audiovisueller Lernmedien 44 2.4 Lernformen 48 2.4.1 Rezeptives Lernen 49 2.4.2 Selbstgesteuertes Lernen 50 2.4.3 Kollaboratives Lernen 52 2.5 Zusammenfassung 56 3 Videolernumgebungen und Hypervideos 59 3.1 Terminologie und Modelle 60 3.1.1 Videolernumgebung 60 3.1.2 Terminologie: Video, Hypervideo und interaktives Video 62 3.1.3 Spezifikationen fĂŒr Hypervideo-Dokumente 65 3.1.4 Modelle des zeitlichen Layouts 66 3.2 Human Video Interface 69 3.2.1 Gestaltungsraum von Hypervideos 70 3.2.2 Usability-Herausforderungen von Human Video Interfaces 74 3.3 Technische Herausforderungen 76 3.3.1 Download und Cache-Management / Echte Nicht-LinearitĂ€t 77 3.3.2 Synchronisierung von Video und Annotationen 78 3.3.3 Adressierung und Abruf von Medienfragmenten 78 3.3.4 Deklarative AnsĂ€tze der ReprĂ€sentation von Multimedia 80 3.4 Produktion und Integration in Lernumgebungen 81 3.4.1 Produktion: Vorgehensweisen und Paradigmen 82 3.4.2 Integration in Lernumgebungen und Zusammenspiel mit Diensten im WWW 85 3.5 Zusammenfassung 87 4 Interaction Design Patterns fĂŒr Videolernumgebungen 91 4.1 EinfĂŒhrung in Design Patterns 92 4.1.1 Design Patterns 95 4.1.2 Mustersprache 101 4.1.3 Verwandte AnsĂ€tze im Interaction Design 104 4.1.4 Verwandte Pattern Languages 106 4.2 Systematische Elaboration von Design Patterns 109 4.2.1 Stand der Forschung bzgldem Pattern Mining 110 4.2.2 Inhaltsanalyse von Videolernumgebungen 112 4.2.3 Analyse und Integration Ă€hnlicher Muster bzwMustersprachen 128 4.2.4 Verfassen sowie Revision und Evaluation der Muster 130 4.2.5 Konstruktion der Pattern Language 135 4.3 Pattern Language fĂŒr Videolernumgebungen 140 4.3.1 Struktur der Pattern Language 140 4.3.2 Angrenzende Mustersprachen 144 4.3.3 ReprĂ€sentation in einer Wissensbasis 145 4.3.4 Anwendungs- und Einsatzszenarien 148 4.3.5 Exemplarische Interaction Design Patterns 151 4.4 Zusammenfassung 168 5 Videobasierte CSCL-Scripts 171 5.1 EinfĂŒhrung 172 5.1.1 Hintergrund zu Scripts und CSCL-Scripts 172 5.1.2 Definition videobasierter CSCL-Scripts 175 5.1.3 Mehrwert und Potentiale 177 5.1.4 Typisierung videobasierter CSCL-Scripts 178 5.2 Spezifikation videobasierter CSCL-Scripts 184 5.2.1 Script-Komponenten 185 5.2.2 Script-Mechanismen 194 5.3 Modellierung von CSCL-Scripts 197 5.3.1 KomplexitĂ€tslevel 200 5.3.2 Verwandte Systeme und AnsĂ€tze zur Modellierung von Scripts 201 5.3.3 Konzept fĂŒr eine formale ReprĂ€sentation 206 5.3.4 Konzept zur Modellierung im User Interface 209 5.4 Zusammenfassung 212 6 Realisierung von Patterns und Scripts 215 6.1 VI-TWO: JavaScript Framework fĂŒr interaktive Videos 216 6.1.1 Anforderungen 217 6.1.2 Verwandte Arbeiten 219 6.1.3 Architektur von VI-TWO 222 6.1.4 Videoplayer 224 6.1.5 Videoannotationen 225 6.1.6 MakrointeraktivitĂ€t in Kollektionen von Videos 229 6.1.7 Autorenwerkzeuge 232 6.2 VI-LAB: CSCL-System fĂŒr videobasierte CSCL-Scripts 235 6.2.1 Anforderungen 236 6.2.2 Architektur von VI-LAB 238 6.2.3 Modellierung videobasierter CSCL-Scripts 241 6.2.4 Monitoring 244 6.3 Anwendungsbeispiele fĂŒr VI-TWO und VI-LAB 246 6.3.1 Vi-Wiki 246 6.3.2 IWRM education 247 6.3.3 VI-LAB (Version 1) auf Basis von Wordpress 247 6.3.4 VI-LAB (Version 2) auf Basis von node.js 248 6.3.5 Theresienstadt explained 249 6.4 Zusammenfassung 252 7 Schlussbetrachtung 255 7.1 Beitrag der Arbeit zur Forschung 255 7.2 Kritische WĂŒrdigung 256 7.3 Ausblick 25

    Beschreibung, Verwaltung und AusfĂŒhrung von ArbeitsablĂ€ufen im autonomen Datenbank-Tuning

    Get PDF
    In den letzten Jahrzehnten wurde die Administration von IT-Systemen zunehmend aufwendiger und kostspieliger. Zur GewĂ€hrleistung einer hohen VerfĂŒgbarkeit und Performance dieser Systeme reichen eine kontinuierliche manuelle Administration und Optimierung der Systeme im laufenden Betrieb kaum noch aus. Initiativen wie das Autonomic Computing versuchen daher, die AdministrationskomplexitĂ€t neuer Systeme zu reduzieren, indem sie eine Automatisierung der komplexen Systemverwaltungs- und -konfigurationsaufgaben und ihre anschließende Übertragung an die Systeme selbst ermöglichen. Die vorliegende Arbeit verfolgt das Ziel, die Übertragbarkeit der Konzepte des Autonomic Computing auf das Datenbank-Tuning zu untersuchen und eine Infrastruktur zur Automatisierung typischer Datenbank-Tuning-Aufgaben unter Reduzierung menschlicher Interaktion zu konzipieren. Als eine der Grundvoraussetzungen fĂŒr die Automatisierung der Datenbank-Tuning-Aufgaben wurden hier die Beschreibung und Modellierung des Tuning-Wissens identifiziert. Die vorgestellten Konzepte ermöglichen es den Administratoren daher, sowohl die Problemsituationen als auch die entsprechenden bewĂ€hrten Tuning-AblĂ€ufe zu erfassen und im System zu hinterlegen. Mit Hilfe einer auf diesen Konzepten aufbauenden Architektur lassen sich IT-Systeme kontinuierlich ĂŒberwachen und beim Feststellen eines problematischen Verhaltens entsprechende, vorab im System hinterlegte Tuning-AblĂ€ufe einleiten. Dabei können sowohl der Überwachungs- als auch der Tuning-Prozess in AbhĂ€ngigkeit von der anliegenden Arbeitslast und unter der Einbeziehung von Metadaten bzw. nutzerdefinierten Tuning-Zielen beeinflusst werden. Zur UnterstĂŒtzung einer kollaborativen Entwicklung und eines Austauschs von Tuning-Praktiken wird in dieser Arbeit weiterhin eine Community-Plattform konzipiert. Dabei spielen insbesondere Konzepte zur effizienten, feingranularen, semantikreichen Speicherung, Versionierung und Evolution von Tuning-Praktiken eine wichtige Rolle

    Konzeption und Entwicklung eines Content Management Systems fĂŒr Museumsportaldaten

    Get PDF
    In dieser Diplomarbeit wurde ein Content Management System fĂŒr ĂŒber 200 Museen in ThĂŒringen konzipiert und entwickelt. Das System bietet zudem Portalfunktionen an, die die Zusammenarbeit der Mitarbeiter stark verbessert, sowie Informationen und Dokumente innerhalb des Museumsverband ThĂŒringen e.V. rapide zur VerfĂŒgung stellt. Mit Hilfe des Object-oriented Software Engineering Lifecycles nach Ivar Hjalmar Jacobson konnte das neue Backend des Museumsportals ThĂŒringen produziert werden. Nach ausfĂŒhrlicher Stakeholderanalyse, Marktanalyse und Experteninterviews wurden die Fehler des alten Portals deutlich, so dass das Konzept von diesen Erkenntnissen stark profitierte. ZusĂ€tzlich wurde fĂŒr Museumsportaldaten ein Datenaustauschformat in XML Schema entworfen, das den Namen MuseumML erhielt. Damit wird der internationale Austausch von museumsbeschreibenden Daten vereinfacht. Die Umsetzung des Live-Systems mit Alfresco 3.3 bietet bis zum Abschluss dieser Diplomarbeit bereits drei Viertel der angestrebten FunktionalitĂ€ten. Darunter fallen zum Beispiel Kollaboration per Diskussion oder Blog, strukturierte Eingabe von Museumsportaldaten oder auch die Versionierung von Dokumenten.Ilmenau, Techn. Univ., Diplomarbeit, 201

    KĂŒnstliche Intelligenz in der Forschung

    Get PDF
    Dieses Buch ist eine Open Access Publikation. Der lange gehegte Traum von kĂŒnstlicher Intelligenz (KI) wird in unserer Alltagswelt zunehmend RealitĂ€t. Damit verbinden sich hohe gesellschaftliche Erwartungen, aber auch Sorgen hinsichtlich einer schleichenden EntmĂŒndigung des Menschen. Am Beispiel des Forschungssektors lotet dieser Band die Optionen, Entwicklungschancen und Risiken von KI-Techniken fĂŒr die Zukunft des wissenschaftlichen Erkenntnisprozesses und der darauf beruhenden technischen Entwicklungen aus. Zu diesem Zweck wird zunĂ€chst der Stand der KI-Technik und ihrer Anwendungen dargestellt. Es folgen wissenschaftsphilosophische Untersuchungen zur Frage der Ersetzbarkeit des forschenden Menschen durch KI und zu erwartenden VerĂ€nderungen in der wissenschaftlichen Forschung. Weitere Abschnitte widmen sich den Folgen fĂŒr die Arbeitswelt von Forschern/Forscherinnen sowie den durch KI erzeugten neuen Herausforderungen fĂŒr die rechtliche Regulierung im Spannungsfeld von Wissenschaftsfreiheit und Datenschutz. Der Band schließt mit Empfehlungen fĂŒr die verantwortlichen Akteure in Wissenschaft, Forschungspolitik und Gesellschaft aus interdisziplinĂ€rer Perspektive
    corecore