36 research outputs found

    Interaction Design Patterns und CSCL-Scripts fĂŒr Videolernumgebungen

    Get PDF
    In den letzten Jahren haben Lernvideos im Bereich des informellen und formellen Lernens an Bedeutung gewonnen. Inwieweit Lernende bei der Nutzung von Videos unterstĂŒtzt werden und Lehrende didaktische Szenarien umsetzen können, hĂ€ngt jedoch von der eingesetzten Videolernumgebung ab. Es ist Anliegen der vorliegende Arbeit, Prinzipien des User Interface Designs sowie Komponenten und Mechanismen videobasierter Lehr-Lern-Szenarien in Bezug auf Videolernumgebungen zu identifizieren, zu beschreiben und technisch zu realisieren. Das Ziel besteht darin, Gestaltungsprinzipien in Form von Interaction Design Patterns zu erarbeiten und computergestĂŒtzte videobasierte Lehr-Lern-Szenarien mit Hilfe von CSCL-Scripts durch eine geeignete Spezifikation und Formalisierung zu realisieren. FĂŒr die Erarbeitung der Interaction Design Patterns wurden 121 Videolernumgebungen hinsichtlich 50 Kategorien in einer Inhaltsanalyse empirisch untersucht und dokumentiert. Unter BerĂŒcksichtigung Ă€hnlicher Patterns aus thematisch verwandten Pattern Languages und den Erfahrungen aus der Implementierung und dem Einsatz von Videolernumgebungen entstanden 45 Interaction Design Patterns fĂŒr verbreitete Lösungen fĂŒr wiederkehrende Probleme bei der Gestaltung und Entwicklung von Videolernumgebungen. Diese Patterns wurden auf Pattern Konferenzen diskutiert und im Anschluss evaluiert sowie bei der Konzeption, Entwicklung und Bewertung mehrerer Videolernumgebungen angewendet. Zudem wurde das Software Framework VI-TWO vorgestellt, mit dem sich fast alle Patterns auf einfache Weise in Web-Anwendungen realisieren lassen. Zur Spezifikation videobasierter CSCL-Scripts wurden existierende videobasierte und nicht videobasierte Scripts analysiert. Im Ergebnis unterschieden sich videobasierte CSCL-Scripts von allgemeinen CSCL-Scripts vor allem hinsichtlich der mit dem Video verknĂŒpften oder darin verankerten Aufgaben und AktivitĂ€ten. Videos werden dabei nicht als monolithische Einheiten, sondern als zeitkontinuierliche Medien betrachtet, in denen weitere Informationen zeitgenau verankert und LernaktivitĂ€ten stattfinden können. Außerdem ließen sich drei Typen videobasierter CSCL-Scripts identifizieren: (1) Scripts zur Analyse und Diskussion von Videoinhalten, (2) Peer Annotation Scripts einschließlich dem Peer Assessment und (3) Jigsaw-Scripts, die das problembasierte Lernen mit Hilfe von Videos ermöglichen. UnabhĂ€ngig davon variiert die KomplexitĂ€t der Scripts auf drei Stufen: (1) sofern voneinander abgegrenzte zeitliche Phasen von LernaktivitĂ€ten bestehen, (2) wenn darĂŒber hinaus die Teilnehmer innerhalb von Gruppen Aufgaben bearbeiten (intra-group) und (3) falls außerdem Aufgaben auch gruppenĂŒbergreifend bearbeitet werden (inter-group). Auf Grundlage der Spezifikation konnte ein Datenmodell und ein Modell fĂŒr die nutzerseitige Modellierung von Scripts verschiedener KomplexitĂ€tsstufen sowie Typen entwickelt und in dem CSCL-System VI-LAB realisiert werden. Diese Arbeit leistet in zweifacher Hinsicht einen Beitrag zur Forschung im Bereich E-Learning. Zum einen beschreiben die Interaction Design Patterns wiederkehrende User Interface Lösungen und stellen somit ein Hilfsmittel fĂŒr Designer, Software Entwickler und Lehrende bei der Gestaltung und Implementierung von Videolernumgebungen dar. Zum anderen wurden durch die Spezifikation und softwareseitige Umsetzung videobasierter CSCL-Scripts Voraussetzungen geschaffen, die den praktischen Einsatz und die weitere Untersuchung des kollaborativen Lernens mit Videos ermöglichen.:1 EinfĂŒhrung 19 1.1 Motivation 19 1.2 Herausforderungen und Forschungsfragen 20 1.2.1 Interaction Design Patterns 20 1.2.2 Videobasierte CSCL-Scripts 22 1.3 KapitelĂŒbersicht und Forschungsmethoden 25 1.3.1 KapitelĂŒbersicht 25 1.3.2 Forschungsmethoden je Kapitel 27 2 Lernen mit Videos 29 2.1 Terminologie, Einsatzfelder und Potentiale von Lernvideos 30 2.1.1 Begriffsbestimmung 30 2.1.2 Einsatzfelder und Szenarien fĂŒr das Lernen mit Videos 32 2.1.3 Potentiale des Medium Video 34 2.2 Videos im Kontext kognitiver Lerntheorien 36 2.2.1 Theorie der kognitiven Last 36 2.2.2 Kognitive Theorie des Lernens mit Multimedia 38 2.3 InteraktivitĂ€t audiovisueller Lernmedien 44 2.4 Lernformen 48 2.4.1 Rezeptives Lernen 49 2.4.2 Selbstgesteuertes Lernen 50 2.4.3 Kollaboratives Lernen 52 2.5 Zusammenfassung 56 3 Videolernumgebungen und Hypervideos 59 3.1 Terminologie und Modelle 60 3.1.1 Videolernumgebung 60 3.1.2 Terminologie: Video, Hypervideo und interaktives Video 62 3.1.3 Spezifikationen fĂŒr Hypervideo-Dokumente 65 3.1.4 Modelle des zeitlichen Layouts 66 3.2 Human Video Interface 69 3.2.1 Gestaltungsraum von Hypervideos 70 3.2.2 Usability-Herausforderungen von Human Video Interfaces 74 3.3 Technische Herausforderungen 76 3.3.1 Download und Cache-Management / Echte Nicht-LinearitĂ€t 77 3.3.2 Synchronisierung von Video und Annotationen 78 3.3.3 Adressierung und Abruf von Medienfragmenten 78 3.3.4 Deklarative AnsĂ€tze der ReprĂ€sentation von Multimedia 80 3.4 Produktion und Integration in Lernumgebungen 81 3.4.1 Produktion: Vorgehensweisen und Paradigmen 82 3.4.2 Integration in Lernumgebungen und Zusammenspiel mit Diensten im WWW 85 3.5 Zusammenfassung 87 4 Interaction Design Patterns fĂŒr Videolernumgebungen 91 4.1 EinfĂŒhrung in Design Patterns 92 4.1.1 Design Patterns 95 4.1.2 Mustersprache 101 4.1.3 Verwandte AnsĂ€tze im Interaction Design 104 4.1.4 Verwandte Pattern Languages 106 4.2 Systematische Elaboration von Design Patterns 109 4.2.1 Stand der Forschung bzgldem Pattern Mining 110 4.2.2 Inhaltsanalyse von Videolernumgebungen 112 4.2.3 Analyse und Integration Ă€hnlicher Muster bzwMustersprachen 128 4.2.4 Verfassen sowie Revision und Evaluation der Muster 130 4.2.5 Konstruktion der Pattern Language 135 4.3 Pattern Language fĂŒr Videolernumgebungen 140 4.3.1 Struktur der Pattern Language 140 4.3.2 Angrenzende Mustersprachen 144 4.3.3 ReprĂ€sentation in einer Wissensbasis 145 4.3.4 Anwendungs- und Einsatzszenarien 148 4.3.5 Exemplarische Interaction Design Patterns 151 4.4 Zusammenfassung 168 5 Videobasierte CSCL-Scripts 171 5.1 EinfĂŒhrung 172 5.1.1 Hintergrund zu Scripts und CSCL-Scripts 172 5.1.2 Definition videobasierter CSCL-Scripts 175 5.1.3 Mehrwert und Potentiale 177 5.1.4 Typisierung videobasierter CSCL-Scripts 178 5.2 Spezifikation videobasierter CSCL-Scripts 184 5.2.1 Script-Komponenten 185 5.2.2 Script-Mechanismen 194 5.3 Modellierung von CSCL-Scripts 197 5.3.1 KomplexitĂ€tslevel 200 5.3.2 Verwandte Systeme und AnsĂ€tze zur Modellierung von Scripts 201 5.3.3 Konzept fĂŒr eine formale ReprĂ€sentation 206 5.3.4 Konzept zur Modellierung im User Interface 209 5.4 Zusammenfassung 212 6 Realisierung von Patterns und Scripts 215 6.1 VI-TWO: JavaScript Framework fĂŒr interaktive Videos 216 6.1.1 Anforderungen 217 6.1.2 Verwandte Arbeiten 219 6.1.3 Architektur von VI-TWO 222 6.1.4 Videoplayer 224 6.1.5 Videoannotationen 225 6.1.6 MakrointeraktivitĂ€t in Kollektionen von Videos 229 6.1.7 Autorenwerkzeuge 232 6.2 VI-LAB: CSCL-System fĂŒr videobasierte CSCL-Scripts 235 6.2.1 Anforderungen 236 6.2.2 Architektur von VI-LAB 238 6.2.3 Modellierung videobasierter CSCL-Scripts 241 6.2.4 Monitoring 244 6.3 Anwendungsbeispiele fĂŒr VI-TWO und VI-LAB 246 6.3.1 Vi-Wiki 246 6.3.2 IWRM education 247 6.3.3 VI-LAB (Version 1) auf Basis von Wordpress 247 6.3.4 VI-LAB (Version 2) auf Basis von node.js 248 6.3.5 Theresienstadt explained 249 6.4 Zusammenfassung 252 7 Schlussbetrachtung 255 7.1 Beitrag der Arbeit zur Forschung 255 7.2 Kritische WĂŒrdigung 256 7.3 Ausblick 25

    Reader zum Workshop Standardisierung im eLearning : Begleitveranstaltung zum Förderprogramm Neue Medien in der Bildung ; 10./11. April 2002 Johann Wolfgang Goethe-UniversitÀt Frankfurt/Main

    Get PDF
    Bei der Entwicklung und vor allem bei der institutions- und projektĂŒbergreifenden Nutzung von eLearning Modulen oder Lernobjekten spielen Standards und Spezifikationen zu deren Beschreibung und Verwaltung eine immer wichtigere Rolle. Nur auf deren Basis können sich langfristig Verwaltungs- und Verwertungsmodelle entwickeln, die eine breite Nutzung von eLearning Modulen bis hin zur Entwicklung eines entsprechenden Marktes ermöglichen. Aufgrund allgemeingĂŒltiger Spezifikation fĂŒr die Beschreibung von Lernobjekten bis hin zu standardisierten Angaben fĂŒr komplette online Kurse werden Anbieter und Nachfrager in Tauschbörsen, institutionsĂŒbergreifenden Kooperationen, fachspezifischen Datenbanken und Bildungsservern eLearning Ressourcen anbieten und nutzen. Projekte und Initiativen stehen jetzt vor der Aufgabe, sich einen Überblick ĂŒber vorhandene Standards und Spezifikationen zu verschaffen, um fĂŒr sich selbst die geeigneten auswĂ€hlen und anwenden zu können. Oft werden aufgrund der projektspezifischen Anforderungen zudem eigene Beschreibungen entwickelt. Dadurch entsteht eine Vielzahl von Beschreibungen, die den Austausch und das Auffinden von Modulen ĂŒber die Projektgrenzen hinaus schwierig wenn nicht unmöglich machen. Der in diesem Band dokumentierte Workshop "Standardisierung im eLearning" hat das Ziel, die aktuelle Diskussion um die Entwicklung und Anwendung von Standards aufzugreifen, transparent zu machen und fortzufĂŒhren. Veranstalter des Workshops sind das Kompetenzzentrum fĂŒr Neue Medien in der Lehre der Johann Wolfgang Goethe-UniversitĂ€t Frankfurt/Main und der ProjekttrĂ€ger Neue Medien in der Bildung + Fachinformation. Die Veranstaltung setzt die Reihe von themenspezifischen Begleitworkshops im Rahmen des Förderprogramms Neue Medien in der Bildung fort. Eine Übersicht zu bereits durchgefĂŒhrten und in Planung befindlichen Begleitveranstaltungen finden Sie auf dem Internet-Portal des ProjekttrĂ€gers (http://www.medien-bildung.net)

    Ontologiebasierte Indexierung und Kontextualisierung multimedialer Dokumente fĂŒr das persönliche Wissensmanagement

    Get PDF
    Die Verwaltung persönlicher, multimedialer Dokumente kann mit Hilfe semantischer Technologien und Ontologien intelligent und effektiv unterstĂŒtzt werden. Dies setzt jedoch Verfahren voraus, die den grundlegenden Annotations- und Bearbeitungsaufwand fĂŒr den Anwender minimieren und dabei eine ausreichende DatenqualitĂ€t und -konsistenz sicherstellen. Im Rahmen der Dissertation wurden notwendige Mechanismen zur semi-automatischen Modellierung und Wartung semantischer Dokumentenbeschreibungen spezifiziert. Diese bildeten die Grundlage fĂŒr den Entwurf einer komponentenbasierten, anwendungsunabhĂ€ngigen Architektur als Basis fĂŒr die Entwicklung innovativer, semantikbasierter Lösungen zur persönlichen Dokumenten- und Wissensverwaltung.Personal multimedia document management benefits from Semantic Web technologies and the application of ontologies. However, an ontology-based document management system has to meet a number of challenges regarding flexibility, soundness, and controllability of the semantic data model. The first part of the dissertation proposes necessary mechanisms for the semi-automatic modeling and maintenance of semantic document descriptions. The second part introduces a component-based, application-independent architecture which forms the basis for the development of innovative, semantic-driven solutions for personal document and information management

    Visualisierung von Service-Frontends in einem Werkzeug zur prÀsentationsorientierten Komposition annotierter Dienste

    Get PDF
    Das Ziel des ServFace Projektes ist es Endnutzern ohne umfangreiche IT-Kenntnisse das einfache Erstellen von servicebasierten Anwendungen zu ermöglichen. Dazu wird ein Kompositions- werkzeug mit dem Namen “ServFace Builder“ verwendet. Das Werkzeug erlaubt es Endnutzern, interaktive Anwendungen durch die Komposition von Service-Operationen zu erstellen. DafĂŒr ist eine grafische ReprĂ€sentation der Service-Operationen durch UI-Fragmente notwendig. Die UI-Fragmente werden im ServFace-Umfeld als Frontends bezeichnet. In der vorliegenden Arbeit wird ein Konzept zur automatischen Visualisierung dieser Frontends vorgestellt. Um das Ergebnis der Visualisierung zu verbessern, nutzt der Visualisierungsprozess neben der Service-Beschreibung weitere Informationen in Form von Annotationen und Gestaltungsempfehlungen. Konkret werden die folgenden Aspekte in dieser Arbeit beschrieben: ‱ Visualisierung von Frontends zur ReprĂ€sentation von Service-Operationen auf Basis von Service-Beschreibungen, Annotationen, Plattformspezifikationen und Gestaltungsempfehlungen unter der Maßgabe der Gebrauchstauglichkeit und Nutzbarkeit. ‱ Integration der Frontends in die jeweils aktuelle Instanzen des gegebenen Anwendungsmodells. ‱ Technische Umsetzung und Evaluation der entwickelten KonzepteThe aim of the ServFace Project is to enable users with limited IT skills to easily create service-based applications. In order to do so, a tool called "ServFace Builder" has been developed. This tool allows users to build a composite application by combining several service operations. An important part of the ServFace Builder is the graphical representation of those service operations through user interfaces. This thesis describes an approach to automatically generate user interfaces for service operations. To enhance the graphical representation, the user interface generation process of the ServFace Builder comprises annotations and design recommendations next to the common service descriptions to enhance the result of the generation process. This thesis discusses: ‱ Graphical representation of service operations on the basis of service descriptions, annotations, plattform specifications and design recommendations. ‱ Integration of the graphical representation into the actual instance of the given application model. ‱ Implementation and evaluation of the presented concepts

    Kontext-abhÀngige Personalisierung multimedialer Inhalte auf mobilen EndgerÀten

    Get PDF
    Die Bedeutung multimedialer Dienste hat in den letzten Jahren betrĂ€chtlich zugenommen. Ihre Nutzung ist heutzutage nicht mehr nur auf stationĂ€re GerĂ€te beschrĂ€nkt: durch bessere mobile EndgerĂ€te und leistungsfĂ€higere Netze können diese Dienste immer mehr auch unterwegs eingesetzt werden. Gerade im mobilen Umfeld kĂ€mpfen sie aber mit zwei grundlegenden Problemen: zum einen ist es fĂŒr den Nutzer schwierig, aus der riesigen Menge der Inhalte diejenigen zu finden, die fĂŒr ihn wirklich relevant sind. Dieses Problem tritt auch bei stationĂ€rer Nutzung auf, die schlechteren Eingabemöglichkeiten und die geringere Bandbreite mobiler EndgerĂ€te schrĂ€nken aber gerade hier die Nutzung massiv ein. Zum anderen zeichnen sich mobile GerĂ€te durch eine starke HeterogenitĂ€t aus. Um multimediale Inhalte komfortabel nutzen zu können, muss deren optimale Darstellung fĂŒr die unterschiedlichen Charakteristika dieser heterogenen EndgerĂ€te gefunden werden. Eine Lösung fĂŒr diese beiden Probleme ist die Personalisierung multimedialer Inhalte. Im mobilen Bereich findet die Nutzung multimedialer Inhalte in einem wesentlich dynamischeren Kontext statt. Der Nutzer kann sich rĂ€umlich bewegen, die UmgebungslautstĂ€rke und die LichtverhĂ€ltnisse Ă€ndern sich hĂ€ufig, und er ist der Witterung ausgesetzt. Wie diese Informationen genutzt werden, um die Personalisierung multimedialer Inhalte zu unterstĂŒtzen, soll im Rahmen dieser Arbeit nĂ€her untersucht werden. DafĂŒr wurde die Multimedia Adaptation and Selection Language (MASL) zur Beschreibung von Inhalten und Nutzern entwickelt. Die Informationen, die mit dieser Sprache erfasst werden, werden durch Nutzereingabe (explizit) oder automatisch (implizit) gewonnen. Exemplarisch wird dies in der vorliegenden Arbeit mit der expliziten und impliziten Gewinnung von SchlĂŒsselwörtern zu Inhalten und Nutzerbewertungen gezeigt. Die Beschreibungen in MASL werden verwendet, um multimediale Inhalte Kontext-abhĂ€ngig auszuwĂ€hlen und die gewĂ€hlten Inhalte in der Darstellung an den aktuellen Nutzungskontext anzupassen. FĂŒr die Auswahl werden Empfehlungssysteme eingesetzt, die Inhalte gemĂ€ĂŸ den aktuellen Kontextinformationen des Nutzers selektieren. Die entwickelten AnsĂ€tze werden in ein einheitliches Framework integriert, das flexibel konfigurierbar ist. FĂŒr die Anpassung der Darstellung wird eine Middleware entwickelt, die verteilt arbeitet: der Server-seitige Teil fĂŒhrt eine Voranpassung der Inhalte durch, der Client beendet den Anpassungsprozess

    Aspekte der Kommunikation und Datenintegration in semantischen Daten-Wikis

    Get PDF
    Das Semantic Web, eine Erweiterung des ursprĂŒnglichen World Wide Web um eine se- mantische Schicht, kann die Integration von Informationen aus verschiedenen Datenquellen stark vereinfachen. Mit RDF und der SPARQL-Anfragesprache wurden Standards etabliert, die eine einheitliche Darstellung von strukturierten Informationen ermöglichen und diese abfragbar machen. Mit Linked Data werden diese Informationen ĂŒber ein einheitliches Pro- tokoll verfĂŒgbar gemacht und es entsteht ein Netz aus Daten, anstelle von Dokumenten. In der vorliegenden Arbeit werden Aspekte einer auf solchen semantischen Technologien basierenden Datenintegration betrachtet und analysiert. Darauf aufbauend wird ein System spezifiziert und implementiert, das die Ergebnisse dieser Untersuchungen in einer konkreten Anwendung realisiert. Als Basis fĂŒr die Implementierung dient OntoWiki, ein semantisches Daten-Wiki

    Ein ontologiebasiertes Verfahren zur automatisierten Bewertung von BauwerksschÀden in einer digitalen Datenumgebung

    Get PDF
    Neue Technologien im Bereich der Bauwerks- und Schadenserfassung fĂŒhren zu einer Automatisierung und damit verbundenen Effizienzsteigerung von Inspektionsprozessen. Eine adĂ€quate Digitalisierung des erfassten Bauwerkzustandes in ein BIM-Modell ist jedoch gegenwĂ€rtig nicht problemlos möglich. Eine Hauptursache hierfĂŒr sind fehlende Spezifikationen fĂŒr ein digitales Modell, das aufgenommene SchĂ€den reprĂ€sentieren kann. Ein Problem bilden dabei UnschĂ€rfen in der Informationsmodellierung, die ĂŒblicherweise bei BIM-Verfahren im Neubau nicht auftreten. Unscharfe Informationen, wie z.B. die Klassifizierung detektierter SchĂ€den oder Annahme weiterer verborgener SchĂ€den, werden derzeit manuell von Experten evaluiert, was oftmals eine aufwendige Auswertung kontextueller Informationen in einer Vielzahl verteilter Bauwerksdokumente erfordert. Eine automatisierte Bewertung detektierter SchĂ€den anhand des Bauwerkskontextes wird derzeit noch nicht in der Praxis umgesetzt. In dieser Dissertation wird ein Konzept zur ReprĂ€sentation von BauwerksschĂ€den in einem digitalen, generisch strukturierten Schadensmodell vorgestellt. Das entwickelte Konzept bietet hierbei LösungsansĂ€tze fĂŒr Probleme gegenwĂ€rtiger Schadensmodellierung, wie z.B. die Verwaltung heterogener Dokumentationsdaten, Versionierung von Schadensobjekten oder Verarbeitung der Schadensgeometrie. Das modulare Schema des Schadensmodells besteht aus einer generischen Kernkomponente, die eine allgemeine Beschreibung von SchĂ€den ermöglicht, unabhĂ€ngig von spezifizierenden Faktoren, wie dem betroffenen Bauwerkstyp oder Baumaterial. Zur Definition domĂ€nenspezifischer Informationen kann die Kernkomponente durch entsprechende Erweiterungsschemata ergĂ€nzt werden. Als prĂ€ferierte Serialisierungsmöglichkeit wird das Schadensmodell in einer wissensbasierten Ontologie umgesetzt. Dies erlaubt eine automatisierte Bewertung der modellierten Schadens- und Kontextinformationen unter Nutzung digitalisierten Wissens. Zur Evaluation unscharfer Schadensinformationen wird ein wissensbasiertes Bewertungsverfahren vorgestellt. Das hierbei entwickelte Schadensbewertungssystem ermöglicht eine Klassifizierung detektierter SchĂ€den, sowie Folgerung impliziter Bewertungsinformationen, die fĂŒr die weitere instandhalterische Planung relevant sind. Außerdem ermöglicht das Verfahren eine Annahme undetektierter SchĂ€den, die potentiell im Inneren des Bauwerks oder schwer erreichbaren Stellen auftreten können. In der ontologischen Bewertung werden dabei nicht nur Schadensmerkmale berĂŒcksichtigt, sondern auch Informationen bezĂŒglich des Bauwerkskontext, wie z.B. der betroffene Bauteil- oder Materialtyp oder vorliegende Umweltbedingungen. Zur Veranschaulichung der erarbeiteten Spezifikationen und Methoden, werden diese abschließend an zwei Testszenarien angewendet.New technologies in the field of building and damage detection lead to an automation of inspection processes and thus an increase in efficiency. However, an adequate digitalisation of the recorded building data into a BIM model is currently not possible without problems. One main reason for this is the lack of specifications for a digital model that can represent recorded damages. Thereby, a primary problem are uncertainties and fuzzy data in the information modelling, which usually does not occur when applying BIM for new buildings. Fuzzy information, such as the classification of detected damages or the assumption of further hidden damages, is currently evaluated manually by experts, which often requires a complex evaluation of contextual information in a multitude of distributed building documents. An automated evaluation of detected damages based on the building context is applied or implemented in practice. In this thesis a concept for the representation of structural damages in a digital, generically structured damage model is presented. The developed concept offers solutions for problems of current damage modelling, e.g. the management of heterogeneous documentation data, versioning of damage objects or processing of the damage geometry. The modular scheme of the damage model consists of a generic core component, which allows a general description of damages, independent of specifying factors, such as the type of construction or building material concerned. For the definition of domain-specific information, the core component can be supplemented by corresponding extension schemes. As a preferred serialisation option, the damage model is implemented in a knowledge-based ontology. This allows an automated evaluation of the modelled damage and context information using digitised knowledge. For the evaluation of fuzzy damage information, a knowledge-based evaluation procedure is presented. The developed damage evaluation system allows a classification of detected damages as well as the conclusion of implicit evaluation information relevant for further maintenance planning. In addition, the method allows the assumption of undetected damages that can potentially occur inside the structure or in places that are difficult to reach. In the ontological assessment, not only damage characteristics are considered, but also information regarding the building context, such as the affected component or material type as well as existing environmental conditions. To illustrate the developed specifications and methods, the whole concept is applied to two test scenarios

    Digitale Infrastrukturen fĂŒr die germanistische Forschung

    Get PDF
    Modern research in linguistics is increasingly reliant on digital infrastructure and information systems. This development began at the turn of the millennium and has since accelerated. The volume examines national and European infrastructure networks and the range of language resources in German linguistics that can be discovered, disclosed, and re-applied through digital infrastructure
    corecore