352 research outputs found

    Was die philosophische Ontologie zur biomedizinischen Informatik beitragen kann

    Get PDF
    Die biomedizinische Forschung hat ein Kommunikationsproblem. Um die Ergebnisse ihrer Arbeit darzustellen, greifen einzelne Forschergruppen auf unterschiedliche und oft inkompatible Terminologien zurück. Für den Fortschritt der modernen Biomedizin ist die Integration dieser Ergebnisse jedoch unabdingbar

    Proceedings of the 15th Conference on Knowledge Organization WissOrg'17 of theGerman Chapter of the International Society for Knowledge Organization (ISKO),30th November - 1st December 2017, Freie Universität Berlin

    Get PDF
    Wissensorganisation is the name of a series of biennial conferences / workshops with a long tradition, organized by the German chapter of the International Society of Knowledge Organization (ISKO). The 15th conference in this series, held at Freie Universität Berlin, focused on knowledge organization for the digital humanities. Structuring, and interacting with, large data collections has become a major issue in the digital humanities. In these proceedings, various aspects of knowledge organization in the digital humanities are discussed, and the authors of the papers show how projects in the digital humanities deal with knowledge organization.Wissensorganisation ist der Name einer Konferenzreihe mit einer langjährigen Tradition, die von der Deutschen Sektion der International Society of Knowledge Organization (ISKO) organisiert wird. Die 15. Konferenz dieser Reihe, die an der Freien Universität Berlin stattfand, hatte ihren Schwerpunkt im Bereich Wissensorganisation und Digital Humanities. Die Strukturierung von und die Interaktion mit großen Datenmengen ist ein zentrales Thema in den Digital Humanities. In diesem Konferenzband werden verschiedene Aspekte der Wissensorganisation in den Digital Humanities diskutiert, und die Autoren der einzelnen Beiträge zeigen, wie die Digital Humanities mit Wissensorganisation umgehen

    Verfahren für die Reparatur von Ontologie-Mappings in den Lebenswissenschaften

    Get PDF
    Diese Masterarbeit befasst sich mit Verfahren für die Reparatur von Ontologie-Mappings in den Lebenswissenschaften. Ontologien sind eine Art der Wissensrepräsentation, die für die Beschreibung und Strukturierung von Daten verwendet werden. Besonders in den Lebenswissenschaften werden Ontologien verwendet, um biologische Objekte zu beschreiben. Das Ontologie-Matching ist ein essentieller Prozess im Bereich der Datenintegration. Aufgrund der Bedeutung des Ontologie-Matching existieren auf diesem Forschungsgebiet eine immense Anzahl an Verfahren, die sich mit dieser Thematik befassen. Jedoch können die generierten Mappings eine Vielzahl von logischen Konflikten aufweisen. Aufgrund dieser Problematik sind Verfahren notwendig, die für ein gegebenes Ontologie-Mapping die Konflikte reduziert. Da die Ontologien potentiell sehr groß sein können, müssen die Reparaturverfahren effizient und effektiv realisiert werden. Diese Arbeit fokussiert sich auf die existierenden Reparaturverfahren und die Konzeption und Realisierung eines eigenen Verfahrens. Alle Verfahren werden bzgl. der Effektivität und Effizienz für sehr große Ontologien im Bereich der Lebenswissenschaften evaluiert

    Multilingualität und Linked Data

    Get PDF
    Cimiano P, Unger C. Multilingualität und Linked Data. In: Pellegrini T, Sack H, Auer S, eds. Linked Enterprise Data. Management und Bewirtschaftung vernetzter Unternehmensdaten mit Semantic Web Technologien. Berlin, Heidelberg: Springer; 2014: 153-175

    Entwicklung und Kartierung lernerzentrierter, kompetenzbasierter medizinischer Curricula unter Berücksichtigung erforderlicher Ressourcen

    Get PDF
    Einleitung: Gemeinsames Ziel der hier vorgestellten Arbeiten war die Entwicklung, online-Implementierung und Evaluierung einer international, interprofessionell und interdisziplinär einsetzbaren Curriculumskarte, welche verschiedene Empfehlungen bzgl. der kompetenzbasierten, medizinischen Ausbildung synthetisiert und Widersprüche zwischen diesen auflöst. Gleichzeitig sollten kritische Punkte bei der Entwicklung kompetenzbasierter, lernerzentrierter Curricula identifiziert und Konzepte zur Lösung dieser Probleme erarbeitet und evaluiert werden. Inhaltliche und organisatorische Aspekte der Curriculumsentwicklung und -kartierung sollten dabei gleichberechtigt nebeneinander stehen, damit die ordnungsgemäße Umsetzung der geplanten Curricula weder die Forschung noch die Krankenversorgung beeinträchtigt. Methoden: Auf Basis eines studentischen Needs-Assessments wurde die Curriculumskarte konzipiert und gleichzeitig eine Webplattform („LOOOP“) entwickelt, mit deren Hilfe diese Karte abgebildet werden konnte. Anschließend wurde die Karte schrittweise in LOOOP implementiert und die Auswirkungen auf Unterrichtsqualität und Prüfungsleistungen sowie das Nutzerverhalten evaluiert. Parallel zu dieser Implementierung wurde zur Unterstützung des selbstbestimmten Lernens ein computerbasierter Test zur Messung der medizinischen Entscheidungskompetenz („ASCLIRE“) entwickelt und evaluiert, um den Studierenden ein Feedback zu dieser Schlüsselkompetenz der medizinischen Ausbildung geben zu können. Zur semantischen Navigation durch das Curriculum wurde im Rahmen einer systematischen Literaturrecherche die am besten geeignete Ontologie identifiziert. Im Vorfeld der Einführung des nationalen, kompetenzbasierten Lernzielkatalogs Medizin (NKLM) wurde das studentische Peer-Teaching-Programm der Charité gegen ein nationales Rahmenwerk kartiert und dabei der Prozess der Kartierung analysiert. Zur Sicherstellung der Verfügbarkeit geeigneter Patientinnen und Patienten für den klinischen Unterricht wurde ein Algorithmus entwickelt und evaluiert, der mit Hilfe der im Krankenhausinformationssystem hinterlegten Patientendiagnosen den Unterricht am Krankenbett bestmöglich zwischen geeigneten Kliniken verteilt. Um den Studierenden den optimalen Kompetenzerwerb auf dem Gebiet der klinischer Untersuchungstechniken bei gleichzeitiger Entlastung der Kliniken, Patientinnen und Patienten zu ermöglichen, wurden am Beispiel der Untersuchung der weiblichen Brust verschiedene, patientenferne Unterrichtsmethoden zum Erwerb klinischer Handlungskompetenz verglichen. Ergebnisse und Schlussfolgerungen: Die entwickelte Curriculumskarte bildet alle von verschiedenen Autoren empfohlenen Aspekte ab und setzt diese in Bezug zueinander. Der Einsatz führte zu einer von den Studierenden empfundenen signifikanten Verbesserung der Unterrichtsqualität sowie zu verbesserten Prüfungsleistungen. Der Nutzungsgrad des zugehörigen Webinterfaces LOOOP ist sehr hoch mit Steigerungsraten um 100% pro Jahr. Zwei Dozierendenbefragungen an der Charité und an einer unserer Partneruniversitäten ermittelten bzgl. aller Aspekte der Karte positive Einschätzungen. Der ASCLIRE-Test wurde ebenfalls positiv evaluiert: Die Teststruktur ergab im Strukturgleichungsmodell eine hohe Anpassungsgüte und verschiedene Aspekte der Entscheidungskompetenz wurden als teilweise voneinander unabhängige Parameter identifiziert. Die Medical Subject Headings wurden als die am besten geeignete Ontologie identifiziert und nach Anpassungen an die Bedürfnisse der studentischen Ausbildung an allen internationalen Partner-Fakultäten in LOOOP implementiert. Die exemplarische Kartierung eines studentischen Peer-Teaching Curriculums gegen eine Teilmenge des NKLM zeigte unter anderem eine geringe Interrater-Reliabilität im Rahmen der subjektiven Kartierung, so dass wir begonnen haben, im Sinne des Web 3.0 unterstützende Algorithmen für die Kartierung in LOOOP zu implementieren. Der entwickelte Algorithmus zur Optimierung der Patientenverfügbarkeit konnte ca. 70% der ermittelten Probleme lösen und wurde ebenfalls unterstützend in LOOOP integriert. Am Beispiel schambesetzter Untersuchungen konnten wir zeigen, dass das Erlernen an einer Simulationspatientin zu signifikant besseren Prüfungsergebnissen verglichen mit dem Erlernen am Modell führte

    Evaluierung von Blocking-Verfahren zum effizienten Matching großer Ontologien in den Lebenswissenschaften

    Get PDF
    Das Hauptziel dieser Arbeit ist die Konzeption und Entwicklung von Blocking-Verfahren. Diese sollen anhand ausgewählter Matchprobleme in den Lebenswissenschaften vergleichend analysiert werden. Dabei kommen verschiedene Fragenstellungen auf: Wie stark reduzieren verschiedene Blocking-Verfahren den Suchraum? Führt die Verwendung von Blocking-Verfahren zu einem effizienteren Matching im Vergleich zum vollständigen Abgleich der Ontologien? Werden dabei Mappings von hoher Qualität bestimmt

    Evolution von ontologiebasierten Mappings in den Lebenswissenschaften

    Get PDF
    Im Bereich der Lebenswissenschaften steht eine große und wachsende Menge heterogener Datenquellen zur Verfügung, welche häufig in quellübergreifenden Analysen und Auswertungen miteinander kombiniert werden. Um eine einheitliche und strukturierte Erfassung von Wissen sowie einen formalen Austausch zwischen verschiedenen Applikationen zu erleichtern, kommen Ontologien und andere strukturierte Vokabulare zum Einsatz. Sie finden Anwendung in verschiedenen Domänen wie der Molekularbiologie oder Chemie und dienen zumeist der Annotation realer Objekte wie z.B. Gene oder Literaturquellen. Unterschiedliche Ontologien enthalten jedoch teilweise überlappendes Wissen, so dass die Bestimmung einer Abbildung (Ontologiemapping) zwischen ihnen notwendig ist. Oft ist eine manuelle Mappingerstellung zwischen großen Ontologien kaum möglich, weshalb typischerweise automatische Verfahren zu deren Abgleich (Matching) eingesetzt werden. Aufgrund neuer Forschungserkenntnisse und Nutzeranforderungen verändern sich die Ontologien kontinuierlich weiter. Die Evolution der Ontologien hat wiederum Auswirkungen auf abhängige Daten wie beispielsweise Annotations- und Ontologiemappings, welche entsprechend aktualisiert werden müssen. Im Rahmen dieser Arbeit werden neue Methoden und Algorithmen zum Umgang mit der Evolution ontologie-basierter Mappings entwickelt. Dabei wird die generische Infrastruktur GOMMA zur Verwaltung und Analyse der Evolution von Ontologien und Mappings genutzt und erweitert. Zunächst wurde eine vergleichende Analyse der Evolution von Ontologiemappings für drei Subdomänen der Lebenswissenschaften durchgeführt. Ontologien sowie Mappings unterliegen teilweise starken Änderungen, wobei die Evolutionsintensität von der untersuchten Domäne abhängt. Insgesamt zeigt sich ein deutlicher Einfluss von Ontologieänderungen auf Ontologiemappings. Dementsprechend können bestehende Mappings infolge der Weiterentwicklung von Ontologien ungültig werden, so dass sie auf aktuelle Ontologieversionen migriert werden müssen. Dabei sollte eine aufwendige Neubestimmung der Mappings vermieden werden. In dieser Arbeit werden zwei generische Algorithmen zur (semi-) automatischen Adaptierung von Ontologiemappings eingeführt. Ein Ansatz basiert auf der Komposition von Ontologiemappings, wohingegen der andere Ansatz eine individuelle Behandlung von Ontologieänderungen zur Adaptierung der Mappings erlaubt. Beide Verfahren ermöglichen die Wiederverwendung unbeeinflusster, bereits bestätigter Mappingteile und adaptieren nur die von Änderungen betroffenen Bereiche der Mappings. Eine Evaluierung für sehr große, biomedizinische Ontologien und Mappings zeigt, dass beide Verfahren qualitativ hochwertige Ergebnisse produzieren. Ähnlich zu Ontologiemappings werden auch ontologiebasierte Annotationsmappings durch Ontologieänderungen beeinflusst. Die Arbeit stellt einen generischen Ansatz zur Bewertung der Qualität von Annotationsmappings auf Basis ihrer Evolution vor. Verschiedene Qualitätsmaße erlauben die Identifikation glaubwürdiger Annotationen beispielsweise anhand ihrer Stabilität oder Herkunftsinformationen. Eine umfassende Analyse großer Annotationsdatenquellen zeigt zahlreiche Instabilitäten z.B. aufgrund temporärer Annotationslöschungen. Dementsprechend stellt sich die Frage, inwieweit die Datenevolution zu einer Veränderung von abhängigen Analyseergebnissen führen kann. Dazu werden die Auswirkungen der Ontologie- und Annotationsevolution auf sogenannte funktionale Analysen großer biologischer Datensätze untersucht. Eine Evaluierung anhand verschiedener Stabilitätsmaße erlaubt die Bewertung der Änderungsintensität der Ergebnisse und gibt Aufschluss, inwieweit Nutzer mit einer signifikanten Veränderung ihrer Ergebnisse rechnen müssen. Darüber hinaus wird GOMMA um effiziente Verfahren für das Matching sehr großer Ontologien erweitert. Diese werden u.a. für den Abgleich neuer Konzepte während der Adaptierung von Ontologiemappings benötigt. Viele der existierenden Match-Systeme skalieren nicht für das Matching besonders großer Ontologien wie sie im Bereich der Lebenswissenschaften auftreten. Ein effizienter, kompositionsbasierter Ansatz gleicht Ontologien indirekt ab, indem existierende Mappings zu Mediatorontologien wiederverwendet und miteinander kombiniert werden. Mediatorontologien enthalten wertvolles Hintergrundwissen, so dass sich die Mappingqualität im Vergleich zu einem direkten Matching verbessern kann. Zudem werden generelle Strategien für das parallele Ontologie-Matching unter Verwendung mehrerer Rechenknoten vorgestellt. Eine größenbasierte Partitionierung der Eingabeontologien verspricht eine gute Lastbalancierung und Skalierbarkeit, da kleinere Teilaufgaben des Matchings parallel verarbeitet werden können. Die Evaluierung im Rahmen der Ontology Alignment Evaluation Initiative (OAEI) vergleicht GOMMA und andere Systeme für das Matching von Ontologien in verschiedenen Domänen. GOMMA kann u.a. durch Anwendung des parallelen und kompositionsbasierten Matchings sehr gute Ergebnisse bezüglich der Effektivität und Effizienz des Matchings, insbesondere für Ontologien aus dem Bereich der Lebenswissenschaften, erreichen.In the life sciences, there is an increasing number of heterogeneous data sources that need to be integrated and combined in comprehensive analysis tasks. Often ontologies and other structured vocabularies are used to provide a formal representation of knowledge and to facilitate data exchange between different applications. Ontologies are used in different domains like molecular biology or chemistry. One of their most important applications is the annotation of real-world objects like genes or publications. Since different ontologies can contain overlapping knowledge it is necessary to determine mappings between them (ontology mappings). A manual mapping creation can be very time-consuming or even infeasible such that (semi-) automatic ontology matching methods are typically applied. Ontologies are not static but underlie continuous modifications due to new research insights and changing user requirements. The evolution of ontologies can have impact on dependent data like annotation or ontology mappings. This thesis presents novel methods and algorithms to deal with the evolution of ontology-based mappings. Thereby the generic infrastructure GOMMA is used and extended to manage and analyze the evolution of ontologies and mappings. First, a comparative evolution analysis for ontologies and mappings from three life science domains shows heavy changes in ontologies and mappings as well as an impact of ontology changes on the mappings. Hence, existing ontology mappings can become invalid and need to be migrated to current ontology versions. Thereby an expensive redetermination of the mappings should be avoided. This thesis introduces two generic algorithms to (semi-) automatically adapt ontology mappings: (1) a composition-based adaptation relies on the principle of mapping composition, and (2) a diff-based adaptation algorithm allows for individually handling change operations to update mappings. Both approaches reuse unaffected mapping parts, and adapt only affected parts of the mappings. An evaluation for very large biomedical ontologies and mappings shows that both approaches produce ontology mappings of high quality. Similarly, ontology changes may also affect ontology-based annotation mappings. The thesis introduces a generic evaluation approach to assess the quality of annotation mappings based on their evolution. Different quality measures allow for the identification of reliable annotations, e.g., based on their stability or provenance information. A comprehensive analysis of large annotation data sources shows numerous instabilities, e.g., due to the temporary absence of annotations. Such modifications may influence results of dependent applications such as functional enrichment analyses that describe experimental data in terms of ontological groupings. The question arises to what degree ontology and annotation changes may affect such analyses. Based on different stability measures the evaluation assesses change intensities of application results and gives insights whether users need to expect significant changes of their analysis results. Moreover, GOMMA is extended by large-scale ontology matching techniques. Such techniques are useful, a.o., to match new concepts during ontology mapping adaptation. Many existing match systems do not scale for aligning very large ontologies, e.g., from the life science domain. One efficient composition-based approach indirectly computes ontology mappings by reusing and combining existing mappings to intermediate ontologies. Intermediate ontologies can contain useful background knowledge such that the mapping quality can be improved compared to a direct match approach. Moreover, the thesis introduces general strategies for matching ontologies in parallel using several computing nodes. A size-based partitioning of the input ontologies enables good load balancing and scalability since smaller match tasks can be processed in parallel. The evaluation of the Ontology Alignment Evaluation Initiative (OAEI) compares GOMMA and other systems in terms of matching ontologies from different domains. Using the parallel and composition-based matching, GOMMA can achieve very good results w.r.t. efficiency and effectiveness, especially for ontologies from the life science domain

    Entwicklung eines Evaluations-Frameworks für instanzbasierte Ontologie-Matching-Verfahren

    Get PDF
    Ontologien sind ein weit verbreitetes Modell zur Repräsentation von Wissen, und werden u.a. im Semantic Web eingesetzt. In vielen verschiedenen Anwendungsgebieten wie z.B. der Informationsintegration, ist ein Matching der Ontologien notwendig. Es existieren schon einige Matchingsysteme, deren Qualität durch die Einführung von und die Teilnahme an Evaluations-Initiativen wie der OAEI, gut miteinander verglichen werden kann. Für instanzbasierte Matcher bzw. für Systeme, die hauptsächlich Instanzinformationen zum matchen nutzen, gibt es aber kaum geeignete Test-Ontologien oder -Szenarien. Dieser Beitrag soll die Anforderungen an ein solches Evaluations-Framework spezifizieren und erste Ideen zur Umsetzung eines solchen aufzeigen

    Bioinformatik: Erkenntnisse aus der Datenflut

    Get PDF
    Die riesigen Datenmengen, die in der Mikrobiologie anfallen, sind nur mit einem großen Aufwand an Informationsverarbeitung zu bewältigen. Die Bioinformatik soll den Engpass überwinden helfen, der bei der Entwicklung der benötigten Informatik-Methoden entstanden ist. Datenbanktechnik hilft, die Daten abzulegen, wiederzufinden und auf vielfältige Weise miteinander zu verknüpfen. Um die Daten zu Informationen und schließlich Erkenntnissen zu verdichten, bedient man sich formaler Modelle. Hierbei finden mathematische, zunehmend aber auch informatische Methoden Anwendung. Ziel ist es, biologische Systeme und Prozesse qualitativ und quantitativ immer umfassender darstellen, simulieren, analysieren und prognostizieren zu können – und so besser zu verstehen. In Deutschland wurden im Jahre 2001 fünf Bioinformatik-Kompetenzzentren mit einer Anschubfinanzierung des BMBF eingerichtet. Eines davon befindet sich in Braunschweig, es hat den Namen Intergenomics und soll die Interaktion zwischen Genomen aufklären helfen, insbesondere Infektionsprozesse. In diesem Beitrag werden nach einer Einführung in Probleme und Ansätze der Bioinformatik und des Intergenomics-Kompetenzzentrums Arbeiten in unserem eigenen Teilprojekt vorgestellt. Hier werden z.Z. drei Ansätze verfolgt: (1) Suche nach Bildern in Textdokumenten (PDF) aufgrund der Bildbeschriftungen, (2) diskrete Modellierung und Simulation von Signaltransduktionswegen und (3) Koevolution von Datenbankschemata und Ontologien zur Verbesserung der Datenintegration
    corecore