159 research outputs found

    Datenintegration in biomedizinischen Forschungsverbünden auf Basis von serviceorientierten Architekturen

    Get PDF
    In biomedizinischen Forschungsverbünden besteht der Bedarf, Forschungsdaten innerhalb des Verbundes und darüber hinaus gemeinsam zu nutzen. Hierzu wird zunächst ein Anforderungsmodell erstellt, das anschließend konsolidiert und abstrahiert wird. Daraus ergibt sich ein Referenzmodell für Anforderungen, welches anderen Forschungsverbünden als Grundlage für die beschleunigte Erstellung eines eigenen SOA-Systems dienen kann. Zum Referenzmodell wird weiterhin eine konkrete Instanz als Anforderungsmodell für den durch die Deutsche Forschungsgemeinschaft (DFG) geförderten geförderten Sonderforschungsbereich/Transregio 77 „Leberkrebs–von der molekularen Pathogenese zur zielgerichteten Therapie“ beschrieben. Aus dem Anforderungsmodell wird ein IT-Architekturmodell für den Verbund abgeleitet, welches aus Komponentenmodell, Verteilungsmodell und der Sicherheitsarchitektur besteht. Die Architektur wird unter Verwendung des Cancer Biomedical Informatics Grid (caBIG) umgesetzt. Dabei werden die in den Projekten anfallenden Daten in Datendienste umgewandelt und so für den Zugriff in einer SOA bereitgestellt. Durch die Datendienste kann die Anforderung der Projekte, die Kontrolle über die eigenen Daten zu behalten, weitgehend erfüllt werden: Die Dienste können mit individuellen Zugriffsberechtigungen versehen und dezentral betrieben werden, bei Bedarf auch im Verantwortungsbereich der Projekte selbst. Der Zugriff auf das System erfolgt mittels eines Webbrowsers, mit dem sich die Mitarbeiter des Verbundes unter Verwendung einer individuellen Zugangskennung an einem zentralen Portal anmelden. Zum einfachen und sicheren Austausch von Dokumenten innerhalb des Verbundes wird ein Dokumentenmanagementsystem in die SOA eingebunden. Um die Forschungsdaten aus verschiedenen Quellen auch auf semantischer Ebene integrieren zu können, werden Metadatensysteme entwickelt. Hierzu wird ein kontrolliertes Vokabular erstellt, das mit der hierfür entwickelten Methode aus den von den Projekten verwendeten Terminologien gewonnen wird. Die so gesammelten Begriffe werden mit standardisierten Vokabularien aus dem Unified Medical Language System (UMLS) abgeglichen. Hierfür wird ein Software-Werkzeug erstellt, das diesen Abgleich unterstützt. Des Weiteren hat sich im Rahmen dieser Arbeit herausgestellt, dass keine Ontologie existiert, um die in der biomedizinischen Forschung häufig verwendeten Zelllinien einschließlich ihrer Wachstumsbedingungen umfassend abzubilden. Daher wird mit der Cell Culture Ontology (CCONT) eine neue Ontologie für Zelllinien entwickelt. Dabei wird Wert darauf gelegt, bereits etablierte Ontologien dieses Bereichs soweit wie möglich zu integrieren. Somit wird hier eine vollständige IT-Architektur auf der Basis einer SOA zum Austausch und zur Integration von Forschungsdaten innerhalb von Forschungsverbünden beschrieben. Das Referenzmodell für Anforderungen, die IT-Architektur und die Metadatenspezifikationen stehen für andere Forschungsverbünde und darüber hinaus als Grundlagen für eigene Entwicklungen zur Verfügung. Gleiches gilt für die entwickelten Software-Werkzeuge zum UMLS-Abgleich von Vokabularen und zur automatisierten Modellerstellung für caBIG-Datendienste

    Aufbau eines Online-Dienstes zur webbasierten Versionierung von Ontologien

    Get PDF
    Ontologien gewinnen in der heutigen Zeit zunehmend an Bedeutung. Informationen können effizient durch eine formale, vernetzte Struktur genutzt werden. Die Grundlage bildet ein formales System, das durch eine standardisierte Ontologiesprache definiert ist und zur Beschreibung von Ontologien verwendet wird. In dem Zusammenhang lassen sich Informationen in einem einheitlichen Format darstellen. Ontologien bestehen generell aus Konzepten, die durch Beziehungen miteinander verbunden sind. Ein großer Forschungszweig beschäftigt sich mit der Annotierung dieser Konzepte. Der Vorgang ermöglicht eine einheitliche Beschreibung, indem Ontologiekonzepte explizit zu Objekten der realen Welt zugeordnet werden

    Bioinformatik: Erkenntnisse aus der Datenflut

    Get PDF
    Die riesigen Datenmengen, die in der Mikrobiologie anfallen, sind nur mit einem großen Aufwand an Informationsverarbeitung zu bewältigen. Die Bioinformatik soll den Engpass überwinden helfen, der bei der Entwicklung der benötigten Informatik-Methoden entstanden ist. Datenbanktechnik hilft, die Daten abzulegen, wiederzufinden und auf vielfältige Weise miteinander zu verknüpfen. Um die Daten zu Informationen und schließlich Erkenntnissen zu verdichten, bedient man sich formaler Modelle. Hierbei finden mathematische, zunehmend aber auch informatische Methoden Anwendung. Ziel ist es, biologische Systeme und Prozesse qualitativ und quantitativ immer umfassender darstellen, simulieren, analysieren und prognostizieren zu können – und so besser zu verstehen. In Deutschland wurden im Jahre 2001 fünf Bioinformatik-Kompetenzzentren mit einer Anschubfinanzierung des BMBF eingerichtet. Eines davon befindet sich in Braunschweig, es hat den Namen Intergenomics und soll die Interaktion zwischen Genomen aufklären helfen, insbesondere Infektionsprozesse. In diesem Beitrag werden nach einer Einführung in Probleme und Ansätze der Bioinformatik und des Intergenomics-Kompetenzzentrums Arbeiten in unserem eigenen Teilprojekt vorgestellt. Hier werden z.Z. drei Ansätze verfolgt: (1) Suche nach Bildern in Textdokumenten (PDF) aufgrund der Bildbeschriftungen, (2) diskrete Modellierung und Simulation von Signaltransduktionswegen und (3) Koevolution von Datenbankschemata und Ontologien zur Verbesserung der Datenintegration

    Establishing a distributed system for the simple representation and integration of diverse scientific assertions

    Get PDF
    <p>Abstract</p> <p>Background</p> <p>Information technology has the potential to increase the pace of scientific progress by helping researchers in formulating, publishing and finding information. There are numerous projects that employ ontologies and Semantic Web technologies towards this goal. However, the number of applications that have found widespread use among biomedical researchers is still surprisingly small. In this paper we present the aTag (‘associative tags’) convention, which aims to drastically lower the entry barriers to the biomedical Semantic Web. aTags are short snippets of HTML+RDFa with embedded RDF/OWL based on the Semantically Interlinked Online Communities (SIOC) vocabulary and domain ontologies and taxonomies, such as the Open Biomedical Ontologies and DBpedia. The structure of aTags is very simple: a short piece of human-readable text that is ‘tagged’ with relevant ontological entities. This paper describes our efforts for seeding the creation of a viable ecosystem of datasets, tools and services around aTags.</p> <p>Results</p> <p>Numerous biomedical datasets in aTag format and systems for the creation of aTags have been set-up and are described in this paper. Prototypes of some of these systems are accessible at <url>http://hcls.deri.org/atag</url></p> <p>Conclusions</p> <p>The aTags convention enables the rapid development of diverse, integrated datasets and semantically interoperable applications. More work needs to be done to study the practicability of this approach in different use-case scenarios, and to encourage uptake of the convention by other groups.</p

    Realisierung des COnto-Diff Algorithmus innerhalb eines Protégé-Plugins

    Get PDF
    Im Rahmen der Arbeit soll ein Plugin für den Ontologieeditor Protégé entwickelt werden. Dieses Plugin soll die Möglichkeit bieten, zwei Versionen einer Ontologie, mit Hilfe des COntoDiff-Algorithmus, miteinander zu vergleichen. Als Ergebnis des Vergleichs soll dem Nutzer eine umfassende Statistik über die vorgefundenen Änderungsoperationen präsentiert und die Möglichkeit geboten werden, durch alle Änderungen zu navigieren. Dabei soll er sich jederzeit Konzepte in den geöffneten Ontologien anzeigen lassen können, die an einer ausgewählten Änderungsoperation beteiligt sind

    Konzeption und prototypische Implementierung einer individualisierbaren Benutzeroberfläche für eine biomedizinische Webapplikation

    Get PDF
    In einem überregionalen Forschungsprojekt untersuchen Heidelberger und Hannoveraner Wissenschaftler Entstehungsmechanismen und neue Therapieansätze des Leberzellkarzinoms, einer der tödlichsten Tumorerkrankungen unserer Zeit. Die IT-Plattform pelican soll dem Forschungsverbund die softwaregestütze Analyse und den Austausch von Leberkrebs-Forschungsdaten ermöglichen. Bisher fehlte dazu ein geeignetes Oberflächenkonzept. Deswegen wurde eine Benutzerschnittstelle entworfen, die in der Lage ist, heterogene Daten und Funktionen darzustellen und dabei flexibel an die Nutzerbedürfnisse angepasst werden kann. Es konnte anhand einer prototypischen Benutzungsoberfläche gezeigt werden, dass sich das Konzept praktisch umsetzen lässt. Mit Hilfe der in einem Evaluierungsprozess ausgewählten Portalsoftware GridSphere wurden mehrere Datendienste als Module in die pelican-Applikation integriert. Als besondere Herausforderungen haben sich die Navigation innerhalb der Oberflächenmodule sowie der Informationsaustausch zwischen den Komponenten herausgestellt. Die erarbeiteten Lösungsansätze wurden dokumentiert und dienen als Basis für die Integration beliebiger neuer Dienste in die Plattform. Zukünftige Entwicklungen können der Krebsforschung weltweit in Form von standardkonformen Diensten im caGrid Umfeld zur Verfügung gestellt werden

    Deduktiv unterstützte Rekonstruktion biologischer Netzwerke aus flexibel analysierten Textdaten

    Get PDF
    Wallmeyer T. Deduktiv unterstützte Rekonstruktion biologischer Netzwerke aus flexibel analysierten Textdaten. Bielefeld: Universität Bielefeld; 2016

    Text Mining: Wissensgewinnung aus natürlichsprachigen Dokumenten

    Get PDF
    Das noch recht junge Forschungsgebiet "Text Mining" umfaßt eine Verbindung von Verfahren der Sprachverarbeitung mit Datenbank- und Informationssystemtechnologien. Es entstand aus der Beobachtung, dass ca. 85% aller Datenbankinhalte nur in unstrukturierter Form vorliegen, so dass sich die Techniken des klassischen Data Mining zur Wissensgewinnung nicht anwenden lassen. Beispiele für solche Daten sind Volltextdatenbanken mit Büchern, Unternehmenswebseiten, Archive mit Zeitungsartikeln oder wissenschaftlichen Publikationen, aber auch Ströme kontinuierlich auflaufender Emails oder Meldungen von Nachrichtenagenturen (Newswires). Im Gegensatz zum Information Retrieval geht es beim Text Mining nicht darum, lediglich Dokumente anhand von Anfragen aufzufinden, sondern aus einem einzelnen oder einem Satz von Dokumenten neues Wissen zu gewinnen, etwa durch automatische Textzusammenfassungen, die Erkennung und Verfolgung benannter Objekte oder die Aufdeckung neuer Trends in Forschung und Industrie. Durch die ständig wachsende Zahl elektronisch verfügbarer Texte werden automatisch arbeitende Verfahren zur Bewältigung der Informationsflut immer dringender, was Text Mining zu einem sehr aktiven und auch kommerziell interessanten Forschungsgebiet macht. Der vorliegende Bericht enthält eine Auswahl von Themen, die von Studierenden der Universität Karlsruhe im Rahmen eines Hauptseminars am IPD im Wintersemester 2004/2005 erarbeitet wurden. Sie reichen von den Grundlagen der Computerlinguistik über einzelne Algorithmen zur Sprachverarbeitung bis hin zu konkreten Anwendungen im Text Mining. Zahlreiche Literaturreferenzen zu jedem Kapitel sollen dem Leser eine weitergehende Studie der einzelnen Themen ermöglichen

    Medizinische Semantic Web Anwendungen : Ansätze für Normen und Architekturen zur Schaffung von Vertrauen

    Get PDF
    Ein Problem unserer heutigen Informationsgesellschaft ist, dass Ärzte neuen technischen Systemen immer mit großem Argwohn begegnen und dies nicht zu unrecht. Denn immer wieder wird unser Vertrauen in Systeme durch große Missbrauchsskandale erschüttert. Doch sind technische Systeme wie medizinische Semantic Web Anwendungen ein nächster Schritt zu einer verbesserten medizinischen Versorgung. Deshalb ist das Ziel dieser Arbeit für medizinische Semantic Web Anwendungen Ansätze für Normen und Architekturen zur Schaffung von Vertrauen zu finden. Hierzu wird erst das Vertrauen aus unterschiedlichen Blickwinkeln betrachtet und danach medizinische Semantic Web Anwendungen als sozio-technisches System. Dazu wird der der soziale Kontext des deutschen Gesundheitswesens betrachtet. Zusätzlich wird untersucht wie ein technisches System diesen Kontext verändern könnte. Aus diesen drei Kategorien werden Normen definiert. Auf diesen Normen aufbauend werden Ansätze für Architekturen formuliert, welche das Vertrauen steigern sollen. Dazu werden schon vorhandene medizinische Ontologien beleuchtet, um den Ansätzen eine Basis zu geben. Diese Ansätze für Architekturen werden als einzelne Bausteine zu einem größeren Ansatz zusammengefügt. Zuerst wird dieser größere Zusammenhang vorgestellt und danach werden einige Bausteine im Folgenden weiter beschrieben. Unter diese Bausteine fallen Kontrollinstanzen und deren Services sowie Zertifizierungsstellen mit unterschiedlichen Arten von Zertifikaten. Die meisten dieser Bausteine sind jedoch Agenten mit den verschiedensten Aufgaben, auf welche genauer eingegangen wird. Die Qualität der Ontologien sollen diese einerseits als wichtigen Aspekt des Vertrauens verbessern und überwachen. Andererseits dienen weitere Agenten wiederum der Kommunikation untereinander oder der üblichen Akquisition von Informationen. DesWeiteren bauen diese Agenten ein Vertrauensnetzwerk untereinander auf. Das Vertrauen zu anderen Agenten wird dabei mit unterschiedlichen Attributen dargestellt und liegt dezentral bei jedem Agenten oder kann ebenfalls von zentralen Services erfragt werden. Ein Austausch der Informationen unter den Agenten ist ebenso möglich. Diese Architektur mit einer Vielzahl von Agenten und das daraus resultierende Vertrauensnetzwerk soll schließlich ein grundlegendes Vertrauen schaffen, auf welchem medizinische Semantic Web Anwendungen aufbauen können

    Semi-automatische Verschlagwortung zur Integration externer semantischer Inhalte innerhalb einer medizinischen Kooperationsplattform

    Get PDF
    PubMed stellt mit 21 Mio. Aufsatzzitaten eines der umfangreichsten Informationssysteme in Bereich der Medizin. Durch die Verwendung einer einheitlichen Terminologie (Medical Subject Heading - MeSH) bei der Indizierung von PubMed Inhalten kann die Orientierung in solch großen Datenbeständen optimiert werden. Zwar bietet ein kontrolliertes Vokabular bei der Informationsbeschaffung zahlreiche Vorteile gegenüber einer Freitextsuche doch fällt Nutzern das Abbilden eines Informationsbedarfs auf die verwendete Terminologie oftmals schwer. In dieser Arbeit wird eine Systemunterstützung geschaffen, die den Abbildungsprozess automatisiert indem eine automatische Verschlagwortung textbasierter Inhalte unter Verwendung eines kontrollierten Vokabulars vorgenommen wird. Durch die Verwendung einer einheitliche Terminologie kann so eine konsistente Integration von PubMed Inhalten erreicht werden
    corecore