98 research outputs found

    bioC.info: Vervollständigung des Verzeichnisses der kontrollierten Unternehmen des ökologischen Landbaus

    Get PDF
    Ausgangslage Derzeit veröffentlichen 13 deutsche Kontrollstellen die Daten der kontrollierten Unternehmen über bioC. Die anderen neun zugelassenen deutschen Kontrollstellen veröffentlichen die Daten jeweils auf ihren eigenen Internetseiten. Die Abfrage ihrer Daten ohne einen regelmäßigen, vollständigen Datentransfer an bioC war eine Forderung mehrerer „externer Kontrollstellen“ für eine Beteiligung an bioC. Mit der Einbindung der Daten der „externen Kontrollstellen“ wird die Vervollständigung von bioC und damit die Bereitstellung eines nationalen Verzeichnisses gemäß Durchführungsverordnung (EU) Nr. 426/2011 möglich. Ziele und Ergebnisse im Projekt Ziel des Projektes war die Entwicklung eines Webservices zur Anbindung von externen Datenbanken von Öko-Kontrollstellen zur Erweiterung von www.bioC.info zu einem vollständigen Verzeichnis der kontrollierten Unternehmen des Ökologischen Landbaus in Deutschland und perspektivisch zu einem europaweiten Verzeichnis. Damit soll eine zentrale Möglichkeit der Recherche nach öko-zertifizierten Unternehmen in Deutschland geschaffen werden. Die für das Vorhaben geplanten technischen (Entwicklung Webservice) und inhaltlichen Ziele (Klärung datenschutz- und haftungsrechtlicher Fragestellungen) wurden erreicht. Mit dem Webservice schafft bioC auch die technischen Voraussetzungen für ein nationales oder auch europäisches Verzeichnis gemäß Durchführungsverordnung (EU) Nr. 426/2011. Dadurch erübrigt sich die Investition öffentlicher Gelder in ein staatliches Verzeichnis. Der entwickelte Webservice wurde so konzipiert, dass er auch für die derzeit in Entwicklung befindliche mehrsprachige Version von bioC.info nutzbar ist. Damit ist eine gute Grundlage für eine Internationalisierung von bioC geschaffen. Die Beschreibung des Webservices sowie der Webservice selbst sind auf Anfrage bei der bioC GmbH kostenfrei erhältlich. Die teilnehmenden Kontrollstellen werden von der bioC GmbH bei der Implementierung des Webservices in ihrem System unterstützt

    Verzeichnis von Softwarekomponenten für natürlichsprachliche Systeme : Ergebnisse einer Umfrage im Rahmen der VERBMOBIL-Vorbereitung

    Get PDF
    Das DFKI (Deutsches Forschungszentrum für Künstliche Intelligenz) wurde vom BMFT (Bundesministerium für Forschung und Technologie) mit der Durchführung einer Umfrage zu existierenden Software-Komponenten im Bereich Verarbeitung natürlicher Sprache beauftragt (413 - 4001 - 01 IV 201). Das Ziel der Umfrage war die Erstellung einer Übersicht von in Deutschland verfügbaren Software-Komponenten, die im Bereich der natürlichsprachlichen Systeme für das Projekt VERBMOBIL relevant sein könnten. Das Ergebnis dieser Umfrage liegt nun vor. Zur Durchführung der Umfrage wurde ein Fragebogen erstellt, der im März 1992 über die News-Gruppe mod-ki verbreitet und außerdem an ca. 400 Adressen geschickt wurde (Mitglieder der Gesellschaft für Informatik e. V. FA 1.3 1 "Natürliche Sprache", Mitglieder der DGfS, Sektion Computerlinguistik). Das Verzeichnis ist auf in Deutschland entwickelte Software beschränkt und enthält akademische, kommerzielle und geschützte Software, wobei jeweils angegeben ist, unter welchen Bedingungen die Komponenten erhältlich sind

    Verzeichnis von Softwarekomponenten für natürlichsprachliche Systeme : Ergebnisse einer Umfrage im Rahmen der VERBMOBIL-Vorbereitung

    Get PDF
    Das DFKI (Deutsches Forschungszentrum für Künstliche Intelligenz) wurde vom BMFT (Bundesministerium für Forschung und Technologie) mit der Durchführung einer Umfrage zu existierenden Software-Komponenten im Bereich Verarbeitung natürlicher Sprache beauftragt (413 - 4001 - 01 IV 201). Das Ziel der Umfrage war die Erstellung einer Übersicht von in Deutschland verfügbaren Software-Komponenten, die im Bereich der natürlichsprachlichen Systeme für das Projekt VERBMOBIL relevant sein könnten. Das Ergebnis dieser Umfrage liegt nun vor. Zur Durchführung der Umfrage wurde ein Fragebogen erstellt, der im März 1992 über die News-Gruppe mod-ki verbreitet und außerdem an ca. 400 Adressen geschickt wurde (Mitglieder der Gesellschaft für Informatik e. V. FA 1.3 1 "Natürliche Sprache", Mitglieder der DGfS, Sektion Computerlinguistik). Das Verzeichnis ist auf in Deutschland entwickelte Software beschränkt und enthält akademische, kommerzielle und geschützte Software, wobei jeweils angegeben ist, unter welchen Bedingungen die Komponenten erhältlich sind

    Entwicklung einer Softwarearchitektur zur Strukturierung und Verwaltung von FAIRen und einfach erkundbaren (FAIREr) Wissensgraphen unter der Verwendung von Semantic Units und Knowlegde Graph Building Blocks

    Get PDF
    Die FAIR-Leitprinzipien (Findable, Accessible, Interoperable and Reusable) gewinnen in Wissenschaft und Industrie zunehmend an Bedeutung und tragen zu einem neuen Standard in der Entwicklung von Wissensgraphapplikationen bei. Derzeitige Implementierungen von Wissensgraphapplikationen stützen sich auf komplexe Ontologien in Kombination mit abstrakten Graphenmustern und binden ihre Daten und Metadaten an ein bestimmtes Datenmodell, um FAIR zu sein, was wiederum den Vergleich mit Daten und Metadaten erschwert, die in einem anderen Wissensgraph modelliert sind, der andere Ontologien und andere Graphenmuster verwendet. Außerdem werden die Daten der Wissensgraphapplikation an eine bestimmte Datenbanktechnologie gebunden, und die Benutzer müssen ihre Daten semantisch modellieren, was eine Einstiegshürde für nicht erfahrene Benutzer darstellt. Darüber hinaus erfordert eine Datenabfrage des Wissensgraphen häufig das Erlernen einer speziellen Graphenabfragesprache wie SPARQL oder Cypher, was einer breiten Nutzung von Wissengsgraphen entgegensteht. Des Weiteren ist die Erstellung von Aussagen über Aussagen in einem Wissensgraphen ein umständlicher Prozess, mit bestehenden Technologien wie RDF Reification oder RDF-star. In dieser Arbeit untersuchen wir die Anwendungsmöglichkeiten von Semantic Units und Knowledge Graph Building Blocks; und wir argumentieren, dass sie sämtliche der oben genannten Probleme aktueller Wissensgraphapplikationen adressieren, und intuitive Wege für Nutzer bieten, ihre eigenen Wissensgraphapplikationen zu definieren, die wirklich FAIR sind. Zunächst definieren wir die Architektur, die zum Aufbau der sogenannten KGBB-Engine verwendet wird, und eine hoch-modulare und erweiterbare Plattform für Knowledge Graph Building Blocks getriebene Applikationen und Werkzeuge bereitstellt. Anschließend implementieren wir diese KGBB-Engine für eine bestimmte Auswahl von Knowledge Graph Building Blocks, zusammen mit zwei verschiedenen Implementierungen für eine persistente Datenbankspeicherung. Diese beinhalten eine Implementierung für einen RDF Triple Store, auf den über einen SPARQL-Endpunkt zugegriffen wird, und eine Implementierung für die Labeled-Property-Graph-Datenbank Neo4j, auf die über Cypher-Abfragen zugegriffen wird. Danach verwenden wir die generische Implementierung der KGBB-Engine, um eine KGBB-gesteuerte Wissensgraphapplikation für einen spezifischen Use-Case zu erstellen, und entwickeln eine webbasierte Benutzerschnittstelle, die ermöglicht es den Benutzern ermöglicht, neue Material-Entity-Ressourcen in einem Wissensgraphen zu verwalten und zu erstellen, und ihre Parthood-Beziehungen und Gewichtsmessungen auf intuitive Weise zu beschreiben. Schließlich vergleichen wir unseren Ansatz einer Wissensgraphapplikation mit anderen Wissensgraphapplikationen, die versuchen, vergleichbare Probleme mit aktuellen Wissensgraph Management Applikationen zu lösen

    Motivation und Sprachverlust in der L2 Französisch: eine retrospektive Übungsstudie

    Get PDF
    Jeder Fremdsprachenlerner kennt wohl das enttäuschende Gefühl, trotz jahrelangen Unterrichts in der Fremdsprache nach einiger Zeit viel vergessen zu haben. Dieser Zustand verschlimmert sich – so scheint es –, je weiter der letzte Unterricht zurückliegt bzw. je länger die betreffende Sprache nicht gebraucht wurde. Für diesen Verlust an Kenntnissen und Fertigkeiten in der Fremdsprache hat jeder Lerner seine eigenen Theorien und Erklärungen, die stets eng an seine persönlichen Sprachlernerfahrungen bzw. seinen Umgang mit der Sprache gebunden sind. Dieser Beitrag ist im Rahmen des Projektseminars „L2-Verlustforschung“ im Sommersemester 2003 und Wintersemester 2003/2004 an der Universität Bielefeld entstanden. In diesem Seminar beschäftigten wir uns mit dem Phänomen des L2-Verlusts: Warum vergisst man eine Fremdsprache, welche Faktoren spielen dabei eine Rolle und welche Fertigkeiten sind betroffen? Ziel des Seminars war aber nicht nur, Fragen des L2-Verlusts theoretisch zu behandeln, sondern es sollte eine eigene kleine empirische Studie durchgeführt werden, um die Teilnehmerinnen mit der Planung und Durchführung einer Untersuchung, der Entwicklung eines Instruments der schriftlichen Befragung und der Datenanalyse mit SPSS vertraut zu machen. Nachdem wir uns mit mehreren Studien zum Thema befasst und uns die theoretische Grundlage angeeignet hatten, konnten wir zur Erarbeitung des eigenen Projekts übergehen. Aufgrund der Ergebnisse einer Pilotstudie (L2-Verlustbiographien der Teilnehmerinnen, vgl. Kapitel 4), führten wir eine Studie zum Verlust von Französischkenntnissen durch. Dabei gingen wir davon aus, dass sich in der produktiven Fertigkeit „Sprechen“ ein deutlicherer Sprachverlust zeigen würde als bei der rezeptiven Fertigkeit „Leseverstehen“. Des Weiteren nahmen wir an, dass Grad und Ausrichtung der Motivation zum Zeitpunkt des Abschlusses des Spracherwerbs wichtige Faktoren für die weitere Beschäftigung mit der L2 Französisch sind. Die Untersuchung wurde als retrospektive Studie angelegt, die auf subjektiven Einschätzungen der Probanden zu ihren Sprachkenntnissen beruht, da wir aufgrund unserer begrenzten Möglichkeiten keine Sprachtests durchführen konnten. Mit diesem Beitrag möchten wir zum einen einen Überblick über den Forschungsstand zum Sprachverlust sowie über die für die Sprachverlustforschung relevanten Aspekte des Faktors Motivation geben und zum anderen den Verlauf unserer eigenen Studie dokumentieren. Im zweiten Kapitel geben wir einen allgemeinen Überblick über die Sprachverlustforschung. Es werden kurz Erkenntnisse aus der Gedächtnispsychologie, die das Vergessen aus neuropsychologischer Sicht beschreiben, dargestellt und neben den allgemeinen Merkmalen dieser Forschungsrichtung werden auch verschiedene theoretische Ansätze besprochen. Das dritte Kapitel widmen wir – auf das Wesentliche beschränkt – dem Faktor „Motivation“ beim Fremdsprachenerwerb. Nach einer kurzen Darstellung der Pilotstudie im 4. Kapitel folgt im 5. Kapitel die Präsentation der Übungsstudie und der dabei verwendeten Forschungsmethoden sowie der Ergebnisse

    Eine Modellierungssprache zur Entwicklung effizienter Vorlagen für die klinische Befunddokumentation: Im Fachbereich der Gastroenterologie

    Get PDF
    Die klinische Dokumentation ist ein zentraler Bestandteil der Patientenversorgung. Sie dient der räumlichen und zeitlichen Überbrückung des Kommunikationsbedarfs zwischen den an der Versorgung beteiligten Akteuren. Die Erstellung einer vollständigen und präzi-sen Dokumentation beansprucht einen erheblichen Teil der ärztlichen Arbeitszeit. Diese Zeit zu reduzieren und dabei die Qualität der erfassten Daten zu verbessern gehört zu den technologischen Aufgaben des klinischen Informationssystems. Ziel dieser Arbeit ist die Konzeption einer Modellierungssprache zur Beschreibung von Befundvorlagen für die strukturierte Dokumentation. Darauf aufbauend werden die Möglichkeiten der Integration in konventionelle Informationssysteme beschrieben. Eine Anforderung dieser Arbeit ist es einer breiteren Autorenbasis die Mitgestaltung der Vorlagen zu ermöglichen. Dieses Ziel wurde insbesondere durch eine visuelle Notation sowie ein Konstrukt für die kollaborative Entwicklung der Vorlagen erreicht. Die Beschreibungssprache wurde zyklisch den Anfor-derungen der Klinikärzte und Autoren angepasst. Eine mit der Beschreibungssprache ver-knüpfbare Ontologie ist die Basis für Automatismen und verbessert als semantisches Be-zugssystem die Qualität der erfassten Daten. Das Artefakt ermöglicht zum einen die zeitef-fiziente Erstellung der Befundberichte durch die strukturierte, leitfadengestützte Doku-mentation und zum anderen wird analog zu dem narrativen Befundbericht automatisch ein formales Modell erstellt, dass die Möglichkeiten der Eingabe, Repräsentation und Auswer-tung der Daten erweitert. Im Rahmen der abschließenden Evaluation wurde das Artefakt in ein klinisches Informationssystem mit relationaler Datenbasis integriert. Es konnte ge-zeigt werden, dass durch das entwickelte Artefakt und insbesondere durch die Möglichkei-ten des formalen Modells, beispielsweise die Automatismen, das initiale Ziel einer zeiteffi-zienten Dokumentation erreicht wurde. Darüber hinaus konnte, vor allem durch erweiterte Möglichkeiten der Datenauswertung, die Qualität der Daten und deren Nutzen verbessert werden. Das Artefakt wurde innerhalb der Gastroenterologie evaluiert und kann auf weite-re Fachbereiche, insbesondere der Inneren Medizin übertragen werden

    Konzeption eines RDF-Vokabulars für die Darstellung von COUNTER-Nutzungsstatistiken: innerhalb des Electronic Resource Management Systems der Universitätsbibliothek Leipzig

    Get PDF
    Die vorliegende Masterarbeit dokumentiert die Erstellung eines RDF-basierten Vokabulars zur Darstellung von Nutzungsstatistiken elektronischer Ressourcen, die nach dem COUNTER-Standard erstellt wurden. Die konkrete Anwendung dieses Vokabulars bildet das Electronic Resource Management System (ERMS), welches momentan von der Universitätsbibliothek Leipzig im Rahmen des kooperativen Projektes AMSL entwickelt wird. Dieses basiert auf Linked Data, soll die veränderten Verwaltungsprozesse elektronischer Ressourcen abbilden können und gleichzeitig anbieterunabhängig und flexibel sein. Das COUNTER-Vokabular soll aber auch über diese Anwendung hinaus einsetzbar sein. Die Arbeit gliedert sich in die beiden Teile Grundlagen und Modellierung. Im ersten Teil wird zu nächst die bibliothekarische Notwendigkeit von ERM-Systemen herausgestellt und der Fokus der Betrachtung auf das Teilgebiet der Nutzungsstatistiken und die COUNTER-Standardisierung gelenkt. Anschließend werden die technischen Grundlagen der Modellierung betrachtet, um die Arbeit auch für nicht mit Linked Data vertraute Leser verständlich zu machen. Darauf folgt der Modellierungsteil, der mit einer Anforderungsanalyse sowie der Analyse des den COUNTER-Dateien zugrunde liegenden XML-Schemas beginnt. Daran schließt sich die Modellierung des Vokabulars mit Hilfe von RDFS und OWL an. Aufbauend auf angestellten Überlegungen zur Übertragung von XML-Statistiken nach RDF und der Vergabe von URIs werden anschließend reale Beispieldateien manuell konvertiert und in einem kurzen Test erfolgreich überprüft. Den Abschluss bilden ein Fazit der Arbeit sowie ein Ausblick auf das weitere Verfahren mit den Ergebnissen. Das erstellte RDF-Vokabular ist bei GitHub unter der folgenden URL zur Weiterverwendung hinterlegt: https://github.com/a-nnika/counter.vocab:Inhaltsverzeichnis Abbildungsverzeichnis 6 Tabellenverzeichnis 7 Abkürzungsverzeichnis 8 1 Einleitung 9 1.1 Problematik, Ziel und Abgrenzung 9 1.2 Zielgruppe, Methodik und Aufbau 11 1.3 Forschungsstand und Quellenlage 13 TEIL I - Grundlagen 17 2 Bibliothekarische Ausgangssituation 18 2.1 Electronic Resource Management 18 2.2 Nutzungsdaten elektronischer Ressourcen 20 2.3 Projekt AMSL 23 3 Technischer Hintergrund 26 3.1 XML 26 3.2 Linked Data und Semantic Web 27 3.3 Grundkonzepte der Modellierung 29 3.4 RDF 30 3.4.1 Datenmodell 30 3.4.2 Serialisierungen 34 3.5 RDFS 36 3.6 OWL 38 TEIL II - Modellierung 41 4 Vorarbeiten 42 4.1 Anforderungsanalyse 42 4.2 Analyse des COUNTER XML-Schemas 45 4.2.1 Grundstruktur 45 4.2.2 Details 48 4.3 Grundkonzeption 54 4.4 Verwendete Programme 56 4.4.1 Notepad++ 56 4.4.2 Raptor 58 4.4.3 OntoWiki 59 5 Realisierung des RDF-Vokabulars 61 5.1 Grundlegende Modellierung: RDFS 61 5.2 Erweiterung: OWL 70 5.3 Übertragung von XML-Daten nach RDF 75 5.4 URI-Vergabe 78 6 Test des Vokabulars 83 6.1 Planung des Tests 83 6.2 Erstellung von Testdatensätzen 85 6.3 Testergebnisse 87 7 Fazit und Ausblick 90 Literatur- und Quellenverzeichnis 93 Selbstständigkeitserklärung 101 Anhänge
    corecore