170 research outputs found

    Das lexikographische Beispiel in der Parömiographie. Formen und Funktionen

    Get PDF
    Der vorliegende Beitrag bespricht das lexikographische Beispiel im Bereich der Parömiographie (Sprichwortlexikographie). Im Fokus stehen Kriterien zur Identifizierung, Festlegung und Selektion jener kontextueller Sprachdaten, die in der Funktion des lexikographischen Beispiels den lexikographischen Prozess in der modernen Parömiographie systematisch und zweckgemäß unterstützen können. Es wird die Idee verfolgt, dass das lexikographische Beispiel in der Zeit der korpusempirischen Lexikographie, die meist auch elektronische lexikographische Produkte hervorbringt, seinen Status und damit seine Funktionalität geändert hat. Von der traditionellen primär dokumentierend-illustrativen Funktion und Unterstützung der individuellen Sprachkompetenz des Lexikographen wird es zum Ausgangs- und Mittelpunkt des lexikographischen Arbeitsprozesses. Es wird zur empirischen Basis für die lexikographische Beschreibung sprachlicher Phänomene und kann erst daraufhin in seiner tradierten illustrativ-dokumentierenden Funktion mikrostrukturell integriert werden. Interdisziplinär und unter Einbeziehung der phraseologie- und parömiologietheoretischen Kenntnisse zur Semantik, Pragmatik und Grammatik der Sprichwörter werden sodann Aussagen zu Qualitätsmerkmalen von Textstellen ausgearbeitet, anhand deren potentielle lexikographische Beispiele im Bereich der Parömiographie identifiziert, systematisch ausgewertet und selektiert werden können. Abschließend werden die Akzeptabilität und Operationalisierbarkeit der festgelegten Qualitätsmerkmale diskutiert sowie einige weiterführende Forschungsfragen angesprochen. Die Überlegungen gründen auf den Erfahrungen bei der Erarbeitung eines mehrsprachigen parömiographischen Produktes, welches als Dokumentation des aktuellen Sprichwortgebrauchs und zugleich als Lern- und Lehrmaterial in fremdsprachlichen Lernzusammenhängen konzipiert und erarbeitet wurde (SprichWort 2010). Der Artikel will somit zu einer seit 1977 geforderten (vgl. Wiegand 1977) und bisher im Bereich der Parömiographie noch nicht realisierten Ausarbeitung einer Theorie des lexikographischen Beispiels beitragen.Stichwörter: lexikographisches beispiel, beleg, belegbeispiel, lexikographie, phraseographie, parömiographie, sprichwortlexikographie, korpuslexikographie, methodologie, methodik, funktionen, sprichwort, identifizierung, selektio

    Das Fenster wirkt geschlossen: Überlegungen zu nonagentiven Konstruktionen des Deutschen aus konstruktionsgrammatischer Perspektive

    Get PDF
    Die in diesem Beitrag angestellten Überlegungen sind Teil breiter angelegter Studien zu nonagentiven Konstruktionen des Deutschen, die im Hinblick auf ihre Perspektivierungsleistung modelliert werden. Ziel ist, das ‚Konversen‘-Modell zur Erklärung passivischer und passivähnlicher Strukturen zu suspendieren.¹ Mit anderen Worten: Die verbale Kategorie des Genus verbi wird zur Disposition gestellt und stattdessen ein Bereich des Konstruktikons mit einer Reihe miteinander vernetzter Konstruktionen mit spezifischer Perspektivierungsleistung postuliert.² In diesem Artikel wird unter dieser übergreifenden Zielsetzung und auf der Basis einer qualitativen Untersuchung der Versuch unternommen, einen Vererbungsprozess zwischen Konstruktionen aufzuzeigen und einen Ausschnitt des Konstruktionsnetzwerks im Bereich der nonagentiven Konstruktionen des Deutschen zu beschreiben.³ Dabei wird das Verb wirken im Mittelpunkt stehen. Die Konstruktionen, in die das Verb wirken u. a. eingebettet sein kann, werden dabei als Typen der Konstruktion der Askription, der Eigenschaftszuweisung, aufgefasst, die typischerweise mit dem Verb sein gebildet werden, aber z. B. auch bleiben, erscheinen, scheinen u. a. einbetten können

    Cooperation between direct manipulation and proactive software agents in agent based information systems

    Get PDF
    Die wissenschaftliche Informationsbeshaffung wird zunehmend durch digitale Bibliotheken und verteilte Internetquellen gestützt. Dadurch bietet sich dem Nutzer schon von seinem Arbeitsplatz aus eine Fülle von Informationsangeboten, deren Inhalte aber bisher weitgehend isoliert nebeneinander existieren. Tiefe Verknüpfungen auf verschiedenen Handlungsebenen sind notwendig für die tatsächliche Nutzung des Potentials an Mehrwert, die in Reichweite scheint. Die Unterstützung des Anwenders in Hinblick auf Informationskompetenz und Recherchestrategie ist eine Notwendigkeit für ein zufriedenstellendes Ergebnis; das zeigen sowohl die theoretische Analyse, als auch die empirischen Studien, die die Konzeption und Implementation des Informationssystems DAFFODIL begleitet haben. Die Integration der Informationsquellen und strategische Unterstützung durch höhere Suchfunktionen erleichtert das Erreichen der Ziele des Nutzers. Die Unsicherheit bei der Recherche kann durch kontextnahe Vorschläge und Hilfestellungen reduziert werden. Im Kern wird der Frage nachgegangen, wie der Zielkonflikt zwischen proaktivem Verhalten der Software-Agenten zur Unterstützung der Anwender und deren grundlegendem Bedürfnis nach Handlungsautonomie aufgelöst werden kann. Ausgehend von diversen bekannten Verwendungsmustern von Software-Agenten wird gefolgert, dass die weitgehende Bewahrung der Benutzerautonomie und die unaufdringliche Präsentation von Vorlagen den Bedürfnissen der Anwender am besten entspricht. Auch bei der föderierten Integration verteilter Datenquellen können Software-Agenten die Aufgaben der Integration, der Homogenisierung von Metadatenschemata und der damit verbundenen semantischen Heterogenitätsbehandlung und das Filtern und Relevanzbewerten zusammengeführter Resultate übernehmen. Die prototypische Implementation im Rahmen von DAFFODIL belegt, dass dies möglich und produktivitätssteigernd ist. Die in DAFFODIL vorgenommene vertikale Implementierung der erfolgversprechenden Konzepte in Bezug auf die Arbeitsteilung zwischen Informationssystem und Anwender – auf allen Ebenen – und die durchgängige Begleitung durch empirische Evaluation ruft zur ganzheitlichen Herangehensweise an fachbezogene Literaturrecherchesysteme vor dem Hintergrund der aktuellen Informationsfülle auf. Die Ergebnisse zeigen: Das System kann nicht nur von Experten genutzt werden, sondern auch unerfahrene Anwender bei der erfolgreichen Recherche unterstützen

    Hyper-Text-Linguistik

    Get PDF
    This doctoral thesis suggests a text-linguistic approach dealing with linked electronic texts, so called HYPERTEXTS. After explaining the concept and philosophy of the hypertext-idea and elaborating on a pragmatic definition of WWW-hypertexts (Part A of the thesis), a linguistic framework, the Textlinguistisches Analysemodell für Hypertexte (TAH), is proposed (Part B). TAH provides a pragmatic-functional, top-down model to analyze CONTEXT, FUNCTION and STRUCTURE of complete hypertexts and the hypertext-components NODE and LINK. Main aim of TAH is to strictly separate the different aspects of each hypertext- and linguistic level – without isolating them. The theoretical approach of TAH is used for a case study (Part C). Therefore a corpus of WWW-hypertexts, mainly informative and instructive ones, is examined with TAH-methods. Aim of this study is on the one hand to provide some sort of evidence for the plausibility of TAH and is on the other hand linked with a specific question of research: It deals with possibilities provided by linguistics to enhance hypertext-links with logically, semantically and/or rhetorically typed information. The conclusion of the study is to distinguish exactly between semantics of a deepstructure-knowledge-presentation, semantic and rhetoric relations of the surface, i.e. the hypertext the user can see, and the layout or traversal behavior respectively of the user interface, i.e. the browsersoftware. Part C mainly deals with problems of typed links on the surface of hypertexts

    Modellierung und prototypische Implementierung eines Repository-Ansatzes für technische Metadaten in Data Warehouse-Umgebungen

    Get PDF
    In den letzten Jahren nimmt die Bedeutung des Data Warehousing für Entscheidungsprozesse stark zu. Für eine Data Warehouse-Umgebung, die mehrere heterogene Datenquellen sowie unterschiedliche Tools integriert, ist ein leistungsfähiges Metadaten-Management unerläßlich. Data Warehouse-Metadaten können in zwei Klassen unterteilt werden: technische und semantische Metadaten. Während semantische Metadaten den Endbenutzern beim Prozeß der Analyse, Abfrage und Navigation zur Verfügung stehen, unterstützen technische Metadaten Administratoren, Entwickler und Programmierer beim Extraktions-, Transformations- und Lade- (ETL-) Prozeß. Eine wesentliche Anforderung an ein mächtiges Metadaten-Management ist die Verwaltung der Metadaten in einem Repository, das die Integration von technischen und semantischen Metadaten, von unterschiedlichen Tools und Software einer Data Warehouse-Umgebung ermöglicht. Aufgrund der Komplexität der Problematik befaßt sich diese Arbeit vor allem mit technischen Metadaten. Mittels der Modellierungssprache UML wird ein Modell für technische Metadaten etabliert. Anschließend wird dieses Metamodells auf dem objektrelationalen DBMS Informix Universal Server Version 9.1 implementiert. Die Programmierung mit ODBC ermöglicht einen einheitlichen Zugriff auf unterschiedliche DBMS. Durch das entwickelte Repository können nicht nur Metadaten bezüglich Inhalt und Struktur verschiedener Datenhaltungssysteme aus den jeweiligen Data Dictionaries importiert, sondern auch Definitionen von Abbildungen zwischen diesen Systemen vorgenommen werden

    Einsatz und Evaluierung eines evolutionären IT-Konzepts für ein integriertes klinisches Informationssystem

    Get PDF
    Der erfolgreiche Einsatz von Informationstechnologie (IT) ist von wachsender Bedeutung für den Erfolg eines Unternehmens wie einem Universitätsklinikum. IT-Systeme im klinischen Umfeld sind jedoch Teil eines komplexen soziotechnischen Systems und haben nur nachhaltigen Erfolg, wenn sie sich eng an den Bedürfnissen der Endanwender orientieren und schnell auf geänderte Anforderungen reagieren können. Für die Neueinführung wesentlicher Komponenten des Marburger Krankenhausinformationssystems (KIS) wurde ab 1997 ein IT-Konzept erarbeitet. Dieses Konzept wird im ersten Teil der vorliegenden Arbeit vorgestellt. Aus Zeit- und Kostengründen musste zunächst eine sogenannte "Big-Bang"-Vorgehensweise für die schnelle klinikumsweite Einführung wichtiger Basisfunktionen gewählt werden. Um das damit verbundene hohe Projektrisiko zu minimieren wurde die "Big-Bang"-Phase auf das Nötigste begrenzt und für den weiteren Ausbau des KIS ein inkrementeller Ansatz zur bedarfsorientierten Softwareevolution verfolgt. Er soll die Möglichkeit bieten, neue und geänderte Anforderungen schnell und effektiv unter enger Einbeziehung der Endanwender umzusetzen. Ziel der vorliegenden Arbeit ist es, den Erfolg und die Tragfähigkeit dieses Ansatzes im praktischen Einsatz zu bewerten. Dazu wurde ausgehend von den wesentlichen Faktoren für den Erfolg eines IT-Systems ein Evaluationskonzept erarbeitet, das verschiedene qualitative und quantitative Methoden kombiniert. Dazu gehören: die Messung von Kennzahlen zum Ausbau des KIS (Umfang von Infrastruktur, Funktionalität und Nutzung, Projektierungsaufwand sowie Systemantwortzeiten), quantitative Vergleiche der Anwenderzufriedenheit vor und nach der Verwendung des inkrementellen Vorgehensmodells, Interviews mit Anwendern sowie kontinuierliche Analysen zu Bedienbarkeit, Prozess- und Dokumentationsqualität als Teil der Softwareentwicklung. Diese Untersuchungen wurden in den Jahren 2000 bis 2005 begleitend zu klinischen Teilprojekten der KIS-Einführung vorgenommen. Da die Evaluierung von IT-Maßnahmen innerhalb einer Organisation eng mit der Anwendungsentwicklung und der Schulung der Benutzer verwoben ist, wurde die Evaluierung des IT-Konzepts durch eine Reihe sozialer und organisatorischer Faktoren erschwert. Diese Hindernisse und mögliche Schwächen der einzelnen Methoden werden dargestellt und diskutiert. Die Evaluierungsergebnisse bestätigen weitgehend die Hypothesen. Der "Big-Bang"-Ansatz zeigte die erwarteten Nachteile: funktionale Defizite, eine unzureichende Anpassung an die Prozesse und die persönliche Arbeitsweise der Nutzer sowie eine mäßige Anwenderzufriedenheit. Der für den weiteren Ausbau des KIS verfolgte inkrementelle Ansatz zur bedarfsorientierten Softwareevolution führte zu messbaren Verbesserungen. Die Kombination dieser Ansätze erwies sich als praktikabel. Es war mit relativ geringen Ressourcen möglich, ein KIS aufzubauen, das flächendeckend ein breites Spektrum an klinischer Funktionalität bereitstellt und dabei sowohl die Vorteile eines integrierten Systems als auch eine hohe Flexibilität und Anpassbarkeit aufweist. Dies spiegelt sich auch in einer signifikant gesteigerten Anwenderzufriedenheit nach Verwendung des inkrementellen Vorgehensmodells wider. Dabei erhöhten sich nur die Werte derjenigen Zufriedenheitsfaktoren, bei denen ein direkter kausaler Zusammenhang zur partizipativen, bedarfsorientierten Softwareentwicklung vermutet wird. Auch der Abgleich mit den gemessenen Systemantwortzeiten und den Ergebnissen aus den Interviews und Anwenderrückmeldungen scheint die Annahme zu bestätigen, dass diese positiven Effekte weitgehend durch das verwendete Vorgehensmodell und nicht durch mögliche Störgrößen wie eine erhöhte Systemperformanz oder eine intensivere Betreuung durch das IT-Personal zu erklären sind. Die Erfahrungen aus klinischen Teilprojekten zeigen außerdem, dass es auf der Basis des Marburger IT-Konzepts möglich ist, klinische Prozesse effektiv und bedarfsorientiert zu unterstützen. Mittels einer kontinuierlichen, projektbezogenen Beobachtung von Qualitätsindikatoren als Teil eines iterativen, partizipativen Softwareentwicklungsprozesses, der in einen umfassenden "Change-Management"-Prozess eingebettet ist, können zudem mögliche negative Auswirkungen einer IT-Intervention frühzeitig erkannt und schnell beseitigt werden. Abschließend werden Defizite des zum Einsatz gekommenen Werkzeugs diskutiert und es werden ausgehend vom Marburger IT-Konzept internationale Forschungsbestrebungen hin zu mehrschichtigen Service-orientierten Architekturen skizziert. Solche Architekturen und die konsequente Trennung verschiedener Belange der Softwareentwicklung stellen einen vielversprechenden Ansatz zur entwicklungsfähigen, organisationsübergreifenden IT-Unterstützung von Prozessen in "Gesundheitsnetzen" dar

    Entwicklung eines Frameworks unter Verwendung von Kontextinformationen und kollektiver Intelligenz

    Get PDF
    Die Bedeutung von Daten, Informationen und Wissen als Faktor für wirtschaftliches und gesellschaftliches Handeln ist enorm und wächst noch weiter an. Ihr Austausch kennzeichnet und bestimmt die Globalisierung und den digitalen Wandel weit mehr als der Austausch von Waren. Grundlage dieser Entwicklung sind in erster Linie die enormen Fortschritte der Informations- und Kommunikationstechnik, die inzwischen insbesondere die Verfügbarkeit von Daten und Informationen nahezu zu jedem Zeitpunkt und an jedem Ort ermöglichen. Allerdings führt die riesige, rasant weiterwachsende verfügbare Menge an Daten und Informationen zu einer Überflutung in dem Sinne, dass es immer schwieriger wird, die jeweils relevanten Daten und Informationen zu finden bzw. zu identifizieren. Insbesondere beim Einsatz von Softwaresystemen ergibt sich aber für die Nutzer der Systeme häufig situations‑/kontextabhängig ein drängender Informationsbedarf, u.a. deshalb, weil die Systeme in immer kürzeren Zyklen verändert bzw. weiterentwickelt werden. Die entsprechende Suche nach Informationen zur Deckung des Informationsbedarfs ist jedoch häufig zeitaufwendig und wird vielfach „suboptimal“ durchgeführt. Michael Beul geht in seiner Arbeit der Frage nach, wie die Suche und Bereitstellung von relevanten Informationen erleichtert bzw. automatisiert durchgeführt werden kann, um eine effektivere Nutzung von Anwendungssystemen zu ermöglichen. Er erarbeitet ein Framework, welches insbesondere mit Hilfe von Konzepten der kollektiven Intelligenz eine kontextabhängige Echtzeit-Informationsbeschaffung für Nutzer softwareintensiver Systeme in den verschiedenen Anwendungsdomänen ermöglicht

    Konstruktion geschäftsprozessorientierter operativ-dispositiver Komponentenarchitekturen

    Get PDF
    Geschäftsprozesse bilden die Lösungsverfahren betrieblicher Systeme und gleichzeitig die zentralen Artefakte zur Realisierung der unternehmerischen Ziele. In Zeiten dynamischer Märkte mit intensivem Wettbewerb ist es umso wichtiger, zeitnah auf Veränderungen am Markt sowie Ereignisse in den Prozessen selbst zu reagieren. In der Konsequenz gilt es, die eigenen Geschäftsprozesse stetig zu hinterfragen und Maßnahmen zu deren effizienterer und innovativerer Durchführung abzuleiten. Mit dem geschäftsprozessorientierten Data-Warehouse-System (gpDWH-System) wird ein Konzept vorgestellt, das an dieser Stelle ansetzt. Entscheidungsrelevante Ablaufdaten werden sowohl auf Aufgabenträgerebene angeboten als auch in den Kontext der betrieblichen Leistungserstellung auf Aufgabenebene eingeordnet. Ein Geschäftsprozess kann damit umfassend aus unterschiedlichen Perspektiven analysiert werden. Abgeleitete prozessbezogene Maßnahmen als Reaktion auf Ereignisse im Markt- und Kundenverhalten sind schließlich mit unterschiedlichem Zeitverzug zu realisieren. Das Spektrum kann vom kurzfristigen, automatisierten steuernden Eingreifen in eine Prozessinstanz bis hin zur mittelfristigen Anpassung der Prozessstrukturen reichen. Es wird eine Referenzarchitektur vorgeschlagen, die zu diesem Zweck operative und dispositive Anwendungssysteme über das gpDWH-System integriert. Der Herausforderung der stetigen Anpassung von Geschäftsprozessen und damit der zugehörigen Anwendungssysteme wird zum einen durch die Grundsätze der Komponentenorientierung begegnet. Zum anderen wird ein Datenschema für gpDWH-Systeme vorgeschlagen, das als stabil im Falle sich verändernder Prozesse angesehen werden kann. Zur Anwendung in betrieblichen Szenarien sowie zur Unterstützung des Entwicklers wird eine Entwicklungsmethodik mit Berücksichtigung von Referenzarchitektur und Datenschema bereitgestellt. Als Grundlage dienen dabei das etablierte Semantische Objektmodell (SOM) sowie das Semantische Data-Warehouse-Modell (SDWM). Die resultierende Methodik ist jedoch auch unabhängig von diesen Ansätzen gültig und anwendbar. Die Konzeption operativer und dispositiver Anwendungssysteme, deren Integration sowie Entwicklung stellen komplexe Tätigkeiten dar. Zur Beherrschung dieser Komplexität folgt die gestaltungsorientierte Arbeit der durchgängigen Metapher von Angebot und Nachfrage. Anhand dieser werden Teilsysteme gebildet und jeweils auf Aufgaben- und Aufgabenträgerebene beschrieben. Zur Demonstration und zum Nachweis von Referenzarchitektur, Datenschema und Entwicklungsmethodik dient eine durchgehende Fallstudie zur Vermietung von Elektrofahrzeugen

    Semantic technologies for the domain specific and formal description of time series in databases

    Get PDF
    Messdaten werden zur effizienten Organisation und Weiterverarbeitung in relationalen Datenbanken gespeichert. Die in den letzten Jahren entstandenen Semantic Web Technologien bieten eine hervorragende Basis zur Wissensmodellierung und Beschreibung von Domäneninhalten in Form von Ontologien. Aufgrund der offenen Architektur dieses Ansatzes können leicht fremde Ontologien und Ressourcen mit eingebunden und berücksichtigt werden. Semantic Web Technologien stellen eine formale Modellierungsgrundlage dar. Mittels Reasoning kann deshalb aus Ontologien implizites Wissen abgeleitet werden. In dieser Arbeit werden semantische (Datenbank-) Annotationen und deren Interpretation fokussiert. Sie verknüpfen Datenbanken und das Semantic Web miteinander. Die Annotationen erlauben es, Inhalte von Datenbanken mit Semantic Web Technologien in verschiedenen Nutzungsszenarien zu beschreiben. Außerdem wird für die gemeinsame Behandlung und den Einsatz beider Technologien eine Architektur entwickelt. Auf dieser Basis werden Konzepte zur Visualisierung und Interaktion mit den Annotationen eingeführt. Weiterhin wird deren Einsatz zur formalen Modellierung von Ereignissen mittels Automaten betrachtet, sodass ein Reasoning zur Berechnung durchgeführt werden kann. Mittels einer Implementierung werden die eingeführten Konzepte demonstriert. Die Applikation Semantic Database Browser erlaubt die integrierte Verwendung von Messdaten und deren formaler Beschreibung. Modelle können ausgetauscht und wiederverwendet werden, sodass die Wiederverwendung von Wissen gefördert wird. Anhand des Beispiels von Ereignissen während Autofahrten wird demonstriert, wie auf Basis der formalen Beschreibung Schlussfolgerungen gezogen werden können. So können durch das Schlussfolgern ohne zusätzlichen Aufwand neue Erkenntnisse über auftretende Fahrmanöver generiert werden. Aufgrund des domänenunabhängigen Charakters der skizzierten Lösungsansätze wird gezeigt, dass diese sich leicht auf andere Anwendungsfälle anwenden lassen.Measurement data in form of time series of scientific experiments is stored in relational databases for efficient processing. Complementary, Semantic Web technologies have been developed in the last years for describing domain knowledge in form of ontologies. Due to their open architecture, foreign ontologies and resources can be easily referenced and integrated. Since Semantic Web technologies are based on predicate logic, they are suitable for formal modeling. Therefore, using reasoning implicit knowledge can be derived from ontologies. This work introduces semantic (database) annotations to link databases and ontologies to take advantage of both together by describing database contents with Semantic Web technologies. An architecture is developed for the combined handling and usage of these two technologies, which is designed in respect of scalability of large amounts of measurement data. Based on this architecture, concepts for visualizing and interacting with annotations are introduced. Furthermore, semantic annotations are used for formally modeling events in time series using finite state machines, which are computed using reasoning. An implementation is introduced to demonstrate the feasibility and advantages of the discussed concepts. The presented application Semantic Database Browser allows using semantic database annotations and interactively working with them for integrated handling of formally described measurement data. Formal models can be easily exchanged and reused to support reusability of knowledge and cooperation. By describing measurement data with models, data becomes much easier to understand. Using an example of events during driving, it is demonstrated how formal description can be used for automatic reasoning to generate additional knowledge about driving maneuvers without any additional effort. Because the presented approaches are domain independent, they can be easily adapted for other use cases

    Extended Abstracts of the Second Privacy Enhancing Technologies Convention (PET-CON 2008.1)

    Get PDF
    PET-CON, the Privacy Enhancing Technologies Convention, is a forum for researchers, students, developers, and other interested people to discuss novel research, current developments and techniques in the area of Privacy Enhancing Technologies. PET-CON was first conceived in June 2007 at the 7th International PET Symposium in Ottawa, Canada. The idea was to set up a bi-annual convention in or nearby Germany to be able to meet more often than only once a year at some major conference
    corecore