8 research outputs found

    On the Development and Use of a Formal Object Oriented Methodology Based on an Application Case Study

    Get PDF
    The objective of this thesis is to evaluate the object oriented specification language Troll for industry. We used Troll from analysis to implementation for an information system which is located at the Physical Technical Federal Board (PTB) in Germany. This information system assists different users who deal with the certification and testing of electrical equipment in an explosive atmosphere. The main part of this thesis therefore describes the advantages and the disadvantages of using Troll in various software engineering phases and different problem domains, such as in the safety critical part. When we started this project it was clear that Troll was not suited for all aspects which we had to deal with. However, due to the well-defined semantics of Troll it was straightforward to extend it as needed. Limits, however, had to be accepted in certain areas such as those with real-time aspects. In this thesis, we will also demonstrate how formal techniques that include the object oriented paradigm can be made profitable in software engineering practice. Software engineers should not be asking how to use formal methods, but how to benefit from them as part of a complete software engineering approach. We will give some rules and advice based on practical experience which can provide benefits in similar settings.In der vorliegenden Dissertation wird die objektorientiert Spezifikationssprache TROLL im industriellen Bereich evaluiert. Hierzu wurde TROLL für die Entwicklung eines Informationssystem der PTB (Physikalisch Technischen Bundesanstalt Braunschweig) von der Analysephase bis zur Implementierung eingesetzt. Das Informationssystem unterstützt unterschiedliche Benutzer bei der Zertifizierung und dem Test von elektrischen Geräten, die in explosiven Umgebungen eingesetzt werden. Der Hauptteil dieser Dissertation beschreibt die Vor- und Nachteile von TROLL beim Einsatz in den verschiedenen Software Engineering Phasen und den unterschiedlichen Anwendungsgebieten, wie etwa im sicherheitskritischen Bereich. Beim Start des Projektes stand bereits fest, dass die Sprache TROLL nicht alle Aspekte der Entwicklung abdecken konnte. Es war jedoch aufgrund der strengen semantischen Definition der Sprache einfach, TROLL um neue Konzepte zu erweitern. An einigen Stellen, wie z.B. bei der Realzeit muußten aber die Grenzen der Erweiterbarkeit aktzeptiert werden. Zusätzlich zeigt diese Dissertation, wie eine Kombination aus formalen Techniken und objektorientierten Ansätzen effektiv im Software Engineering eingesetzt werden kann. Softwareentwickler sollten in Zukunft nicht mehr fragen, ob sie eine formale Methode benutzen sollen, sondern eher wie sie diese in der Softwarentwicklung optimal einsetzen können. Die Arbeit gibt Ratschläge und Regeln weiter, die auf den positiven Erfahrungen bei der Entwicklung des Informationssystems der PTB basieren

    Eight Biennial Report : April 2005 – March 2007

    No full text

    A framework for analyzing changes in health care lexicons and nomenclatures

    Get PDF
    Ontologies play a crucial role in current web-based biomedical applications for capturing contextual knowledge in the domain of life sciences. Many of the so-called bio-ontologies and controlled vocabularies are known to be seriously defective from both terminological and ontological perspectives, and do not sufficiently comply with the standards to be considered formai ontologies. Therefore, they are continuously evolving in order to fix the problems and provide valid knowledge. Moreover, many problems in ontology evolution often originate from incomplete knowledge about the given domain. As our knowledge improves, the related definitions in the ontologies will be altered. This problem is inadequately addressed by available tools and algorithms, mostly due to the lack of suitable knowledge representation formalisms to deal with temporal abstract notations, and the overreliance on human factors. Also most of the current approaches have been focused on changes within the internal structure of ontologies, and interactions with other existing ontologies have been widely neglected. In this research, alter revealing and classifying some of the common alterations in a number of popular biomedical ontologies, we present a novel agent-based framework, RLR (Represent, Legitimate, and Reproduce), to semi-automatically manage the evolution of bio-ontologies, with emphasis on the FungalWeb Ontology, with minimal human intervention. RLR assists and guides ontology engineers through the change management process in general, and aids in tracking and representing the changes, particularly through the use of category theory. Category theory has been used as a mathematical vehicle for modeling changes in ontologies and representing agents' interactions, independent of any specific choice of ontology language or particular implementation. We have also employed rule-based hierarchical graph transformation techniques to propose a more specific semantics for analyzing ontological changes and transformations between different versions of an ontology, as well as tracking the effects of a change in different levels of abstractions. Thus, the RLR framework enables one to manage changes in ontologies, not as standalone artifacts in isolation, but in contact with other ontologies in an openly distributed semantic web environment. The emphasis upon the generality and abstractness makes RLR more feasible in the multi-disciplinary domain of biomedical Ontology change management

    Leveraging Semantic Annotations for Event-focused Search & Summarization

    Get PDF
    Today in this Big Data era, overwhelming amounts of textual information across different sources with a high degree of redundancy has made it hard for a consumer to retrospect on past events. A plausible solution is to link semantically similar information contained across the different sources to enforce a structure thereby providing multiple access paths to relevant information. Keeping this larger goal in view, this work uses Wikipedia and online news articles as two prominent yet disparate information sources to address the following three problems: • We address a linking problem to connect Wikipedia excerpts to news articles by casting it into an IR task. Our novel approach integrates time, geolocations, and entities with text to identify relevant documents that can be linked to a given excerpt. • We address an unsupervised extractive multi-document summarization task to generate a fixed-length event digest that facilitates efficient consumption of information contained within a large set of documents. Our novel approach proposes an ILP for global inference across text, time, geolocations, and entities associated with the event. • To estimate temporal focus of short event descriptions, we present a semi-supervised approach that leverages redundancy within a longitudinal news collection to estimate accurate probabilistic time models. Extensive experimental evaluations demonstrate the effectiveness and viability of our proposed approaches towards achieving the larger goal.Im heutigen Big Data Zeitalters existieren überwältigende Mengen an Textinformationen, die über mehrere Quellen verteilt sind und ein hohes Maß an Redundanz haben. Durch diese Gegebenheiten ist eine Retroperspektive auf vergangene Ereignisse für Konsumenten nur schwer möglich. Eine plausible Lösung ist die Verknüpfung semantisch ähnlicher, aber über mehrere Quellen verteilter Informationen, um dadurch eine Struktur zu erzwingen, die mehrere Zugriffspfade auf relevante Informationen, bietet. Vor diesem Hintergrund benutzt diese Dissertation Wikipedia und Onlinenachrichten als zwei prominente, aber dennoch grundverschiedene Informationsquellen, um die folgenden drei Probleme anzusprechen: • Wir adressieren ein Verknüpfungsproblem, um Wikipedia-Auszüge mit Nachrichtenartikeln zu verbinden und das Problem in eine Information-Retrieval-Aufgabe umzuwandeln. Unser neuartiger Ansatz integriert Zeit- und Geobezüge sowie Entitäten mit Text, um relevante Dokumente, die mit einem gegebenen Auszug verknüpft werden können, zu identifizieren. • Wir befassen uns mit einer unüberwachten Extraktionsmethode zur automatischen Zusammenfassung von Texten aus mehreren Dokumenten um Ereigniszusammenfassungen mit fester Länge zu generieren, was eine effiziente Aufnahme von Informationen aus großen Dokumentenmassen ermöglicht. Unser neuartiger Ansatz schlägt eine ganzzahlige lineare Optimierungslösung vor, die globale Inferenzen über Text, Zeit, Geolokationen und mit Ereignis-verbundenen Entitäten zieht. • Um den zeitlichen Fokus kurzer Ereignisbeschreibungen abzuschätzen, stellen wir einen semi-überwachten Ansatz vor, der die Redundanz innerhalb einer langzeitigen Dokumentensammlung ausnutzt, um genaue probabilistische Zeitmodelle abzuschätzen. Umfangreiche experimentelle Auswertungen zeigen die Wirksamkeit und Tragfähigkeit unserer vorgeschlagenen Ansätze zur Erreichung des größeren Ziels

    Studies related to the process of program development

    Get PDF
    The submitted work consists of a collection of publications arising from research carried out at Rhodes University (1970-1980) and at Heriot-Watt University (1980-1992). The theme of this research is the process of program development, i.e. the process of creating a computer program to solve some particular problem. The papers presented cover a number of different topics which relate to this process, viz. (a) Programming methodology programming. (b) Properties of programming languages. aspects of structured. (c) Formal specification of programming languages. (d) Compiler techniques. (e) Declarative programming languages. (f) Program development aids. (g) Automatic program generation. (h) Databases. (i) Algorithms and applications

    BRIDGE: Final Report 1994, Vol. II.

    Get PDF

    Geomatikai Közlemények V

    Get PDF
    corecore