17 research outputs found

    Automatische Erzeugung von Verifikations- und Falsifikationsbedingungen sequentieller Programme

    Get PDF
    The aim of program verification is to prove the correctness of a program S with respect to a formal specification, that consists of a pre- and a postcondition V and N. In other words: are program S and specification (V, N) consistent? -- V S -- N Program S is correct, if S starts in a state that fulfills V and terminates in state that fulfills N. The form al definition of correctness is S is correct wrt. (V, N) if [V => wp(S, N)]. wp(S, N) is the wea kest precondition, that guarantees termination in a state fulfilling N. For the purpose of program verification the axiomatic or relational semantics is necessary. These two kinds of formal semantics are equivalent. Axiomatic semantics uses the wp-function, that works on the complete lattice of predicates. Relational semantics uses the LP (largest preset)-function, that works on the complete lattice of state sets. These two lattices are isomorph thru the characteristic predicate function of a set. In order to work efficiently with the wp-function some properties of that function are necessary and useful. Two new properties are shown: strong disjunctivity for comparable predicates and the substitution lemma for wp. Furthermore it turns out, t hat all properties of the wp-function are easily provable in the lattice of state sets with elementary set theory. A VC is defined to be a condition that implies correctness, formally [VC => [V => wp(S, N)]. A distinction is made between exact and ap proximate VCs. The major results of the thesis are verifying loops without an invariant and falsification conditions. In order to verify loops without a given invariant, two strategies are possible: 1. generate the invariant or 2. compute the wp-function for the loop Strategy 1 is used to compute invariants for for-loops. The invariant is generated by substituting a constant in the postcondition by a variable, more exactly the upper limit of the loop is substituted by the loop variable. In gener al the upper limit is not a variable. Therefore the loop is transformed into a semantically equivalent loop. Strategy 2 is used to compute the wp of while-loops by a new method that uses E-unification. Falsification conditions (FCs) are very useful i n practical program verification. They explicitly prove the incorrectness of a program and facilitate a localization of program errors. FCs are defined in an analog way as VCs: an FC implies the incorrectness of a program, formally [FC => not [V => w p(S, N)]. FCs are reduced to constraint programming problems (cpp) or, in the case of integer types, to integer programming problems (ipp). ipp also arise in data dependence analysis. Therefore similar methods can be applied

    Entwicklung und GegenĂŒberstellung von Methoden zur automatisierten Verifikation von ausfĂŒhrbaren Systemspezifikationen

    Get PDF
    FĂŒr die Entwicklung komplexer eingebetteter Systeme werden Techniken eingesetzt, die eine frĂŒhe Validierung der zu entwickelnden Systeme in Bezug auf funktionale Aspekte ermöglichen. Diese Techniken greifen in der Regel auf ausfĂŒhrbare Spezifikationsmodelle zurĂŒck. Eingebettete Systeme stellen meist auch Echtzeitsysteme dar. Dabei sind funktionale Anforderungen in der Regel zeitvariant, also zustandsabhĂ€ngig und besitzen zeitliche Randbedingungen, so dass zeitliche und funktionale Aspekte gemeinsam betrachtet werden mĂŒssen. FĂŒr die Modellierung solcher ausfĂŒhrbaren Spezifikationen ist der Discrete-Event Formalismus besonders geeignet, da er eine vergleichsweise abstrakte parametrisierbare Beschreibung, unabhĂ€ngig von Implementierungsdetails, ermöglicht. FĂŒr den systematischen Einsatz solcher Discrete-Event Modelle als ausfĂŒhrbare Spezifikationen, werden Methoden und Techniken zur Verifikation benötigt, um eine möglichst frĂŒhe Fehlererkennung bei der Systementwicklung zu ermöglichen.Gegenstand der Arbeit ist die Entwicklung und GegenĂŒberstellung von Methoden, die eine automatisierte Verifikation zeitbeschrĂ€nkter funktionaler Eigenschaften in ausfĂŒhrbaren Spezifikation ermöglichen. Solche Methoden stehen fĂŒr komplexe Multi-DomĂ€nen Modelle, wie sie in der Arbeit betrachtet werden, noch nicht zur VerfĂŒgung. Bei den Betrachtungen werden insbesondere die Spezifika der zugrunde liegenden Modelle und Eigenschaften sowie die möglichst automatisierte Anwendbarkeit der Verifikationsmethoden berĂŒcksichtigt.Ausgehend von grundlegenden ErwĂ€gungen werden zwei Anwendungsszenarien entwickelt, wobei im ersten Fall die vollstĂ€ndige formale Verifikation im Vordergrund steht und im zweiten Fall eine dynamische ÜberprĂŒfung der Eigenschaften wĂ€hrend der szenariobasierten Simulation favorisiert wird. FĂŒr die formale Verifikation wird ein Transformation-basierter Ansatz entwickelt, der eine Transformation des Verifikationsproblems in eine mathematische Beschreibung realisiert. FĂŒr die dynamische ÜberprĂŒfung der Eigenschaften wird ein Assertion-basierter Ansatz benutzt, bei dem die geforderten Eigenschaften als temporallogische Formeln notiert werden. Es werden zur PrĂŒfung der Eigenschaften unterschiedliche Techniken zur algorithmischen Auswertung bzw. zur symbolischen Cosimulation entwickelt.Beide AnsĂ€tze sind prototypisch fĂŒr die Entwicklungsumgebung MLDesigner realisiert worden. Ausgehend von den Ergebnissen der Validierung werden AbschĂ€tzungen fĂŒr das weitere Potential der AnsĂ€tze abgeleitet. Abschließend werden die AnsĂ€tze vergleichend gegenĂŒbergestellt und bewertet

    Formatives E-Assessment in der Hochschullehre:computerunterstĂŒtzte Lernfortschrittskontrollen im Informatikstudium

    Full text link
    Der Einsatz von E-Assessment-Systemen zur computerunterstĂŒtzten DurchfĂŒhrung von Lernfortschrittskontrollen kann die EffektivitĂ€t, Effizienz und QualitĂ€t universitĂ€rer PrĂŒfungsprozesse steigern. Im Studienfach Informatik, in dem analytische, kreative und konstruktive FĂ€higkeiten zu ĂŒberprĂŒfen sind, werden solche Systeme bislang jedoch nur selten eingesetzt. In der vorliegenden Dissertation wird aufgezeigt, wie die Potenziale der ComputerunterstĂŒtzung im Übungsbetrieb der Informatik realisiert werden können. Hierzu werden zunĂ€chst wesentliche didaktische, methodische und organisatorische Grundlagen des universitĂ€ren E-Assessments skizziert und analysiert. Aufbauend werden die Entwicklung, die Funktionsweise und der Praxiseinsatz des E-Assessment-Systems EASy beschrieben, das insbesondere durch seine anspruchsvollen Aufgabenmodule zu Java-Programmieraufgaben, mathematischen Beweisen und Verifikationsbeweisen eine adĂ€quate UnterstĂŒtzung des Informatik-Übungsbetriebs ermöglicht

    Automatisierte Analyse integrierter Software-Produktlinien-Spezifikationen

    Get PDF
    Der Trend zur Digitalisierung fĂŒhrt zu neuen Anwendungsszenarien (z.B. Industrie 4.0, Internet der Dinge, intelligente Stromnetze), die laufzeitadaptive Software-Systeme erfordern, die sich durch kontinuierliche Rekonfiguration an verĂ€ndernde Umgebungsbedingungen anpassen. Integrierte Software-Produktlinien-Spezifikationen ermöglichen die prĂ€zise Beschreibung von Konsistenzeigenschaften derartiger Systeme in einer einheitlichen ReprĂ€sentation. So bietet die Spezifikationssprache Clafer sowohl Sprachmittel zur Charakterisierung der LaufzeitvariabilitĂ€t eines Systems als auch fĂŒr die rekonfigurierbaren Bestandteile der Systemarchitektur sowie komplexer AbhĂ€ngigkeiten. In Clafer-Spezifikationen werden hierzu Sprachkonstrukte aus UML-Klassendiagrammen und Meta-Modellierungssprachen zusammen mit Feature-orientierten Modellierungstechniken und Constraints in PrĂ€dikatenlogik erster Stufe kombiniert. Durch die betrĂ€chtliche AusdrucksstĂ€rke neigen derartige integrierte Produktlinien-Spezifikationen in der Praxis dazu, sehr komplex zu werden (z.B. aufgrund versteckter AbhĂ€ngigkeiten zwischen Konfigurationsoptionen und Komponenten). Sie sind daher Ă€ußerst anfĂ€llig fĂŒr Spezifikationsfehler in Form von Inkonsistenzen oder EntwurfsschwĂ€chen in Form von Anomalien. Inkonsistenzen und Anomalien mĂŒssen jedoch möglichst frĂŒh im Entwurfsprozess erkannt und behoben werden, um drastische Folgekosten zur Laufzeit eines Systems zu vermeiden. Aus diesem Grund sind statische Analysetechniken zur automatisierten Analyse integrierter Software-Produktlinien-Spezifikationen unabdingbar. Existierende AnsĂ€tze zur KonsistenzprĂŒfung erfordern, dass der Suchraum fĂŒr die Instanzsuche vorab entweder manuell oder durch heuristisch identifizierte Schranken eingeschrĂ€nkt wird. Da, falls keine Instanz gefunden werden kann, nicht bekannt ist, ob dies durch einen zu klein gewĂ€hlten Suchraum oder eine tatsĂ€chliche Inkonsistenz verursacht wurde, sind existierende Analyseverfahren inhĂ€rent unvollstĂ€ndig und praktisch nur eingeschrĂ€nkt nutzbar. DarĂŒber hinaus wurden bisher noch keine Analysen zur Identifikation von Anomalien vorgeschlagen, wie sie beispielsweise in VariabilitĂ€tsmodellen auftreten können. Weiterhin erlauben existierende Verfahren zwar die Handhabung von ganzzahligen Attributen, ermöglichen jedoch keine effiziente Analyse von Spezifikationen die zusĂ€tzlich reellwertige Attribute aufweisen. In dieser Arbeit prĂ€sentieren wir einen Ansatz zur automatisierten Analyse integrierter Software-Produktlinien-Spezifikationen, die in der Sprache Clafer spezifiziert sind. HierfĂŒr prĂ€sentieren wir eine ganzheitliche Spezifikation der strukturellen Konsistenzeigenschaften laufzeitadaptiver Software-Systeme und schlagen neuartige Anomalietypen vor, die in Clafer-Spezifikationen auftreten können. Wir charakterisieren eine Kernsprache, die eine vollstĂ€ndige und korrekte Analyse von Clafer-Spezifikationen ermöglicht. Wir fĂŒhren zusĂ€tzlich eine neuartige semantische ReprĂ€sentation als mathematisches Optimierungsproblem ein, die ĂŒber die Kernsprache hinaus eine effiziente Analyse praxisrelevanter Clafer-Spezifikationen ermöglicht und die Anwendung etablierter Standard-Lösungsverfahren erlaubt. Die Methoden und Techniken dieser Arbeit werden anhand eines durchgĂ€ngigen Beispiels eines selbst-adaptiven Kommunikationssystems illustriert und prototypisch implementiert. Die experimentelle Evaluation zeigt die EffektivitĂ€t unseres Analyseverfahrens sowie erhebliche Verbesserungen der Laufzeiteffizienz im Vergleich zu etablierten Verfahren

    Struktur, Funktion und Verhalten dynamischer Modelle der Systembiologie: formale WissensreprĂ€sentation als Grundlage fĂŒr computergestĂŒtzte Modellierung und Simulation

    Get PDF
    Das Verstehen komplexer biologischer PhĂ€nomene auf der Basis dynamischer Modelle ist ohne ComputerunterstĂŒtzung nicht möglich. Seit mehr als einem Jahrzehnt werden enorme Anstrengungen unternommen, eine Softwareinfrastruktur fĂŒr die systembiologische Modellierung und Simulation zu entwickeln. Die vorliegende Arbeit bietet den dafĂŒr notwendigen Standards, formalen Sprachen, Ontologien und auf diesen operierenden Programmen ein wissenschaftstheoretisches Fundament in Gestalt der sogenannten Wissensfacetten von Bio-Modellen. Die Wissensfacetten von Bio-Modellen stellen ein konzeptuelles Schema zur systematischen Beschreibung von Bio-Modellen, ihrer Verwendung und ihres Verhaltens dar. Dabei muss eine vollstĂ€ndige Beschreibung eines Bio-Modells seine Struktur, seine Funktion und sein Verhalten umfassen und seine intrinsische formale Semantik mit der extrinsischen biologischen Wirklichkeit in Beziehung setzen. Die formale ReprĂ€sentation der Wissensfacetten von Bio-Modellen bietet eine Grundlage fĂŒr eine umfassende ComputerunterstĂŒtzung der Modellierung und Simulation in der Systembiologie. Geleitet durch die Wissensfacetten werden existierende AnsĂ€tze fĂŒr die formale ReprĂ€sentation relevanter Wissensfragmente eingeordnet und bewertet sowie Defizite an Beschreibungsmitteln identifiziert. Ein großes Defizit liegt im Fehlen formalsprachlicher Mittel zur qualitativen Beschreibung des Verhaltens von Bio-Modellen. Im Rahmen dieser Arbeit wurde die Ontologie TEDDY entwickelt, auf deren Grundlage sich das Verhalten von Bio-Modellen propositional formalisieren lĂ€sst. TEDDY stellt eine formale begriffliche Basis der Theorie dynamischer Systeme dar. Die drei Hauptresultate der vorliegenden Arbeit sind eingebettet in grundsĂ€tzliche Betrachtungen zur Modellierung und Simulation in der Systembiologie und basieren auf allgemeinen Begriffen und Verfahren der WissensreprĂ€sentation sowie speziellen Methoden der qualitativen Beschreibung von Dynamik

    Formale Spezifikation und Synthese digitaler Schaltungen auf höheren Abstraktionsebenen

    Get PDF

    Kennzahlenbasierte Steuerung, Koordination und Aktionsplanung in Multiagentensystemen

    Get PDF
    To be of practical use, the implementation of flexible and modular agent-based cyber-physical systems (CPS) for real-world autonomous control applications in Industry 4.0 oftentimes requires the domain-specific software agents to adhere to the organization's overall qualitative and quantitative business goals, usually expressed in terms of numeric key performance indicators (KPI). In this thesis, a general software framework for multi-agent systems (MAS) and CPS is developed that facilitates the integration and configuration of KPI-related objectives into the agents' individual decision processes. It allows the user of an agent system to define new KPIs and associated multi-criteria goals and supports inter-agent coordination as well as detailed KPI-based action planning, all at runtime of the MAS. The domain-independent components of the proposed KPI framework are implemented as a Java programming library and evaluated in a simulated production planning and control scenario

    Algorithmen, Architekturen und Technologie der optoelektronischen Rechentechnik

    Get PDF
    Der Einsatz optischer Verbindungen in der Rechentechnik verspricht viele der heute bei der Kommunikation zwischen Leiterplatten und zwischen integrierten Schaltkreisen auftretende EngpĂ€sse zu lösen. Optische Verbindungen moderaler ParallelitĂ€t (10-20 KanĂ€le) zwischen Baugruppen sind, wie die Ergebnisse dieser Arbeit zeigen, mittlerweile technisch machbar. Die effiziente Nutzung optischer Verbindungen im Bereich chip-to-chip zum Aufbau eines 3-dimensionalen optoelektronischen VLSI (3-D O E-VLSI) erfordert dagegen wesentlich stĂ€rkere Eingriffe in die Architektur derzeitiger VLSI-Systeme. Aufgabe der Informatik ist einerseits die Entwicklung geeigneter Architekturen und zugehöriger Algorithmen und andererseits der Nachweis der hardwaretechnischen Machbarkeit der entwickelten Architekturkonzepte. In der Arbeit werden eine Reihe von ArchitekturvorschlĂ€gen unterbreitet, die weitgehend bis auf die Hardwareebene spezifiziert sind und teilweise in ersten Demonstrator- und Testschaltkreisen realisiert wurden. Dies betrifft ein superskalares aus Superpipelinestufen aufgebautes optoelektronisches 3-D Rechenwerk fĂŒr Ganzzahlarithmetik, einen binĂ€ren neuronalen Assoziativspeicher, figurierbare Hardwarestrukturen, eine 3-D Architektur fĂŒr alle Prozessoren, systolische Addierer und ein Architekturkonzept fĂŒr einen digitalen optoelektronischen Bildverarbeitungsprozessor. Durch theoretische Vergleiche wird der Nachweis erbracht, daß fĂŒr die genannten Architekturen durch den Einsatz eines hochdichten optischen Verbindungssystems Steigerungen der Durchsatzrate von 1-3 GrĂ¶ĂŸenordnungen gegenĂŒber rein-elektronischen Systemen möglich sind. FĂŒr den Assoziativspeicher, die rekonfigurierbare Hardware und das 3-D Rechenwerk fĂŒr Ganzzahlarithmetik wurden erste einfache OE-VLSI-Schaltkreise auf der Basis optischer Modulatoren und PN-Detektoren realisiert. Da der Entwurf solcher Systeme neue rechnergestĂŒtzte Entwurfssysteme erfordert, werden ferner die im Rahmen der Arbeit durchgefĂŒhrten Entwicklungen fĂŒr ein Simulations- und Synthesewerkzeug fĂŒr 3-D OE-VLSI-Systeme dargestellt

    UnterstĂŒtzung von PeriodizitĂ€t in Informationssystemen

    Get PDF
    In vielen Anwendungsgebieten kommt zunehmend der Wunsch auf, temporale Aspekte systemseitig zu unterstĂŒtzen. Ein solches Gebiet ist die UnterstĂŒtzung von GeschĂ€ftsprozessen durch prozessorientierte Informationssysteme. Eine große Herausforderung bildet hier die adĂ€quate Handhabung von GeschĂ€ftsprozessen, die aus regelmĂ€ĂŸig (periodisch) wiederkehrenden elementaren AktivitĂ€ten oder Abfolgen von AktivitĂ€ten bestehen. Die systemseitige UnterstĂŒtzung solcher periodischen Prozesse bzw. periodischen Spezifikationen (PeriodizitĂ€t) weist Anforderungen auf, die weit ĂŒber die temporalen FĂ€higkeiten heutiger Informationssysteme hinausgehen. Gegenstand dieser Arbeit ist die Entwicklung eines ganzheitlichen Ansatzes zur integrierten UnterstĂŒtzung von PeriodizitĂ€t in (prozessorientierten) Informationssystemen. Das zentrale Anliegen ist hierbei, Konzepte und Modelle zu entwickeln, die als Basistechnologien zur UnterstĂŒtzung periodischer ZusammenhĂ€nge in unternehmensweiten (prozessorientierten) Informationssystemen (auch bei tausenden von Benutzern und aktiven Prozess-Instanzen), wesentlich sein werden. In dieser Arbeit wird mit dem zyklenorientierten Modell ein logisches (Meta-) Zeitmodell eingefĂŒhrt, das eine ausdrucksstarke und anwenderorientierte Beschreibung von komplexen periodischen Spezifikationen ermöglicht. Neben einfachen (Ă€quidistanten) periodischen Angaben können auch komplexe (nichtĂ€quidistante) periodische Angaben beschrieben werden. Des Weiteren wird mit dem HSP-Baum eine kompakte und berechenbare ReprĂ€sentationsform des (theoretischen) zyklenorientierten Modells vorgestellt. Der HSP-Baum bildet mit seiner prĂ€zisen formalen Syntax und Semantik die Grundlage dafĂŒr, dass semantisch falsche, inkonsistente oder widersprĂŒchliche Angaben erkannt und korrigiert werden können. Zur Steigerung der temporalen FĂ€higkeiten heutiger Informationssysteme ist eine operationale UnterstĂŒtzung unumgĂ€nglich, die einen effizienten Umgang mit periodischen Spezifikationen ermöglicht. Mit der in dieser Arbeit entwickelten BitletreprĂ€sentation wird ein entsprechender Lösungsansatz vorgestellt. Die BitletreprĂ€sentation begegnet dem Hauptproblem bestehender Realisierungsverfahren, das zu einem starken Anstieg sowohl des operationalen Aufwands als auch des ReprĂ€sentationsumfangs fĂŒhrte. DarĂŒber hinaus kann die BitletreprĂ€sentation als eine Form der (verlustfreien) Komprimierung von Wiederholungsmustern verstanden werden, was zu Ă€ußerst kompakten ReprĂ€sentationen periodischer Spezifikationen fĂŒhren kann. Insgesamt erlauben die entwickelten Lösungen und Algorithmen eine durchgĂ€ngige UnterstĂŒtzung periodischer ZusammenhĂ€nge. Auf Basis prototypischer Realisierungen können wir ebenfalls zeigen, dass die Skalierbarkeit und Effizienz der Lösungen auch bei großem Datenvolumen gewĂ€hrleistet wird

    Computerexperimente: Zum Wandel der Wissenschaft im Zeitalter des Computers

    Get PDF
    Seit der EinfĂŒhrung des Computers als Forschungs-, Experimentier- und Prognoseinstrument erleben die Wissenschaften einen tief greifenden Wandel. Nicht nur die Praktiken und Infrastrukturen wissenschaftlichen Arbeitens verĂ€ndern sich, sondern auch die Logik der Forschung unterliegt einer grundlegenden Transformation. Neben Theorie, Experiment und Messung eröffnen Computerexperimente ein neues Feld der Wissensproduktion und verĂ€ndern radikal die Experimentalkultur der Naturwissenschaften. Am Beispiel der Klimaforschung rekonstruiert das Buch diesen Wandel der Wissenschaften »from science to computational sciences«
    corecore