5 research outputs found

    Modellierung und Verifikation von verteilten/parallelen Informationssystemen

    Get PDF
    Petri nets are used in many fields as modelling technique. The different usage areas and modelling objectives require different classes of Petri nets. Powerful high level Petri nets and especially coloured Petri nets are well suited for describing behavior of distributed information systems in order to verify and analyse them. Extended coloured Petri nets with structured marks are presented in this work. An example is used in order to demonstrate the analysis and verification steps. This example algorithm is modeled with extended coloured Petri nets (HCPN-ST). It is transformed into coloured Petri nets, in order to simulate, analyse and verify the method with existing software tools. The model is simulated and analysed with PENECA Chromos tool, although it cannot verify all properties, but it allows to interoperate with INA tool. The remainder of the analysis and verification is done in the INA tool. The above mentioned steps are extended and integrated into the complete analysis process and the verification methodology. Finally, the need and motivation for the extension of dynamic approaches modelling for the analysis of distributed information system is elaborated to accomplish the goal of the work. We succeed to validate, that the extended formal method is an effective method to model and analyse distributed information systems.Petrinetze werden in vielen Bereichen als Modellierungstechnik verwendet. Die verschiedenen Einsatzgebiete und Modellierungsziele erfordern mittel unterschiedliche Typen von Petrinetzen. Die höheren Petrinetze eignen sich gut zur Formalisierung des Verhaltens verteilter Informationssysteme zum Zweck der Verifikation und Analyse. Eine Klasse erweiterter gefärbte Petrinetze (HCPN-ST) mit strukturierten Marken wird in dieser Arbeit vorgestellt und am Beispiel erläutert. An diesem konkreten Modell wird die Analyse und Verifikation demonstriert. Das Beispiel-Algorithmenmodell wird in ein CPN transformiert. Der Algorithmus der Transformation wird vorgestellt. Diese Transformation wird durchgeführt, um die erweiterte Methode mit Software -Tools zu analysieren und verifizieren. Mit Peneca Chromos wird das Modell editiert und simuliert und einige Eigenschaften werden analysiert. Die weitere Analyse und Verifikation erfolgt mit dem Tool INA. Es folgt die Erweiterung und Integration in den gesamten Analyseprozess und die Verifikationsmethodik. Abschließend wird die Notwendigkeit und Motivation zur Erweiterung von dynamischen Modellierungsansätzen für die Analyse von verteilten Informationssystemen behandelt und damit die Zielstellung der Arbeit erreicht

    Management und IT: Tagungsband zur AKWI-Fachtagung vom 16. bis 18.09.2012 an der Hochschule Pforzheim

    Get PDF
    Wirtschaftsinformatik befasst sich mit allen Themen, die an der Schnittstelle zwischen Informatik und Betriebswirtschaft anzutreffen sind. So geht es in der Wirtschaftsinformatik – basierend auf dem Wissen und dem Verstehen der betriebswirtschaftlichen Konzepte und Anwendungen – insbesondere darum, IT-Systeme für die betriebliche Praxis zu entwickeln, einzuführen und zu betreiben. Eine wissenschaftliche Fachtagung, die den Titel „Management und IT“ trägt, setzt an einer solchen Beschreibung der Wirtschaftsinformatik an

    Prozedurale Anforderungen an die maschinelle Sprachverarbeitung : Workshop während der Jahrestagung KI-94 Saarbrücken

    Get PDF
    Die Verarbeitung gesprochener Sprache stellt besondere Anforderungen an die Architektur und die Gestaltung einzelner Komponenten in Systemen zur maschinelle Sprachverarbeitung Der Workshop thematisiert die Konsequenzen, die sich aus der Forderung nach inkrementeller und zeitsynchroner Verarbeitung, sowie aus der inhärenten Unsicherheit bei der Interpretation des Sprachsignals ergeben. Sprachliche Kommunikation, insbesondere in natürlichen Dialogsituationen, unterliegt einer Reihe von einschneidenden prozeduralen Anforderungen. Solche Anforderungen ergeben sich zum einen aus der strikten Bindung von Sprachperzeption und -produktion an die zeitliche Dimension des Sprachsignals. Die prinzipielle Begrenztheit der menschlichen (und maschinellen) Verarbeitungskapazität setzt hierbei zwangsläufig eine hocheffiziente Organisation der Verarbeitungsprozesse voraus, um auch unter dem Einfluß von Streßfaktoren ein Schritthalten der Verarbeitung mit den Erfordernissen der jeweiligen Kommunikationssituation gewährleisten zu können. Prozedurale Anforderungen resultieren zum anderen aus der erheblichen intra- und interindividuellen Varianz des Sprachsignals. Sie stellt eine wesentliche Quelle von Erkennungsunsicherheit dar und hat zur Folge, dass jedwede interpretierende Beschreibung des sprachlichen Inputs nur Hypothesencharakter tragen kann. Im Bereich der Schriftsprache ist die Zeitdimension auf Anordnungsrelationen zwischen sprachlichen Zeichen reduziert. Erkennungsunsicherheit spielt - zumindest bei der tastaturgebundenen Eingabe - keine entscheidende Rolle. Nur aufgrund dieser Abstraktionen ist es letztendlich auch möglich, eine Verarbeitungsaufgabe vollständig auf der Basis rein deklarativer Spezifikationen zu beschreiben und von einem kombinatorischen und atemporalen Deduktionsmechanismus verarbeiten zu lassen. Wenn nunmehr in diesem Workshop gerade die prozeduralen Aspekte der zeitlichen Strukturierung und der Verwaltung konkurrierender Hypothesen in den Mittelpunkt gestellt werden, so versteht sich das keineswegs als Absage an die Verwendung deklarativer Repräsentationsformalismen. Vielmehr wird hierbei gerade zu klären sein, auf welche Weise deklarative Spezifikationen in eine geeignete Verarbeitungsarchitektur eingebetet werden können, um auf dieser Grundlage die gewünschten Verarbeitungscharakteristika zu erzielen. Als Ausgangspunkt, Vergleichsmaßstab und Inspirationsquelle bietet sich naturgemäß das menschliche Vorbild an, ist es doch bisher einzig der Mensch der über Sprachverarbeitungskapazitäten der angestrebten Art verfügt. Eine wesentliche Eigenschaft natürlicher Sprachverarbeitung ist ihre Inkrementalität. Teilabschnitte einer sprachlichen Äußerung werden dabei auf den verschiedenen Ebenen zeitlich parallel und praktisch verzögerungsfrei bearbeitet Insbesondere schließt inkrementelle Verarbeitung ausdrücklich das traditionell dominierende Verarbeitungsmodell aus, das vom Vorliegen vollständiger Eingabedaten schon bei Verarbeitungsbeginn ausgeht. Zum einen ermöglicht erst eine inkrementelle Verarbeitung ein natürliches Dialogverhalten, das sich etwa durch unmittelbare Reaktionen auf die Beiträge der Dialogpartner, sowie die Fähigkeit zur Übernahme der Dialoginitiative auszeichne. Zum anderen ist sie Voraussetzung für die dynamische Generierung von Diskurserwartungen, dem wohl wirksamsten Mittel zur Suchraumbeschränkung beim Sprachverstehen. Die Forderung nach inkrementeller Verarbeitung besteht für ein Sprachverarbeitungssystem in seiner Gesamtheit Inkrementalität kann in ihren Vorzügen nur dann voll zur Wirkung kommen, wenn sie auf allen Ebenen des Verarbeitungsprozesses durchgängig realisiert ist. Nicht zuletzt aus diesem Grunde sind auf dem Workshop Beiträge zu inkrementellen Verfahren in so unterschiedlichen Bereichen wie der Worterkennung, der syntaktischen Analyse und der Generierung vertreten. Menschliche Sprachverarbeitung verläuft in ihren wesentlichen Zügen zeitsynchron. Eine solche Forderung auch auf maschinelle Sprachverarbeitungssysteme zu übertragen, scheint auf den ersten Blick nahe liegend, ist aber angesichts der kombinatorischen Eigenschaften der üblichen Verarbeitungsalgorithmen durchaus nicht selbstverständlich und schon gar nicht trivial. Die Anpassung der Verarbeitungsprozesse an den aktuell gegebenen zeitlichen Verarbeitungsdruck erfordert ein explizites und zeitsensitives Scheduling für die vorhandenen Verarbeitungskapazitäten Fragen der Aufmerksamkeitsfokussierung und des systematischen Vergessens von Teilergebnissen werden zwangsläufig eine wichtige Rolle spielen. Grundlage dafür sind Relevanzabschätzungen, die mit der erforderlichen Zuverlässigkeit wiederum nur vor dem Hintergrund von aussagekräftigen Diskurserwartungen getroffen werden können. Zu all diesen Fragestellungen befindet sich die Forschung noch ganz am Anfang

    Prozedurale Anforderungen an die maschinelle Sprachverarbeitung : Workshop während der Jahrestagung KI-94 Saarbrücken

    Get PDF
    Die Verarbeitung gesprochener Sprache stellt besondere Anforderungen an die Architektur und die Gestaltung einzelner Komponenten in Systemen zur maschinelle Sprachverarbeitung Der Workshop thematisiert die Konsequenzen, die sich aus der Forderung nach inkrementeller und zeitsynchroner Verarbeitung, sowie aus der inhärenten Unsicherheit bei der Interpretation des Sprachsignals ergeben. Sprachliche Kommunikation, insbesondere in natürlichen Dialogsituationen, unterliegt einer Reihe von einschneidenden prozeduralen Anforderungen. Solche Anforderungen ergeben sich zum einen aus der strikten Bindung von Sprachperzeption und -produktion an die zeitliche Dimension des Sprachsignals. Die prinzipielle Begrenztheit der menschlichen (und maschinellen) Verarbeitungskapazität setzt hierbei zwangsläufig eine hocheffiziente Organisation der Verarbeitungsprozesse voraus, um auch unter dem Einfluß von Streßfaktoren ein Schritthalten der Verarbeitung mit den Erfordernissen der jeweiligen Kommunikationssituation gewährleisten zu können. Prozedurale Anforderungen resultieren zum anderen aus der erheblichen intra- und interindividuellen Varianz des Sprachsignals. Sie stellt eine wesentliche Quelle von Erkennungsunsicherheit dar und hat zur Folge, dass jedwede interpretierende Beschreibung des sprachlichen Inputs nur Hypothesencharakter tragen kann. Im Bereich der Schriftsprache ist die Zeitdimension auf Anordnungsrelationen zwischen sprachlichen Zeichen reduziert. Erkennungsunsicherheit spielt - zumindest bei der tastaturgebundenen Eingabe - keine entscheidende Rolle. Nur aufgrund dieser Abstraktionen ist es letztendlich auch möglich, eine Verarbeitungsaufgabe vollständig auf der Basis rein deklarativer Spezifikationen zu beschreiben und von einem kombinatorischen und atemporalen Deduktionsmechanismus verarbeiten zu lassen. Wenn nunmehr in diesem Workshop gerade die prozeduralen Aspekte der zeitlichen Strukturierung und der Verwaltung konkurrierender Hypothesen in den Mittelpunkt gestellt werden, so versteht sich das keineswegs als Absage an die Verwendung deklarativer Repräsentationsformalismen. Vielmehr wird hierbei gerade zu klären sein, auf welche Weise deklarative Spezifikationen in eine geeignete Verarbeitungsarchitektur eingebetet werden können, um auf dieser Grundlage die gewünschten Verarbeitungscharakteristika zu erzielen. Als Ausgangspunkt, Vergleichsmaßstab und Inspirationsquelle bietet sich naturgemäß das menschliche Vorbild an, ist es doch bisher einzig der Mensch der über Sprachverarbeitungskapazitäten der angestrebten Art verfügt. Eine wesentliche Eigenschaft natürlicher Sprachverarbeitung ist ihre Inkrementalität. Teilabschnitte einer sprachlichen Äußerung werden dabei auf den verschiedenen Ebenen zeitlich parallel und praktisch verzögerungsfrei bearbeitet Insbesondere schließt inkrementelle Verarbeitung ausdrücklich das traditionell dominierende Verarbeitungsmodell aus, das vom Vorliegen vollständiger Eingabedaten schon bei Verarbeitungsbeginn ausgeht. Zum einen ermöglicht erst eine inkrementelle Verarbeitung ein natürliches Dialogverhalten, das sich etwa durch unmittelbare Reaktionen auf die Beiträge der Dialogpartner, sowie die Fähigkeit zur Übernahme der Dialoginitiative auszeichne. Zum anderen ist sie Voraussetzung für die dynamische Generierung von Diskurserwartungen, dem wohl wirksamsten Mittel zur Suchraumbeschränkung beim Sprachverstehen. Die Forderung nach inkrementeller Verarbeitung besteht für ein Sprachverarbeitungssystem in seiner Gesamtheit Inkrementalität kann in ihren Vorzügen nur dann voll zur Wirkung kommen, wenn sie auf allen Ebenen des Verarbeitungsprozesses durchgängig realisiert ist. Nicht zuletzt aus diesem Grunde sind auf dem Workshop Beiträge zu inkrementellen Verfahren in so unterschiedlichen Bereichen wie der Worterkennung, der syntaktischen Analyse und der Generierung vertreten. Menschliche Sprachverarbeitung verläuft in ihren wesentlichen Zügen zeitsynchron. Eine solche Forderung auch auf maschinelle Sprachverarbeitungssysteme zu übertragen, scheint auf den ersten Blick nahe liegend, ist aber angesichts der kombinatorischen Eigenschaften der üblichen Verarbeitungsalgorithmen durchaus nicht selbstverständlich und schon gar nicht trivial. Die Anpassung der Verarbeitungsprozesse an den aktuell gegebenen zeitlichen Verarbeitungsdruck erfordert ein explizites und zeitsensitives Scheduling für die vorhandenen Verarbeitungskapazitäten Fragen der Aufmerksamkeitsfokussierung und des systematischen Vergessens von Teilergebnissen werden zwangsläufig eine wichtige Rolle spielen. Grundlage dafür sind Relevanzabschätzungen, die mit der erforderlichen Zuverlässigkeit wiederum nur vor dem Hintergrund von aussagekräftigen Diskurserwartungen getroffen werden können. Zu all diesen Fragestellungen befindet sich die Forschung noch ganz am Anfang

    Probabilistic environment perception for driver assistance systems

    Get PDF
    Viele aktuelle Fahrerassistenzsysteme wie beispielsweise die adaptive Geschwindigkeitsregelung, Spurwechselassistenten und Systeme zur Anhaltewegverkürzung sind auf eine verlässliche Detektion anderer Verkehrsteilnehmer und Hindernisse angewiesen. Zukünftige Assistenzsysteme wie beispielsweise Systeme für das Automatische Fahren erhöhen diese Zuverlässigkeitsanforderung weiter. Die Dissertation befasst sich mit der statistisch genauen Bewertung von Objekthypothesen innerhalb einer Sensordatenfusion, welche aus Messdaten gewonnen wurden. Für jede Hypothese wird eine Wahrscheinlichkeit bestimmt, welche angibt, ob diese vom Fahrerassistenzsystem berücksichtigt werden muss. Hierbei werden widersprüchliche Messdaten systematisch in probabilistischen Modellen aufgelöst, wobei zur Approximation der Wahrscheinlichkeitsdichtefunktion geeignete Modelle aus dem Bereich des Maschinellen Lernens eingesetzt werden. Als Ergebnis erhält man einen Schätzer, der eine präzise Relevanzwahrscheinlichkeit für beliebige Objekthypothesen erzeugt, sodass das Fahrerassistenzsystem frühzeitig und angemessen auf ein aktuelles Umfeld reagieren kann. Neben dem Objekthypothesenmodell ist als zweiter Typ von Umfeldmodellen das Belegungsgitter verbreitet, welches den Raum um das Fahrzeug in Zellen diskretisiert. Die Messdaten werden mit den jeweiligen örtlich zugehörigen Zellen assoziiert und deren Zustand wird aktualisiert. Als Ergebnis erhält man eine Menge von Zellen mit unterschiedlichen Zuständen, die beispielsweise die Überfahrbarkeit repräsentieren. Die Dissertation entwickelt formale Eigenschaften, die Fusions- und Abfragealgorithmen aufweisen müssen, um eine statistisch belastbare Aussage über die Befahrbarkeit eines aus vielen Zellen bestehenden Korridors liefern zu können. Zusätzlich werden exemplarische Algorithmen entwickelt, die diese Eigenschaften berücksichtigen und somit eine präzisere Schätzung als bekannte Ansätze erlauben.Many of today's driver assistance systems, like adaptive cruise control, lane change assistant or collision avoidance and mitigation systems require a reliable perception of other traffic participants and obstacles. Future driver assistance systems like automatic driving will further increase the requirement of a reliable environment perception. This thesis deals with the validation of object hypotheses that are generated on the base of measurements inside a sensor data fusion software. A statistically accurate probability of each object hypothesis is generated, which indicates if it should be considered by the driver assistance system. Contradictory data will be resolved systematically using probabilistic models. To approximate the underlying probabilistic density function, proper Machine Learning algorithms are used. As a result, an estimator can be presented that generates a accurate relevance probability for every object hypothesis. Driver assistance systems can now react more early and more adequately to the current environment. Beside the object model, a second type of environment model is common: The occupancy grid discretises the space around the vehicle into cells, in which each of them contains a cell state. These cell states are updated with measurements that can be associated with the cell's position. As a result, a set of cell states is generated that may represent, for instance, their trafficability. To provide a trafficability estimation of a corridor consisting of many cells, formal mathematical standards are developed. These standards must be considered from both fusion and query algorithms to perform a statistically correct estimation. Additionally, exemplary algorithms with these features are developed which can do a more accurate estimation than common approaches
    corecore