11 research outputs found

    Timed petri-nets and FastAsy

    Get PDF
    Die Arbeit führt eine spezielle Klasse von zeitbeschrifteten Petri-Netzen mit Read-Arcs ein. Wir stellen darauf basierend einen Effizienzbegriff vor und verwenden ein Testing-Szenario, um zu einer Charakterisierung des Begriffs zu gelangen. Wir zeigen weiter eine Methode auf, zeitbehaftete Erreichbarkeitsgraphen effizient zu speichern. Die Ausdrucksmächtigkeit verschiedener Untertypen der Netze werden untersucht. Zuletzt stellen wir unsere Software FastAsy vor, die automatisiert die Effizienz solcher Netze vergleichen kann.This work introduces a special class of timed petri-nets with read-arcs. Based on this, we present a notion of efficiency and then use a testing scenario to provide a means of characterization. Furthermore we show a method for efficient storage of timed reachability graphs. The expressiveness of different subtypes of our nets is discussed. Last we present our software FastAsy which can automatically compare the efficiency of such nets

    Formale Verifikation digitaler Systeme mit Petrinetzen

    Get PDF
    Die Arbeit beschäftigt sich mit dem Entwurf und der Verifikation digitaler Systeme. Ziel ist die Modellierung und formale Verifikation digitaler Systeme mit Petrinetzen auf funktionaler Ebene. Im ersten Teil der Arbeit wird eine petrinetz-basierte Hardware-Entwurfsmethodik vorgeschlagen. Petrinetze werden als Beschreibungsmittel für digitale Systeme und als Werkzeug für deren Simulation, Validierung, Analyse und Verifikation genutzt. Die formale Verifikation eines Petrinetz-Modells wird mit der Methode der Eigenschaftsprüfung realisiert

    Effizienter Entwurfsfluss durch neue Verfahren der Logiksynthese und Technologieabbildung von VHDL-Hardwarebeschreibungen

    Get PDF
    Neben der tatsächlichen Leistungsfähigkeit von Synthesewerkzeugen hinsichtlich Synthesegeschwindigkeit und Güte der produzierten Ergebnisse ist auch die durch den Benutzer notwendige Interaktion zur Erzeugung eines befriedigenden Produktes ein wichtiger Faktor bei der Frage, wie schnell eine vorgegebene Aufgabe umgesetzt werden kann (Time to Market). Zwei grundlegende Designschwächen bestehender Synthesewerkzeuge werden untersucht, welche eine permanente Aufmerksamkeit seitens des Entwicklers erfordern. Die erste Designschwäche betrifft die automatische Logiksynthese. Sie kann zu einem unterschiedlichen Verhalten der generierten Schaltung im Vergleich zu einer vorher durchgeführten Simulation führen. Diese Synthesefehler sind oft nur schwer zu erkennen. Die Vermeidung solcher Fehler seitens des Entwicklers ist nur bei der strengen Einhaltung eines gegebenen Coding-Styles möglich. Dieser wird von den meisten Werkzeugen nur oberflächlich geprüft und verkompliziert zusätzlich die Beschreibung bestimmter Baugruppen erheblich. Es werden die Ursachen für dieses Verhalten beschrieben und ein alternatives vom Coding-Style unabhängiges Logiksyntheseverfahren "SibaS" (Simulation-based-Synthesis) vorgestellt. Dieses Verfahren verwendet, insbesondere bei der Synthese von sequentiellen Schaltungen, einen anderen Ansatz als aktuelle VHDL-Syntheseverfahren. Im Gegensatz zu diesen wird dabei nicht versucht, aus der Struktur der beschriebenen Schaltung auf den Schaltungstyp zu schließen, stattdessen wird die zu übersetzende Beschreibung einer speziellen Simulation unterworfen und anhand der Ergebnisse eine entsprechende Schaltung generiert. Die zweite Designschwäche betrifft die Schnittstelle zwischen Logiksynthese und Technologieabbildung. Die Verwendung von VHDL an dieser Stelle erlaubt zwar die beliebige Kombination von Werkzeugen, führt aber zum Verlust abstrakter Designinformation, wie z. B. von arithmetischen Strukturen, was durch den Einsatz zusätzlicher Werkzeuge und damit verbundener Entwicklungszeit ausgeglichen werden muss. Die Integration von Logiksynthese und Technologieabbildung ermöglicht es, eine neue Schnittstelle "A-RTL" (Arithmetic-RTL) zu schaffen, um diese abstrakten Informationen zu bewahren und innerhalb der Technologieabbildung "ALTeM" (Arithmetic and Logic Technology Mapping) zu nutzen. Die entwickelten Verfahren wurden innerhalb einer beispielhaften Implementierung eines kompletten Synthesewerkzeugs "Square-Dance" integriert und untersucht. Im Vergleich zu den verfügbaren VHDL-Synthesewerkzeugen zeichnet sich Square-Dance durch eine fehlerfreie Synthese, unabhängig vom verwendeten Coding-Style, und die Möglichkeit der unmittelbaren Generierung effizienter arithmetischer Strukturen aus

    Modellbasierte Entwicklung und Optimierung flexibler zeitgesteuerter Architekturen im Fahrzeugserienbereich

    Get PDF

    Räumliche Optimierung der Bestandesstruktur unter Berücksichtigung von Einzelbaumeffekten

    Get PDF
    In dieser Dissertation werden erstmals Kenntnisse über ökologische Felder von Einzelbäumen mit Methoden der räumlichen Optimierung kombiniert, um ein Werkzeug zu schaffen, mit dem Empfehlungen für die Strukturierung von Beständen erarbeiten werden können. Dabei waren drei unterschiedliche waldbauliche Problemstellungen Ausgangspunkt der Arbeit. Die ausführliche Beschreibung der Probleme führte zur Ableitung eines allgemeinen Optimierungsproblems, das nach optimalen Stammverteilungsplänen bzgl. verschiedener, waldbaulicher Zielsetzungen sucht. Der erster Schwerpunkt war die mathematische Herleitung der Zielgrößen. Hierbei wurde die Idee der Einzelbaumeffekte und das Konzept der ökologischen Felder verwendet, um die Zielgrößen aus den Einzelbaumeffekten zu entwickeln. Der zweite Schwerpunkt umfasste die Suche nach einem geeigneten Optimierungsmodell, mit dem die Horizontalstruktur eines Bestandes basierend auf weitreichenden, stetigen Einzelbaumeffekten räumlich optimiert werden konnte. Der gegebene Überblick zum Stand der Forschung bzgl. der räumlichen Optimierung in der Forstwissenschaft zeigte auf, dass nur Teilaspekte des allgemeinen Optimierungsproblems bisher modelliert worden sind. Von den vier daraufhin neu entwickelten Optimierungsmodellen wurden ein kontinuierliches und ein diskretes Modells nach der Auswertung der Eigenschaften weiterverwendet. Die Bewertung von verschiedenen, vorgestellten Nachbarschaftsdefinitionen und Varianten von lokalen Suchverfahren, Meta- und Hybridheuristiken führte zur Verwendung von k-opt für das diskrete Optimierungsmodell, von Compass Search für das kontinuierliche Optimierungsmodell und von Threshold Accepting und Iterated Local Search für beide Modelle. Für alle drei Optimierungsprobleme wurden jeweils zwei Tests je Algorithmus mit einer in C++ implementierten Optimierungssoftware durchgeführt. Beim ersten Test sollten in kurzer Zeit wiederholt gute Lösungen berechnet werden, während im zweiten Test wesentlich mehr Funktionswertberechnungen zur Verfügung standen, um eine sehr gute Lösung zu erhalten. Die Auswertung der Testrechnungen zeigte, dass das diskrete Optimierungsmodell dem kontinuierlichen Modell außer bei einem geringen Bestockungsgrad des Bestandes vorzuziehen ist. Die Zielfunktionsdefinitionen hatten wesentlichen Einfluss auf die Lösungen, vor allem bei gegenläufigen Zielen. Sehr gute Lösungen wiesen dabei charakteristische Verteilungsschemata der Baumpositionen auf, die nur durch eine Optimierung und nicht durch das wiederholte, zufällige Verteilen von Bäumen gefunden werden konnten. Für das diskrete Modell lieferte Threshold Accepting vor 2-opt und Iterated Local Search fast immer die besten Ergebnisse. 4-opt war immer deutlich schlechter als die anderen Algorithmen. Threshold Accepting berechnete sowohl sehr schnell gute Lösungen und als auch die besten Lösungen, wenn eine intensive Suche mit sehr vielen Funktionswertberechnungen möglich war

    Entwicklung von Klassifikatoren zur Analyse und Interpretation zeitvarianter Signale und deren Anwendung auf Biosignale

    Get PDF
    Die Auswertung von Zeitreihen mit Hilfe von Data-Mining Verfahren ist häufig durch zeitvariante Änderungen der Zeitreihen erschwert. Zur Verbesserung der Ergebnisse bei solchen Datensätzen wird in der vorliegenden Arbeit die gezielte Ausnutzung von zeitlichen Informationen beim Entwurf und der Anwendung von Klassifikatoren für Zeitreihen vorgeschlagen. Durch die neuen Verfahren können die Klassifikatoren nicht nur bessere Ergebnisse erzielen, sondern sind auch robuster gegenüber Störungen

    Emulator- und kostenbasierte Analyse von Network-on-Chip

    Get PDF
    Die Komplexität der Kommunikation auf aktuellen und zukünftigen Multi-Kern System on Chip ist mit gängigen Kommunikationsarchitekturen wie Bussen oder Punkt-zu-Punkt Verbindungen kaum zu beherrschen. Network-on-Chip (NoC) stellen eine mögliche Lösung dieses Problems dar. Im Rahmen dieser Arbeit wurde ein modulares und parametrisierbares Network-on-Chip entwickelt. Dies unterstütze eine Vielzahl von NoC-Parametern wie zum Beispiel Topologie, Routing Algorithmus und Vermittlungstechnik. Die erstellte VHDL Bibliothek für NoC ermöglicht die automatische Generierung von NoC-Beschreibungen in VHDL. Für die Untersuchung der Performance, Fläche und Verlustleistung der modellierten NoC wurden exemplarische VLSI-Implementierungen der NoC-Komponenten mit Hilfe von Standardzellen erstellt. Zur Reduzierung der Kosten und Steigerung der Performance sind physikalisch optimierte Kernkomponenten in Kombination mit Standardzellen verwendet worden. Dies reduziert die Kosten der NoC-Implementierungen signifikant wobei die Parametrisierbarkeit erhalten bleibt. Die Kosten für die NoC-Komponenten in Abhängigkeit der NoC-Parameter wurden mit mathematischen Modellen beschrieben. Diese Modelle erlauben die Abschätzung der zu erwartenden Kosten schon in frühen Entwurfsphasen. Neben den Kosten, die durch ein NoC verursacht werden, ist die Bestimmung der Performance eines NoCs wichtig. Es wurden verschiedene Techniken (z.B. Simulation auf unterschiedlichen Abstraktionsebenen, Emulation auf einem FPGA) implementiert, um die Performance von NoC zu bestimmen. Die Erweiterung der NoC-Beschreibung um weitere Bibliotheken zur Simulation mit SystemC und Colored-Petri-Nets, einer Emulation auf einem FPGA und der statischen Analyse ermöglichten einen Vergleich und eine Bewertung dieser Techniken. Die Analyse-Techniken wurden den unterschiedlichen Phasen im Entwurfs-prozess von NoC zugeordnet. Durch die Vielzahl an NoC-Parametern ist der Entwurf eines optimalen NoC sehr komplex und aufwändig. Die Erkenntnisse dieser Arbeit wurden in einer Entwurfsmethodik zusammengeführt. Dieses Spiral-Modell ermöglicht eine effiziente, automatisierte Implementierung von NoC. Bei dem Vergleich der implementierten NoC-Komponenten mit Beispielen aus der Literatur konnte die Effizienz und Leistungsfähigkeit gezeigt werden. Für Anwendungsbeispiele aus der Literatur und zufälligen Datenverkehr konnte der Entwurfsraum für NoC erfolgreich untersucht und jeweils Pareto-optimale NoC identifiziert werden. Die Analyse des Kommunikationsverhalten eines realen Multi-Core Prozessors mit 61 Prozessorkernen und Abbildung auf den FPGA-basierten Emulator für NoC zeigen, dass die vorgestellte Methodik grundsätzlich gut für den Entwurf und die Analyse von NoC geeignet ist

    Mensch-Computer-Interface: Zur Geschichte und Zukunft der Computerbedienung

    Get PDF
    Die gegenwärtige Interface-Krise bei digitalen Medien nehmen Informatiker und Informatikhistoriker in diesem Band zum Anlass für eine Langzeitbilanz der Mensch-Computer-Interaktion. Sie legen sowohl Gesamtüberblicke der Entwicklung aus technik- und geistesgeschichtlicher Sicht vor als auch spezielle Studien zur Bedienproblematik einzelner Epochen. Dadurch entsteht ein großer Bogen von den Bedienschnittstellen der frühen Mainframe-Welt über die interaktiven PC-Interfaces bis zu den neuesten Entwicklungen des Wearable Computing und der proaktiven Ambient Intelligence. Die historisch-genetischen Analysen münden in theoretische Betrachtungen und kritische Rückblicke auf die Forschung zu Mensch-Computer-Interfaces sowie Ausblicke auf die Zukunft

    Dynamische Ablaufänderungen in Workflow-Management-Systemen

    Get PDF
    Workflow-Management-Systeme (WfMS) unterstützen die elektronische Abwicklung von Arbeitsprozessen (engl. Workflow). Heutige WfMS erzwingen meist die starre Ausführung des vormodellierten Workflow, d.h. von dem einmal geplanten Ablauf kann zur Ausführungszeit nicht oder nur unter erheblichen Problemen abgewichen werden. Einerseits ist dadurch die praktische Tauglichkeit dieser Systeme stark eingeschränkt, andererseits darf die Unterstützung von Ad-hoc-Abweichungen zur Laufzeit (z.B. dynamisches Hinzufügen, Löschen oder Überspringen von Arbeitsschritten) aber nicht dazu führen, daß es im weiteren Verlauf der Workflow-Ausführung zu Konsistenzproblemen (z.B. Lost Updates) oder gar Fehlern (z.B. Aufruf von Anwendungskomponenten mit fehlenden Parameterdaten) kommt. Dies sicherzustellen, wird mit zunehmender Komplexität und Ausdrucksmächtigkeit des verwendeten Workflow-Beschreibungsformalismus (Workflow-Metamodell) jedoch immer schwieriger

    Netzwerk-Management und Hochgeschwindigkeits- Kommunikation. Teil XIII

    Get PDF
    Der Interne Bericht enthaelt die Beitraege zum Seminar "Netzwerk-Management und Hochgeschwindigkeits-Kommunikation", das im Wintersemester 1995/96 zum 13. Mal stattgefunden hat. Die Themenauswahl kann grob in folgende fuenf Bloecke gegliedert werden: 1 - Der erste Block befasst sich mit der Problematik, unterschiedliche Dienste und damit auch verschiedene Anforderungen an die zu erbringende Dienstqualitaet in ein Kommunikationssubsystem zu integrieren. 2 - Im zweiten Block wird das Management von FDDI-Netzen naeher untersucht, wobei besonderes Augenmerk auf der Unterstuetzung von isochronem Datenverkehr liegt. 3 - Der dritte Block befasst sich mit aktuellen Problemen aus dem Bereich der Mobilkommunikation, insbesondere der Wegewahl in Mobil-Netzen. 4 - Im Zentrum des vierten Blocks steht das Internet und dessen Migration hin zu ATM. Dabei spielen vor allem Gruppenkommunikation und Dienstelokalisierung eine grosse Rolle. 5 - Der letzte Block schliesslich stellt die Verwaltung von ATM-Netzen in den Mittelpunkt, indem verschiedene Normungsvorschlaege zu diesem Thema ausgefuehrt werden
    corecore