27 research outputs found

    Engineering wissensbasierter Navigation und Steuerung autonom-mobiler Systeme

    Get PDF
    Die autonome Steuerung mobiler, technischer Systeme in nicht exakt vorherbestimmbaren Situationen erfordert Methoden der autonomen Entscheidungsfindung, um ein planvolles, zielgerichtetes Agieren und Reagieren unter Echtzeitbedingungen realisieren zu können. Während mittels mathematischer Formeln Basisverhalten, wie beispielsweise in einer Geradeausbewegung, einer Drehung, bei einem Abbremsen, und in Gefahrenmomenten schnelle Reaktionen, berechnet werden, benötigt man auf der anderen Seite ein Regelsystem, um darüber hinaus "intelligentes", d.h. situationsangepaßtes Verhalten zu produzieren und gleichzeitig im Hinblick auf ein Missionsziel planvoll agieren zu können. Derartige Regelsysteme müssen sich auf einer abstrakten Ebene formulieren lassen, sollen sie vom Menschen problemlos entwickelbar, leicht modifizierbarund gut verifizierbar bleiben. Eine aufgrund ihres Konzeptes geeignete Programmierwelt ist die Logikprogrammierung. Ziel der Logikprogrammierung ist es weniger, Arbeitsabläufe zu beschreiben, als vielmehr Wissen in Form von Fakten zu spezifizieren und mit Hilfe von Regeln Schlußfolgerungen aus diesen Fakten ziehen zu können. Die klassische Logikprogrammierung ist jedoch aufgrund ihres Auswertungsmechanismus der SLD-Resolution (linear resolution with selected function for definite clauses) zu langsam für die Anwendung bei Echtzeitsystemen. Auch parallele Sprachformen, die ebenfalls mit SLD-Resolution arbeiten, erreichen beim Einsatz auf (von Neumann-) Mehrprozessorsystemen bislang nicht die notwendige Effizienz. Das Anwendungsgebiet der deduktiven Datenbanken hat im Vergleich dazu durch Bottom-Up Techniken einen anderen Auswertungsansatz mit deutlich höherer Effizienz geliefert. Viele dort auftretenden Probleme können jedoch nur durch die Integration anforderungsgetriebener Abarbeitung gelöst werden. Auf der anderen Seite stellen Datenflußrechnerarchitekturen aufgrund der automatisierten Ausbeutung feinkörniger Parallelität einen hervorragenden Ansatz der Parallelverarbeitung dar. Bei Datenflußrechnerarchitekturen handelt es sich um (Mehrprozessor-) Systeme, deren datengetriebener Abarbeitungsmechanismus sich grundlegend vom weit verbreiteten kontrollflußgesteuerten von Neumann-Prinzip unterscheidet.Überlegungen zur Struktur von Steuerungssystemen werden ergeben, daß es mittels Ansätzen aus dem Gebiet der deduktiven Datenbanken möglich ist, ein für diese Aufgabenstellung neuartiges, ausschließlich datengetriebenes Auswertungsmodell zu generieren. Dabei vermeidet es Probleme, die bei Bottom-Up Verfahren auftreten können, wie z.B. das Auftreten unendlicher Wertemengen und die späte Einschränkung auf relevante Werte, ohne gleichzeitig die Stratifizierung von Programmen zu gefährden. Ergebnis der Arbeit ist eine anwendungsbezogene, problemorientierte Entwicklungsumgebung, die einerseits die Entwicklung und Verifikation der Spezifikation mit existierenden Werkzeugen erlaubt und andererseits die effiziente, parallele Ausführung auf geeigneten Rechensystemen ermöglicht. Zusätzlich wird die Voraussetzung geschaffen, verschiedene weitere, für die Steuerung autonomer Systeme unverzichtbare Komponenten in das Abarbeitungsmodell zu integrieren. Simulationsergebnisse werden belegen, daß das vorgestellte Berechnungsmodell bezüglich realer Anwendungsbeispiele bereits in einer Monoprozessorversion Echtzeitbedingungen genügt. Damit ist die Voraussetzung für die Ausführung zukünftiger, weitaus komplexerer Steuerungsprobleme, ggf. auf Mehrprozessorsystemen, in Echtzeit geschaffen

    Ableitung von Einflussfaktoren als Grundlage für die Entwicklung von Technologieszenarien im Rahmen der Prognosephase des Technologiemanagements für den Zeitraum 2005 - 2010

    Get PDF
    Ziel der Arbeit ist, im Rahmen des Technologiemanagements aus aktuellen, technologischen Entwicklungen Einflussfaktoren für die Entwicklung realistischer Technologieszenarien für den Zeitraum von 2005-2010 abzuleiten. Der Erkenntnisgewinn der Arbeit basiert auf einem Katalog von unterschiedlichen Einflussfaktoren, die als Basis für die Entwicklung von Extrapolationen oder Szenarien genutzt werden können. Die dieser Dissertation zugrunde liegende Forschungsmethodik basiert auf den forschungslogischen Abläufen für empirische Forschung verbundenen mit der phasenorientierten Vorgehensweise zur Ableitung von Einflussfaktoren als Teil der Szenarioanalyse. Die zu durchlaufenden Phasen sind: Identifikation der technologischen Entwicklungsschwerpunkte und Anwendungsbereiche der Informations- und Kommunikationstechnologien, die beispielhafte Beschreibung der technologischen Entwicklungsschwerpunkte und Ableitung der entsprechenden Einflussfaktoren, die beispielhafte Beschreibung der Anwendungsbereiche der Informations- und Kommunikationstechnologien und Ableitung der jeweiligen Einflussfaktoren und die Zusammenfassende Darstellung der Einflussfaktoren. Auf Basis unterschiedlicher Methoden, wie die Erfassung von Expertenmeinungen, Scanning und Monitoring, Literatur- und Patentanalyse oder der Delphi-Methode werden in einer ersten Stufe technologische Entwicklungsschwerpunkte und Anwendungsbereiche der Informations- und Kommunikationstechnologien identifiziert. Den entsprechenden technologischen Entwicklungsschwerpunkten werden dann beispielhaft unterschiedliche Technologien zugeordnet und detailliert beschrieben. Aus der Beschreibung, bzw. den technologischen Merkmalen werden die technologischen Einflussfaktoren mit ihren Messgrößen abgeleitet. Den Anwendungsbereichen der Informations- und Kommunikationstechnologien werden unterschiedliche Anwendungskonzepte zugeordnet, wie Telearbeit, Homeautomation oder mobile Computing. Durch die detaillierte Beschreibung dieser Konzepte werden die nicht-technologischen Einflussgrößen identifiziert und beschrieben. Anhand der Kombination von Einflussfaktoren aus den Entwicklungsschwerpunkten und den Anwendungsbereichen der Informations- und Kommunikationstechnologien können dann Szenarien oder Trendextrapolationen erstellt werden, die bei Investitionsentscheidungen in die IT vor Fehlentscheidungen schützen können

    Ein modulares optisches Trackingsystem für medizintechnische Anwendungen: integrierte Datenflussarchitektur in Hard- und Software und Applikationsframework

    Get PDF
    Die vorliegende Arbeit beschreibt die Entwicklung eines modularen optischen Trackingsystems, ausgerichtet auf die speziellen Anforderungen im medizintechnischen Umfeld. Das Spektrum der vorgestellten Anwendungen des Systems reicht dabei von der Erfassung der Benutzerinteraktion in verschiedenen medizinischen Simulatoren (z.B. für Ophthalmochirurgie, Ophthalmoskopie und Neurochirurgie) bis hin zur Positionserfassung eines handgehaltenen Operationsroboters. Im Unterschied zu verfügbaren kommerziellen Trackingsystemem mit ihren eng umrissenen Anwendungsbereichen wird ein universell ausgelegtes Baukastensystem vorgestellt, das sich mit geringem Entwicklungsaufwand an die speziellen Anforderungen der jeweiligen Anwendungen anpassen lässt (so u.a. sehr kleine Geometrien, deformierbare Objekte, Einsatz von Originalinstrumenten, geringe Ressourcenverfügbarkeit im Simulator-PC). Zu diesem Zweck wird ein modulares Systemkonzept entwickelt, welches von der spezialisierten Datenverarbeitung gängiger Trackingsysteme abstrahiert und auf einer generalisierten, modularen Systemarchitektur für den Einsatz aller Arten von Markern mit drei Freiheitsgraden aufbaut. Neben den verbreiteten infrarotbasierten Signaliserungstechniken werden dabei auch passive Farbmarker zur Objektsignalisierung unterstützt. Die Implementierung von Bildverarbeitungsaufgaben in spezialisierter Hardware (FPGAs) direkt auf dem Kameradatenstrom ermöglicht eine frühzeitige Datenreduktion und damit niedrige Latenzzeiten. Der Entwicklungsprozess für neuartige Trackinglösungen wird vereinfacht durch die enge Integration der Hard- und Softwaremodule in einer einheitlichen durchgängigen Datenflussarchitektur, die flexibel an die jeweilige Aufgabenstellung anpassbar ist. Ein erweiterbares graphisches Frontend schließlich unterstützt bei Betrieb und Konfiguration und erlaubt auch die Simulation ganzer Systeme während der Entwicklung

    nestor-Handbuch - Eine kleine Enzyklopädie der digitalen Langzeitarchivierung

    Get PDF
    Das nestor Handbuch will nach dem Konzept des „Living Document“ das derzeitige Wissen über das vielfältige und komplexe Thema der Langzeitarchivierung und Langzeitverfügbarkeit digitaler Objekte und seine unterschiedlichen Teilaspekte sammeln und über eine „kleine Enzyklopädie“ in strukturierter Form den Interessierten in deutscher Sprache zugänglich machen. Einzelne, von verschiedenen Experten erstellte Fachbeiträge gestatten einen Überblick, manchmal auch einen vertieften Einblick in die diversen Themengebiete der Langzeitarchivierung: von technischen und rechtlichen Aspekten bis hin zur Definition von Rahmenbedingungen.1 Einführung 2 Rechtliche Aspekte 3 State of the Art 4 Rahmenbedingungen für die Langzeitarchivierung digitaler Objekte 5 Geschäftsmodelle 6 Organisation 7 Das Referenzmodell OAIS - Open Archival Information System 8 Vertrauenswürdigkeit von digitalen Langzeitarchiven 9 Formate 10 Standards und Standardisierungsbemühungen 11 Hardware 12 Digitale Erhaltungsstrategien 13 Access 14 Technischer Workflow 15 Anwendungsfelder in der Praxis 16 Lernen und weitergeben – Aus- und Weiterbildungsangebote zur Langzeitarchivierun

    nestor Handbuch : eine kleine Enzyklopädie der digitalen Langzeitarchivierung

    Get PDF
    Die Überlieferung des kulturellen Erbes, traditionell eine der Aufgaben von Bibliotheken, Archiven und Museen, ist durch die Einführung digitaler Medien und innovativer Informationstechnologien deutlich anspruchsvoller geworden. In der heutigen Zeit werden zunehmend mehr Informationen (nur) digital erstellt und veröffentlicht. Diese digitalen Informationen, die Güter des Informations- und Wissenszeitalters, sind einerseits wertvolle kulturelle und wissenschaftliche Ressourcen, andererseits sind sie z.B. durch die Kurzlebigkeit vieler Formate sehr vergänglich. Die Datenträger sind ebenso der Alterung unterworfen wie die Datenformate oder die zur Darstellung notwendige Hard- und Software. Um langfristig die Nutzbarkeit der digitalen Güter sicherzustellen, muss schon frühzeitig Vorsorge getroffen werden. Es müssen Strategien zur digitalen Langzeitarchivierung entwickelt und umgesetzt werden. ..
    corecore