21 research outputs found

    Begriffliche Situationsanalyse aus Videodaten bei unvollständiger und fehlerhafter Information

    Get PDF
    Diese Arbeit beschäftigt sich mit der automatischen Erkennung komplexer Situationen in Bildfolgen im Videoüberwachungskontext. Bei der Behandlung von Daten aus natürlichen Umgebungen ergeben sich Schwierigkeiten. Diese Arbeit erweitert dazu den verwendeten Formalismus um die Behandlung von Unschärfe, fehlender Information und Komplexität, zeigt die Robustheit der Situationserkennung bei natürlichen Szenarien und stellt die generische Anwendbarkeit auch über Diskursbereichsgrenzen hinaus heraus

    Semantische Indexierung mit expliziten Wissensressourcen

    Get PDF

    Semantische Indexierung mit expliziten Wissensressourcen

    Get PDF

    KI-Modelle in den Sozialwissenschaften: logische Struktur und wissensbasierte Systeme von Balancetheorien

    Full text link
    Gegenstand der Untersuchung ist die Anwendung nicht-numerischer, wissensbasierter Verfahren der Künstlichen Intelligenz (KI) auf die Modellierung sozialwissenschaftlicher Theorien. Ziel ist es zu zeigen, daß der Einsatz von KI-Programmen eine fruchtbare methodische Erweiterung für die Sozialwissenschaften darstellt. Die wissensbasierte Modellierung erfolgt auf dem Hintergrund logisch rekonstruierter Theorien im Rahmen eines neueren wissenschaftstheoretischen Ansatzes, der strukturalistischen Theorienkonzeption. In einem ersten Teil werden Grundlagen der Computermodellierung, Wissensverarbeitung und Wissenschaftstheorie behandelt. Auf dieser Basis wird in einem zweiten Teil die wissensbasierte Modellierung von Theorien erörtert. Dies geschieht am Beispiel von Heiders Balancetheorie in ihrer von Abelson und Rosenberg verallgemeinerten Form. In der Weiterentwicklung der Balancetheorien stehen vor allem graphentheoretische Überlegungen im Vordergrund. Abschließend fragt der Verfasser nach dem wissenschaftstheoretischen Status der dargestellten Balancetheorien, wobei vor allem intertheoretische Relationen sowie die Evolution der Gleichgewichtstheorien im Vordergrund stehen. (ICE2

    Zuverlässigkeitsbewertung von vernetzten eingebetteten Systemen mittels Fehlereffektsimulation

    Get PDF
    Die Bedeutsamkeit von eingebetteten Systemen steigt kontinuierlich. Dies zeigt sich bereits anhand ihrer hohen Verbreitung. Neben der reinen Anzahl steigt zusätzlich die Komplexität der einzelnen Systeme. Dies resultiert nicht nur in einem steigenden Entwurfsaufwand, sondern betrifft zusätzlich den Analyseaufwand. Hierbei ist zu beachten, dass die Systeme vermehrt sicherheitsrelevante Aufgaben übernehmen. Ein anschauliches Beispiel stellen Systeme zur Fahrerassistenz bzw. Fahrzeugautomatisierung dar. Durch den rasanten Fortschritt in den letzten Jahren, wird erwartet, dass diese Systeme in den nächsten Jahren bereits hochautomatisiertes Fahren ermöglichen. Für solche Systeme bedeutet ein Ausfall bzw. falsch erbrachter Dienst schwerwiegende Folgen für die Umwelt und Personen im Umfeld. Eine Sicherheitsbewertung ist zwingend vorgeschrieben. Die hohe Vernetzung der einzelnen Systeme bedingt, dass eine isolierte Betrachtung nicht mehr ausreichend ist. Deshalb muss die Analyse neben der gestiegenen Komplexität der einzelnen Systeme zusätzlich die Interaktionen mit weiteren Systemen beachten. Aktuelle Standards empfehlen zur Sicherheitsbewertung häufig Verfahren wie Brainstorming, Fehlermöglichkeits- und Fehlereinflussanalysen oder Fehlerbaumanalysen. Der Erfolg dieser Verfahren ist meist sehr stark von den beteiligten Personen geprägt und fordert ein umfassendes Systemwissen. Die beteiligten Personen müssen die zuvor beschriebene erhöhte Komplexität und Vernetzung beachten und analysieren. Diese Arbeit stellt einen Ansatz zur Unterstützung der Sicherheitsbewertung vor. Ziel ist, das benötigte Systemwissen von den beteiligten Personen, auf ein Simulationsmodell zu übertragen. Der Anwender ermittelt anhand des Simulationsmodells die systemweiten Fehlereffekte. Die Analyse der Fehlerpropagierung bildet die Grundlage der traditionellen Sicherheitsanalysen. Da das Simulationsmodell die Systemkomplexität und die Systemabhängigkeiten beinhaltet, reduzieren sich die Anforderungen an die beteiligten Personen und folglich der Analyseaufwand. Um solch ein Vorgehen zu ermöglichen, wird eine Methode zur Fehlerinjektion in Simulationsmodelle vorgestellt. Hierbei ist vor allem die Unterstützung unterschiedlicher Abstraktionsgrade, insbesondere von sehr abstrakten System-Level-Modellen, wichtig. Des Weiteren wird ein Ansatz zur umfassenden Fehlerspezifikation vorgestellt. Der Ansatz ermöglicht die Spezifikation von Fehlerursachen auf unterschiedlichen Abstraktionsebenen sowie die automatisierte Einbringung der Fehler in die Simulation. Neben der Einbringung der Fehler bildet die Beobachtung und Analyse der Fehlereffekte weitere wichtige Aspekte. Eine modellbasierte Spezifikation rundet den Ansatz ab und vereinfacht die Integration in einen modellgetriebenen Entwurf

    Qualitätssicherung von Modelltransformationen - Über das dynamische Testen programmierter Graphersetzungssysteme

    Get PDF
    Modelle und Metamodelle repräsentieren Kernkonzepte der modellgetriebenen Softwareentwicklung (MDSD). Programme, die Modelle (unter Bezugnahme auf ihre Metamodelle) manipulieren oder ineinander überführen, werden als Modelltransformationen (MTs) bezeichnet und bilden ein weiteres Kernkonzept. Für dieses klar umrissene Aufgabenfeld wurden und werden speziell angepasste, domänenspezifische Transformationssprachen entwickelt und eingesetzt. Aufgrund der Bedeutung von MTs für das MDSD-Paradigma ist deren Korrektheit essentiell und eine gründliche Qualitätssicherung somit angeraten. Entsprechende Ansätze sind allerdings rar. In der Praxis erweisen sich die vornehmlich erforschten formalen Verifikationsansätze häufig als ungeeignet, da sie oft zu komplex oder zu teuer sind. Des Weiteren skalieren sie schlecht in Abhängigkeit zur Größe der betrachteten MT oder sind auf Abstraktionen bezogen auf die Details konkreter Implementierungen angewiesen. Demgegenüber haben testende Verfahren diese Nachteile nicht. Allerdings lassen sich etablierte Testverfahren für traditionelle Programmiersprachen aufgrund der Andersartigkeit der MT-Sprachen nicht oder nur sehr eingeschränkt wiederverwenden. Zudem sind angepasste Testverfahren grundsätzlich wünschenswert, da sie typische Eigenschaften von MTs berücksichtigen können. Zurzeit existieren hierzu überwiegend funktionsbasierte (Black-Box-)Verfahren. Das Ziel dieser Arbeit besteht in der Entwicklung eines strukturbasierten (White-Box-)Testansatzes für eine spezielle Klasse von Modelltransformationen, den sog. programmierten Graphtransformationen. Dafür ist anhand einer konkreten Vertreterin dieser Sprachen ein strukturelles Überdeckungskonzept zu entwickeln, um so den Testaufwand begrenzen oder die Güte der Tests bewerten zu können. Auch müssen Aspekte der Anwendbarkeit sowie der Leistungsfähigkeit der resultierenden Kriterien untersucht werden. Hierzu wird ein auf Graphmustern aufbauendes Testüberdeckungskriterium in der Theorie entwickelt und im Kontext des eMoflon-Werkzeugs für die dort genutzte Story- Driven-Modeling-Sprache (SDM) praktisch umgesetzt. Als Basis für eine Wiederverwendung des etablierten Ansatzes der Mutationsanalyse zur Leistungsabschätzung des Kriteriums hinsichtlich der Fähigkeiten zur Fehlererkennung werden Mutationen zur synthetischen Einbringung von Fehlern identifiziert und in Form eines Mutationstestrahmenwerks realisiert. Letzteres ermöglicht es, Zusammenhänge zwischen dem Überdeckungskonzept und der Mutationsadäquatheit zu untersuchen. Im Rahmen einer umfangreichen Evaluation wird anhand zweier nichttrivialer Modelltransformationen die Anwendbarkeit und die Leistungsfähigkeit des Ansatzes in der Praxis untersucht und eine Abgrenzung gegenüber einer quellcodebasierten Testüberdeckung durchgeführt. Es zeigt sich, dass das entwickelte Überdeckungskonzept praktisch umsetzbar ist und zu einer brauchbaren Überdeckungsmetrik führt. Die Visualisierbarkeit einzelner Überdeckungsanforderungen ist der grafischen Programmierung bei Graphtransformationen besonders nahe, so dass u. a. die Konstruktion sinnvoller Tests erleichtert wird. Die Mutationsanalyse stützt die These, dass die im Hinblick auf Steigerungen der Überdeckungsmaße optimierten Testmengen mehr Fehler erkennen als vor der Optimierung. Vergleiche mit quellcodebasierten Überdeckungskriterien weisen auf die Existenz entsprechender Korrelationen hin. Die Experimente belegen, dass die vorgestellte Überdeckung klassischen, codebasierten Kriterien vielfach überlegen ist und sich so insbesondere auch für das Testen von durch einen Interpreter ausgeführte Transformationen anbietet

    Das kosmische Gedächtnis. Kosmologie, Semiotik und Gedächtnistheorie im Werke von Giordano Bruno (1548-1600), Series: Philosophie und Geschichte der Wissenschaften, Studien und Quellen, Lang, Frankfurt (The introduction can be downloaded from: pdf.) [The Cosmic Memory. Cosmology, Semiotics and Art of Memory in the Work of Giordano Bruno (1548-1600)]

    Get PDF
    Abstract (German) Dieses Buch faßt meine Forschungen zur Semiotik Giordano Brunos und zu deren Grundlagen in der Kosmologie und in der Gedächtnistheorie zusammen, wobei sowohl die Heterogenität als auch der Universalität des Denkers den Charakter dieses Buches geprägt haben. Es wird kein glattes Bild seiner Person oder seines Werkes angeboten, kein bejahender Jubel über eine epochale Leistung; wichtiger war mir die bis ins Detail gehende, manchmal mühselige Interpretation seiner Systementwürfe, wobei ich versucht habe, auch deren formales und technisches Niveau deutlich zu machen. Nicht seine Weltanschauung soll dargestellt werden, sondern sein Versuch, eine Vielfalt von Detaillösungen in eine wohlproportionierte, wenn auch ins Unendliche reichende Wissensarchitektur zu integrieren. Als Startsignal mag folgende Frage dienen: Inwiefern ist Giordano Bruno Semiotiker? Der Philosoph Bruno wird von Jacobi als Beispiel spinozistischer Tendenzen wieder ins Gespräch gebracht; später wird er für die spekulative Naturphilosophie, die aus Kants Schatten heraustritt, z.B. für Schelling und Hegel, interessant, und schließlich wird er als Märtyrer der Freiheit von den Antiklerikalen im Risorgimento hochgehoben. Der Heroenkult um die „Kopernikanische Wende" weiß mit Bruno nichts anzufangen, er ist kein Naturwissenschaftler, wie man ihn sich im 20 . Jh . wünscht. Von Yates ( 1964 ) wird er als Hermetiker und Ahnherr der Rosenkreuzer entdeckt, und plötzlich soll er auch noch ein Semiotiker sein ? Die Etikette „Semiotiker" ist allerdings weniger riskant als jene früher an Bruno herangetragenen. Bruno ist Philosoph, in einem allgemeinen Sinn , insofern er alle wesentlichen Aspekte: metaphysische, natur philosophische, ethische, semiotische, poetologische zum Entwurf eines möglichst kohärenten Bildes vereint, und er ist ein Renaissance-Philosoph, d .h. das antike Erbe, besonders jenes in den orientalischen Tiefen der Kulturgeschichte (Ägypten und Chaldäer) ist sein Ausgangspunkt. Selbst den Entwurf des Copernicus versteht Bruno in erster Linie als eine Wiederentdeckung antiker Einsichten. Es gibt jedoch in Brunos Schaffen einen roten Faden: die Architektur unseres Wissens, das Gedächtnis der Kultur- und Wissensgemeinschaft und natürlich desjenigen, der wie Bruno dieses Wissen zu einer Synthese vereinigen will . Seine Philosophie versucht, wie jede große Philosophie, alles, was wir wissen und was wir daraus an weiterem impliziten Wissen erschließen können, in einer Einheit zu denken, und diese Einheit ist notwendigerweise nur als Zeichensystem (begrifflich, argumentativ, bildhaft, als imaginierte Welt) zu realisieren. Abstract (English) This book summarizes my research on Giordano Bruno's semiotics and its foundations in cosmology and memory theory, whereby both the heterogeneity and the universality of the thinker have shaped the character of this book. No smooth picture of his person or his work is offered, no affirmative jubilation over an epochal achievement; What was more important to me was the sometimes laborious interpretation of his system designs, which went down to the last detail, and I also tried to make their formal and technical level clear. It is not his worldview that should be presented but his attempt to integrate various detailed solutions into a well-proportioned, albeit infinitely reaching, architecture of knowledge. The following question may serve as a starting signal: To what extent is Giordano Bruno a semiotician? Jacobi brings up the philosopher Bruno again as an example of Spinozist tendencies; later, he becomes important for the speculative natural philosophy emerging from Kant's shadow, e.g., for Schelling and Hegel. He is finally extolled as a martyr of freedom by the anticlericals in the Risorgimento. The hero cult around the "Copernican turn" does not know what to do with Bruno; he is not a natural scientist as one would wish in the 20th century. Yates (1964) discovered him as a hermetic, even an ancestor of the Rosicrucians. The etiquette "semiotic" is certainly less risky than the associations that Bruno used to have. Bruno is a philosopher, in a general sense, in that he combines all the essential aspects: metaphysical, natural philosophical, ethical, semiotic, poetological to project a picture that is as coherent as possible, and he is a Renaissance philosopher, i .e . the ancient heritage, especially that in the oriental depths of cultural history (Egypt and Chaldeans) is his starting point. Bruno sees even the draft of Copernicus primarily as a rediscovery of ancient insights. However, there is a common thread in Bruno's work: the architecture of our knowledge, the memory of the cultural and knowledge community and, of course, of those who, like Bruno, want to unite this knowledge into a synthesis. His philosophy, like every great philosophy, tries to think of everything that we know and what we can deduce from it as further implicit knowledge as a unit, and this unit is necessarily only available as a system of signs (conceptual, argumentative, pictorial, as an imagined world). to realize

    Von Kant zu Schelling

    Get PDF

    Wissensbasierte Überprüfung mikrotechnologischer Fertigungsabläufe

    Get PDF
    Die vorliegende Arbeit beschreibt ein wissensbasiertes System zur Konsistenzprüfung von mikrotechnischen Fertigungsabläufen. Die Inhalte führen von einer allgemeinen Betrachtung des Entwurfs in der Mikrotechnik und der noch benötigten Unterstützung im fertigungsgerechten Entwurf hin zur Vorstellung und Implementierung eines geeigneten Lösungskonzepts. Des Weiteren sind die Einbindung in eine bestehende Konstruktionsumgebung sowie die Verdeutlichung des Entwurfsvorgehens durch Beispiele Gegenstand der Ausarbeitung. Der Entwurfsprozess in der Mikrotechnik verlangt im Gegensatz zu den verwandten Domänen der Mikroelektronik und Mechatronik eine wesentlich stärkere Betonung der Fertigungsgerechtheit. Dies ist bedingt durch die Vielfalt einsetzbarer Fertigungsmethoden, die in der Regel nur sehr eingeschränkt zueinander kompatibel sind und zudem meist nur begrenzte Möglichkeiten zur Materialbearbeitung bieten. Aufgrund mangelnder Entwurfsunterstützung ist der Entwickler auf fundierte technologische Erfahrung angewiesen. Eine zeit- und kostenaufwändige iterative Optimierung des Bauteildesigns in Entwurf und Fertigung ist daher häufig die Regel. Entwurfswerkzeuge müssen diesen besonderen Anforderungen der Mikrotechnik gerecht werden. Bei den bisherigen Bemühungen, diesen Aspekt des Entwurfs mikrotechnischer Bauteile stärker zu berücksichtigen, lag der Schwerpunkt auf der Untersuchung der Herstellbarkeit konkreter Mikrostrukturen mit einzelnen Fertigungstechnologien. Hinsichtlich der technologischen Wechselwirkungen innerhalb der Fertigung wird in Analogie zur Mikroelektronik versucht, diese Probleme durch die Standardisierung von Fertigungsprozessen, kompatiblen Prozessfolgen und Komponenten zu umgehen. Die hierbei notwendige Festlegung auf bestimmte Technologien und deren Einstellungen führt jedoch zu einer Einschränkung der Lösungsmöglichkeiten. Der Entwurf domänenübergreifender Anwendungen, die z.B. elektromechanische, fluidische, optische oder andere Funktionselemente beinhalten, ist auf diese Weise bislang nicht möglich. Nur wenige Werkzeuge versuchen dagegen, eine Untersuchung der Wechselwirkungen von Technologien direkt in den Entwurf einzubeziehen, indem Inkonsistenzen in Fertigungsabläufen automatisiert erkannt werden. Die derzeit bestehende Unterstützung auf diesem Gebiet ist allerdings noch sehr elementar. Das in dieser Arbeit entwickelte Werkzeug RUMTOPF nutzt den aus dem Bereich der künstlichen Intelligenz stammenden Ansatz der regelbasierten Systeme, um diese Problemstellung des mikrotechnischen Entwurfs zu adressieren. Die Philosophie des Gesamtsystems liegt darin, seitens des Anwenders möglichst wenig technologisches Expertenwissen vorauszusetzen. Das zur Definition und Prüfung einer Fertigungsprozessfolge benötigte Wissen kann in im Netzwerk verfügbaren Wissensbasen bereitgestellt werden. Da die Strukturierung dieser Basen entscheidenden Einfluss auf die Flexibilität und Erweiterbarkeit des Gesamtsystems hat, wurden angepasste objektorientierte Datenmodelle zur Wissensrepräsentation von Technologien, Fertigungsabläufen und Kompatibilitätsbeziehungen entwickelt und implementiert. Den gleichen Stellenwert haben geeignete Anwenderschnittstellen, die zum einen zum Erwerb zusätzlichen Wissens und zur Information des Anwenders dienen, zum anderen die Nutzung dieses Wissens zur Konsistenzprüfung von Fertigungsabläufen ermöglichen. Dem Anwender wird daher u.a. eine graphische Oberfläche geboten, mit der Prozessfolgen einfach aus dem vorhandenen Technologiewissen konfigurierbar sind. Die schrittweisen Änderungen des zu fertigenden Mikrobauteils werden für jeden Fertigungsschritt in einer schematischen Darstellung visualisiert. Mit technologie-orientierten Regeln kann die definierte Prozessfolge auf mögliche Wechselwirkungen der eingesetzten Prozessierung geprüft werden. Hierzu wird die Diagnosekomponente des Werkzeugs genutzt, welche mit dem Anwender zur Meldung und Erklärung gefundener Mängel kommuniziert. Besonderes Augenmerk wurde auf die Möglichkeiten zur Formulierung von komplexen, möglichst allgemeingültigen Zusammenhängen gelegt, um die Inkompatibilitäten der Fertigung flexibel und kontextbezogen beschreiben zu können. Eine entsprechende Regelbeschreibungssprache wurde entwickelt. Für die Verwendung der erstellten und geprüften Prozessplänen in der Praxis wird die Möglichkeit zum Ausdruck gegeben. Ein generelles Defizit der Entwurfsunterstützung in der Mikrotechnik ist die mangelnde Integration der vorhandenen Werkzeuge. Sie stellen in sich Insellösungen dar, die lediglich einen konkreten Bereich des fertigungsgerechten Entwurfs abdecken können. Zusätzlich zur Prüfung der technologischen Wechselwirkungen ist die Fertigbarkeit der geometrischen Zielvorgaben durch den jeweiligen Fertigungsprozess zu untersuchen. In diesem Bereich ist bereits umfangreiche Entwurfsunterstützung vorhanden, sodass eine Integration der vorgestellten Anwendung mit technologiebezogenen Werkzeugen vollzogen werden kann. Das Vorgehen wurde am Beispiel des am Institut für Mikrotechnik entwickelten Ätzsimulationsprogramms SUZANA aufgezeigt. Abschließende Beispiele zur Herstellung einer planaren Mikrospule und eines 3D-Beschleunigungssensors zeigen die Möglichkeiten und eine generelle Vorgehensweise bei der Nutzung des Werkzeuges. In der Praxis wird ein paralleler Entwurf von Mikrobauteil und Fertigungsablauf angestrebt. Funktionale und somit geometrische Aspekte müssen bezüglich ihrer Herstellbarkeit mit einzelnen Technologien sowie im Rahmen der Gesamtfertigung untersucht werden. Dieses iterative Vorgehen, das bislang häufig erst in der Herstellung stattgefunden hat, kann somit in den eigentlichen Entwurfsprozess eingebunden und somit der fertigungsgerechte Entwurf in der Mikrotechnik umfassend unterstützt werden
    corecore