51 research outputs found

    Datenbasierte Generierung von situationsbezogenen Entscheidungsregeln für die Kraftwerksführung

    Get PDF
    Das Fuzzy{ROSA{Verfahren stellt ein Rahmenkonzept zur datenbasierten Generierung von Fuzzy-Systemen dar. Zur weiteren Ausgestaltung dieses Rahmens wird das Verfahren anhand des hoch komplexen Anwendungsproblems der datenbasierten Generierung von Entscheidungsregeln für die Kraftwerksführung erprobt. Es werden situationsbezogene Handlungsvorschläge von Prozessexperten hinsichtlich der Einstellung der Werte von drei ausgewählten Strategieparametern eines Kraftwerksführungssystems zur Verbesserung des Prozessverhaltens modelliert. Es zeigt sich, dass die Handlungsvorschläge bezüglich der Einstellung eines dieser drei Parameter mit dem Fuzzy-ROSA-Verfahren in seiner derzeitigen Form sehr gut modellierbar sind. Bei der Modellierung der Handlungsvorschläge für die anderen beiden Strategieparameter stößt das Verfahren jedoch auf Anwendungsgrenzen, die wesentlich damit zusammenhängen, dass die zugehörigen Daten ausgeprägte Widersprüchlichkeiten aufweisen. Von diesem Ergebnis ausgehend, werden neue methodische Ansätze zur weiteren Ausgestaltung des Fuzzy-ROSA-Verfahrens zur Beherrschung auch sehr widersprüchlicher Daten aufgezeigt

    Clusterverfahren zur datenbasierten Generierung interpretierbarer Regeln unter Verwendung lokaler Entscheidungskriterien

    Get PDF
    Betrachtet wird die Aufgabe der datenbasierten Modellierung von Prozessen für die Datenpunkte erhoben wurden. Jeder Datenpunkt besteht aus den Werten einer oder mehrerer Eingangsgrößen und einer dazugehörenden Ausgangsgröße. Das Modellierungsziel besteht darin, ausgehend von den Datenpunkten ein Modul zu lernen, das die Ausgangsgrößenwerte für zukünftige Datenpunkte, für die nur die Eingangsgrößenwerte bekannt sind, vorhersagt. Clusterverfahren können in diesem Kontext zur datenbasierten Regelgenerierung eingesetzt werden, indem jedes Cluster direkt als eine WENN-DANN Regel interpretiert wird. Dazu sind im Rahmen dieser Arbeit die zwei Clusterverfahren PNC2 und SMBC entwickelt worden. Der PNC 2-Algorithmus basiert auf dem Konzept der hierarchischen agglomerativen Clusterverfahren, bei denen - ausgehend von einer Partitionierung, in der jeder Datenpunkt ein eigenes Cluster darstellt - schrittweise, bis zum Erreichen eines Abbruchkriteriums, immer zwei einander anhand eines Ähnlichkeitskriteriums nahe liegende Cluster miteinander vereinigt werden. Die Grundidee ist es nun, eine Vereinigung nur dann zuzulassen, wenn das dann entstehende generalisierte Cluster einen Regeltest besteht.Der SMBC Algorithmus erweitert unüberwacht arbeitende modell-basierte Clusterverfahren in Richtung eines überwachten Generierens von Clustern. Cluster werden individuell nach Relevanzgesichtspunkten bewertet. Dies erhöht ihre Interpretierbarkeit. Durch Mechanismen zum Löschen, Hinzufügen und Vereinigen von Clustern wird automatisch eine passende Clusteranzahl ermittelt. Beim experimentellen Vergleich verschiedener Lernalgorithmen miteinander ist es notwendig, freie Parameter der jeweiligen Algorithmen systematisch einzustellen. Basierend auf einer Arbeit von Salzberg wird die sogenannte harte Validierung eingeführt, bei der alle freien Parameter mittels Kreuz-Validierung oder ähnlicher Ansätze innerhalb der jeweiligen Lernstichprobe eingestellt werden

    Ein neues Konzept für das bedarfsgerechte Informations- und Wissensmanagement in Unternehmenskooperationen der Multimaterial-Mikrosystemtechnik

    Get PDF
    In der Arbeit wird ein Konzept zur Kooperation mittelständischer Unternehmen der Mikrosystemtechnik vorgestellt, das neben der zeitlichen Entwicklung der Kooperationsintensität auch ein zeitabhängiges, die Kooperations-Kernprozesse unterstützendes Informations- und Wissensmanagement adressiert. Die Arbeit identifiziert drei Entwicklungsphasen, insbesondere unter dem Aspekt der verteilten Produktentwicklung. Für die Kooperationsprozesse werden bedarfsgerechte Softwarewerkzeuge vorgestellt

    Proceedings. 16. Workshop Computational Intelligence, Dortmund, 29. Nov.-1. Dez. 2006

    Get PDF
    These proceedings contain the papers of the 16th Workshop Computational Intelligence. It was organized by the Working Group 5.14 of the VDI/VDE-Gesellschaft für Mess- und Automatisierungstechnik (GMA) and the Working Group Fuzzy-Systems and Soft-Computing of the Gesellschaft für Informatik (GI)

    Ein Konzept zur automatischen Lösung von Entscheidungsproblemen bei Unsicherheit mittels der Theorie der unscharfen Mengen und der Evidenztheorie

    Get PDF
    Viele verschiedene Verfahren ermöglichen den automatischen Entwurf von Entscheidungssystemen bei Unsicherheit. Dazu gehören neben Methoden des maschinellen Lernens auch neuronale Netze und statistische Verfahren. Unterschiedliche Konsequenzen von Fehlentscheidungen werden dabei nur in wenigen Fällen berücksichtigt. Die Möglichkeit, Entscheidungen bei widersprüchlichen oder unzureichenden Informationen an einen Experten zu delegieren ist ebenfalls in den meisten Entwurfsverfahren nur ansatzweise abgebildet.Diese Arbeit trägt zur Weiterentwicklung von Verfahren zur automatischen Generierung von Fuzzy-Entscheidungssystemen bei. Die Bewertung der Entscheidungssysteme erfolgt dabei auf der Basis der Entscheidungstheorie. Über eine Kostenmatrix werden die Konsequenzen von Fehlentscheidungen modelliert. Die Kosten der Merkmale, die das Entscheidungssystem verwendet, werden optional in die Bewertung einbezogen. Für alle Entwurfsschritte des Fuzzy-Systems werden entscheidungstheoretische Bewertungsmaße entworfen und ihre Anwendung an anschaulichen Beispielen demonstriert. Für die Möglichkeit der Delegation von Entscheidungen an einen Experten wird ein neues Inferenzverfahren auf der Basis der Evidenztheorie entwickelt. Zur Reduktion der Merkmalskosten wird die Entwurfsmethodik für Fuzzy-Systeme um ein Verfahren zum Entwurf von mehrstufigen Regelbasen erweitert. Bei mehrstufigen Regelbasen werden nicht alle Merkmale für jede Entscheidung ausgewertet.Die Leistungsfähigkeit der entwickelten Maße und Verfahren wird anhand von Benchmark Datensätzen und einem realitätsnahen Beispiel aus der Robotik demonstriert. Der Vorteil der Interpretierbarkeit der Fuzzy-Systeme wird an einem Beispiel gezeigt

    Ein Konzept zur automatischen Lösung von Entscheidungsproblemen bei Unsicherheit mittels der Theorie der unscharfen Mengen und der Evidenztheorie

    Get PDF
    Viele verschiedene Verfahren ermöglichen den automatischen Entwurf von Entscheidungssystemen bei Unsicherheit. Dazu gehören neben Methoden des maschinellen Lernens auch neuronale Netze und statistische Verfahren. Unterschiedliche Konsequenzen von Fehlentscheidungen werden dabei nur in wenigen Fällen berücksichtigt. Die Möglichkeit, Entscheidungen bei widersprüchlichen oder unzureichenden Informationen an einen Experten zu delegieren ist ebenfalls in den meisten Entwurfsverfahren nur ansatzweise abgebildet. Diese Arbeit trägt zur Weiterentwicklung von Verfahren zur automatischen Generierung von Fuzzy-Entscheidungssystemen bei. Die Bewertung der Entscheidungssysteme erfolgt dabei auf der Basis der Entscheidungstheorie. Über eine Kostenmatrix werden die Konsequenzen von Fehlentscheidungen modelliert. Die Kosten der Merkmale, die das Entscheidungssystem verwendet, werden optional in die Bewertung einbezogen. Für alle Entwurfsschritte des Fuzzy-Systems werden entscheidungstheoretische Bewertungsmaße entworfen und ihre Anwendung an anschaulichen Beispielen demonstriert. Für die Möglichkeit der Delegation von Entscheidungen an einen Experten wird ein neues Inferenzverfahren auf der Basis der Evidenztheorie entwickelt. Zur Reduktion der Merkmalskosten wird die Entwurfsmethodik für Fuzzy-Systeme um ein Verfahren zum Entwurf von mehrstufigen Regelbasen erweitert. Bei mehrstufigen Regelbasen werden nicht alle Merkmale für jede Entscheidung ausgewertet. Die Leistungsfähigkeit der entwickelten Maße und Verfahren wird anhand von Benchmark Datensätzen und einem realitätsnahen Beispiel aus der Robotik demonstriert. Der Vorteil der Interpretierbarkeit der Fuzzy-Systeme wird an einem Beispiel gezeigt

    Anomaliedetektion in räumlich-zeitlichen Datensätzen

    Get PDF
    Die Unterstützung des Menschen bei Überwachungsaufgaben ist aufgrund der überwältigenden Menge an Sensordaten von entscheidender Bedeutung. Diese Arbeit konzentriert sich auf die Entwicklung von Datenfusionsmethoden am Beispiel des maritimen Raums. Es werden verschiedene Anomalien untersucht, anhand realer Schiffsverkehrsdaten bewertet und mit Experten erprobt. Dazu werden Situationen von Interesse und Anomalien basierend auf verschiedenen maschinellen Lernverfahren modelliert und evaluiert

    Automatisierte, minimalinvasive Sicherheitsanalyse und Vorfallreaktion für industrielle Systeme

    Get PDF
    Automated defense and prevention measures designed to protect industrial automation and control systems often compromise their real-time processing, resilience and redundancy. Therefore, they need to be performed as non-invasively as possible. Nevertheless, particularly minimally invasive security analysis and incident response are still poorly researched. This work presents solutions based on new semantic- and SDN-based approaches to some of the most important problems in these areas

    Automatisierte, minimalinvasive Sicherheitsanalyse und Vorfallreaktion für industrielle Systeme

    Get PDF
    Automated defense and prevention measures designed to protect industrial automation and control systems often compromise their real-time processing, resilience and redundancy. Therefore, they need to be performed as non-invasively as possible. Nevertheless, particularly minimally invasive security analysis and incident response are still poorly researched. This work presents solutions based on new semantic- and SDN-based approaches to some of the most important problems in these areas
    corecore