50 research outputs found

    Wissensbasierte Prozesskonfiguration im Bauwesen

    Get PDF
    Das Ziel der Prozesskonfiguration besteht darin, typische Bauprozesse wie Planungsprozesse, Ausführungsprozesse, Steuerungs- und Entscheidungsprozesse zu unterstützen. Infolgedessen bilden die Prozesse und der Einsatz von Prozessmodellen für verschiedene Aufgabenbereiche im Bauwesen die Grundlage für die computerunterstützte Bearbeitung von Bauvorhaben. Die Bauprozessmodelle werden meistens in einer semi-formalen Sprache dargestellt. Das erlaubt die weitere Formalisierung zum Zweck der intelligenten Konfiguration der Prozesse. Das bedeutet, dass die Prozesse auf Basis des formal beschriebenen Prozesswissens konfiguriert, zusammengestellt und instanziiert werden können. Solche Prozesse sind besonders aktuell im Bereich des Risikomanagements, das in den letzten Jahren im Bauwesen an Bedeutung gewonnen hat. Die Prozesse sollen bei der Suche nach einem alternativen Ablauf im Fall einer Prozessstörung ad-hoc konfiguriert und zur Verfügung gestellt werden. Dies kann semi-automatisch mit Einsatz wissensbasierter Methoden realisiert werden. Die Prozesse im Bauwesen bergen diverse spezielle Eigenschaften in sich, die die Problematik der typischen Konfigurationsvorgehensweise sichtbar werden lassen. Wesentliche Merkmale der Bauprozesse sind der durchgängige Informationsfluss und der hohe Kommunikationsbedarf zwischen allen Beteiligten im Bauprojekt. Das impliziert Anforderungen an eine effektive Interoperabilität innerhalb des Bauprojekts. In einem signifikant großen Projekt wie beispielsweise dem Flughafenbau, bei dem sich die Baustelle auf tausenden Hektar Fläche erstreckt und mehrere Dutzende Baufirmen involviert sind, die über unterschiedliche Software und Baudatenmodelle und Standards verfügen, ist die Koordination sowie ein effektiver Informationsaustausch und als Folge die Prozesskonfiguration gravierend erschwert. Dementsprechend spielt die Anwendung einer übergeordneten Struktur, die die Heterogenität der verteilten Umgebung einkapselt, eine bedeutende Rolle. Des Weiteren bringt ein ontologiebasierter Ansatz wesentliche Vorteile bei der Betrachtung der existierenden Problematik. Ontologie ist eine explizite, formale Spezifikation einer gemeinsamen Konzeptualisierung (Gruber 1993). Darunter kann eine konzeptuelle Formalisierung von Wissensbereichen und Begriffssystemen verstanden werden. Mittels Ontologie kann Wissen verteilt werden, was eine verbesserte Interoperabilität in komplexen Systemen mit vielen heterogenen Ressourcen, wie beispielsweise Bauwesensystemen, gewährleistet. Anwendungsbereiche der Ontologie sind Kommunikation und Repräsentation sowie Wiederverwendung von Wissen. Die Ontologie wird in der Regel in Form einer Taxonomie dargestellt. Solche Konstrukte ermöglichen es, Struktur in ein heterogenes Umfeld zu bringen. So kann eine allgemeine bereichsübergreifende Ontologie, eine Top-Level Ontology, eine übergeordnete Baustruktur gut abbilden. Potenziell ermöglicht eine Ontologie die Analyse des Domänenwissens auf semantischer Basis, wie Schlussfolgerung, Konsistenzprüfung und gezielte Suche. Die Flexibilität bei der Konfiguration wird durch die regelbasierte Anwendung unterstützt. Darüber hinaus können intelligente Lösungen durch Anwendung verschiedener Baustrategien, die den Prozessablauf optimieren, erzielt werden. Die Prozesse, Ontologien und Regeln können verschiedene Arten von Wissen abbilden und als Kombination eine effiziente, wissensbasierte Prozesskonfiguration ermöglichen. Der Schwerpunkt dieser Arbeit liegt auf dem Schließen der Prozesskonfigurationslücke, in dem eine Kombination aus Prozessen, Prozesskonfiguration, Ontologien und Regeln präsentiert wird. Dabei zählt zu den wichtigsten Beiträgen der Arbeit, Interoperabilität innerhalb des Bauprojekts voran zu bringen, eine unternehmensübergreifende, übergeordnete ontologische Struktur für die effektive Zusammenarbeit in den verteilten Bauumgebungen zu erarbeiten und eine intelligente Prozesskonfiguration und -rekonfiguration zu gewährleisten

    Änderungs- und Konfigurationsmanagement unter Berücksichtigung von Verwendungsinstanzen

    Get PDF
    Vor dem Hintergrund des Product Lifecycle Managements (PLM)beschäftigt sich die Dissertation mit der Gestaltung eines integrierten und konsistenten Informationsflusses im Produktentstehungsprozess. Zielsetzung ist es, eine transparente und verbindliche Dokumentation der Produktprojekte und eine Datendrehscheibe für alle Produktdaten des Produktentstehungsprozesses zu schaffen. Hierfür wird das Produktdatenmanagement (PDM) auf Basis einer vollständigen und integrierten Produktstruktur umgesetzt

    SimMarket: Simulation des Abverkaufsverhaltens von Artikeln des Einzelhandels mit orobalbilistischen Agenten

    Get PDF
    Diese Arbeit ist in den Bereichen Business Intelligence, multiagentenbasierte Simulation und probabilistische Netzwerke angesiedelt. Das Ziel der Arbeit ist die Entwicklung eines Entscheidungsunterstützungssystems für das Sortimentsmanagement im Einzelhandel, um Optimierung von Preisen, Promotionen und der Sortimentszusammensetzung zu ermöglichen. Es wird gezeigt, wie man mit probabilistischen Agenten das Abverkaufsverhalten von Artikeln im Einzelhandel ex ante simulieren kann. Dazu wurde ein probabilistisches holonisches Multiagentensystem (PH-MAS) entwickelt, bei dem die Wissensbasen der Agenten mittels Data-Mining-Verfahren aus den Realdaten der Händler extrahiert werden. Die gewonnenen Abverkaufsmuster werden in so genannten Verhaltensnetzen kodiert, die eine Simulation der repräsentierten Artikel verwendet werden. Es wird gezeigt, wie der Kern der Verhaltensnetze durch erweiterte Bayes';sche Netze realisiert werden kann. So werden neuen Evidenzarten Soft- und Extrapolationsevidenz eingeführt und in das Simulationssystem integriert. Für die Modellierung und Simulation von globalen Abhängigkeiten zwischen Artikelagenten wird ein Verschmelzungsalgorithmus vorgestellt, der die probabilistischen Verhaltensnetze der Agenten in holonische Metanetze fusioniert. Des Weiteren wird eine mehrdimensionale Simulationssprache (MSL) für beliebige Verhaltensnetze und andere mehrdimensionale Wissensrepräsentationsformen vorgestellt. Schließlich wird eine selbst optimierende Simulationsroutine präsentiert, die beliebige zu simulierende Szenarien Abfolgen von Netzkonfigurationen konvertiert und damit effiziente Simulationen auf der Basis von Verhaltensnetzen ermöglicht. Die entwickelten Technologien wurden vollständig in Agenten des PH-MAS integriert und mit Hilfe des neu entwickelten verteilten Agentenframeworks MASg auf der Basis der .NET-Technologie realisiert. Es wird beschrieben, wie dieses generische Multiagentensystem sukzessiv zu einem umfangreichen Simulationssystem für die Prognose von Artikelabverkaufsverhalten ausgebaut wurde.This work is part of the areas Business Intelligence, multiagent-based simulation and probabilistic networks. The goal of this work is the development of a decision support system for category management in the retail domain for optimizing pricing, promotions and sales mix. I will show how to simulate ex ante the sales behaviour of products with probabilistic agents. The basis of the system is a new developed probabilistic holonic multi-agent system (PH-MAS), where the knowledge bases of the agents are extracted by data mining retailers'; real data. The patterns of sale will be encoded into so-called behaviour networks, which will be used for simulating the represented items. We will see how the core of the behaviour networks is realised with extended Bayesian networks. New kinds of evidences — soft and extrapolation evidences — are introduced and concretised. For modelling and simulating global dependencies between item agents a merging algorithm is presented for fusing the probabilistic behaviour networks of the agents into holonic meta networks. Additionally, I will present a concept of a multi-dimensional simulation language (MSL) for arbitrary behaviour networks and other multi-dimensional knowledge representation formalisms. Finally, a self-optimising simulation routine is presented, which converts arbitrary simulation scenarios into a sequence of network configurations for efficient simulation based on behaviour networks. All developed technologies of this work are integrated into the agents of the PH-MAS, which is realised by using the new developed distributed agent framework MASg and the .NET technology. I will show how this generic multi-agent system is successively expanded to a massive simulation system to forecast the sales behaviour of products

    Anomaliedetektion in räumlich-zeitlichen Datensätzen

    Get PDF
    Die Unterstützung des Menschen bei Überwachungsaufgaben ist aufgrund der überwältigenden Menge an Sensordaten von entscheidender Bedeutung. Diese Arbeit konzentriert sich auf die Entwicklung von Datenfusionsmethoden am Beispiel des maritimen Raums. Es werden verschiedene Anomalien untersucht, anhand realer Schiffsverkehrsdaten bewertet und mit Experten erprobt. Dazu werden Situationen von Interesse und Anomalien basierend auf verschiedenen maschinellen Lernverfahren modelliert und evaluiert

    Anomaliedetektion in räumlich-zeitlichen Datensätzen

    Get PDF
    Eine Unterstützung des Menschen in Überwachungsaufgaben spielt eine immer wichtigere Rolle, da die schiere Menge der anfallenden Daten von heterogenen Sensoren eine Überforderung des Menschen zur Folge hat. Hierfür müssen dem Menschen in kritischen Entscheidungen die wichtigsten Informationen transparent dargebracht werden, um so das Situationsbewusstsein zu stärken. In dieser Arbeit wird der maritime Raum als Beispiel für die Entwicklung verschiedener Datenfusionsverfahren zu ebendiesem Zweck herangezogen. Der maritime Raum als Anwendungsszenario bietet durch seine enorme wirtschaftliche Bedeutung für den Welthandel, das Auftreten verschiedenster Anomalien und krimineller Handlungen wie Piraterie und illegaler Fischerei und die Verfügbarkeit von Datenquellen ein gut für die Erprobung der Verfahren geeignetes Umfeld. Die entwickelten und untersuchten Verfahren decken hierbei die gesamte Bandbreite von einfachen Positions- und kinematischen Anomalien, über kontextuelle Anomalien bis zu komplexen Anomalien ab. Für die Untersuchung werden verschiedene Datensätze mit realen Schiffsverkehrsinformationen genutzt. Außerdem werden die Verfahren teilweise in Live Trials mit Küstenwachen erprobt. Zur Entwicklung der Verfahren wird als Grundlage zunächst das objektorientierte Weltmodell um Verhaltensmodelle erweitert sowie das EUCISE-Datenmodell als Basis für die Modellierung des verfügbaren Hintergrundwissens identifiziert. Die ersten untersuchten Verfahren detektieren Anomalien in der Position und der Kinematik basierend auf einzelnen Datenpunkten oder ganzen Trajektorien. Hierbei wurde festgestellt, dass zwar Anomalien erkannt werden, die Korrektklassifikationsrate für einen tatsächlichen Einsatz aber deutlich zu hoch ausfällt sowie bestimmte Anomalien ohne Kontext nicht bestimmbar sind. Im nächsten Schritt wird ein Multiagentensystem aufgestellt, welches das Verhalten der beobachteten Objekte durch spieltheoretische Modelle simuliert. Die hierzu notwendigen Nutzenfunktionen werden sowohl wissensbasiert als auch datengetrieben hergeleitet. Mit den integrierten Kontextinformationen können echte Anomalien deutlich besser von normalem Verhalten abgegrenzt werden. Des Weiteren wird gezeigt, wie mit Hilfe von Merkmalen, die aus georeferenzierten Informationen abgeleitet werden, Kontextinformationen zur Klassifikation von Schiffstypen in neuronalen Netzen integriert werden können. Im letzten Schritt werden komplexe Anomalien in Form von spezifischen Situationen basierend auf dynamischen Bayes’schen Netzen modelliert und in Live Trials erprobt. Hierbei werden Kontextinformationen, wie das Wetter, sowie Datenquellen mit unterschiedlicher Zuverlässigkeit integriert, um Situationen in verschiedenen durch Endanwender/-innen mitgestalteten Anwendungsszenarien zu erkennen. Insgesamt wird gezeigt, dass mit automatischen Verfahren Anomalien unterschiedlicher Art erkannt werden können. Die Verfahren werden jeweils mit realen Daten evaluiert, um die Möglichkeit des tatsächlichen Einsatzes als Entscheidungsunterstützung für Menschen in realen Anwendungsszenarien aufzuzeigen

    Entwicklungsstand und Entwicklungsperspektiven der Referenzmodellierung:Proceedings zur Veranstaltung vom 10. März 1997

    Full text link
    Die effiziente Gestaltung, Einführung und Realisierung von kundenindividuellen Informationssystemen ist mittlerweile in nahezu allen Branchen zu einem wichtigen Erfolgsfaktor geworden. Mit der Architektur „ARIS - House of Business Engineering“ wird ein rozeßorientiertes Rahmenkonzept zur Modellierung und Umsetzung von Referenzmodellen vorgestellt. Es umfaßt auf den vier Ebenen „Prozeßoptimierung“, „Prozeßmanagement“, „Workflow“ und „Bearbeitung“ Methoden und Werkzeuge für ein referenzmodellbasiertes Softwarekonzept. Gleichzeitig wird durch die Rückkopplung zwischen den Ebenen eine kontinuierliche Verbesserung der Geschäftsprozesse erreicht

    Gewinnung, Verwaltung und Anwendung von Performance-Daten zur Unterstützung des autonomen Datenbank-Tuning

    Get PDF
    In den letzten Jahrzehnten ist die Komplexität und Heterogenität von Informationssystemen rapide gestiegen. Die Folge ist, dass viele moderne IT-Systeme aufgrund ihrer heterogenen Architektur- und Applikationsvielfalt sehr kostenintensiv in der Entwicklung, fehleranfällig in der Nutzung und schwierig durch Administratoren kontrollier- bzw. konfigurierbar sind. Initiativen wie das Autonomic Computing helfen, der steigenden Komplexität Herr zu werden, indem sie den „Problemfaktor Mensch“ entlasten und Technik nutzen, um Technik zu verwalten. Durch die Anpassung bzw. Erweiterung der System-Umgebung versuchen derartige Ansätze neben derzeitiger manueller, reaktiver Performance-Optimierung, eine automatisierte reaktive und proaktive Performance-Kontrolle zu gewährleisten. Zentrale Grundvoraussetzung für eine autonome Infrastruktur ist eine verlässliche, globale Daten- bzw. Wissensbasis. Wir erarbeiten, wie Performance-Daten über das Verhalten und den Zustand des Systems mit aus dem Data-Warehousing bekannten Techniken gesammelt, konsolidiert, verwaltet und zur Laufzeit ausgewertet werden können. Neben der Architektur und den funktionalen Komponenten eines solchen Performance Data Warehouse wird zudem dessen Datenmodell erläutert und die Anbindung an das vorausgehende Monitoring sowie die nachfolgende Analyse spezifiziert. Mit dem Ziel, die menschliche Vorgehensweise „nachzuahmen“ und somit die Administratoren bei ihren Routine-Tätigkeiten zu entlasten, widmen wir uns der Konzipierung und Beschreibung einer möglichen Infrastruktur zur Automatisierung typischer Tuning-Aufgaben. Wir erarbeiten allgemein und anhand von Beispielen, wie Tuning-Wissen und bewährte Praktiken von DBAs abgebildet, in Form von Workflows formalisiert und zur Laufzeit für die Problemlösung angewendet werden können
    corecore