27 research outputs found

    Methoden und Beschreibungssprachen zur Modellierung und Verifikation vonSchaltungen und Systemen: MBMV 2015 - Tagungsband, Chemnitz, 03. - 04. MĂ€rz 2015

    Get PDF
    Der Workshop Methoden und Beschreibungssprachen zur Modellierung und Verifikation von Schaltungen und Systemen (MBMV 2015) findet nun schon zum 18. mal statt. Ausrichter sind in diesem Jahr die Professur Schaltkreis- und Systementwurf der Technischen UniversitĂ€t Chemnitz und das Steinbeis-Forschungszentrum Systementwurf und Test. Der Workshop hat es sich zum Ziel gesetzt, neueste Trends, Ergebnisse und aktuelle Probleme auf dem Gebiet der Methoden zur Modellierung und Verifikation sowie der Beschreibungssprachen digitaler, analoger und Mixed-Signal-Schaltungen zu diskutieren. Er soll somit ein Forum zum Ideenaustausch sein. Weiterhin bietet der Workshop eine Plattform fĂŒr den Austausch zwischen Forschung und Industrie sowie zur Pflege bestehender und zur KnĂŒpfung neuer Kontakte. Jungen Wissenschaftlern erlaubt er, ihre Ideen und AnsĂ€tze einem breiten Publikum aus Wissenschaft und Wirtschaft zu prĂ€sentieren und im Rahmen der Veranstaltung auch fundiert zu diskutieren. Sein langjĂ€hriges Bestehen hat ihn zu einer festen GrĂ¶ĂŸe in vielen Veranstaltungskalendern gemacht. Traditionell sind auch die Treffen der ITGFachgruppen an den Workshop angegliedert. In diesem Jahr nutzen zwei im Rahmen der InnoProfile-Transfer-Initiative durch das Bundesministerium fĂŒr Bildung und Forschung geförderte Projekte den Workshop, um in zwei eigenen Tracks ihre Forschungsergebnisse einem breiten Publikum zu prĂ€sentieren. Vertreter der Projekte Generische Plattform fĂŒr SystemzuverlĂ€ssigkeit und Verifikation (GPZV) und GINKO - Generische Infrastruktur zur nahtlosen energetischen Kopplung von Elektrofahrzeugen stellen Teile ihrer gegenwĂ€rtigen Arbeiten vor. Dies bereichert denWorkshop durch zusĂ€tzliche Themenschwerpunkte und bietet eine wertvolle ErgĂ€nzung zu den BeitrĂ€gen der Autoren. [... aus dem Vorwort

    Untersuchungen zur Kostenoptimierung fĂŒr Hardware-Emulatoren durch Anwendung von Methoden der partiellen Laufzeitrekonfiguration

    Get PDF
    Der vorliegende Band der wissenschaftlichen Schriftenreihe Eingebettete Selbstorganisierende Systeme widmet sich der Optimierung von Hardware Emulatoren durch die Anwendung von Methoden der partiellen Laufzeitrekonfiguration. An aktuelle Schaltkreis- und SystementwĂŒrfe werden zunehmend divergente Anforderungen gestellt. Einer sehr kurzen Entwicklungszeit fĂŒr eine schnelle MarkteinfĂŒhrung steht, um teure und aufwĂ€ndige Re-Desings zu verhindern, eine möglichst umfangreiche Testabdeckung des Entwurfs gegenĂŒber. Um die Zeit fĂŒr die Tests zu reduzieren, kommen ĂŒberwiegend FPGA-basierte HW-Emulatoren zum Einsatz. Durch den Einfluss der steigenden KomplexitĂ€t aktueller EntwĂŒrfe auf die Emulator-Plattform reduziert sich jedoch signifikant die Performance der Emulatoren. Die in Emulatoren eingesetzten FPGAs sind aber zunehmend partiell zur Laufzeit rekonfigurierbar. Der in der vorliegenden Arbeit umgesetzte Ansatz behandelt die Anwendung von Methoden der Laufzeitrekonfiguration auf dem Gebiet der Hardware-Emulation. DafĂŒr ist zunĂ€chst eine Partitionierung des zu testenden Entwurfs in möglichst funktional unabhĂ€ngige Systemteile notwendig. FĂŒr eine optimierte und ressourceneffiziente Platzierung der einzelnen HW-Module wĂ€hrend der Emulation, ist ein ebenfalls auf dem FPGA platziertes Kommunikationsnetzwerk implementiert. Der vorgestellte Ansatz wird an verschiedenen Beispielen anschaulich illustriert. So kann der Leser die MĂ€chtigkeit der entwickelten Methodik nachvollziehen und wird motiviert, das Verfahren auch auf weitere AnwendungsfĂ€lle zu ĂŒbertragen.Current circuit and system designs consist a lot of gate numbers and divergent requirements. In contrast to a short development and time to market schedule, the needs for perfect test coverage and quality are rising. One approach to cover this problem is the FPGA based functional test of electronic circuits. State of the art FPGA platforms doesn't consist enough gates to support fully custom designs. The thesis catches this problem and gives some approaches to use partial dynamic reconfiguration to solve the size problem. A fully automated design flow demonstrates partial partitioning of designs, modifications to use dynamic reconfiguration and its schedule. At the end of the work, some examples demonstrates the power of the approach

    Zertifizierbarer Entwicklungsprozess fĂŒr komplexe Informationsverarbeitungssysteme in der WĂ€getechnik

    Get PDF
    ï»żThe dissertation is about principles, methods and techniques during the systematic development of embedded systems in the domain of measurement techniques. The considered domain contains fields of application with challenging and specific requirements of the information processing system. E.g. the dynamic weighing systems need solutions with very high resolution and lowest achievable measurement uncertainty in order to perform high-speed-measurements in a mechanically disturbed environment. In particular, the abilities for official calibration and metrologic reliability are considered. The complex and high-performance functions are required to guarantee measurement results. FPGA-based systems are used for the implementation of these functions.The especially designed certifiable development process (ZEfIRA) provides a procedural method for the development of complex embedded systems. The metrologic reliability, the legal requirements like calibratability, the validation and the verification are included as a general criteria in the entire development process. ZEfIRA is based on the 3W-model and is designed in an evolutionary manner. This process starts with the analysis of a predecessor system followed by the model-based development of a prototype, which leads into an optimized and application-specific product solution.The study emphasizes the influence of challenging requirements on the measurement system. It will be presented, how these can be integrated into the modelling level during the design and the implementation on a FPGA-based target platform. The stages of the functional and technical design of the system are analysed, whereas the realization of the partitions “FPGA logic” and “FPGA softcore solutions” are discussed in detail.Based on the preliminary design of the information processing in an electromagnetic force compensation (EMC) scale, the applicability of the process ZEfIRA and its developed methods and principles are proved. On the one hand, the optimal system-specific algorithms of signal processing, control and safety and on the other hand whose technical implementation are essential. This was realized with different performance parameters. In addition, the prototype allows the possible comprehensive analysis for embedding system. In the conclusion, the performance of ZEfIRA based on the prototype development is evaluated.Die Dissertation befasst sich mit Prinzipien, Methoden und Techniken der systematischen Entwicklung von komplexen Eingebetteten Systemen. Die betrachtete DomĂ€ne besitzt Anwendungsbereiche mit anspruchsvollen und besonderen Anforderungen an die Informationsverarbeitung. In der dynamischen WĂ€getechnik sind z.B. Lösungen mit sehr hohen Auflösungen und kleiner Messunsicherheit bei schnellen Messungen in einem mechanisch gestörten Umfeld notwendig. Die Anforderungen an die EichfĂ€higkeit und die Metrologische Sicherheit sind Besonderheiten. Es werden komplexe und hochleistungsfĂ€hige Funktionen zur Erzeugung der Messergebnisse verlangt. In der Arbeit werden dafĂŒr vorwiegend FPGA-basierte Eingebettete Systeme verwendet. Der entworfene zertifizierbare Prozess (ZEfIRA) bietet eine Vorgehensweise fĂŒr die Entwicklung von Eingebetteten Systemen. Die Metrologische Sicherheit, die EichfĂ€higkeit, die Validier- und der Verifizierbarkeit werden als Kriterien im gesamten Entwurfsprozess berĂŒcksichtigt. ZEfIRA basiert auf einem 3W-Modell und ist evolutionĂ€r angelegt. Innerhalb des Prozesses werden die Analyse eines eventuellen VorlĂ€ufersystems sowie die modellbasierte prototypische Entwicklung bis hin zu einer produzierbaren Lösung (Produkt) durchgefĂŒhrt. Die Arbeit verdeutlicht den großen Einfluss der spezifischen Anforderungen an das Messsystem. Es wird gezeigt, wie diese bereits zu der Entwurfszeit auf Modellebene und im Weiteren bei der Implementierung in einer FPGA-basierten Zielplattform berĂŒcksichtigt werden. Es werden verschiedene Schritte des funktionalen und technischen Systementwurfs untersucht und ausfĂŒhrlich die Realisierungspartitionen „FPGA-Logik“ und „FPGA-Softcore-Lösungen“ betrachtet. Als Beispiel zum Nachweis der Anwendbarkeit des Prozesses ZEfIRA dient die prototypische Entwicklung des Informationsverarbeitungssystems einer elektromagnetischen Kraftkompensationswaage (EMKW). Ausschlaggebend sind die optimal an das Gesamtsystem angepassten Signalverarbeitungs-, Regelungs- und Sicherheitsalgorithmen und deren technische Umsetzung. Dieses wurde mit verschiedenen Leistungsparametern, wie z.B. Latenz, VerarbeitungskomplexitĂ€t und Genauigkeit realisiert. ErgĂ€nzend ermöglicht der Prototyp umfassende Analysemöglichkeiten fĂŒr das Messsystem. Die abschließende Wertung ist eine AbschĂ€tzung der LeistungsfĂ€higkeit von ZEfIRA auf Basis dieser prototypischen Entwicklung

    BeitrĂ€ge zur Automatisierung der frĂŒhen Entwurfsphasen verteilter Systeme

    Get PDF
    With the rapid increasing speed of electronic devices systems with highercomplexity, interconnectedness and heterogeneity can be developed. The developmentof such systems can only be done by teams of specialists. Atthe same time the development needs to happen in parallel to ensure anearly time to market. Therefore in the traditional design process the designis described in form of a written specification of the common system andpartitioned to several teams. This takes place in early design stages at highproduct uncertainty. Sub system development assumptions and decisions aremade without being able to evaluate the effect on the common system. Thusmany critical errors, especially those, caused by coupling effects, are discoveredduring system integration at the end of the design process. Furthermorean optimization of the common system is not possible, because of the lack ofa common system model. Hence the traditional design process is a high riskdevelopment process. In the Mission Level Design approach, an executable specification of thecommon system instead of a written specification is developed after conceptdevelopment. These is validated and optimized against the requirements ofthe common system. The such validated specification of the coupled systemis then passed on to specialist teams for sub system development. The subsystems are then integrated. In this manner integration problems can besolved in the early design stages. Development time and risk can be reducedsignificantly. To increase the specification quality and speed while developing common systemmodels, in the present work, standardized methods for specification andperformance evaluation of distributed systems and methods for automatedmapping of function into architecture are developed. This allows architectureoptimization of the common system in the early design stages. In addition,methods for transformation of the abstract design into implementations aredeveloped.Mit der rapide steigenden Geschwindigkeit elektronischer Bauelemente könnenSysteme mit erhöhter KomplexitĂ€t, Vernetzung und HeterogenitĂ€t entwickeltwerden. Dies hat zur Folge, dass eine Entwicklung nur durch Teamsvon Spezialisten durchfĂŒhrbar ist. Gleichzeitig muss die Entwicklung parallelerfolgen, um eine möglichst frĂŒhzeitige ProdukteinfĂŒhrung zu ermöglichen.Im traditionellen Entwurfsprozess wird daher der Entwurf in Form einer geschriebenenSpezifikation des Gesamtsystems erfasst und anschließend aufmehrere Teams aufgeteilt. Dies erfolgt in den frĂŒhen Entwurfsphasen, welchedurch eine hohe Unsicherheit ĂŒber das Produkt gekennzeichnet sind. DabeimĂŒssen bei der Entwicklung der Subsysteme Annahmen und Entscheidungengetroffen werden, ohne den Einfluss auf das Gesamtsystem abschĂ€tzenzu können. Kopplungseffekte werden weitestgehend ignoriert. Viele kritische,insbesondere durch Kopplungseffekte hervorgerufene Fehler, können folglicherst bei der Integration am Ende der Entwicklung entdeckt werden. Zudem isteine Optimierung des Gesamtsystems nicht möglich, da kein Gesamtsystemmodellvorliegt. Der traditionelle Entwurfsprozess besitzt daher ein hohesEntwicklungsrisiko. Beim Entwurfsansatz Mission Level Design wird nach dem Konzeptentwurfanstatt einer geschriebenen eine ausfĂŒhrbare Spezifikation des Gesamtsystemsentwickelt. Diese wird gegen die Gesamtsystemanforderungen validiertund optimiert. Daraufhin wird die Spezifikation des gekoppelten Gesamtsystemsan mehrere Teams zur Entwicklung der Subsysteme weitergegeben,welche dann wieder zu einem Gesamtsystem integriert werden. Integrationsproblemewerden so schon in den frĂŒhen Entwurfsphasen gelöst, was einewesentliche Verringerung von Entwicklungszeit und -risiko bewirkt. Um die SpezifikationsqualitĂ€t und -geschwindigkeit bei der Entwicklung vonGesamtsystemmodellen zu erhöhen, werden im Rahmen der Arbeit standardisierteMethoden zur Beschreibung und Leistungsbewertung verteilterSysteme, sowie zum automatisierten Mapping von Funktion in Architekturentwickelt. Dies ermöglicht bereits in den frĂŒhen Entwurfsphasen eine Architekturoptimierungdes Gesamtsystems. ZusĂ€tzlich werden Methoden zurÜberfĂŒhrung des abstrakten Entwurfs in Implementationen entwickelt

    Wissenschaftlich-Technischer Jahresbericht 1993

    Get PDF

    Wissenschaftlich-Technischer Jahresbericht 1993

    Get PDF

    Abschlussbericht des Verbundprojekts Tools4BPEL

    Get PDF
    UnternehmensĂŒbergreifende GeschĂ€ftsprozesse werden zunehmend nach dem Paradigma der Services organisiert. Dabei stellen sich Fragen nach der Komponierbarkeit, Fehlerbehandlung, sowie der RĂŒcksetzbarkeit (Kompensation) im Fehlerfall. In diesem Vorhaben werden Methoden und Werkzeuge zum Umgang mit solchen Fragen entwickelt und am Beispiel der GeschĂ€ftsprozess-Modellierungssprache BPEL und im Modellierungswerkzeug der Firma MEGA international erprobt. Es wurde zum einen der Übersetzer BPEL2oWFN entwickelt, der anhand einer Petrinetzsemantik fĂŒr BPEL einen BPEL-Prozess in ein (offenes) Petrinetz transformiert. Zum anderen wurden Korrektheitskriterien (wie Bedienbarkeit und VerhaltenskompatibilitĂ€t) fĂŒr Services erarbeitet, Algorithmen zu ihrer ÜberprĂŒfung entworfen und in Fiona implementiert. Die Algorithmen sind Petrinetz-basiert. Damit spielen Übersetzung und Analyse eng zusammen und ein vorhandener BPEL-Prozess kann auf bspw. Bedienbarkeit hin untersucht werden. In diesem Vorhaben wurden die Modellierungssprache BPEL4Chor, Choreographie-Erweiterungen fĂŒr BPMN entwickelt, sowie die Transformation von BPMN nach BPEL angepasst, um den Weg von BPMN nach BPEL4Chor zu unterstĂŒtzen. Weiterhin wurden Konzepte entwickelt, wie sich partner-ĂŒbergreifende Fehlerbehandlung, RĂŒcksetzbarkeit, sowie die Autonomie der Partner mittels BPEL4Chor darstellen lassen. BPEL4Chor kann als Standardsprache zur Spezifikation von Protokollen, die zwischen mehreren Partnern ablaufen, verwendet werden. Durch seine enge Verbindung mit BPEL kann BPEL4Chor sehr gut als Startpunkt fĂŒr eine Webservice-Lösung verwendet werden

    SoCRocket - A flexible and extensible Virtual Platform for the development of robust Embedded Systems

    Get PDF
    Der Schwerpunkt dieser Arbeit liegt in der Erhöhung des Abstraktionsniveaus im Entwurfsprozess, speziell dem Entwurf von Systemen auf Basis von Virtuellen Plattformen (VPs), Transaction-Level-Modellierung (TLM) und SystemC. Es wird eine ganzheitliche Methode vorgestellt, mit der komplexe eingebettete Systeme effizient modelliert werden können. Ergebnis ist eine der RTL-Synthese nahezu gleichgestellte Genauigkeit bei wesentlich höherer FlexibilitĂ€t und Simulationsgeschwindigkeit. Das SoCRocket-System orientiert sich dazu an existierenden Standards und stellt Methoden zu deren effizientem Einsatz zur Verbesserung von Simulationsgeschwindigkeit und Simulationsgenauigkeit vor. So wird unter anderem gezeigt, wie moderne Multi-Kanal-Protokolle mit Split-Transfers durch Ausgleich des Intertransaktions-Timings ohne die EinfĂŒhrung zusĂ€tzlicher Protokollphasen zeitlich genau modelliert werden können. StandardisierungslĂŒcken in den Bereichen Speichermodellierung und Systemkonfiguration werden durch standardoffene Lösungen geschlossen. DarĂŒber hinaus wird neue Infrastruktur zur Modellierung von Signalkommunikation auf Transaktionsebene, der Verifikation von Komponenten und der Modellierung des Energieverbrauchs vorgestellt. Zur Demonstration wurden die Kernkomponenten einer im europĂ€ischen Raumfahrtsektor maßgeblichen Hardwarebibliothek modelliert. Alle Komponenten wurden zunĂ€chst in Unit-Tests verifiziert und anschließend in einem Systemprototypen integriert. Zur Verifikation der Funktion, sowie Bestimmung von Simulationsgeschwindigkeit und zeitlicher Genauigkeit, wurde dieser fĂŒr unterschiedliche Abstraktionsstufen konfiguriert und mit einem in VHDL beschriebenen RISC-Referenzentwurf (LEON3MP) verglichen. Das System mit losem Timing (LT) und blockierender Kommunikation ist im Durchschnitt 561-mal schneller als die RTL-Referenz und weist eine durchschnittliche Timing-Abweichung von 7,04% auf. Das System mit nĂ€herungsweise akkuratem Timing (AT) und nicht-blockierender Kommunikation ist 335-mal schneller. Die durchschnittliche Timing-Abweichung betrĂ€gt hier nur noch 3,03%, was einer Standardabweichung von 0.033 und damit einer sehr hohen statistischen Sicherheit entspricht. Die verschiedenen Abstraktionsniveaus können zur Realisierung mehrstufiger Architekturexplorationen eingesetzt werden. Dies wird am Beispiel einer hyperspektralen Bildkompression verdeutlicht.The focus of this work is raising the abstraction level in the development process, especially for the design of systems based on Virtual Platforms (VPs), Transaction Level Modeling (TLM), and SystemC. A holistic method for efficient modeling of complex embedded systems is presented. Results are accuracies close to RTL synthesis but at much higher flexibility, and simulation performance. The SoCRocket system integrates existing standards and introduces new methods for improvement of simulation performance and accuracy. It is shown, amongst others, how modern multi-channel protocols with split transfers can be accurately modeled by compensating inter-transaction timing without introducing additional protocol phases. Standardization gaps in the area of memory modeling and system configuration are closed by standard-open solutions. Furthermore, new infrastructure for modeling signal communication on transaction level, verification of components, and estimating power consumption are presented. All components have been verified in unit tests and were subsequently integrated in a system prototype. For functional verification, as well as measurement of simulation performance and accuracy, the prototype was configured for different abstractions and compared to a VHDL-based RISC reference design (LEON3MP). The loosely-timed platform prototype with blocking communication (LT) is in average 561 times faster than the RTL reference and shows an average timing deviation of 7,04%. The approximately-timed system (AT) with non-blocking communication is 335 times faster. Here, the timing deviation is only 3,03 %, corresponding to a standard deviation of 0.033, proving a very high statistic certainty. The system’s various abstraction levels can be exploited by a multi-stage architecture exploration. This is demonstrated by the example of a hyperspectral image compression

    ZuverlÀssigkeitsbewertung von vernetzten eingebetteten Systemen mittels Fehlereffektsimulation

    Get PDF
    Die Bedeutsamkeit von eingebetteten Systemen steigt kontinuierlich. Dies zeigt sich bereits anhand ihrer hohen Verbreitung. Neben der reinen Anzahl steigt zusĂ€tzlich die KomplexitĂ€t der einzelnen Systeme. Dies resultiert nicht nur in einem steigenden Entwurfsaufwand, sondern betrifft zusĂ€tzlich den Analyseaufwand. Hierbei ist zu beachten, dass die Systeme vermehrt sicherheitsrelevante Aufgaben ĂŒbernehmen. Ein anschauliches Beispiel stellen Systeme zur Fahrerassistenz bzw. Fahrzeugautomatisierung dar. Durch den rasanten Fortschritt in den letzten Jahren, wird erwartet, dass diese Systeme in den nĂ€chsten Jahren bereits hochautomatisiertes Fahren ermöglichen. FĂŒr solche Systeme bedeutet ein Ausfall bzw. falsch erbrachter Dienst schwerwiegende Folgen fĂŒr die Umwelt und Personen im Umfeld. Eine Sicherheitsbewertung ist zwingend vorgeschrieben. Die hohe Vernetzung der einzelnen Systeme bedingt, dass eine isolierte Betrachtung nicht mehr ausreichend ist. Deshalb muss die Analyse neben der gestiegenen KomplexitĂ€t der einzelnen Systeme zusĂ€tzlich die Interaktionen mit weiteren Systemen beachten. Aktuelle Standards empfehlen zur Sicherheitsbewertung hĂ€ufig Verfahren wie Brainstorming, Fehlermöglichkeits- und Fehlereinflussanalysen oder Fehlerbaumanalysen. Der Erfolg dieser Verfahren ist meist sehr stark von den beteiligten Personen geprĂ€gt und fordert ein umfassendes Systemwissen. Die beteiligten Personen mĂŒssen die zuvor beschriebene erhöhte KomplexitĂ€t und Vernetzung beachten und analysieren. Diese Arbeit stellt einen Ansatz zur UnterstĂŒtzung der Sicherheitsbewertung vor. Ziel ist, das benötigte Systemwissen von den beteiligten Personen, auf ein Simulationsmodell zu ĂŒbertragen. Der Anwender ermittelt anhand des Simulationsmodells die systemweiten Fehlereffekte. Die Analyse der Fehlerpropagierung bildet die Grundlage der traditionellen Sicherheitsanalysen. Da das Simulationsmodell die SystemkomplexitĂ€t und die SystemabhĂ€ngigkeiten beinhaltet, reduzieren sich die Anforderungen an die beteiligten Personen und folglich der Analyseaufwand. Um solch ein Vorgehen zu ermöglichen, wird eine Methode zur Fehlerinjektion in Simulationsmodelle vorgestellt. Hierbei ist vor allem die UnterstĂŒtzung unterschiedlicher Abstraktionsgrade, insbesondere von sehr abstrakten System-Level-Modellen, wichtig. Des Weiteren wird ein Ansatz zur umfassenden Fehlerspezifikation vorgestellt. Der Ansatz ermöglicht die Spezifikation von Fehlerursachen auf unterschiedlichen Abstraktionsebenen sowie die automatisierte Einbringung der Fehler in die Simulation. Neben der Einbringung der Fehler bildet die Beobachtung und Analyse der Fehlereffekte weitere wichtige Aspekte. Eine modellbasierte Spezifikation rundet den Ansatz ab und vereinfacht die Integration in einen modellgetriebenen Entwurf

    Wissensbasierte Prozesskonfiguration im Bauwesen

    Get PDF
    Das Ziel der Prozesskonfiguration besteht darin, typische Bauprozesse wie Planungsprozesse, AusfĂŒhrungsprozesse, Steuerungs- und Entscheidungsprozesse zu unterstĂŒtzen. Infolgedessen bilden die Prozesse und der Einsatz von Prozessmodellen fĂŒr verschiedene Aufgabenbereiche im Bauwesen die Grundlage fĂŒr die computerunterstĂŒtzte Bearbeitung von Bauvorhaben. Die Bauprozessmodelle werden meistens in einer semi-formalen Sprache dargestellt. Das erlaubt die weitere Formalisierung zum Zweck der intelligenten Konfiguration der Prozesse. Das bedeutet, dass die Prozesse auf Basis des formal beschriebenen Prozesswissens konfiguriert, zusammengestellt und instanziiert werden können. Solche Prozesse sind besonders aktuell im Bereich des Risikomanagements, das in den letzten Jahren im Bauwesen an Bedeutung gewonnen hat. Die Prozesse sollen bei der Suche nach einem alternativen Ablauf im Fall einer Prozessstörung ad-hoc konfiguriert und zur VerfĂŒgung gestellt werden. Dies kann semi-automatisch mit Einsatz wissensbasierter Methoden realisiert werden. Die Prozesse im Bauwesen bergen diverse spezielle Eigenschaften in sich, die die Problematik der typischen Konfigurationsvorgehensweise sichtbar werden lassen. Wesentliche Merkmale der Bauprozesse sind der durchgĂ€ngige Informationsfluss und der hohe Kommunikationsbedarf zwischen allen Beteiligten im Bauprojekt. Das impliziert Anforderungen an eine effektive InteroperabilitĂ€t innerhalb des Bauprojekts. In einem signifikant großen Projekt wie beispielsweise dem Flughafenbau, bei dem sich die Baustelle auf tausenden Hektar FlĂ€che erstreckt und mehrere Dutzende Baufirmen involviert sind, die ĂŒber unterschiedliche Software und Baudatenmodelle und Standards verfĂŒgen, ist die Koordination sowie ein effektiver Informationsaustausch und als Folge die Prozesskonfiguration gravierend erschwert. Dementsprechend spielt die Anwendung einer ĂŒbergeordneten Struktur, die die HeterogenitĂ€t der verteilten Umgebung einkapselt, eine bedeutende Rolle. Des Weiteren bringt ein ontologiebasierter Ansatz wesentliche Vorteile bei der Betrachtung der existierenden Problematik. Ontologie ist eine explizite, formale Spezifikation einer gemeinsamen Konzeptualisierung (Gruber 1993). Darunter kann eine konzeptuelle Formalisierung von Wissensbereichen und Begriffssystemen verstanden werden. Mittels Ontologie kann Wissen verteilt werden, was eine verbesserte InteroperabilitĂ€t in komplexen Systemen mit vielen heterogenen Ressourcen, wie beispielsweise Bauwesensystemen, gewĂ€hrleistet. Anwendungsbereiche der Ontologie sind Kommunikation und ReprĂ€sentation sowie Wiederverwendung von Wissen. Die Ontologie wird in der Regel in Form einer Taxonomie dargestellt. Solche Konstrukte ermöglichen es, Struktur in ein heterogenes Umfeld zu bringen. So kann eine allgemeine bereichsĂŒbergreifende Ontologie, eine Top-Level Ontology, eine ĂŒbergeordnete Baustruktur gut abbilden. Potenziell ermöglicht eine Ontologie die Analyse des DomĂ€nenwissens auf semantischer Basis, wie Schlussfolgerung, KonsistenzprĂŒfung und gezielte Suche. Die FlexibilitĂ€t bei der Konfiguration wird durch die regelbasierte Anwendung unterstĂŒtzt. DarĂŒber hinaus können intelligente Lösungen durch Anwendung verschiedener Baustrategien, die den Prozessablauf optimieren, erzielt werden. Die Prozesse, Ontologien und Regeln können verschiedene Arten von Wissen abbilden und als Kombination eine effiziente, wissensbasierte Prozesskonfiguration ermöglichen. Der Schwerpunkt dieser Arbeit liegt auf dem Schließen der ProzesskonfigurationslĂŒcke, in dem eine Kombination aus Prozessen, Prozesskonfiguration, Ontologien und Regeln prĂ€sentiert wird. Dabei zĂ€hlt zu den wichtigsten BeitrĂ€gen der Arbeit, InteroperabilitĂ€t innerhalb des Bauprojekts voran zu bringen, eine unternehmensĂŒbergreifende, ĂŒbergeordnete ontologische Struktur fĂŒr die effektive Zusammenarbeit in den verteilten Bauumgebungen zu erarbeiten und eine intelligente Prozesskonfiguration und -rekonfiguration zu gewĂ€hrleisten
    corecore