745 research outputs found

    MDA auf Basis Open Source - Abwicklungen eines Pilotprojektes für einen Geschäftsvorfall einer Versicherung mit MDA auf Basis von Open Source

    Get PDF
    Diese Diplomarbeit befasst sich mit der Model Driven Architecture (MDA) und deren Anwendung auf Basis von Open Source. Für ein Unternehmen ist es immer wichtig zu wissen, wie der aktuelle Stand der Technik ist und ob diese Technik produktiv eingesetzt werden kann, um sich dadurch Vorteile am Markt zu verschaffen. Es werden zunächst einige Grundlagen von Open Source und MDA erörtert. Danach wird mittels einer Evaluierung von Open Source Modellierungs- und Generierungswerkzeugen ein Überblick über die am Markt verfügbaren Werkzeuge gegeben. Anschließend wird die prototypenhafte Umsetzung eines Geschäftsvorfalles einer Versicherung beschrieben, um den Stand der Technik zu demonstrieren. In der Schlussbetrachtung folgt ein Fazit über den Verlauf und die Resultate der Diplomarbeit. Zum Schluss wird ein Ausblick für die Model Driven Architecture gegeben.This diploma thesis is concerned with the Model Driven Architecture (MDA) and their appliance to basis of Open Source. For an enterprise it is always important to know, how the current state of the art is and whether this technology can be used productively, in order to provide thereby advantages at the market. First some bases of Open Source and MDA are discussed. Afterwards, by an evaluation of Open Source modelling and generation tools, an overview of the market of the supporting tools is given. Subsequently, the prototypeful implementation of a business use case of an insurance company is described, in order to demonstrate the state of the art. In the final consideration a result follows over the process and the results of the diploma thesis. In the end a view in the future for the Model Driven Architecture is given

    Evaluierung von Data Warehouse-Werkzeugen

    Get PDF
    Die wachsende Bedeutung von Data Warehouse-Lösungen zur Entscheidungsunterstützung in großen Unternehmen hat zu einer unüberschaubaren Vielfalt von Software-Produkten geführt. Aktuelle Data Warehouse- Projekte zeigen, daß der Erfolg auch von der Wahl der passenden Werkzeuge für diese komplexe und kostenintensive Umgebung abhängt. Wir präsentieren eine Methode zur Evaluierung von Data Warehouse Tools, die eine Kombination aus Bewertung per Kriterienkatalog und detaillierten praktischen Tests umfaßt. Die Vorgehensweise ist im Rahmen von Projekten mit Industriepartnern erprobt und wird am Beispiel einer Evaluierung führender ETL-Werkzeuge demonstriert

    DeCREE: Eine Domänenspezifische Sprache zur Modellierung von Choreography-First Szenarien

    Get PDF
    Die Choreografie-Diagramme der BPMN 2.0 erlauben die Modellierung von Interaktionsprotokollen zwischen verschiedenen Teilnehmern. Es sinnvoll, die jeweiligen Zuständigkeiten der Teilnehmer explizit mit zu modellieren. Herausforderungen sind die strikte Einhaltung der relevanten BPMN-Untermenge zur Erhaltung von Konformität und Interoperabilität, sowie die Handhabung der Zuständigkeiten als Modellelemente erster Klasse um Interaktionsprotokolle auf fachlich höherer Ebene validieren zu können. Mit dem vorgeschlagenen Choreography-First Ansatz und der Modellierungssprache DeCREE bewältigen wir diese Herausforderungen. Das Metamodell von DeCREE umfasst sowohl eine BPMN-Untermenge als auch RACI-Zuständigkeiten. Als Beleg für die Machbarkeit stellen wir eine Implementierung der DSL auf Basis des Xtext Language Frameworks vor

    Linked Enterprise Data als semantischer, integrierter Informationsraum für die industrielle Datenhaltung

    Get PDF
    Zunehmende Vernetzung und gesteigerte Flexibilität in Planungs- und Produktionsprozessen sind die notwendigen Antworten auf die gesteigerten Anforderungen an die Industrie in Bezug auf Agilität und Einführung von Mehrwertdiensten. Dafür ist eine stärkere Digitalisierung aller Prozesse und Vernetzung mit den Informationshaushalten von Partnern notwendig. Heutige Informationssysteme sind jedoch nicht in der Lage, die Anforderungen eines solchen integrierten, verteilten Informationsraums zu erfüllen. Ein vielversprechender Kandidat ist jedoch Linked Data, das aus dem Bereich des Semantic Web stammt. Aus diesem Ansatz wurde Linked Enterprise Data entwickelt, welches die Werkzeuge und Prozesse so erweitert, dass ein für die Industrie nutzbarer und flexibler Informationsraum entsteht. Kernkonzept dabei ist, dass die Informationen aus den Spezialwerkzeugen auf eine semantische Ebene gehoben, direkt auf Datenebene verknüpft und für Abfragen sicher bereitgestellt werden. Dazu kommt die Erfüllung industrieller Anforderungen durch die Bereitstellung des Revisionierungswerkzeugs R43ples, der Integration mit OPC UA über OPCUA2LD, der Anknüpfung an industrielle Systeme (z.B. an COMOS), einer Möglichkeit zur Modelltransformation mit SPARQL sowie feingranularen Informationsabsicherung eines SPARQL-Endpunkts.Increasing collaboration in production networks and increased flexibility in planning and production processes are responses to the increased demands on industry regarding agility and the introduction of value-added services. A solution is the digitalisation of all processes and a deeper connectivity to the information resources of partners. However, today’s information systems are not able to meet the requirements of such an integrated, distributed information space. A promising candidate is Linked Data, which comes from the Semantic Web area. Based on this approach, Linked Enterprise Data was developed, which expands the existing tools and processes. Thus, an information space can be created that is usable and flexible for the industry. The core idea is to raise information from legacy tools to a semantic level, link them directly on the data level even across organizational boundaries, and make them securely available for queries. This includes the fulfillment of industrial requirements by the provision of the revision tool R43ples, the integration with OPC UA via OPCUA2LD, the connection to industrial systems (for example to COMOS), a possibility for model transformation with SPARQL as well as fine granular information protection of a SPARQL endpoint

    Adaptivität und semantische Interoperabilität von Manufacturing Execution Systemen (MES)

    Get PDF

    Adaptivität und semantische Interoperabilität von Manufacturing Execution Systemen (MES)

    Get PDF
    MES (Manufacturing Execution Systems) are situated between automation and management level and are affected from changes of the production. Therefore their adaptivity within the lifecycle of production plants is mission critical. Furthermore MES act as data and information hub. This means that they have to work together with other systems in an efficient and seamless way. MES must be interoperable and must have semantics under control. The present publication faces both aspects

    Ansatz zur ganzheitlichen Erstellung und Verarbeitung von Dienstleistungsmodellen

    Get PDF
    Obgleich die Notwendigkeit einer Dienstleistungsmodellierung ausreichend anerkannt ist, wird ein Fehlen einer ganzheitlichen Modellierungsmethode weiterhin bemängelt. Einen Grund für dieses Fehlen sehen die Autoren darin, dass bei der Erstellung von Dienstleistungsmodellen die Metamodellebenen oftmals nicht klar genug getrennt werden. Eine solche Trennung kann zu einer wesentlichen Verbesserung der Ergebnisse bei Forschungsbemühungen in der Domäne der Dienstleistungsmodellierung führen. Gleichzeitig impliziert eine Betrachtung von Metamodellebenen die Notwendigkeit der Interoperabilität auf der Ebene der Metametamodelle. Dieser Beitrag legt die Gründe für die Notwendigkeit einer klaren Betrachtung der Metamodellierungsebenen dar und zeigt die Möglichkeit eines Mappings auf der Ebene der Metametamodelle als elementares Gestaltungselement einer ganzheitlichen Modellierungsmethode auf

    Interoperabilität von Metadaten innerhalb der NFDI: Konsortienübergreifender Metadaten-Workshop am 2./3. Juli 2020

    Get PDF
    Auf einem virtuellen Metadatenworkshop diskutierten Vertreterinnen und Vertreter von 17 verschiedenen NFDI-Konsortien Konzepte zur Interoperabilität von Metadaten in Bezug auf inhaltliche Überschneidungen, Herangehensweisen zur Metadatenmodellierung, technische Aspekte und Infrastruktur bis hin zu organisatorischen Aspekten und Zusammenarbeit. Die vertretenen Konsortien möchten auch in Zukunft eng im Bereich Metadaten zusammenarbeiten und Standards schaffen, die es Forschenden in der Zukunft möglich machen, ihre Forschungsergebnisse gleichzeitig spezifisch und interoperabel zu beschreiben. Die Dynamik der Formierung der Nationalen Forschungsdateninfrastruktur (NFDI) soll für Einigung über allgemein bedeutsame Fragen der Metadatierung genutzt werden. Zudem sollen mit Unterstützung des NFDI-Direktorats Strukturen zur gemeinsamen Standardisierungsarbeit geschaffen und international vernetzt werden
    corecore