21 research outputs found

    Methoden- und WerkzeugunterstĂŒtzung fĂŒr evolutionĂ€re, objektorientierte Software-Projekte

    Get PDF
    Die Software-Entwicklung verlĂ€uft in der Regel evolutionĂ€r, d.h. als eine Folge von Erweiterungs- und Anpassungszyklen, beruhend auf Erfahrung, Nutzung und Revision. Viele der bekannten Vorgehensmodelle, wie z.B. "Rational Unified Process" (RUP), berĂŒcksichtigen diesen evolutionĂ€ren Aspekt der Software-Entwicklung ungenĂŒgend. Mit dem EOS-Modell, ein Vorgehensmodell fĂŒr die evolutionĂ€re, objektorientierte Software-Entwicklung (EOS), wird versucht, dieses Defizit zu ĂŒberbrĂŒcken. In der ursprĂŒnglichen Fassung ist das EOS-Modell methodenunabhĂ€ngig. Ein Ziel der Dissertation war es, konkrete Methoden fĂŒr die EOS-Subprozesse Projektmanagement, Software-Entwicklung, QualitĂ€tssicherung, Konfigurationsmanagement und Nutzung und Bewertung vorzuschlagen. Ausgehend von der Methoden-Definition wurde prototypisch ein Werkzeug implementiert, das eine systematische UnterstĂŒtzung der definierten Methoden ermöglicht

    Klausurtagung des Instituts fĂŒr Telematik. Schloss Dagstuhl, 29. MĂ€rz bis 1. April 2000

    Get PDF
    Der vorliegende Bericht gibt einen Überblick ĂŒber aktuelle Forschungsarbeiten des Instituts fĂŒr Telematik an der UniversitĂ€t Karlsruhe (TH). Das Institut fĂŒr Telematik ist in einem Teilgebiet der Informatik tĂ€tig, welches durch das Zusammenwachsen von Informatik und Kommunikationstechnik zur Telematik geprĂ€gt ist. Es gliedert sich in die Forschungsbereiche Telematik, Telecooperation Office (TecO), Cooperation & Management, Hochleistungsnetze und Netzwerkmanagement sowie dezentrale Systeme und Netzdienste. Die Schwerpunkte des Forschungsbereichs "Telematik" (Prof. Dr. Dr. h.c. mult. G. KrĂŒger) liegen in den Bereichen "DienstgĂŒte", "Mobilkommunikation" und "Verteilte Systeme". Gemeinsames Ziel ist die Integration heterogener Netze (Festnetze und Funknetze), Rechnersysteme (von Workstations bis zu PDAs) und Softwarekomponenten, um damit den Anwendern eine Vielzahl von integrierten Diensten effizient und mit grĂ¶ĂŸtmöglicher QualitĂ€t zu erbringen. Das "Telecooperation Office" (TecO, Prof. Dr. Dr. h.c. mult. G. KrĂŒger) ist ein Institutsbereich, der in Zusammenarbeit mit der Industrie anwendungsnahe Forschungsthemen der Telematik aufgreift. Im Mittelpunkt steht die innovative Nutzung von Kommunikationsinfrastrukturen mit den Schwerpunkten Softwaretechnik fĂŒr Web-Anwendungen, neue Formen der Telekooperation sowie tragbare und allgegenwĂ€rtige Technologien (Ubiquitous Computing). Die Kernkompetenz des Forschungsbereichs "Cooperation & Management" (Prof. Dr. S. Abeck) liegt im prozessorientierten Netz-, System- und Anwendungsmanagement. Es werden werkzeuggestĂŒtzte Managementlösungen fĂŒr Betriebsprozesse entwickelt und in realen Szenarien erprobt. Ein wichtiges Szenario stellt das multimediale Informationssystem "NEXUS" dar, das als Plattform eines europaweit verteilten Lehr- und Lernsystems genutzt wird. Der Forschungsbereich "Hochleistungsnetze & Netzwerkmanagement" (Prof. Dr. W. Juling) befasst sich mit Technologie und Konzepten moderner leistungsfĂ€higer Netzwerke sowie darĂŒber hinaus mit sĂ€mtlichen Aspekten des Managements dieser zumeist ausgedehnten Netze. Um eine enge Abstimmung zwischen ForschungsaktivitĂ€ten und betrieblicher Praxis zu erzielen, werden insbesondere auch Synergien zwischen Institut und Rechenzentrum angestrebt. Die Arbeiten des Forschungsbereichs "Dezentrale Systeme und Netzdienste" (Prof. Dr. L. Wolf) befassen sich mit der UnterstĂŒtzung verteilter Multimedia-Systeme, auch unter BerĂŒcksichtigung von Komponenten mit drahtlosem Zugang und den dafĂŒr geeigneten Architekturen und Infrastrukturen. Dabei werden vor allem Aspekte der Kommunikationssysteme wie Protokollmechanismen, Ressourcenverwaltung und adaptive und heterogene Systeme untersucht

    Modellgetriebene Entwicklung ĂŒberwachter Webservice-Kompositionen

    Get PDF
    Ziel der Arbeit ist es, existierende AnsĂ€tze fĂŒr die Entwicklung von WS-Kompositionen dahingehend zu ergĂ€nzen, dass die Überwachungsbelange zielgerichtet und effizient berĂŒcksichtigt werden können. Die Prinzipien der modellgetriebenen Softwareentwicklung werden dazu genutzt, um (1) eine plattformunabhĂ€ngige Spezifikation der Belange und (2) eine vollstĂ€ndig automatisierte ÜberfĂŒhrung dieser Spezifikation in lauffĂ€hige Implementierungen zu ermöglichen

    Informationssysteme auf der Basis aktiver Hypertextdokumente

    Get PDF
    Die Arbeit beschĂ€ftigt sich mit der Implementierung von Informationssystemen, die mittels Web-Techniken wie etwa der Hypertext Markup Language (HTML), des Hypertext Transport Protocols (HTTP) oder der Extensible Markup Language (XML) erstellt werden. Web-basierte Informationssysteme werden verstĂ€rkt eingesetzt, um vollstĂ€ndige Applikationen fĂŒr die Abwicklung von GeschĂ€ftsprozessen zu implementieren. Die Ausgangslage fĂŒr die Arbeit ist das Fehlen formeller Modelle, mit der solche Systeme umgesetzt werden können, kombiniert mit dem Aufkommen neuer Anwendungsgebiete wie der Business-to-Business-Kopplung mittels Web-basierter Systeme. Im Verlauf der Arbeit werden bestehende Systeme analysiert um darauf aufbauend die Anforderungen fĂŒr ein Modell zur Beschreibung und Realisierung Web-basierter Anwendungen festzulegen. Das daraus entwickelte Modell stellt die Information, die in solchen Anwendungen ausgetauscht und verarbeitet wird, in den Vordergrund, und setzt als wichtigstes Beschreibungsmittel Hypertextdokumente ein, welche um aktive Komponenten ergĂ€nzt zu aktiven Hypertextdokumenten (AHDs) werden. Das Modell fĂŒr aktive Hypertextdokumente (AHDM) umfaßt ein Informationsmodell, welches den Aufbau aktiver Hypertextdokumente beschreibt, ein Kommunikationsmodell zur Regelung des Informationsaustausches, ein Objektmodell fĂŒr die Definition des Zusammenspiels der aktiven Bestandteile eines AHDs und ein Laufzeitmodell fĂŒr die tatsĂ€chliche AusfĂŒhrung der aktiven Bestandteile. Aktive Hypertextdokumente werden als XML-Dokumente realisiert, die entsprechend dem Informationsmodell neben den ursprĂŒnglichen Nutzdaten auch Funktionen und Variablen enthalten. Neben dem Modell wird auch eine Vorgehensweise beschrieben, die den Einsatz aktiver Hypertextdokumente erleichtern soll. Die PraktikabilitĂ€t des Modells wird anhand von Beispielanwendungen demonstriert, die von einfachen, eigenstĂ€ndigen Anwendungen hin zu kooperativen, vernetzten Anwendungen mit mobilen Dokumenten reichen. Die zur Nutzung aktiver Hypertextdokumente notwendigen Werkzeuge werden ebenfalls beschrieben

    A comprehensive description of a model-based, continous development process for AUTOSAR systems with integrated quality assurance

    Get PDF
    Der AUTOSAR-Standard definiert neben einer durchgĂ€ngig werkzeuggestĂŒtzten und modellbasierten Methodik zur Entwicklung von SteuergerĂ€te-Software eine technische Infrastruktur als standardisierte SteuergerĂ€te-Basissoftware zur Implementierung dieser Systeme im Automobil. Die wesentlichen Herausforderungen in der Entwicklung automotiver Systeme ergeben sich dabei nicht nur aus der stetig steigenden Menge korrekt umzusetzender FunktionalitĂ€t, sondern auch aus der wachsenden Anzahl zusĂ€tzlich zu erfĂŒllender QualitĂ€tsanforderungen, wie z.B. Sicherheit, Performanz oder Kosten. Die Integration von AnsĂ€tzen zur frĂŒhzeitigen, Entwicklungsphasen begleitenden ÜberprĂŒfung von Korrektheits- und QualitĂ€tskriterien kann dabei maßgeblich zur Beherrschbarkeit der KomplexitĂ€t dieser Systeme beitragen. Es wird ein entsprechend durchgĂ€ngig werkzeuggestĂŒtzter und modellbasierter Entwicklungsprozess, basierend auf dem V-Modell sowie dessen Integration in die AUTOSAR-Methodik definiert. Neben der ÜberprĂŒfung der funktionalen Korrektheit durch systematische Testverfahren sieht das erweiterte Prozessmodell die Bewertung beliebiger QualitĂ€tskriterien fĂŒr das zu entwickelnde System vor. Es wird beschrieben, wie insbesondere im AUTOSAR-Kontext der Entwurf der Systemarchitektur die hierfĂŒr entscheidende Design-Phase darstellt und als Grundlage fĂŒr QualitĂ€tsabschĂ€tzungen durch Architektur-Evaluation dienen kann. Die Vorgehensweise in den einzelnen Entwicklungsschritten wird detailliert anhand einer umfangreichen, vollstĂ€ndig AUTOSAR-konformen Fallstudie, bestehend aus einem vereinfachten PKW-Komfortsystem, demonstriert. Die durchgĂ€ngige Toolkette umfasst alle Phasen von der Anforderungsspezifikation bis zur Implementierung auf einem prototypischen Hardware-Demonstrator bestehend aus vier ĂŒber CAN vernetzten SteuergerĂ€ten und HIL-Schnittstellen fĂŒr die TestdurchfĂŒhrung. Es wird auf ausgewĂ€hlte Implementierungsdetails, notwendige Workarounds und Besonderheiten der prototypischen Umsetzung eingegangen.The AUTOSAR standard defines a seamless tool supported and model based methodology for ECU software design and engineering. Furthermore, the standard specifies a technical infrastructure by means of standardized basic software modules for ECU networks, serving as a uniform implementation platform for AUTOSAR systems. The major challenges in automotive systems development not only arise as a result of the contiuously growing amount of functionality to be realized correctly, but also from the increasing number of quality requirements to be taken into account, e.g. safety, performance, and costs. The integration of approaches for early checking of correctness and quality criteria accompanying the different development phases makes a significant contribution towards coping with the complexity of such systems. We describe such a model based development process and a corresponding tool chain based on the V-modell and its embedding into the AUTOSAR methodology. For the validation of functional correctness systematic testing approaches are applied, and for quality criteria according evaluation methods are used. We discuss that especially in the context of AUTOSAR, the phase of architectural system design is crucial for the quality properties of the system under development, and to what extent architecture evaluation can be used for quality estimation. The practices in the different development steps are illustrated in detail by means of a comprehensive, AUTOSAR compliant case study, i.e. a body comfort system. The tool chain proposed comprises all development stages, starting from the requirements specification, and concluding with the system implementation on a hardware demonstrator prototype. The demonstrator consists of ECUs coupled via CAN, as well as HIL interfaces for test case applications. We give detailled insights in selected impl. issues, workarounds required, and the configuration steps needed for the AUTOSAR operating system. A discussion of the pro's and con's regarding the potential of AUTOSAR concludes

    Methodic Development of Highly Integrated Mechatronic Systems Considering Functional, Reliability and Safety aspects - Analysis and Quantification

    Get PDF
    Zeitlich dicht aufeinander folgende Produktinnovationen, der hochdynamische Markt und die Hersteller von automotiven Produkten erfordern einen eng an die KundenbedĂŒrfnisse angepassten Entwicklungsprozess. Sicherheitsanforderungen, ZuverlĂ€ssigkeitsanforderungen und Kundenerwartungen an das endgĂŒltige System und dessen Komponenten steigen stetig. Das gleichermaßen gestiegene Bewusstsein fĂŒr Sicherheit und ZuverlĂ€ssigkeit verlangt spezielle effektive und effiziente Analyse- und Bewertungsmethoden sicherheitskritischer Systeme. Die Bewertung von Sicherheit und ZuverlĂ€ssigkeit basiert auf der Strukturbeschreibung eines Systems. Aufgrund des gestiegenen Anteils an mechatronischen Systemen im Fahrzeug, ist hier aus Entwicklungssicht eine domĂ€nenĂŒbergreifende Strukturbeschreibung notwendig, die die zuverlĂ€ssigkeitstechnische Auswertung unterstĂŒtzt. Der in dieser Arbeit eingefĂŒhrte Systembewertungsprozess beschreibt die generelle Vorgehensweise zur Bewertung von Systemen. Des Weiteren wird eine Systemmatrix zur formalen Beschreibung der technischen, funktionalen und zuverlĂ€ssigkeitstechnischen SystemzusammenhĂ€nge definiert. Diese bildet die Grundlage fĂŒr die Analyse und die Evaluierung von ZuverlĂ€ssigkeitsnetzen. Die Analyse der Systemmatrix erfolgt unter der Verwendung von standardisierten zuverlĂ€ssigkeitstechnischen Methoden. Diese Methoden und deren Anwendung werden durch die empirische Ausfallanalyse und die Pfadimportanzanalyse erweitert. Die quantifizierten Informationen der Systemmatrix werden durch die hier eingefĂŒhrten ZuverlĂ€ssigkeitsnetze beschrieben und in einen Systembaukasten zusammengefasst. Dieser Baukasten erlaubt bereits quantifizierte Teilsysteme unter Beibehaltung der Bewertung innerhalb des Bewertungsprozesses wiederzuverwenden. Werden Systemanforderungen bezĂŒglich der QualitĂ€tsmerkmale (z. B. ZuverlĂ€ssigkeit) nicht erfĂŒllt, besteht die Möglichkeit, das System durch eine Optimierung an diese Anforderungen anzupassen. Diese Vorgehensweise wird anhand eines Entscheidungsprozesses dargestellt. Die Informationen ĂŒber das System werden dem Optimierungsprozess ĂŒber das ZuverlĂ€ssigkeitsnetz bereitgestellt. ErgĂ€nzend werden neben der Strukturfunktion VorschlĂ€ge fĂŒr die Optimierung ĂŒbergeben. In Kombination mit dem Optimierungsprozess ist es möglich wichtige Konzept-Entscheidungen frĂŒhzeitig mit einer hohen Sicherheit zu treffen. Durch die Anwendung des Systembewertungsprozesses wird eine Reproduzierbarkeit der Analyseergebnisse erreicht, was im Garantiefall den Nachweis unterstĂŒtzt.The automotive industry demands very rapid innovative products and evolutions of those products. Safety and reliability requirements and expectations upon the final system and components are increasing significantly. These in turn are driving the need to evolve more effective and efficient analysis techniques for safety critical systems. To realize the assessment of the system safety and reliability a structural description of a system is essential. Due to the increased use of mechatronic systems in vehicles, descriptions considering all domains of the structure and supporting technical reliability evaluation are necessary. The system evaluation process introduced in this paper describes the general procedure for the evaluation of systems. Furthermore a system matrix for the formal description of the technical, functional and reliability interrelations is introduced. This forms the basis for the analysis of the matrix and the development and evaluation of reliability networks. The analysis of the system matrix is made using standardized methods of reliability engineering. These methods and their applications are extended by the empirical failure analysis and path importance analysis. Reliability networks are used to describe the system structure and additional quantified information. They are summarized into a system construction set. This construction set allows the reuse of already quantified subsystems within the evaluation process. If system requirements are not met (e.g. reliability), it is possible to adapt and optimize the system. This procedure is illustrated using a decision-making process. All information about the system is provided to the optimization process through the reliability network. In addition to structural information proposals for optimization are provided to the process. In combination with the optimization process, important decisions at an early concept stage with a high security become possible. Through the application of the system evaluation process, reproducibility of the analytical results is achieved, which provides additional support in case of warranty verification

    Konzept und prototypische Realisierung einer ontologiebasierten ERP/PDM-Kopplung mittels XML-Technologie

    Get PDF
    In der korrigierten 2. Version ist eine Referenz hinzugefĂŒgt. Bitte diese Version benutzen: http://miless.uni-duisburg-essen.de/servlets/DocumentServlet?id=12122 In diesem Kapitel werden die durch diese Arbeite gewonnenen Erkenntnisse zusammengefasst, und ein Ausblick auf mögliche weitere Forschungsarbeiten in dem Bereich des Produktdatenaustausches gegeben. Im Kapitel 2 wurde der Stand der Forschung im Bereich der ERP- bzw. PDMSysteme sowie Strategien zur Kopplung dieser Systeme aufgezeigt. Dazu wurd zunĂ€chst fĂŒr den jeweiligen Bereich ein einheitliches BegriffsverstĂ€ndnis geschaffen und darauf aufbauend jeweils stellvertretend ein Produkt fĂŒr die jeweilige Systemart vorgestellt. Die Betrachtung der jeweiligen Produkte erfolgte dabei in Hinblick auf deren Einsatz bei der Realisierung von ERP-OnTo-PDM in Kapitel 7. Des Weiteren wurde in diesem Kapitel bestehende Strategien zur Kopplung von IT-Systemen eingehender betrachtet und deren Schwachstellen aufgezeigt. Das Kapitel 3 stellte den Stand der Forschung auf dem Gebiet der Ontologien vor. ZunĂ€chst wurde in diesem Kapitel das Konzept Ontologie vorgestellt, welches im Rahmen des Wissensmanagements eine immer grĂ¶ĂŸere Bedeutung erhĂ€lt. Ontologien bilden den Kern des im Rahmen dieser Arbeit erarbeiteten ERP-OnTo-PDM-Konzeptes, einer ontologiebasierten auf XML-Technologie aufbauenden Impilmentierung zum semantischen Produktdaten-Austausch zwischen verschiedenen IT-Systemen, die produktrelevante Daten managen. Dazu wurden neben den definitorischen Grundlagen der Begriffswelt des Forschungsgebiet der Ontologien besonders deren Einsatzmöglichkeiten im Bereich des Datenaustausches von Produktdaten vorgestellt. Der Stand der Forschung auf dem Gebiet der Internettechnik war Gegenstand des Kapitels 4. Hier wurde die Extensible Markup Language (XML) mit ihren assoziierten Standards dargestellt. Von besonderem Interesse zur Implementierung des Konzepts ERP-OnTo-PDM war das Resource Description Framework (RDF), welches die Definition von Metadaten ermöglicht, um den semantikbasierten Produktdatenaustausch zu ermöglichen. Neben den Grundlagen von XML und RDF wurde auch das Gebiet der XML-basierten Produktdatenaustauschformate behandelt und deren Schwachstellen aufgezeigt. In Kapitel 5 wurden aus den in den drei zuvor behandelten Kapiteln aufgezeigten Schwachstellen die Anforderungen an eine semantische Kopplung von IT-Systemen mittels einer Ontologie abgeleitet und erlĂ€utert. Dazu wurden die Anforderungen an eine Kopplung von ERP- und PDM-Systemen in drei Bereiche untergliedert. ZunĂ€chst werden Anfoderungen die sich aus der Unternehmensorganisation ergeben dargestellt. Daran anschließend wurden Anforderungen die sich durch den Einsatz der beiden Informationsverarbeitungssysteme ergeben aufgezeigt. Im dritten Anforderungsbereich sind technische Anforderungen zusammengefaßt. Das auf Grundlage der aufgezeigten Schwachstellen und den daraus abgeleiteten Anforderungen an eine semantische Kopplung von Informationsverarbeitungssystemen erarbeitete Konzept ERP-OnTo-PDM ist Gegenstand des Kapitels 6. ZunĂ€chst wurde in diesem Kapitel eine Auswahl der zur Realisierung einer ontoogiebasierten Kopplung geeigneten Basistechnologie getroffen. Das Konzept wurde mittels eines RDF-Modells in diesem Kapitel veranschaulicht. Des Weiteren bildet RDF die Basistechnologie zur Realisierung das Konzept ERP-OnTO-PDM welches in Kapitel 7 beschrieben ist. In diesem Kapitel wurde zunĂ€chst auf das Vorgehensmodell zur Erstellung der Ontologie fĂŒr das Konzept ERP-OnTo-PDM eingegangen. Daran anschließend wurde die Anwendbarkeit durch eine prototypische Implementierung nachgewiesen. Es hat sich gezeigt, dass mittels einer semantischen Kopplung von IT-Systemem die Anzahl an Schnittstellen drastisch reduzieren lĂ€sst. Des Weiteren ist ein Erheblicher Vorteil von ERP-OnTo-PDM in der verwendeten Internettechnologie zu sehen. Durch den Einsatz von XML bzw. RDF wird eine durchgehende Datenverarbeitung auch ĂŒber verschiedene Medien ermöglicht. Daraus kann den neuen Anforderungen an ein Produktdatenmanagemt Rechnung getragen werden

    UnterstĂŒtzung von Integrationsdienstleistungen durch abstrakte Integrationsmuster

    Get PDF
    Integration ist eine fortwĂ€hrende Aufgabe in betrieblichen Informationssystemen. Durch den Einsatz verschiedener personeller und maschineller AufgabentrĂ€ger kommt es zu wiederkehrenden Integrationsproblemen, die vorrangig durch externe Dienstleister gelöst werden. Das zentrale Problem dieser Arbeit ist, dass in der Wissenschaft diskutiertes Lösungswissen in Form von Mustern existiert, aber keinen Eingang in die Praxis findet. Um dieses Problem zu untersuchen, wurde eine qualitative empirische Untersuchung durchgefĂŒhrt, welche erstmals im deutschsprachigen Raum WirkungszusammenhĂ€nge und Entscheidungsmechanismen in Integrationsprojekten analysiert. Als Ergebnis der qualitativen Erhebung kann festgehalten werden, dass dem Dienstleistungscharakter der Integration bisher zu wenig Beachtung geschenkt wurde und dass Integrationsmuster nicht eingesetzt werden, weil der Abstraktionsgrad des so konservierten Lösungswissens nicht zum Abstraktionsgrad der Problemstellungen passt. Deshalb definiert die Arbeit zunĂ€chst ein Dienstleistungsmodell der Integration, welches sich auf die empirische Untersuchung stĂŒtzt. Danach wird auf der Grundla-ge einer eigenschaftsbasierten Definition von Integrationsmustern eine Grundmenge an Mustern aus der Literatur extrahiert, die weiter abstrahiert werden. Als Abstraktionsprinzipien werden die Klassifikation und die Generalisierung eingesetzt. Abstrakte Integrationsmuster können als Ressourcen in ein Dienstleistungsmodell eingehen. FĂŒr die Klassifikation wurde ein erweiterbares und flexibles Klassifikationsverfahren – die Facettenklassifikation – gewĂ€hlt. Diese ermöglicht jederzeit das HinzufĂŒgen weiterer Facetten. Die Einordnung eines Musters muss nur innerhalb einer Facette disjunkt sein, es kann aber in andere Facetten eingeordnet werden. Die verwendeten Facetten entstammen sowohl dem Problem als auch dem Lösungsbereich. Jeder Facette liegt eine umfassende Analyse zugrunde. Die Klassifikation bildet den Ausgangspunkt der erneuten Generalisierung. Muster mit Ă€hnlichen bzw. identischen AusprĂ€gungen werden erfasst und auf ein gemeinsames Konzept untersucht. Diese Generalisierung wurde exemplarisch fĂŒr zwei Mustergruppen durchgefĂŒhrt. Dabei wurden die beiden abstrakten Integrationsmuster „zusĂ€tzlicher Zugriffspunkt“ sowie „Vermittler“ identifiziert. Die entwickelten Konzepte flossen in eine umfangreiche Evaluation ein, welche am Beispiel einer konkreten Dienstleistung im Bereich der E-Procurement-Integration durchgefĂŒhrt wurde. Die UnabhĂ€ngigkeit der Bewertung konnte dadurch sichergestellt werden, dass weder der Dienstleister noch der Kunde an der zuvor durchgefĂŒhrten empirischen Untersuchung beteiligt waren. Der erarbeitete Lösungsvorschlag wurde in einer Laborumgebung implementiert. Das vollstĂ€ndige Integrationsszenario ist dabei auf der Basis einer Virtualisierungsumgebung realitĂ€tsnah nachgebildet worden. Neben Instanzen der Kundensysteme mit identischem Versions- und Patch-Stand kamen auch DatenbestĂ€nde aus Produktivsystemen zum Einsatz. Die Integrationshilfsmittel wurden ebenfalls in der Laborumgebung eingerichtet. Durch abstrakte Integrationsmuster verbessert sich die Dienstleistungserbringung. Auf der Kundenseite bewirkt dies eine Verbesserungen der Integrations- und Unternehmensarchitektur sowie die Erschließung weiteren Verbesserungspotenzials. FĂŒr den Dienstleister ergibt sich neben einem verĂ€nderten Dienstleistungsmodell vor allem die Möglichkeit, einmalige Angebote in ein konfigurierbares Standarddienstleistungsangebot zu ĂŒberfĂŒhren. ZusĂ€tzlich kann eine verbesserte Ressourcennutzung (vor allem der Humanressourcen) anhand des verĂ€nderten Dienstleistungsmodells nachgewiesen werden. Im Rahmen der Arbeit konnte so ein Ansatz entwickelt werden, der die empirisch belegten Abstraktionsprobleme behebt und die Einsetzbarkeit von bestehendem Lösungswissen verbessert. Gleichzeitig werden die Wirkungsmechanismen und EntscheidungszusammenhĂ€nge durch das Dienstleistungsmodell besser erfass-, erklĂ€r- und vor allem planbar
    corecore