110 research outputs found

    Funktionsorientierte Qualitätsregelung in Produktionsnetzwerken - Qualitätsmanagement in der Produktion hochpräziser Produkte durch netzwerkweite Datenintegration

    Get PDF
    Die Produktion hochpräziser Produkte findet an der Grenze des technisch Machbaren statt. Dennoch kann es durch ungünstige Kombinationen einzelner Komponenten zu einer Nichterfüllung der Funktion des Endproduktes kommen, obwohl sich die Komponenten innerhalb der geforderten Toleranzen befinden. Durch die Anwendung funktionsorientierter Qualitätsregelstrategien, wie bspw. der selektiven Montage, innerhalb der eigenen Werksgrenzen, kann die technologische Komplexität reduziert werden. Dies ermöglicht die wirtschaftliche Produktion hochpräziser Produkte. Standort- und unternehmensübergreifend finden derartige Qualitätsregelstrategien jedoch bisher keine Anwendung, da u.a. kein ausreichender Informationsaustausch stattfindet. In der Unternehmenspraxis werden daher oft sehr enge Toleranzen für die zugelieferten Hochpräzisionskomponenten gesetzt, um die Qualität der Endprodukte sicherzustellen. Dies kann einen hohen Ausschuss auf Seiten des Lieferanten zur Folge haben. Langfristig sorgt diese Ineffizienz im Produktionsnetzwerk für Wettbewerbsnachteile aller beteiligten Partner. Eine weitere, besondere Herausforderung bei der verteilten Produktion in Produktionsnetzwerken besteht darin, dass Komponenten nicht als Einzelteile weitergereicht, sondern in Losen produziert und zu Transporteinheiten gebündelt auf Ladungsträgern zwischengelagert werden. Diese Lose sind individuellen Einflüssen ausgesetzt. Somit ergeben sich losspezifische Verteilungen der funktionskritischen Merkmalsausprägungen der Komponenten. Dies erhöht die Komplexität in der Produktion und wird in Qualitätsregelstrategien bisher nicht berücksichtigt. Um diesen Defiziten zu begegnen, wird in der vorliegenden Arbeit ein Ansatz zur funktionsorientierten Qualitätsregelung in Produktionsnetzwerken entwickelt. Dieser ermöglicht die unternehmensübergreifende Anwendung bestehender und neuer Qualitätsregelstrategien, welche die Logistik einbeziehen und die Autonomie externer Partner berücksichtigen. Das entwickelte Qualitätsregelungssystem ist in der Lage, auf die losspezifischen Eigenschaften der verschiedenen Komponenten durch Anpassung der Prozessparameter korrespondierender Komponenten zu reagieren, die Lose gezielt zusammenzubringen und sogar Toleranzen individuell anzupassen. Durch die Entwicklung echtzeitfähiger, interoperabler Funktionsmodelle zur Prognose der Produktfunktion, kann die Funktionsorientierung in allen Phasen des Produktentstehungsprozesses erzielt werden. Mithilfe eines simulativen Entscheidungsunterstützungssystems gelingt es, die unternehmensübergreifenden, funktionsorientierten Qualitätsregelstrategien hinsichtlich der resultierenden Qualitätsverbesserung und ihrer netzwerkweiten Wirtschaftlichkeit zu bewerten. Somit lässt sich der Mehrwert einer netzwerkweiten Datenintegration quantifizieren. Der Ansatz kann sowohl in bestehenden, als auch bei der Planung neuer Produktionsnetzwerke verwendet werden. Der Ansatz wurde in einem Produktionsnetzwerk zur Herstellung hochpräziser Dieselinjektoren validiert. In Simulationsstudien konnte dabei, selbst unter Aufweitung sämtlicher Toleranzen, die Qualität verbessert (in Form des netzwerkweiten First Pass Yield und der Verteilungen in den End-of-Line-Funktionsprüfpunkten) sowie der Gesamtgewinn des Produktionsnetzwerkes signifikant erhöht werden. Dadurch können Ineffizien-zen im Produktionsnetzwerk abgebaut werden. Eine Erprobung in realer Produktionsumgebung konnte die Ergebnisse bestätigen. Es kann somit gezeigt werden, dass eine toleranzfreie Serienproduktion möglich ist

    Qualitätsorientiertes Artikelstammdatenmanagement und dessen wirtschaftliche Effekte auf die Prozesskette aus Sicht eines globalen Artikelstammdatenpools

    Get PDF
    In essence, this dissertation is the proof that both the quality of item master data and the management of this data in daily work processes on both retailer and supplier side arena t sufficiently considered. In order to investigate this aspect, the first step is to lay down the theoretical foundations for the terms data quality, item master data and their management. It also classifies the benefits of a better data quality such as cost savings, faster flow of goods and increased customer satisfaction from the supplier perspective with respect to the use of data in retail trade. Furthermore, it takes the difficulty of capturing such benefits in terms of concrete profitability into account. In the second step, the item master data quality will be defined through six distinct data quality dimensions and operationalized for usage in the field. These are correctness, consistency, completeness, standard conformity, trustworthiness and authorized accessibility. All six dimensions were measured and evaluated in eleven supplier case studies of the German consumer goods market, all customers of the item master data pool 1WorldSync, in the years 2014 to 2015. Additionally, two dimensions, correctness and trustworthiness, were measured in the sense of a data crunch on the data pool side and in five retailers of the German food and drugstore trade. The main focus of the data quality measurement is therefore on the interoperable item master data exchange via the Global Data Synchronization Network (GDSN) as standard of Global Standard 1 (GS1). The case studies were evaluated in a multi-case design. The results of the individual cases are compared in terms of pattern recognition. In addition to a comparison between the achieved versus self-assessed data quality of the suppliers, the extent of the Item Master Data Quality Management (IMDQM) related to the areas of knowledge and organization - determined with the help of a scoring model at the sup-pliers -were measured. Based on the findings of the case studies and the consistency check recommendations for the optimization of the data quality for suppliers, retailers and their used data pool were derived. The data crunch was aimed at gathering information on how data quality initiatives on the supplier side affect the data pool and retailers. This is achieved by investigating if and how supplier data changes on the way to a retailera s IT system. The critical debate and evaluation related to the economic effects of an improved data quality is also part of the results. The discussion focuses on the extent to which it is worth investing in improved data quality for suppliers. An attempt is made to answer the question whether the improvement across the value chain really pays off. This dissertation is aimed at professionals in the scientific and business communities, who deal with the topics item master data and their quality optimization

    Schulinspektion in Hamburg. Der erste Zyklus 2007 - 2013: Grundlagen, Befunde und Perspektiven

    Full text link
    Dieser Band, der sich dem ersten Zyklus der Schulinspektion [in Hamburg] widmet, trägt ihrer besonderen Stellung der im Gesamtgefüge des Hamburger Bildungssystems insofern Rechnung, als er Akteure aus den verschiedenen Bereichen mit ihren spezifischen Perspektiven zu Wort kommen lässt. Die Autoren stammen aus der Empirischen Bildungs- und Educational-Governance-Forschung, sind in Bildungsadministration und Schulinspektion tätig oder gehören zur Gruppe der schulischen Stakeholder. Entsprechend ist ein Teil der Beiträge empirisch ausgerichtet und analysiert die Arbeit der Inspektion oder nutzt die im Rahmen der Schulinspektion Hamburg erhobenen Daten für weiterführende Analysen. Andere Beiträge wiederum setzen sich mit den Rahmenbedingungen, Grundlagen und Folgen von Schulinspektion auseinander oder widmen sich den Erfahrungen und Erwartungen einzelner Akteure. (Verlag

    Qualitätssicherung im Bildungswesen. Eine aktuelle Zwischenbilanz

    Full text link
    Die Beiträge im ersten Teil des Beihefts zur Zeitschrift für Pädagogik beschreiben Qualitätssicherung in verschiedenen Teilbereichen des Bildungswesens: Elementarbereich, Schule, Sozialpädagogik, berufliche Bildung, Weiterbildung und betriebliche Weiterbildung, Hochschule sowie in der Erziehungswissenschaft. Die beiden Artikel des zweiten Teils haben die Implementierung von Qualitätssicherung zum Gegenstand: Es geht um deren Dimensionen - am Beispiel Schule aufgezeigt - und um die Bedingungen des Gelingens der Implementierung von Bildungsstandards aus internationaler Sicht. (DIPF/Orig./pr

    Umfassendes Qualitätsmanagement von Geodateninfrastrukturen

    Get PDF
    Das Management und die strategische Steuerung von Geodateninfrastrukturen (GDI) sind Herausforderungen, die sich aktuell in vielen Organisationen, die GDI aufbauen oder betreiben stellen, seien es nationale, regionale oder lokale GDI-Initiativen. Die Aufgabe besteht darin, die meist projektbasiert aufgebauten Strukturen innerhalb der beteiligten Organisationen zu verstetigen oder bereits etablierte GDI-Prozesse, vor dem Hintergrund technologischer Weiterentwicklungen sowie organisatorischer Neuausrichtungen einzuordnen und sich in ihrer weiteren Entwicklung zukunftssicher aufzustellen. Hierzu gehört auch, die Wirkung von GDI gegenüber Entscheidungsträgern darzulegen, um die benötigten Ressourcen zu rechtfertigen. Der Evaluation im Allgemeinen und dem Qualitätsmanagement im Besonderen kommt hier eine entscheidende Rolle zu. Die Anforderungen an GDI und die Ziele, die mit dem Aufbau und dem Betrieb von GDI verfolgt werden sind umfassend. Sowohl auf Bundesebene als auch auf Ebene der GDI in den Ländern und Kommunen liegen umfassende Qualitätsansprüche an GDI vor. Dies beinhaltet z. B. die Qualität von Abstimmungen in größeren, ressortübergreifenden Zusammenhängen, wie die Bereitstellung von Geodatenressourcen für Prozesse des E-Governments und der Digitalisierung. Des Weiteren kommt GDI als funktionierenden Netzwerken im Sinne von Motivation zur Mitwirkung sowie vertikaler und horizontaler Vernetzung, z. B. mit GDI-Organisationen derselben Verwaltungsebene bzw. in der Einordnung in überregionale GDI-Initiativen eine besondere Bedeutung zu. Eine konkrete Überprüfung der Qualität war jedoch bislang auf die technischen Komponenten von GDI beschränkt. Experten aus den in Deutschland am Aufbau von GDI beteiligten (Verwaltungs-) Organisationen bestätigen die ganzheitliche Qualitätssicht. Ihre Erwartungen und Anforderungen, sowie Ziele, die deutschlandweit mit dem Aufbau und dem Betrieb von GDI verfolgt werden und die Erkenntnisse aus bestehenden Forschungsarbeiten stellen die Basis dar für ein umfassendes Qualitätsmanagement für GDI. Für die Umsetzung wurde auf das Common Assessment Framework (CAF) als etablierter Rahmen und Qualitätsmodell, in dem Organisationen, insbesondere Verwaltungsorganisationen abbildbar sind, zurückgegriffen. Mittels gezielter Anpassungen und der Konzeption eines Vorgehensmodells zur Einführung liegt im Ergebnis eine Lösung zur Umsetzung eines umfassenden Qualitätsmanagements für GDI vor, deren Anwendbarkeit in zwei unterschiedlichen Transferbeispielen innerhalb einer Fallstudie bestätigt ist. Beispielhafte Indikatoren zur Bewertung und Identifizierung von Wirkungszusammenhängen werden in einem Indikatorenkatalog zur Verfügung gestellt und ein Methodenwerkzeugkasten ergänzt die Beschreibung von unterstützenden Instrumenten zur praktischen Umsetzung. Es wird ein auf die Anwendung für GDI ausgelegtes umfassendes Qualitätsmanagement bereitgestellt, das nicht nur als Werkzeug zur Evaluation und Kommunikation, sondern auch zur strategischen Steuerung von GDI, für eine nachhaltige (Weiter-) Entwicklung von GDI eingesetzt werden kann und einen Beitrag zur Verbesserung von Prozessen und Organisationsstrukturen darstellt

    Die REGIONALEN als Instrument regionalisierter Strukturpolitik in Nordrhein-Westfalen - das Beispiel der REGIONALE 2010 Köln/Bonn

    Full text link
    Der Beitrag beschäftigt sich mit den REGIONALEN in Nordrhein-Westfalen als Instrument regionalisierter Strukturpolitik. Im Rahmen der mittlerweile sechsten REGIONALEN präsentiert die Region Köln/Bonn im Jahr 2010 die Ergebnisse eines mehrjährigen Kooperationsprozesses. Die „Zukunftssicherung“ wurde zum zentralen Thema des zeitlich befristeten, projektorientierten Ansatzes gemacht. Bei den beteiligten Akteuren und der Öffentlichkeit konnte sich die REGIONALE 2010 als positives Schlüsselsymbol etablieren. Als Erfolgsfaktoren lassen sich die Organisations- und Kooperationsstrukturen, die Förderung und gebaute bzw. erlebbare Erfolge sowie deren Vermarktbarkeit identifizieren. Mit hohem Aufwand gelingt es, in der heterogenen Region ein gemeinsames Agieren vieler zentraler Akteure zu erzeugen, was sich auch in der frühzeitigen Festlegung auf eine Nachfolgestruktur manifestiert. Die Chancen stehen gut, dass die im Rahmen der „Institutionalisierung auf Zeit“ geschaffenen Grundlagen sowohl auf der Projekt- als auch auf der programmatischen und organisatorischen Ebene über das Präsentationsjahr hinaus tragen.This paper is concerned with the programme of REGIONALE events organised in North Rhine-Westphalia as an instrument of regionalised structure policy. Within the framework of what is now the sixth REGIONALE, in 2010 the Cologne/Bonn region will present the results of a process of co-operation which stretches back over many years. The central theme chosen for this project-based and time-limited programme is “Safeguarding the Future”. REGIONALE 2010 has been able to establish itself both among the actors involved and among the general public as a positive and emblematic symbol. The factors behind its success can be identified as the organisational and co-operative structures it employs, the funding it receives, as well as the physical and tangible successes it presents, and the manner in which they are marketed. With a great deal of effort, and at considerable expense, the REGIONALE is able to generate joint action within this heterogeneous region on the part of a host of key actors; this is manifested not least in the success in deciding on a follow-up structure at a relatively early point in the process. There is every likelihood that the foundation which was established as part of what is termed “long-term institutionalisation” – both at the project level and at the programme and organisational level – will remain in place after the presentation year comes to an end

    Frühkindliche Entwicklung stärken. Eine Zukunftsallianz aus Fachpraxis, Wissenschaft, Verwaltung, Politik und Zivilgesellschaft

    Get PDF
    Warum soll frühkindliche Entwicklung gestärkt werden? Und wenn es notwendig ist, wer soll es leisten und wie kann es gelingen? Kinder sollen unabhängig von ihrer Herkunft ihr Recht auf Bildung verwirklichen. Der Schlüssel für mehr Bildungsgerechtigkeit liegt in einer integrierten durchgängigen Förderung im frühesten Kindesalter, insbesondere von Kindern aus sozioökonomisch und kulturell benachteiligten Familien. Verantwortlich für diese Aufgabe sind nicht allein Familien oder in der Kindertagesbetreuung tätige Fachkräfte, sondern vor allem auch Allianzen aus Fachpraxis, Wissenschaft, Verwaltung, Politik und Zivilgesellschaft. Dieser Band liefert in Beiträgen aus den verschiedenen Perspektiven neben wissenschaftlichen Begründungen anschauliche Beispiele. Er setzt damit Impulse für den weiteren Diskurs und Veränderungen im Sinne einer umfassenderen Förderung in der frühen Kindheit, die auf die bestmöglichen Entwicklungsbedingungen für alle Kinder ausgerichtet ist. (DIPF/Orig.

    Konzept einer integrierten modellbasierten Vertriebsprozessoptimierung für technisch erklärungsintensive Produkte auf der Basis serviceorientierter Architekturen

    Get PDF
    Die Integration von Prozessen ist in Unternehmen seit jeher von strategischer Bedeutung für deren Wettbewerbsfähigkeit. Die Innovationen der letzten Jahre in der Informations- und Kommunikationstechnik haben einen erheblichen Beitrag zu dieser Integration beigetragen. Diese findet weiterhin kontinuierlich statt. Die Integration von Produktionsprozessen ist konzeptionell weit fortgeschritten. Auch in der Umsetzung ist ein vergleichsweise hoher Entwicklungsstand erreicht. In anderen Funktions- und Arbeitsbereichen weisen sowohl die innere als auch die äußere Integration noch erhebliches konzeptionelles Verbesserungspotential auf. Im Rahmen dieser Dissertation wird der Bereich des Vertriebs und die mit damit verbundenen Prozesse aufgegriffen. Der Vertriebsprozess stellt einen wichtigen Erfolgsbestandteil der Unternehmen dar. Die ständige Überwachung und Optimierung ist eine grundlegende Anforderung, um in einem wettbewerbsstarken Markt erfolgreich agieren zu können. Unternehmen, die komplexe technische Produkte entwickeln, produzieren und vertreiben, stehen im Rahmen dieser Arbeit besonders im Fokus. Es wird ein Unternehmen aus dem Bereich der Bauzuliefererindustrie ausgewählt, für das die durchgehende Vertriebsprozessoptimierung sowie die damit hergehenden Vertriebseffizienzsteigerung von großer Bedeutung sind. Zunächst werden die aktuellen marktspezifischen Instrumente zur Vertriebsprozessoptimierung untersucht. Es folgt die Formulierung der Anforderungen an ein neues Konzept. Daraus wird ein Anforderungskatalog abgeleitet, der die Grundlage für das neu zu entwickelnde Konzept darstellt. Aufbauend wird die Neukonzeption zur integrierten, modellbasierten Vertriebsprozessoptimierung entwickelt, die das Zusammenwirken real existierender Ansätze beinhaltet. Basis für das Konzept sind serviceorientierte Architekturen. Diese Arbeit leistet einen konzeptionellen Beitrag zur Integration der Vertriebsprozessen in Unternehmensabläufe, sowohl von theoretischer Seite als auch in Bezug auf die konkrete Umsetzung. Abschliessend wird anhand ausgewählter KPIs der Wertbeitrag der Optimierung dargestellt

    Mit KI den nachhaltigen Wandel gestalten:Zur strategischen VerknĂĽpfung von KĂĽnstlicher Intelligenz und Nachhaltigkeitszielen

    Get PDF
    Digitalisierung und Nachhaltigkeit gehören zu den wichtigsten Herausforderungen dieses Jahrzehnts: Um unsere Lebensgrundlage zu bewahren, müssen beide Transformationsprozesse – die nachhaltige Entwicklung und der digitale Wandel – in Wirtschaft, Wissenschaft und Gesellschaft miteinander verknüpft werden. Zielgerichtet und ressourceneffizient eingesetzt, können uns digitale Schlüsseltechnologien wie die Künstliche Intelligenz (KI) wirkungsvoll dabei helfen, den Wandel erfolgreich und zugleich nachhaltig zu gestalten.Die Plattform Lernende Systeme stellt dazu in einer Praxisbroschüre eine Auswahl von Best-Practice-Beispielen vor, die zeigen, wie KI einen konkreten Beitrag zu einem ökologisch, ökonomisch und sozial nachhaltigen Wandel leisten kann. Die Einsatzfelder reichen von KI-basierten Monitoring-Verfahren zum Schutz der Artenvielfalt über die KI-gestützte Landwirtschaft bis hin zur KI-unterstützten Müll-Detektion für nachhaltigere Kreislaufprozesse. Die Broschüre zeigt zudem, welchen Beitrag KI für eine resilientere, nachhaltigere Wirtschaft leisten kann und wie KI-Technologien dafür konzipiert werden müssen. Die Vorstellung integrierter KI- und Nachhaltigkeitsstrategien aus Unternehmen verschiedener Branchen soll Impulse für die praktische Verknüpfung der beiden Handlungsfelder in der Praxis geben. Die Autorinnen und Autoren adressieren hierzu aktuelle Herausforderungen und zentrale Potenziale, so erlaubt KI als multifunktionales Werkzeug die intelligente Verknüpfung verschiedener gesellschaftspolitischer, ökonomischer und ökologischer Zielsetzungen und kann Effizienzgewinne freisetzen. Gleichzeitig müssen Nutzen und Kosten beim KI-Einsatz mit Blick auf Nachhaltigkeitsziele (z.B. Energie- und Ressourcenverbrauch) von Anfang an berücksichtigt werden

    Eine Methode zur Spezifikation der IT-Service-Managementprozesse Verketteter Dienste

    Get PDF
    Die steigende Komplexität von IT-Diensten führt zu neuen Herausforderungen im IT-Service-Management(ITSM). Aufgrund von neuartigen SourcingModellen, Trends wie eBusiness oder auch regulatorischen Vorgaben wächst zunehmend die Notwendigkeit, aber auch die Gelegenheit für eine partnerschaftliche Kollaboration zwischen IT Providern. Jenseits des hierarchischen Modells in der Zusammenarbeit von IT Providern, bei dem ein fokaler Provider eine Reihe von weiteren Dienstleistern mit der Erbringung von Basisdiensten beauftragt, gewinnen alternative Formen der Kooperation an Bedeutung. Die Gewährleistung einer definierten Ende-zu-Ende Dienstqualität ist dabei eine der wichtigsten Herausforderungen. Die Zusammenarbeit von IT Providern erfordert die Spezifikation von interorganisationalen Betriebsprozessen. Die etablierten ITSM Frameworks adressieren jedoch alternative Formen der Diensterbringung nicht; so bleiben kooperierende IT Provider bei der Definition von interorganisationalen ITSMProzessen als Basis ihrer Zusammenarbeit weitgehend auf sich alleine gestellt. Um auf die spezifischen Herausforderungen von Szenarien eingehen zu können, die von den etablierten ITSM Frameworks nicht abgedeckt werden, fokussiert diese Arbeit auf die Dienstklasse der Verketteten Dienste, das sind providerübergreifende, horizontale Dienstketten auf der gleichen funktionalen Schicht. Im Unterschied zu klassischen Szenarien der kooperativen Erbringung von ITDiensten, wie z.B. IP Peering im Internet, wird für Verkettete Dienste eine definierte Dienstqualität und ein serviceorientiertes Management gefordert. Der erste Teil der Arbeit leistet auf der Basis einer Untersuchung realer Szenarien eine eingehende Analyse der ManagementHerausforderungen und der spezifischen Anforderungen für die Prozessdefinition Verketteter Dienste. Zur Kategorisierung der vielfältigen Formen der Zusammenarbeit von Providern wird ein Raster von Koordinationsmustern definiert. Die Betrachtung des Status Quo zeigt, dass, obwohl eine Reihe von Vorarbeiten in den Disziplinen des IT-Service-Managements sowie der Informations- und Prozessmodellierung vorliegt, die Anwendung von universellen Modellierungssprachen auf interorganisationale ITSMProzesse derzeit kaum abgedeckt wird. Im Hauptteil der Arbeit wird dazu die neue Methode ITSMCooP (ITSM Processes for Cooperating Providers) eingeführt. Aufbauend auf der Prozessmodellierungssprache BPMN und dem Shared Information/Data Model (SDI) des TeleManagement-Forums, besteht die Methode aus einer Sammlung von Modellierungskonventionen und Empfehlungen, die alle relevanten Aspekte der Modellierung von interorganisationalen Prozessen abdecken. Die Erstellung von Informations- und Prozessmodellen wird geleitet von einer Vorgehensweise zur Prozessdefinition, die sowohl Referenzprozesse der ITSM Frameworks als auch die spezifischen Koordinationsmuster Verketteter Dienste berücksichtigt. Die Arbeit wird abgerundet durch die Anwendung der Methode ITSMCooP auf ein reales, komplexes Szenario.The growing complexity of IT services poses new challenges to IT Service Management (ITSM). The issue of end-to-endservice quality challenges service providers, as most services are no longer realized standalone by a single provider but composed of multiple building blocks supplied by several providers. In the past, relationships between service providers were organised according to a hierarchical model: a service provider offers services to his customers and relies on a set of underpinning services delivered by subproviders to realize these services. In their current releases, both the IT Infrastructure Library (ITIL) and the Enhanced Telecom Operations Map (eTOM) stress that due to new sourcing strategies, market trends like ebusiness or regulatory policies new necessities and also opportunities for collaboration between service providers arise. Beyond the hierarchical model, alternative forms of provider cooperation gain importance, where multiple providers aim to coprovide services jointly and have to coordinate their activities on an equal footing. The specification of interorganisational processes is a precondition for delivering advanced services in a cooperation of IT service providers. However, the existing ITSM frameworks fail to provide reference processes for scenarios beyond hierarchy. IT providers are left in the lurch with the nontrivial task of defining concise, yet unambigious specifications of interorganisational ITSM processes as a basis for their cooperation. In order to be able to concentrate on the challenges of interorganizational ITSM scenarios not covered by existing frameworks, this thesis is focused on the so-called class of Concatenated Services, i.e. services provided as a sequence of partial services at the same technical layer by a set of independent providers. In contrast to wellknown scenarios, like IP Peering and Transit between Autonomous Systems in the Internet, Concatenated Services are offered with tight end-to-end service quality guarantees and managed according to the best practices of service orientation. In the first part of the thesis, a thorough analysis of management challenges based on real scenarios is given and specific requirements for the definition of ITSM processes for Concatenated Services are derived which are used for a review of related work. The concept of Coordination Patterns is introduced as a means of categorisation of the numerous types of provider cooperation. Even though quite a lot of research has been performed in the areas of ITSM on the one hand and on information and process modelling languages on the other hand, the application of general-purpose languages on the definition of interorganisational ITSM processes is barely covered. To address this issue, the new method ITSMCooP (ITSM Processes for Cooperating Providers) is presented in the main part. Based on the process modelling language BPMN and the Shared Information/Data Model (SID), the method consists of a collection of modeling conventions and recommendations, covering all relevant aspects in the the specfication of interorganisational processes. A top-down modeling procedure guides the utilisation of ITSMCooP, considering the incorporation of both reference processes from ITSM frameworks and Coordination Patterns. The thesis concludes with an application of ITSMCooP to a complex scenario
    • …
    corecore