10 research outputs found

    Transparenzsteigerung in Produktionsnetzwerken: Verbesserung des Störungsmanagements durch verstärkten Informationsaustausch

    Get PDF
    Industrieunternehmen agieren in Produktionsnetzwerken und sehen sich mit hohen Anforderungen an die Leistungsfähigkeit der Netzwerke konfrontiert. Gleichzeitig ist ihr Netzwerkmanagement von Silodenken und Isolation geprägt. In der operativen Planung wirken Auftragsänderungen, Qualitätsprobleme und technische Änderungen negativ auf die Leistungsfähigkeit. Die Digitalisierung ermöglicht einen intensiveren Informationsaustausch in Produktionsnetzwerken. Unternehmen erwarten, dass eine erhöhte Informationstransparenz zu einer schnelleren Identifizierung und kürzeren Reaktionszeit auf Störungen führt. Risiken wie ein ungünstiges Kosten-Nutzen-Verhältnis verhindern jedoch eine Transparenzsteigerung. Diese Dissertation entwickelt einen Lösungsansatz zur Transparenzsteigerung in Produktionsnetzwerken. Zunächst werden ein Kennzahlensystem und ein Rezeptormodell zur Bewertung von Störungen entwickelt. Geschäftsprozess- und Informationsreifegradmodelle charakterisieren den Informationsaustausch. Es folgt die Ermittlung von Wirkzusammenhängen zwischen dem Auftreten von Störungen, dem Informationsaustausch und der Leistungsfähigkeit mithilfe eines Multimethoden-Simulationsmodells. Um die Modellanalyse zu erleichtern, werden mathematische Ersatzmodelle (Metamodelle) an das Verhalten der Simulation angepasst. Nach der Definition eines Zielzustands für den Informationsaustausch mittels robuster Optimierung werden Digitalisierungsmaßnahmen verglichen und eine Empfehlung zur Transparenzsteigerung gegeben. Der Lösungsansatz wird auf einen Anwendungsfall zur Herstellung von Kunststoff-Metall-Bauteilen für die Automobilzulieferindustrie angewendet. Er verbessert die Leistungsfähigkeit durch verstärkten Informationsaustausch und trägt zur Umsetzung von Digitalisierungsmaßnahmen bei

    Transparenzsteigerung in der Rückführungslogistik zur Verbesserung der Materialbedarfsplanung für das Remanufacturing

    Get PDF
    Motiviert durch einen steigenden Ressourcenverbrauch und des damit einhergehenden Erreichen der Grenzen der linearen Take-Make-Use-Dispose-Mentalität sind innovative Produktionsmuster wie die Kreislaufwirtschaft erforderlich. Das Remanufacturing spielt hierin eine zentrale Rolle, wobei die Rückführungslogistik für die Versorgung dessen mit Gebrauchtprodukten (sog. Cores) zuständig ist. Trotz erheblicher Einsparpotentiale steht die Umsetzung aufgrund vielfältiger Herausforderungen jedoch erst am Anfang. Hierzu gehören u. a. der effiziente Informationsaustausch mit beteiligten Akteuren in der Rückführungslogistik und die anschließende Nutzung der Informationen, um das Remanufacturing zu optimieren. Am Beispiel der Materialbedarfsplanung, d. h. der Versorgung des Remanufacturings mit notwendigen Neukomponenten, entwickelt die vorliegende Arbeit eine Methode zur Transparenzsteigerung in der Rückführungslogistik zur Optimierung ebendieser. Neben der Modellierung des Material- und Informationsflusses erfolgt hierzu die Erarbeitung eines Konzepts instanzindividueller, dynamischer Regenerationsraten sowie die Gestaltung echtzeitfähiger Bestellpolitiken, die diese als Input verwenden und je Planungsperiode die Bestellmenge und den -zeitpunkt dynamisch anpassen. Zusätzlich wird das Wagner-Whitin-Verfahren als deterministischer Benchmark-Algorithmus integriert. Mittels Implementierung in einer simulationsbasierten Optimierung zur Identifikation von Wirkzusammenhängen sowie einer Nutzwertanalyse und der PROMETHEE-Methode zur Ableitung anwendungsspezifischer Handlungsempfehlungen erfolgt die Umsetzung der entwickelten Modelle. Die entwickelte Methode wird am Beispiel des Automotive Aftermarkets prototypisch validiert und erprobt. Anhand unterschiedlicher Stückzahlszenarien und Graden des Informationsaustauschs wird gezeigt, dass diejenigen Bestellpolitiken mit einer variablen Bestellmenge, d. h. die (t,S)- und (s,S)-Politik sowie die SM-Heuristik die besten Ergebnisse hinsichtlich der untersuchten Kennzahlen liefern. Die mit Hilfe der PROMETHEE-Methode abgeleiteten Insensitivitätsintervalle zeigen außerdem, dass die ermittelten Lösungen größtenteils sehr robust gegenüber Veränderungen in den Entscheidungspräferenzen sind. Zukünftige Forschungsarbeiten sollten den Nutzen der produktspezifischen Informationen für weitere Planungs- und Steuerungsaufgaben sowie die Gestaltung integriert linearer und zirkulärer Wertschöpfungsketten fokussieren

    Beiträge zum Gründungsworkshop der Fachgruppe Verteilte Künstliche Intelligenz Saarbrücken 29.-30. April 1993

    Get PDF
    Gegenwärtig wird in der Verteilten Künstlichen Intelligenz heftig diskutiert, ob ein Agent eher als reflektiven oder als reaktives System aufgefaßt werden sollte. In der reflektiven Sichtweise muß der Agent explizit über "mentale" Zustände (Wissen, Annahmen, Ziele) verfügen um über Ziele und Pläne räsonieren zu können. In der reaktiven Sichtweise dagegen bildet sich das angemessene Verhalten aus einem einfachen Reiz-Antwort Schema heraus. In jüngster Zeit werden sogenannte hybride Agenten-Architekturen diskutiert, in denen sowohl reaktives als auch reflektives Verhalten modelliert wird. Die meisten der vorgestellten Systeme betreffen aber einen einzelne Agenten und sein Verhalten in dynamischen Umgebungen .. ln diesem Beitrag wird eine hybride Architektur vorgestellt, die zusätzlich berücksichtigt, daß im Umfeld eines Agenten weitere Agenten mit weitgehend unvorhersehbarem Verhalten existieren. Diese Architektur ist im Rahmen des COSY Projekts entstanden

    Ein Molekül-Atom-Datenmodell für Non-Standard-Anwendungen : Anwendungsanalyse, Datenmodellentwurf und Implementierungskonzepte

    Get PDF
    Ziel der vorliegenden Arbeit ist die Erarbeitung und Nutzbarmachung von Datenbankkonzepten für sog. Non-Standard-Anwendungen. Darunter versteht man im OB-Bereich Anwendungen aus den Gebieten CAD/CAM, VLSI-Entwurf, Software-Entwicklung, Büroautomatisierung, Expertensysteme etc. Die zentralen Fragestellungen, zu denen es Antworten zu finden gilt, sind: - Welche Anforderungen werden von den Non-Standard-Anwendungen an die Datenhaltung gestellt? - Wie sehen dazu passende Architekturen und Datenmodelle für NDBS (das sind DBS für Non-Standard-Anwendungen) aus? - Nach welchen Konzepten sind solche NDBS zu entwerten und zu implementieren? Dazu werden verschiedene OB-basierte Prototypen analysiert und vergleichend einander gegenübergestellt. Im einzelnen wurden basierend auf konventionellen Datenbanksystemen verschiedenen Typs (Netzwerk- und Relationenmodell) Anwendungssysteme aus unterschiedlichen ingenieurwissenschaftlichen Bereichen (3D-Modellierung, Verwaltung geographischer Daten und VLSI-Entwurfswerkzeug) sowie aus dem Expertensystembereich (Diagnosesystem) entwickelt; ihr Leistungsverhalten wurde unter einer praxisnahen Last aufgezeichnet und detailliert untersucht. Ausgehend von diesen Analyse- und Vergleichsergebnissen wird ein Anforderungskatalog erstellt, der konkrete Aussagen über die Datenstrukturen der Anwendungsobjekte und die zugehörigen Verarbeitungscharakteristika zusammenfaßt

    (De-)Zentralisierung von Entscheidungen in globalen Produktionsnetzwerken - Strategie- und komplexitätsorientierte Gestaltung der Entscheidungsautonomie

    Get PDF
    Unternehmen unterschiedlicher Größe und Branche dezentralisieren ihre Produktion geografisch in globalen Produktionsnetzwerken. Globale Produktionsnetzwerke bieten verschiedene Möglichkeiten Wettbewerbsvorteile auszuschöpfen. Den Produktionsstandorten in diesen Netzwerken kann eine hohe oder niedrige Entscheidungsautonomie bzgl. produktionsrelevanter Entscheidungen eingeräumt werden. Eine hohe Entscheidungsautonomie von Produktionsstandorten kann zu einer besseren Anpassung an lokale Markterfordernisse führen, während eine geringe Entscheidungsautonomie Kosten- und Standardisierungsvorteile für das Produktionsnetzwerk fördern kann. Der ideale Grad an Entscheidungsautonomie hängt von verschiedenen Einflussfaktoren wie dem Umfeld des Produktionsnetzwerks, der internen Struktur und der Strategie ab. Die Digitalisierung und die Organisationsstruktur des Produktionsnetzwerks können als Enabler fungieren, um die (De-)Zentralisierung von Entscheidungen zu unterstützen. Im aktuellen Stand der Forschung liegen vielfältige Ansätze zur (De-)Zentralisierung von Entscheidungen aus Standortperspektive vor. Vernachlässigt wird eine Analyse auf Netzwerkebene. Ebenso sind der Einfluss der Strategie und der Komplexität auf die (De-)Zentralisierung von Entscheidungen nicht umfänglich erforscht. Es fehlt zudem eine Methodik, die Unternehmen dabei unterstützt, die ideale (De-)Zentralisierung von Entscheidungen für ihr Produktionsnetzwerk zu identifizieren und zu erreichen. Ausgehend von der Motivation und dem Literaturdefizit leistet diese Arbeit einen Beitrag zum Themenfeld der (De-)Zentralisierung von Entscheidungen in globalen Produktionsnetzwerken. Auf der Grundlage einer quantitativen Benchmarkingstudie werden mittels einer Clusteranalyse unterschiedliche Formen der (De-)Zentralisierung von Entscheidungen in globalen Produktionsnetzwerken identifiziert. Darauf aufbauend werden Wirkzusammenhänge zwischen den Dimensionen der Strategie, der Komplexität, der (De-)Zentralisierung von Entscheidungen und der Leistungsfähigkeit bzw. den Netzwerkfähigkeiten mittels Regressionsanalysen untersucht. Diese Erkenntnisse werden in eine Methodik zur strategie- und komplexitätsorientierten Gestaltung der Entscheidungsautonomie bzw. der (De-)Zentralisierung von Entscheidungen implementiert. Die entwickelte Methodik wird exemplarisch auf zwei Anwendungsfälle aus der Elektronik- und Automobilzuliefererindustrie angewandt. Die Ergebnisse zeigen, dass die Methodik den strategischen Fit in globalen Produktionsnetzwerken verbessert und das Management von globalen Produktionsnetzwerken unterstützt
    corecore