328 research outputs found

    Produkt- und Dienstleistungslebenszyklus-Management: Theorie und Praxis für produktbezogene Dienstleistungen am Beispiel des Sondermaschinenbaus

    Get PDF
    Seit einiger Zeit hat die Industrie hier die enge Verzahnung ihrer Güterproduktion mit Dienstleistungen, auch oft als Services oder Lösungen bezeichnet, als strategische Option erkannt. Der Vorteil einer engen Verflechtung von Produkt und Dienstleistung ist, dass insbesondere im Pre- und Aftersales-Bereich neue Wertschöpfungsmöglichkeiten entstehen, die auf dem einzigartigen Know-How und dem Wissen der anbietenden Unternehmen basieren. Zunehmend wird über solche Lösungen sogar der größere Anteil der Wertschöpfung für das Unternehmen erzielt, so dass die Bedeutung solcher Angebote beständig zunimmt. Der vorliegenden Band dokumentiert die Arbeit des Verbundvorhabens „Produkt-Dienstleistung-Lifecycle-Management“, welches von 2011-2014 den Lehrstuhl für Betriebliche Informationssysteme an der Universität Leipzig zusammen mit Unternehmen ATB Arbeit, Technik und Bildung GmbH, CADsys GmbH, Amtech GmbH und SITEC GmbH aus Chemnnitz realisiert und mit Mitteln der Europäischen Union und des Freistaates Sachsen durch das Programm FuE-Projektförderung der SAB finanziert wurde. Erstmalig werden integrierte Konzepte und Werkzeuge für ein Lebenszyklusmanagement in der Verbindung von Produktion und begleitenden Dienstleistungen vorgestellt, die in entsprechenden Use-Cases in der Praxis zur Anwendung geführt werden konnten.:Dienstleistungslebenszyklen in Produktlebenszyklen (Christian Zinke) Review und Bewertung der Eignung von Open-Source-Lösungen als technische Lösung für ein Life-Cycle-Management produktbezogener Dienstleistungen (Christian Zinke und Florian Golemo) Abbildung von Dienstleistungen im Aras Innovator (Christian Zinke) Unterstützung der produktbezogenen Dienstleistung durch die Integration des Service Modeller (Florian Golemo) Kundenintegration und Kollaborationsmöglichkeiten im Aras Innovator (Christian Zinke, Lars-Peter Meyer) Unterstützung von Pre-Sales Dienstleistungen am Beispiel der Erarbeitung eines technischen Lösungsvorschlag (Frieder Swoboda, Egbert Mauersberger, Christian Zinke) Unterstützung von After-Sales Dienstleistungen am Beispiel des Ersatzteilmanagement (Frieder Swoboda, Egbert Mauersberger, Christian Zinke) Evaluation des PDLM Konzepts und des Unterstützungssystems (Christian Zinke

    Softwarearchitektur für die interaktive Simulation mobiler Arbeitsmaschinen in virtuellen Umgebungen

    Get PDF
    Die numerische Simulation ist ein unverzichtbares Werkzeug bei der Produktentwicklung geworden. Bereits in den frühen Phasen von Studien und Konzepten können unterschiedliche Lösungsansätze für eine Aufgabenstellung bewertet werden. In diesem Zusammenhang wird von virtuellen Prototypen gesprochen. Bei der Simulation mobiler Arbeitsmaschinen erfordert das die Einbindung des Bedieners. Die technologische Leistungsfähigkeit wird wesentlich durch die Interaktion zwischen Bediener und Maschine geprägt. Die Beschreibung des Bedieners durch mathematische Modelle ist bis zum gegenwärtigen Zeitpunkt nicht mit belastbaren Resultaten erfolgt. Die Entwicklungen im Bereich der Simulationstechnologie und der Computergrafik ermöglichen die Durchführung interaktiver Simulationen in komplexen virtuellen Welten. Damit lässt sich der Bediener direkt in die Simulation einbinden und es können zusätzliche Potenziale, wie z. B. bei der Untersuchung der Mensch-Maschine-Interaktion erschlossen werden. Durch die interaktive Simulation in Virtual-Reality-Systemen werden neue Anforderungen an die Simulationssoftware gestellt. Zur Interaktion mit dem Bediener müssen die Eingaben aus den Bedienelementen in Echtzeit verarbeitet und audiovisuelle Ausgaben generiert werden. Dabei sind neben den mathematisch-physikalischen Aspekten der Simulation auch Problemfelder wie Synchronisation, Kommunikation, Bussysteme und Computergrafik zu behandeln. Die Anpassung des Simulationssystems an unterschiedliche Aufgabenstellungen erfordert ein flexibel konfigurierbares Softwaresystem. Als Lösung dieser Aufgabenstellung wird eine Softwarearchitektur vorgestellt, welche die unterschiedlichen Problemfelder durch klar voneinander abgegrenzte Komponenten mit entsprechenden Schnittstellen behandelt. Das entstandene Softwaresystem ist flexibel und erweiterbar. Die Simulationsaufgabe wird durch die Konfiguration des Komponentensystems spezifiziert. Die entstehenden Konfigurationsdateien bilden die Anwendungslogik ab und stellen daher einen der wesentlichen Kostenfaktoren bei der Realisierung interaktiver Simulationen dar. Zur Erhöhung der Wiederverwendbarkeit bestehender Konfigurationsfragmente wird ein kompositionsbasierter Ansatz auf der Basis von Skriptsprachen gewählt.Numerical simulation has evolved into an indispensable tool in modern product development. Even in the early design phases of studies and concepts several different approaches for one individual task can be evaluated. In this context the term virtual prototypes can be used. For effective simulation of mobile construction site machinery incorporation of the operator\'s influence is required. The technological performance of the machinery is essentially influenced by the interaction between the operator and the machine. Currently, there are no known mathematical models describing the operator\'s behaviour, which give substantiated results. The latest developments in computing technology and computer graphics facilitate interactive simulations in complex virtual worlds. This allows not only the operator to be linked to the simulation but also the investigation of additional research areas such as human-machine-interaction. The application of interactive simulation in virtual reality systems places new demands on the simulation software. Due to the interaction not only input signals from the instruments have to be processed but also audio and visual output has to be generated in real time. In addition to the mathematical and physical aspects of simulation, problems in the areas of synchronisation, communication, bus systems and computer graphics also have to be solved. The adaption of the simulation system to new tasks requires a flexible and highly configurable software system. As a response to these demands, a software architecture is presented which partitions the various problems into finite components with corresponding interfaces. The partitioning results in a flexible and extendable software system. The simulation task is specified by the configuration of the component system. The resulting configuration files reflect the application logic and therefore represent one of the main cost factors in the realisation of the interactive simulations. A composition-based approach is chosen as it raises the level of reuse of existing configuration fragments. This approach is based on scripting languages

    Wissensbasierte Entwurfsbewertung der Produktgestalt mittels Multi-Agentensystemen

    Get PDF
    Beim Gestalten legen die Konstruierenden eine Vielzahl der Produkteigenschaften fest, welche Einfluss auf den gesamten Produktlebenszyklus haben. Daher verlangt ein moderner Produktentwicklungsprozess, dass ein Produkt nicht nur aufgrund seiner Funktionserfüllung optimiert wird, sondern auch vor dem Hintergrund des Design for X (DfX), welches die Berücksichtigung von Anforderungen aus dem gesamten Produktlebenszyklus beinhaltet. Die zunehmende Komplexität in der Produktentwicklung und der fehlende Wissensaustausch, beispielsweise zwischen der Entwicklung und Fertigung, führen zu unnötigen Iterationsschleifen und hohen Kosten. Im Rahmen dieser Arbeit wird eine wissensbasierte Entwurfsbewertung der Produktgestalt mittels Multi-Agentensystemen vorgestellt, um den Konstruierenden ein digitales Assistenzsystem zur Überprüfung von CAD-Modellen hinsichtlich der DfX-Anforderungen zur Verfügung zu stellen. Hierzu werden, zum einen für die Repräsentation des domänenspezifischen Wissens wissensbasierte Entwicklungs- und Konstruktionssysteme untersucht und zum anderen für die Durchführung von dezentralen Schlussfolgerungsmechanismen und Verhandlungen das Multi-Agentensystem vorgestellt. Das methodische Vorgehen MaSE4D zur Entwicklung von Multi-Agentensystemen ermöglicht, ausgehend vom initialen Systemkontext, eine strukturierte Zusammensetzung der dezentral verteilten Wissensquellen, um eine ganzheitliche Bewertung in der Domäne der Produktgestaltung vorzunehmen. Durch einen generalisierten Aufbau einer Software-Architektur ist es zudem möglich ein 3D-Modell in einer CAD-Entwicklungsumgebung, mittels graphenbasierter Featureerkennung, zu analysieren und automatisiert anzupassen. Des Weiteren werden Templates für die Programmierung von Agenten zur Verfügung gestellt, welche die dezentrale Wissensverwaltung, die Kommunikation unter den Agenten sowie deren Verwaltung im Kontext der Produktgestaltung unterstützen. Die Anwendbarkeit und Validierung des methodischen Vorgehens und der Entwicklungsumgebung für das Multi-Agentensystem erfolgt durch die Bewertung von zehn unterschiedlichen Frästeilentwürfen.During the design process, the designers determine numerous product properties that have an influence on the entire product life cycle. Therefore, a modern product development process requires that a product is not only optimized based on its functional fulfillment but also regarding Design for X, which includes the consideration of requirements from the entire product life cycle. The increasing complexity in product development and the lack of knowledge exchange between development and manufacturing lead to iteration loops and higher costs. In the context of this work, a knowledge-based evaluation of embodiment design using multi-agent systems is presented to provide designers with a digital assistance system for the verification of CAD models regarding Design for X. For this purpose, knowledge-based engineering systems are investigated for the representation of domain-specific knowledge on the one hand. On the other hand, multi-agent systems are introduced for the execution of decentralized reasoning mechanisms and negotiations. The methodological approach MaSE4D for the development of multi-agent systems allows, starting from the initial system context, a structured composition of the decentralized distributed knowledge sources to perform a holistic evaluation in the domain of product design. A generalized software architecture allows analyzing and automatically adapting a 3D model in a CAD development environment using graph-based feature recognition. Furthermore, templates for programming agents are provided, which support decentralized knowledge management, communication among agents, as well as their management in the context of product design. The applicability and validation of the multi-agent system's methodological approach and development environment is performed by evaluating ten different milling designs

    Ermittlung von Zusammenhängen zwischen enzymatischer Aktivität und Krankheiten durch die automatische Analyse wissenschaftlicher Publikationen

    Get PDF
    Aufgrund des schnellen Wachstums biomedizinischer Daten sowie der assoziierten Literatur wird es auch für Experten zunehmend schwierig, den Überblick über den aktuellen Wissensstand zu behalten. Der Aufbau und die manuelle Erweiterung von Datenbanken ist teuer und zeitaufwändig, kann jedoch durch linguistische Methoden unterstützt werden, welche Erkenntnisse automatisch aus der wissenschaftlichen Literatur extrahieren. Die vorliegende Dissertation stellt eine solche Methode zur Annotation von Enzymklassen mit krankheitsrelevanten Informationen vor. Die Enzymnamen von 3901 Enzymklassen der BRENDA, einer Sammlung von qualitativen und quantitativen Enzymdaten, wurden in einem Textkorpus aus über 100000 Kurzzusammenfassungen der PubMed-Datenbank identifiziert. Phrasen der Kurzzusammenfassungen konnten durch das MetaMap-Programm den Konzepten des UMLS (Unified Medical Language Systems) zugewiesen werden, was eine Identifikation der krankheitsrelevanten Begriffe mittels ihrer semantischen Felder in der UMLS-Ontologie erlaubte. Eine Zuordnung von Enzymklassen zu Krankheitskonzepten erfolgte aufgrund der gemeinsamen Nennung innerhalb eines Satzes. Die Zahl falscher Zuordnung konnte durch den Einsatz verschiedener Filter verringert werden. Verwendet wurden unter anderem die Mindestzahl gemeinsamer Nennungen, die Entfernung von Sätzen mit einer Negation sowie die Klassifikation unbekannter Sätze durch eine Support Vector Machine. Eine Überprüfung der Zuordnungen anhand 1500 manuell annotierter Sätze ergab eine Präzision von 95%, was eine direkte Erweiterung der BRENDA-Datenbank mit den gefundenen Zuordnungen erlaubte

    Analyse und Entwicklung einer Softwarearchitektur für die intelligente, optische Inspektion

    Get PDF
    Durch die automatisierte Bildaufnahme und das Ausführen vordefinierter Bildverarbeitungsschritte haben Systeme der automatischen optischen Inspektion (AOI) die manuelle Inspektion in der Elektronikfertigung weitestgehend verdrängt. In den letzten Jahren wurden zahlreiche Ansätze untersucht, welche einzelne Aspekte der optischen Qualitätssicherung durch die Anwendung von Methoden der künstlichen Intelligenz (KI) deutlich verbessern. Darauf aufbauend stellt diese Arbeit ein Modell mit fünf Phasen vor, welches die Entwicklungsschritte auf dem Weg zur vollautonomen Inspektion abbildet. Um die Umsetzung dieses Modells zu tragen, zeigt diese Arbeit ein neues Architekturmuster auf, welches Lösungen auf Basis von künstlicher Intelligenz trainieren und ausführen kann. Die hohe Flexibilität der neuen Architektur ermöglicht die Auslieferungen auf einer Menge heterogener Systeme und damit viele Anwendungen von künstlicher Intelligenz über das Feld der optischen Inspektion hinaus.Automatic optical inspection is an essential quality control tool in modern electronics manufacturing. These systems have replaced mainly manual optical inspection through automated image acquisition and predefined image processing steps. Despite the large degree of automation, human experts are still indispensable at many steps in the inspection process and potential sources of error. Numerous approaches have been investigated that significantly improve individual aspects of optical quality assurance by applying artificial intelligence methods in recent years. This thesis presents a five-phase model that maps the development steps along this path to transform optical inspection towards reliable and fully autonomous inspection. The new model differs from previous approaches by taking a holistic view of quality control and considering all process steps. This work shows a new architecture pattern that can train and execute new solutions based on artificial intelligence to support this model. Due to its high flexibility, the new architecture can be applied to a heterogeneous set of systems via different deployments and can implement many different applications of artificial intelligence beyond the field of optical inspection. For the generalized description of AI solutions, this architecture is based on a set of objects defined in this thesis. An implementation of this architecture is discussed, and three experiments prove its applicability. The implementation of the described architecture is published under an OpenSource license

    Entwicklung eines Editors zum Entwurf von Benutzerschnittstellen für Web Services auf Basis der abstrakten UI-Beschreibungssprache WSGUI

    Get PDF
    Diese Diplomarbeit behandelt das Themengebiet der automatischen Erzeugung von grafischen Benutzeroberflächen (GUIs) im Kontext von Webservices. Es geht dabei konkret um einen Editor, mit dem Hinweise zur Generierung von Dialogen erstellt werden können. Diese Hinweise sollen dann von den dialogerzeugenden Anwendungen einbezogen werden, um eine dynamische Interaktion mit Webservices durch beliebige Nutzer ohne dienstspezifische Software zu ermöglichen. Die Arbeit führt in die aktuellen Techniken zur GUI-Generierung ein und stellt Transformationsprinzipien vor, die eine Generierung ausgehend von einem formalen Datenmodell ermöglichen. Dabei müssen mangelnde Modellparameter in Beschreibungen von Webservices manuell ausgeglichen werden (WSGUI-Konzepte). Diese Zielstellung führt zum Entwurf des WSGUI-Editors. Die anschließende Implementierung berücksichtigt darüber hinaus Integrationsaspekte wie die Publizierung von WSGUI-Hinweisen, Einbindung von GUI-Übersetzungen und eine Vorschau auf die zu generierenden Dialoge. Abgeschlossen wird die Arbeit mit einer Bewertung des Editors, aber auch einer Reihe von Vorschlägen zur Vereinfachung ähnlich gelagerter zukünftiger Projekte im Umfeld von Webservices

    Geodatenbasierte Lokalisierung für Outdoor Augmented Reality

    Get PDF
    Die Arbeit erläutert die besonderen Herausforderungen der Augmented Reality-Technologie zur Visualisierung von Geodaten (GeoAR) und präsentiert eine geeignete Lokalisierungsmethode zur präzisen globalen Registrierung von mobilen GeoAR-Systemen auf Basis von digitalen 3D-Geodatenmodellen zur virtuellen Repräsentation der Außenumgebung. Die Funktionsweise dieser nutzergesteuerten AR-Registrierungsmethode wird dazu im Detail vorgestellt und die Bedienbarkeit und das Anwendungspotenzial ausführlich diskutiert.The paper elaborates the challenges of augmented reality technology for visualization of geospatial data (GeoAR) and presents a localization method that is suitable for precise global registration of mobile GeoAR systems. The developed method is based on 3D geospatial data models as virtual representation of the outdoor environment. The paper therefore presents the main components of this user-aided AR registration method and discusses the usability and application potential of the method in detail

    Anforderungsbasierte Modellierung und Ausführung von Datenflussmodellen

    Get PDF
    Heutzutage steigen die Menge an Daten sowie deren Heterogenität, Änderungshäufigkeit und Komplexität stark an. Dies wird häufig als das "Big-Data-Problem" bezeichnet. Durch das Aufkommen neuer Paradigmen, wie dem Internet der Dinge oder Industrie 4.0, nimmt dieser Trend zukünftig noch weiter zu. Die Verarbeitung, Analyse und Visualisierung von Daten kann einen hohen Mehrwert darstellen, beispielsweise durch die Erkennung bisher unbekannter Muster oder durch das Vorhersagen von Ereignissen. Jedoch stellen die Charakteristiken von Big-Data, insbesondere die große Datenmenge und deren schnelle Änderung, eine große Herausforderung für die Verarbeitung der Daten dar. Herkömmliche, bisher angewandte Techniken, wie zum Beispiel Analysen basierend auf relationalen Datenbanken, kommen hierbei oft an ihre Grenzen. Des Weiteren ändert sich auch die Art der Anwender der Datenverarbeitung, insbesondere in Unternehmen. Anstatt die Datenverarbeitung ausschließlich von Programmierexperten durchzuführen, wächst die Anwendergruppe auch um Domänennutzer, die starkes Interesse an Datenanalyseergebnissen haben, jedoch diese nicht technisch umsetzen können. Um die Unterstützung von Domänennutzern zu ermöglichen, entstand ca. im Jahr 2007, im Rahmen der Web-2.0-Bewegung, das Konzept der Mashups, die es auf einfachem Wege erlauben sollen, Anwender aus unterschiedlichen Domänen beim Zusammenführen von Programmen, grafischen Oberflächen, und auch Daten zu unterstützen. Hierbei lag der Fokus vor allem auf Webdatenquellen wie RSS-Feeds, HTML-Seiten, oder weiteren XML-basierten Formaten. Auch wenn die entstandenen Konzepte gute Ansätze liefern, um geringe Datenmengen schnell und explorativ durch Domänennutzer zu verarbeiten, können sie mit den oben genannten Herausforderungen von Big-Data nicht umgehen. Die Grundidee der Mashups dient als Inspiration dieser Dissertation und wird dahingehend erweitert, moderne, komplexe und datenintensive Datenverarbeitungs- und Analyseszenarien zu realisieren. Hierfür wird im Rahmen dieser Dissertation ein umfassendes Konzept entwickelt, das sowohl eine einfache Modellierung von Datenanalysen durch Domänenexperten ermöglicht - und somit den Nutzer in den Mittelpunkt stellt - als auch eine individualisierte, effiziente Ausführung von Datenanalysen und -verarbeitung ermöglicht. Unter einer Individualisierung wird dabei verstanden, dass die funktionalen und nichtfunktionalen Anforderungen, die je nach Anwendungsfall variieren können, bei der Ausführung berücksichtigt werden. Dies erfordert einen dynamischen Aufbau der Ausführungsumgebung. Hierbei wird dem beschriebenen Problem durch mehrere Ebenen begegnet: 1) Die Modellierungsebene, die als Schnittstelle zu den Domänennutzern dient und die es erlaubt Datenverarbeitungsszenarien abstrakt zu modellieren. 2) Die Modelltransformationsebene, auf der das abstrakte Modell auf verschiedene ausführbare Repräsentationen abgebildet werden kann. 3) Die Datenverarbeitungsebene, mit der die Daten effizient in einer verteilten Umgebung verarbeitet werden, und 4) die Datenhaltungsebene, in der Daten heterogener Quellen extrahiert sowie Datenverarbeitungs- oder Analyseergebnisse persistiert werden. Die Konzepte der Dissertation werden durch zugehörige Publikationen in Konferenzbeiträgen und Fachmagazinen gestützt und durch eine prototypische Implementierung validiert
    corecore