10 research outputs found

    Dynamic Devices Network Architecture

    Get PDF
    Die zunehmende Internationalisierung der Märkte, das wachsende, immer differenziertere Produktangebot und die hohe technische Innovationsgeschwindigkeit führen zu immer härteren Wettbewerbsbedingungen auf dem Markt. Diese Situation zwingt die Unternehmen nicht nur zu kontinuierlichen Anstrengungen, um ihre Produktivität und Qualität zu steigern, sondern es stehen auch immer geringere Mittel für die Realisierung von Produktions- und/oder Messeinheiten innerhalb des Produktionsprozesses zur Verfügung. Als Folge dessen werden Entwickler mit folgenden Grundforderungen konfrontiert: · Abstimmung der Architektur auf vorhandene und/oder gängige Infrastrukturen · Reduzierung des Entwicklungsaufwandes durch Modularisierung des Systemaufbaues · Reduzierung der Wartungs- und Administrationskosten durch einfache Handhabbarkeit · Maximierung der Betriebssicherheit und Minimierung der Ausfallzeiten · Einfache Erweiterbarkeit · Hohe Wiederverwendbarkeit Ein Resümee von Softwareprojekten über die letzten Jahre zeigt, dass sich der Rahmen für Softwareentwicklung insgesamt geändert hat. Softwareprojekte sind heute mehrschichtige, verteilte (ggf. auch komponentenbasierte) Anwendungen mit gestiegenen Anforderungen an Funktionalität, Qualität und Flexibilität. Leider beinhalten die Architekturen und Konzepte der ‚Verteilten Systeme' Schwächen, diese für verteilte Mess- und Steuerungssysteme direkt umzusetzen. Ziel dieser Arbeit ist es, die Schwächen vorhandener Konzepte aufzuzeigen und eine Architektur vorzustellen, die den Entwickler unterstützt, verteilte Mess- und Steuerungssysteme bis hin zu Prozessleitsystemen unter dem Betriebssystem Windows zu entwickeln

    Interaktive Informationsvisualisierung am Beispiel statischer Erhebungen über Standards im E-Business

    Get PDF
    Diese Arbeit beschäftigt sich mit den Themengebieten Informationspräsentation und Visualisierung. Durch die theoretische Auseinandersetzung mit diesen Themengebieten wurden wichtige Merkmale einer Anwendung identifiziert, die nötig sind, um dem Benutzer eines Visualisierungs-Tools das Explorieren einer großen Datenmenge und somit das Treffen einer sachlich fundierten Entscheidung zu erleichtern. Die identifizierten Merkmale wurden in der Anwendung VisJex exemplarisch verwirklicht. VisJex verbindet Techniken der traditionellen Datenpräsentation mit interaktiven Techniken der Informationsvisualisierung. Um die Idee des „Overview and Detail“ zu realisieren, auf der die Anwendung basiert, wurde besonders darauf geachtet, dass die bildliche Darstellung der Daten für den Nutzer nicht sequentiell sondern simultan sichtbar ist. So gibt ein PieChart eine Übersicht über die Datenmenge, während ein Balkendiagramm und ein weiteres Dialogfenster Einsicht in die Details der Datenmenge gewähren. Das Programm VisJex könnte beispielsweise als Teil eines Management- Informationssystem im Rahmen eines Data-Warehouses zum Einsatz kommen

    Vergleich von ADEPT2 und BPMN

    Get PDF
    Bei den Sprachen zur Geschäftsprozessmodellierung existieren neben dem weitverbreiteten BPMN noch weniger bekannte Sprachen wie ADEPT. Da BPMN zunehmend zum Quasi-Standard der Geschäftsprozessmodellierung wird, stellt sich zunehmend die Frage um die Daseinsberechtigung für die anderen Sprachen. Sie müssen BPMN in Teilbereichen überlegen sein und auch die Werkzeugunterstützung muss ausgereift genug sein, um mit den gebräuchlichen BPMN-Werkzeugen mitzuhalten. So verspricht ADEPT beispielsweise ein sogenanntes "Correctness by Design"-Prinzip, was im BPMN-Standard nicht enthalten ist. Zielstellung dieser Fachstudie war nun sowohl der Vergleich zwischen BPMN und ADEPT als auch eine Untersuchung der Werkzeugunterstützung für die beiden Sprachen. Bei ADEPT ist die AristaFlow-Suite das einzige existierende Werkzeug und bei BPMN wurde aus der Vielzahl an gebräuchlichen Werkzeugen Activiti herausgegriffen

    Modellierung von paralleler Software für homogene und heterogene Multiprozessor-Systeme

    Get PDF
    Multicore-Prozessoren stellen leistungsstarke Architekturen für die Signal- und Videoverarbeitung dar, die zunehmend auch in Echtzeitanwendungen eingesetzt werden. Da Multicore-Prozessoren in Hochsprachen programmiert werden, bieten sie eine hohe Flexibilität und Portabilität der Software. Eingebettete Multicore-Prozessoren werden beispielsweise im Bereich der kamerabasierten Fahrerassistenzsysteme zur Berechnung anspruchsvoller Algorithmen mit strengen Echtzeitkriterien verwendet. Die Fusion und Auswertung der gesammelten Daten aus einer Vielzahl von Sensoren besitzt eine hohe Rechenkomplexität und einen hohen Speicherbedarf. Gleichzeitig haben derartige Algorithmen kurze Entwicklungszyklen, was den Einsatz von flexibler Multicore-Software attraktiv macht. Eine optimale Auslastung aller Ressourcen und eine gute Portabilität der Software zwischen Plattformen benötigt allerdings eine skalierbare parallele Implementierung. Für die Parallelisierung steht eine Vielzahl von Strategien zur Auswahl, die auf unterschiedlichen Plattformen jeweils andere Laufzeiteigenschaften und Limitierungen, wie z.B. Synchronisationen oder Speicherbandbreite, aufweisen. Moderne Plattformen kombinieren meist heterogene Prozessoren mit applikationsspezifischen Beschleunigern, was eine parallele Programmierung zusätzlich erschwert. Diese Arbeit adressiert die Programmierbarkeit von parallelen Plattformen mit dem Ziel Entwickler bei der Parallelisierung zu unterstützen. Dazu wird die Abstraktionsschicht Modular Parallelization Abstraction Layer (MPAL) vorgestellt, die eine neue Schnittstelle zur parallelen Programmierung von Multicore- und Manycore-Prozessoren, sowie Beschleunigern, wie Grafikprozessoren oder Field Programmable Gate Arrays, bereitstellt. MPAL ermöglicht eine einfache Konfiguration der verwendeten Frameworks und der Parallelität, sowie die Kontrolle des heterogenen Architektur-Mappings. Des Weiteren bietet MPAL Profiling-Methoden, die die Extraktion der Skalierungscharakteristiken erlauben, die wiederum bei der Identifikation von Engpässen helfen. Weiterhin werden in dieser Arbeit Einflussfaktoren auf die Skalierbarkeit untersucht und modelliert, damit diese durch signifikante Modellparameter dargestellt und ausgewertet werden können. Unter Verwendung der Modellparameter als Deskriptoren stellt diese Arbeit eine neue Methode der Performance-Prädiktion vor. Damit können das erwartete Skalierungsverhalten, sowie potentielle Engpässe nach einer Portierung der Software, abgeschätzt werden. Die vorgestellten Methoden werden mit Referenz-Methoden zur parallelen Programmierung und Performance-Prädiktion verglichen und im Anschluss mithilfe von zwei Fahrerassistenzalgorithmen (Stereo-Vision und Fußgängererkennung) evaluiert.Multicore processors represent powerful architectures for signal- and video-processing, even applicable for real-time applications. Because these chips are programmable in high-level programming-languages, they offer good flexibility and software portability. For instance in the field of camera-based advanced driver assistance systems, which appear as demanding applications with strict real-time constraints, embedded multicores serve as target platforms. Such algorithms feature not only complex computations and high memory consumption due to the fusion of multiple sensor-data, but they also have short development cycles, which makes the flexibility of multicore-software even more desirable. However, gathering the theoretical peak performance of multicore processors requires parallel programming and a scalable work distribution in order to obtain software that is portable across platforms. Furthermore, parallel programming opens up a huge design space of parallelization strategies each with potential bottlenecks, like synchronization-count or memory bandwidth, which vary between platforms. Modern processors are often equipped with application specific accelerator architectures, resulting in multiple heterogeneous computational units eventually each requiring individual programming techniques. This work addresses the programmability of parallel platforms with the aim of supporting developers during the parallelization process. In order to ease the parallel programming, the middleware modular parallelization abstraction layer (MPAL) is introduced, which offers a new interface for programming multi-/manycores and accelerators (e.g., graphics processors, or field programmable gate arrays), while the actually used frameworks can be configured dynamically. MPAL allows the configuration of the parallelism and to control the architecture mapping including heterogeneous scheduling and data transfers. Furthermore, MPAL offers in-line profiling methodologies, which enable the extraction of the parallel runtime behavior and scalability characteristics, which help to analyze the parallelization success and identify bottlenecks. Most relevant, influencing scalability characteristics are modeled to represent trends in few significant and comparable model-parameters. Using these model-parameters as descriptive features, this work contributes a statistical performance prediction method, which allows for an estimation of the scalability trend and potential bottlenecks after porting a parallel software between platforms. All introduced methods are compared with state-of-the-art programming techniques and prediction methods, and will be evaluated using two driver-assistance algorithms (stereo-vision and pedestrian detection)

    Integriertes Automatisierungskonzept für den flexiblen Materialfluß in der Elektronikproduktion

    Get PDF
    Die Senkung der Kosten, insbesondere der Lohnkosten, durch weitere Automatisierung und die Sicherung einer optimalen Produktqualität mit Hilfe weiterer Rechnerunterstützung im Produktionsmanagement, sind die wesentlichen Aufgaben zur Festigung des Produktionsstandortes Deutschland. Der Schlüsseltechnologie Elektronik kommt hierbei eine besondere Bedeutung zu. Dies zeigt sich in einer weiterhin zunehmenden Elektronifizierung im Automobil- und Maschinenbau und auch in neuen Absatzmärkten für innovative Produkte der Telekommunikation. Trotz eines hohen Automatisierungsgrades des eigentlichen Prozesses, der Bestückung von Leiterplatten, fehlte bisher eine Lösung zur logistischen Integration der hochautomatisierten Bestücklinien in ein gesamtheitliches Automatisierungskonzept. Ziel der vorliegenden Arbeit war die Entwicklung eines Materialflußsystems zur automatisierten Ver- und Entsorgung der Elektronikproduktion. Hierzu wurden im Vorfeld am Markt verfügbare Transportsysteme anhand der spezifischen Anforderungen der Elektronikproduktion untersucht. Als Ergebnis bleibt festzuhalten, daß die meisten der derzeit verfügbaren automatisierten Transportmittel ihre vorrangige Anwendung im Maschinenbau und der Automobilproduktion finden. Hier bestehende Lösungen wurden lediglich an die Randbedingungen der Leiterplattenbestückung adaptiert, wobei eine integrative Vernetzung zwischen Produktionsprozess und Produktionslogistik fehlt. Aufbauend auf diesen Erkenntnissen und der Leitlinie Vereinfachen-Automatisieren- Integrieren folgend, wurden Überlegungen zur automatisierungsgerechten Materialflußgestaltung angestellt. Die Optimierung der Wertschöpfung bildet hier die zentrale Zielsetzung der Betrachtung. Um den wesentlichen Faktor Durchlaufzeit in der Wertzuwachskurve weiter zu reduzieren wurde eine Unterstützung der Materialbewirtschaftung konzipiert. Die Bildung eines virtuellen Puffers, der physisch als eine Einheit vorliegt, welchen datentechnisch jedoch jede Produktionslinie als ihren eigenen Puffer einbinden kann, unterstützt die Minimierung der Durchlaufzeit und die Flexibilitätsanforderungen hinsichtlich der Auftragsreihenfolge. Die konzeptionellen Überlegungen resultieren in einem Anforderungsprofil für die Mobile Handhabungseinheit. Das daraus realisierte Transportsystem basiert auf einem Elektrohängebahnsystem. Das Trägerfahrzeug wurde um ein lagegeregeltes Antriebsmodul und eine Scherenhubachse zur Handhabung der Transporthilfsmittel erweitert. Die realisierte Antriebs- und Steuerungslösung bildet die Grundlage für ein flexibles, intelligentes und hochdynamisches Transportmittel. Der Handhabungseinheit verleiht es eine hohe Positioniergenauigkeit zur direkten Maschinenbedienung. Ergänzt wird das Konzept durch ein Materialflußleitsystem: Den Kern des Materialflußleitsystems bildet eine Datenbank, in der Informationen über die vorhandenen Transportsysteme, Produktionsstrukturen und Auftragsspektren abgelegt sind. Des weiteren dient sie zur Erfassung und Auswertung der logistischen Betriebsdaten. Schwerpunktmäßig wurde bei der Entwicklung der Module darauf geachtet, eine unternehmensweite Kommunikation, insbesondere auch mit den mobilen Subsystemen, zu realisieren. Die bereitgestellte logistische Datenbasis erlaubt die Erweiterung des Leitstandsbegriffes um die Komponenten "Planung und Optimierung" und "Controlling”. Mit Hilfe dieser Module ist über die kurzfristige Reaktion hinaus auch die mittelfristige und strategische Optimierung der Produktion erreichbar. Dem Produktionsfaktor "Information” kommt hierbei eine wesentliche Bedeutung zu. Die Information stellt zum einen das verbindene Medium zwischen den Bereichen und zum anderen die Basis zur Synchronisation dar. Die Implementierung von modularen und flexiblen Softwaresystemen ist die Basis für eine weitere Steigerung der Leistungsfähigkeit von Automatisierungslösungen. In der Logistik muß hier der Schwerpunkt insbesondere im Bereich der dispositiven Datenverarbeitung liegen. Bei der Umsetzung des Materialflußkonzeptes in der Modellfabrik des Institutes bestätigte sich die Erfordernis einer ganzheitlichen Betrachtung der Produktion bei Logistikprojekten. Zur Schaffung einer durchgängig automatisierten Transportkette wurden die Schnittstellenkomponenten in den Produktionsablauf mit eingebunden. Es mußte jedoch festgestellt werden, daß eine Vielzahl peripherer Komponenten in ihren lokalen Ablaufzyklen ungenügend auf ein übergreifendes Konzept abgestimmt sind und Schnittstellen zur Integration der Peripherie oftmals fehlen. Die Wirtschaftlichkeitsanalyse der Mobilen Handhabungseinheit ergab ein optimales Einsatzspektrum im Bereich mittlerer Transportmengen (bis ca. 60 THM/h) und kurzer Transportentfernungen (bis ca. 300 m). In diesem Bereich, in welchem die Handhabungsfunktion überwiegt, läßt sich das volle Ratiopotential durch die Materialflußautomatisierung erschließen. Durch den ganzheitlichen Systemverbund ist hiermit ein erfolgreicher Automatisierungsansatz vorgezeichnet. Mit dem in der vorliegenden Arbeit gewählten Ansatz wurde das Ziel eines durchgängig automatisierten Produktionsdurchiaufes erreicht. Zukünftige Arbeiten müssen ergänzend dazu den Bereich der Systemperipherie erschließen: Zur weiteren Optimierung des Betriebsmitteleiensatzes sind konkrete Lösungsvorschläge für eine Standardisierung der Materialbereitstellung zu entwickeln. Ziel muß dabei die Vision einer flexibel automatisierten Rüstung der Bestücklinien sein. Gerade im Bereich der Schnittstellengestaltung der Materialbereitstellung ist Entwicklungsbedarf zu sehen. Insbesondere die Einbindung der Schnittstellen in einen kontinuierlichen Produktionsablauf erfordert eine flexible Ablaufprogrammierung sowie offene Schnittstellen zur Kommunikation zwischen den Systemen. Einen letzten Schwerpunkt weiterer Forschungsaktivitäten stellt die betriebsbegleitende Simulation dar. Mit ihrem Einsatz ist es möglich die kontinuierliche Optimierung der Produktionsstrukturen zu unterstützen und einen optimalen Produktionsablauf zu gestalten.Lowering costs, especially wage costs, through further automation and ensuring optimal product quality with the help of additional computer support in production management are the main tasks for consolidating Germany as a production location. The key electronics technology is of particular importance here. This can be seen in the increasing electronification in automotive and mechanical engineering and also in new sales markets for innovative telecommunications products. Despite a high degree of automation of the actual process, the assembly of printed circuit boards, a solution for logistically integrating the highly automated assembly lines into a holistic automation concept has so far been lacking. The aim of the present work was the development of a material flow system for the automated supply and disposal of electronics production. For this purpose, transport systems available on the market were examined beforehand based on the specific requirements of electronics production. As a result, it can be said that most of the automated means of transport currently available are primarily used in mechanical engineering and automobile production. Existing solutions were only adapted to the boundary conditions of the PCB assembly, whereby there is no integrative network between the production process and production logistics. Building on this knowledge and following the guideline Simplify-Automate-Integrate, considerations were made regarding the automation-compatible material flow design. The optimization of the added value forms the central objective of the consideration. In order to further reduce the essential factor throughput time in the growth curve, a support for material management was designed. The formation of a virtual buffer, which is physically available as a unit, but which each production line can incorporate in terms of data technology as its own buffer, supports the minimization of throughput time and the flexibility requirements regarding the order sequence. The conceptual considerations result in a requirement profile for the mobile handling unit. The resulting transport system is based on an electric monorail system. The carrier vehicle was expanded to include a position-controlled drive module and a scissor lift axis for handling the transport aids. The implemented drive and control solution forms the basis for a flexible, intelligent and highly dynamic means of transport. The handling unit gives it a high positioning accuracy for direct machine operation. The concept is supplemented by a material flow control system: The core of the material flow control system is a database in which information about the existing transport systems, production structures and order spectra is stored. It is also used to record and evaluate the logistical operating data. When developing the modules, special attention was paid to implementing company-wide communication, especially with the mobile subsystems. The logistical database provided enables the concept of a control center to be expanded to include the components "planning and optimization" and "controlling." With the help of these modules, the medium-term and strategic optimization of production can be achieved in addition to the short-term response. The production factor "Information" is of crucial importance here. On the one hand, the information represents the connecting medium between the areas and on the other hand the basis for synchronization. The implementation of modular and flexible software systems is the basis for a further increase in the performance of automation solutions. In logistics, the focus must be on the area of planning data processing. The implementation of the material flow concept in the model factory of the institute confirmed the need for a holistic view of production in logistics projects. To create a fully automated transport chain, the interface components were integrated into the production process. However, it had to be ascertained that a large number of peripheral components in their local execution cycles are insufficiently coordinated with a comprehensive concept and interfaces for the integration of the periphery are often missing. The economic analysis of the mobile handling unit showed an optimal range of applications in the area of medium transport quantities (up to approx. 60 THM / h) and short transport distances (up to approx. 300 m). In this area, in which the handling function predominates, the full ratio potential can be tapped through the material flow automation. Thanks to the holistic system network, a successful automation approach is hereby sketched out. With the approach chosen in the present work, the goal of a fully automated production run was achieved. Future work must also open up the area of system peripherals: In order to further optimize the resource set, specific solutions for standardizing the material supply must be developed. The goal must be the vision of flexibly automated armament of the assembly lines. There is a need for development, particularly in the area of interface design for material provision. In particular, the integration of the interfaces in a continuous production process requires flexible process programming and open interfaces for communication between the systems. The last focus of further research activities is in-house simulation. With its use it is possible to support the continuous optimization of the production structures and to design an optimal production process

    Empirische Sozialforschung und automatisierte Datenverarbeitung

    Get PDF

    Nutzen und Kosten von serviceorientierten Architekturen

    Get PDF
    Die vorliegende Forschungsarbeit liefert einen Beitrag zum Verständnis desArchitekturkonzeptes "serviceorientierte Architektur" (SOA). Durch die Forschungsarbeit wird erreicht, dass das Wissen bezüglich des Wirtschaftlichkeitspotentials einer SOA wesentlich erweitert und zusammenhängend dargestellt wird. Die innovativen Ergebnisse der Forschungsarbeit sind: Erstens wird eine allgemein tragfähige Definition einer SOA aufgestellt. Zweitens wird ein Qualitätsmodell hergeleitet, das zur Architekturbewertung geeignet ist. Dies erwies sich insbesondere deswegen als notwendig, weil bisherige Bewertungsmethoden aktuellen Ansprüchen nicht mehr gerecht werden oder auf die Bewertung spezifischer Situationen ausgerichtet sind. Drittens wird eine Bewertung des Wirtschaftlichkeitspotentials für SOA beispielhaft anhand der festgestellten Nutzen- und Kostenpotentiale vorgenommen. Weder die Praxis noch die Forschung konnten sich auf eine einheitliche Definition �SOA� festlegen. Bestrebungen um allgemein festzulegen, was unter eine SOA zu verstehen ist, wurden bisher nicht unternommen. Aus diesem Grund wird eine (Arbeits-) Definition aufgestellt, die diesem Anspruch gerecht werden kann: "Eine SOA ist ein Konzept für eine Softwarearchitektur, in dem Funktionen in Form von wiederverwendbaren, technisch voneinander unabhängigen und fachlich lose gekoppelten Services implementiert werden. Services können unabhängig von zugrunde liegenden Implementierungen über wohldefinierte und veröffentlichte Serviceschnittstellen aufgerufen werden. Serviceinteraktion findet über eine dafür vorgesehene Kommunikationsinfrastruktur statt. Mit einer SOA werden insbesondere die Gestaltungsziele der Geschäftsprozessorientierung, der Wandlungsfähigkeit, der Wiederverwendbarkeit und der Unterstützung verteilter Softwaresysteme verbunden." Ein Qualitätsmodell zur einheitlichen Bewertung einer Softwarearchitektur wird aufgestellt, das den Anforderungen zur Bewertung entsprechend den heute gestellten Anforderungen an eine Softwarearchitekturbewertung gerecht wird. Dazu zählen insbesondere Anforderungen bzgl. geschäftlicher Qualitätsattribute. Auch wird die Perspektive eines Qualitätsmodells erweitert: es wird erkannt, dass nicht nur die Perspektive von Softwareentwicklern, sondern auch die des Managements eines Unternehmens muß in eine Bewertung einfließen. Aus diesen Gründen wird auf Grundlage bestehender Forschungsergebnisse ein Qualitätsmodell abgeleitet, das die Qualitätsattribute Funktionserfüllung, Wandlungsfähigkeit, Benutzbarkeit, Verlässlichkeit, Effizienz, Wiederverwendbarkeit, Portabilität, Strategieunterstützung, Nachhaltigkeit und Integriertheit enthält. Zu diesen zehn Qualitätsattributen werden 32 Unterqualitätsattribute identifiziert. Um ein Wirtschaftlichkeitspotential aufstellen zu können, wird zunächst auf Grundlage des Qualitätsmodells eine Analyse des Nutzenpotentials einer �SOA� vorgenommen. Es wird festgestellt, dass eine allgemeine Bewertung einer SOA nur unter Unsicherheiten vorgenommen werden kann. Für konkrete Situationen lässt sich mittels des aufgestellten Qualitätsmodells eine spezifische Bewertung durchführen. Für die zehn Qualitätsattribute werden Bewertungen von �sehr negativ� bis �sehr positiv� und somit über die gesamte Skala vorgenommen. Die Bewertung �sehr negativ�, �negativ� und �positiv� werden jeweils einmal, �neutral� wird keinmal vergeben. Mit sieben Bewertungen von �sehr positiv� lässt sich eine klare Tendenz der positiven Bewertung des Nutzenpotentials feststellen. Anschließend wird das Kostenpotential einer SOA bewertet. Hier werden Kosten analysiert, die im Zusammenhang mit der Verwendung einer Unternehmens-IT entstehen. Für die Kosten der Infrastruktur, der Entwicklung und des Managements einer Unternehmens-IT, als auch für die Kosten des organisatorischen Wandels aufgrund des Einsatzes einer Unternehmens-IT, wird argumentiert, dass spezifische Kosten durch den Einsatz einer SOA entstehen. Mit Hilfe des argumentierten Nutzen- und Kostenpotentials wird ein Wirtschaftlichkeitspotential bzgl. der Kundenzufriedenheit, Mitarbeiterzufriedenheit, Wettbewerbssituation, der Beziehung zu Geschäftspartnern und interner Wirkungen aufgestellt. In diesem Bewertungsschritt wird dargestellt, wie eine Softwarearchitektur auf ein Unternehmen und das Ökosystem in dem es agiert, Einfluss ausübt. Mittels dieser getroffenen Argumentationen kann für eine spezifische Situation festgestellt werden, welche Auswirkungen eine SOA für das zugrunde gelegte Bewertungsumfeld aufweist

    Konzeption, Implementierung und betriebswirtschaftliche Analyse eines prototypischen Systems autonomer, dezentral organisierter Software-Agenten zur Durchführung zweiseitiger kombinatorischer Auktionen von multimodalen Transportdienstleistungen am Beispiel des kombinierten Verkehrs

    Get PDF
    Im Rahmen der Bemühungen der Europäischen Union (EU), den Güterverkehr aus verkehrs- und umweltpolitischen Gründen von der Straße auf die Schiene zu verlagern, werden Infrastrukturprojekte wie das "Projekt CODE24" gefördert. Im Rahmen dieses Projektes war unter anderem die Schaffung einer Online-Frachtenbörse zum elektronischen Handel von güterspezifischen Transportdienstleistungen vorgesehen. Das Teilprojekt "Entwicklung einer Online-Güterbörse für Transportleistungen im Schienengüterverkehr" konnte Fortschritte u.a. bei der prototypischen Implementierung eines internetbasierten Softwaresystems vorweisen. Jedoch wurden im Laufe der Realisierung dieser Plattform strukturelle Nachteile der Etablierung einer Online-Frachtenbörse für Transportleistungen im Schienengüterverkehr deutlich. Einige dieser Nachteile sind direkt dem Verkehrsträger Schiene und den tradierten, teils hegemonialen Strukturen der Schienengüterverkehrsbranche zuzurechnen, wie bspw. die ausgeprägten Informationsasymmetrien zwischen Anbietern und Nachfragern von Transportdienstleistungen sowie die Notwendigkeit des Vor- und Nachlaufs auf der Straße. Die Anforderungen an eine Online-Frachtenbörse für den Schienengüterverkehr orientieren sich stark an den Anforderungen des Verkehrsträgers Schiene und der mit ihm verbundenen Branchenstrukturen. Zusätzlich beinhalten sie auch regelmäßig die Forderung nach einer Berücksichtigung des Vor- und Nachlaufs der schienengebundenen Transporte über andere Verkehrsträger (am häufigsten per Lkw). Hierdurch wird offenkundig, dass eine Erfolg versprechende Online-Frachtenbörse für den Schienengüterverkehr eine multimodale Frachtenbörse sein müsste, welche in der Lage ist, mehrere Verkehrsträgerarten bei der Durchführung kombinierter Verkehre zu berücksichtigen. Dies legt den Schluss nahe, dass ein Konzept für eine über schienengebundene Transporte hinausgehende Online-Frachtenbörse betriebswirtschaftlich wünschenswert ist. Die Forschungsmotivation dieser Forschungsarbeit besteht darin – ausgehend von der bereits im EU-Projekt CODE24 erfolgten Forschung im Bereich "Online-Frachtenbörse für Transportleistungen im Schienengüterverkehr"' und unter Berücksichtigung der bereits gewonnenen Erkenntnisse – einen virtuellen Marktplatz zu konzipieren, welcher den Handel multimodaler Gütertransporte ermöglicht, während er möglichst viele der beschriebenen Nachteile aufhebt und die Einstiegshürden für potentielle Marktplatzteilnehmer so weit wie konzeptionell möglich senkt. Die Zielsetzung dieser Forschungsarbeit ist die prototypische Implementierung dieses Marktplatzes in Form eines internetbasierten Softwaresystems. Es wird eruiert, wie sich die erstellten Konzepte in die Praxis übersetzen lassen und welche Probleme und Weiterentwicklungspotentiale bei ihrer Implementierung identifiziert werden können. Der im Rahmen dieser Forschungsarbeit implementierte Softwareprototyp demonstriert die technische Machbarkeit des konzipierten Marktplatzes

    Analyse von IT-Anwendungen mittels Zeitvariation

    Get PDF
    Performanzprobleme treten in der Praxis von IT-Anwendungen häufig auf, trotz steigender Hardwareleistung und verschiedenster Ansätze zur Entwicklung performanter Software im Softwarelebenszyklus. Modellbasierte Performanzanalysen ermöglichen auf Basis von Entwurfsartefakten eine Prävention von Performanzproblemen. Bei bestehenden oder teilweise implementierten IT-Anwendungen wird versucht, durch Hardwareskalierung oder Optimierung des Codes Performanzprobleme zu beheben. Beide Ansätze haben Nachteile: modellbasierte Ansätze werden durch die benötigte hohe Expertise nicht generell genutzt, die nachträgliche Optimierung ist ein unsystematischer und unkoordinierter Prozess. Diese Dissertation schlägt einen neuen Ansatz zur Performanzanalyse für eine nachfolgende Optimierung vor. Mittels eines Experiments werden Performanzwechselwirkungen in der IT-Anwendung identifiziert. Basis des Experiments, das Analyseinstrumentarium, ist eine zielgerichtete, zeitliche Variation von Start-, Endzeitpunkt oder Laufzeitdauer von Abläufen der IT-Anwendung. Diese Herangehensweise ist automatisierbar und kann strukturiert und ohne hohen Lernaufwand im Softwareentwicklungsprozess angewandt werden. Mittels der Turingmaschine wird bewiesen, dass durch die zeitliche Variation des Analyseinstrumentariums die Korrektheit von sequentiellen Berechnung beibehalten wird. Dies wird auf nebenläufige Systeme mittels der parallelen Registermaschine erweitert und diskutiert. Mit diesem praxisnahen Maschinenmodell wird dargelegt, dass die entdeckten Wirkzusammenhänge des Analyseinstrumentariums Optimierungskandidaten identifizieren. Eine spezielle Experimentierumgebung, in der die Abläufe eines Systems, bestehend aus Software und Hardware, programmierbar variiert werden können, wird mittels einer Virtualisierungslösung realisiert. Techniken zur Nutzung des Analyseinstrumentariums durch eine Instrumentierung werden angegeben. Eine Methode zur Ermittlung von Mindestanforderungen von IT-Anwendungen an die Hardware wird präsentiert und mittels der Experimentierumgebung anhand von zwei Szenarios und dem Android Betriebssystem exemplifiziert. Verschiedene Verfahren, um aus den Beobachtungen des Experiments die Optimierungskandidaten des Systems zu eruieren, werden vorgestellt, klassifiziert und evaluiert. Die Identifikation von Optimierungskandidaten und -potenzial wird an Illustrationsszenarios und mehreren großen IT-Anwendungen mittels dieser Methoden praktisch demonstriert. Als konsequente Erweiterung wird auf Basis des Analyseinstrumentariums eine Testmethode zum Validieren eines Systems gegenüber nicht deterministisch reproduzierbaren Fehlern, die auf Grund mangelnder Synchronisationsmechanismen (z.B. Races) oder zeitlicher Abläufe entstehen (z.B. Heisenbugs, alterungsbedingte Fehler), angegeben.Performance problems are very common in IT-Application, even though hardware performance is consistently increasing and there are several different software performance engineering methodologies during the software life cycle. The early model based performance predictions are offering a prevention of performance problems based on software engineering artifacts. Existing or partially implemented IT-Applications are optimized with hardware scaling or code tuning. There are disadvantages with both approaches: the model based performance predictions are not generally used due to the needed high expertise, the ex post optimization is an unsystematic and unstructured process. This thesis proposes a novel approach to a performance analysis for a subsequent optimization of the IT-Application. Via an experiment in the IT-Application performance interdependencies are identified. The core of the analysis is a specific variation of start-, end time or runtime of events or processes in the IT-Application. This approach is automatic and can easily be used in a structured way in the software development process. With a Turingmachine the correctness of this experimental approach was proved. With these temporal variations the correctness of a sequential calculation is held. This is extended and discussed on concurrent systems with a parallel Registermachine. With this very practical machine model the effect of the experiment and the subsequent identification of optimization potential and candidates are demonstrated. A special experimental environment to vary temporal processes and events of the hardware and the software of a system was developed with a virtual machine. Techniques for this experimental approach via instrumenting are stated. A method to determine minimum hardware requirements with this experimental approach is presented and exemplified with two scenarios based on the Android Framework. Different techniques to determine candidates and potential for an optimization are presented, classified and evaluated. The process to analyze and identify optimization candidates and potential is demonstrated on scenarios for illustration purposes and real IT-Applications. As a consistent extension a test methodology enabling a test of non-deterministic reproducible errors is given. Such non-deterministic reproducible errors are faults in the system caused by insufficient synchronization mechanisms (for example Races or Heisenbugs) or aging-related faults

    Gezielte Portabilität von Software

    No full text
    corecore