34 research outputs found

    Quantifying the benefits of vehicle pooling with shareability networks

    Get PDF
    Taxi services are a vital part of urban transportation, and a considerable contributor to traffic congestion and air pollution causing substantial adverse effects on human health. Sharing taxi trips is a possible way of reducing the negative impact of taxi services on cities, but this comes at the expense of passenger discomfort quantifiable in terms of a longer travel time. Due to computational challenges, taxi sharing has traditionally been approached on small scales, such as within airport perimeters, or with dynamical ad-hoc heuristics. However, a mathematical framework for the systematic understanding of the tradeoff between collective benefits of sharing and individual passenger discomfort is lacking. Here we introduce the notion of shareability network which allows us to model the collective benefits of sharing as a function of passenger inconvenience, and to efficiently compute optimal sharing strategies on massive datasets. We apply this framework to a dataset of millions of taxi trips taken in New York City, showing that with increasing but still relatively low passenger discomfort, cumulative trip length can be cut by 40% or more. This benefit comes with reductions in service cost, emissions, and with split fares, hinting towards a wide passenger acceptance of such a shared service. Simulation of a realistic online system demonstrates the feasibility of a shareable taxi service in New York City. Shareability as a function of trip density saturates fast, suggesting effectiveness of the taxi sharing system also in cities with much sparser taxi fleets or when willingness to share is low.Comment: Main text: 6 pages, 3 figures, SI: 24 page

    An efficient mixed integer programming model for pairing containers in inland transportation based on the assignment of orders

    Get PDF
    The inland transportation takes a significant portion of the total cost that arises from intermodal transportation. In addition, there are many parties (shipping lines, haulage companies, customers) who share this operation as well as many restrictions that increase the complexity of this problem and make it NP-hard. Therefore, it is important to create an efficient strategy to manage this process in a way to ensure all parties are satisfied. This paper investigates the pairing of containers/orders in drayage transportation from the perspective of delivering paired containers on 40-ft truck and/or individual containers on 20-ft truck, between a single port and a list of customer locations. An assignment mixed integer linear programming model is formulated, which solves the problem of how to combine orders in delivery to save the total transportation cost when orders with both single and multiple destinations exist. In opposition to the traditional models relying on the vehicle routing problem with simultaneous pickups and deliveries and time windows formulation, this model falls into the assignment problem category which is more efficient to solve on large size instances. Another merit for the proposed model is that it can be implemented on different variants of the container drayage problem: import only, import–inland and import–inland–export. Results show that in all cases the pairing of containers yields less cost compared to the individual delivery and decreases empty tours. The proposed model can be solved to optimality efficiently (within half hour) for over 300 orders

    Ambulance routing problems with rich constraints and multiple objectives

    Get PDF
    Humanitäre non-profit Organisationen im Bereich des Patiententransports sehen sich dazu verpflichtet alle möglichen Einsparungs- und Optimierungspotentiale auszuloten um ihre Ausgaben zu reduzieren. Im Gegensatz zu Notfalleinsatzfahrten, bei denen ein Zusammenlegen mehrerer Transportaufträge normalerweise nicht möglich ist, besteht bei regulären Patiententransporten durchaus Einsparungspotential. Diese Tatsache gibt Anlass zur wissenschaftlichen Analyse jener Problemstellung, welche die täglich notwendige Planung regulärer Patiententransportaufträge umfasst. Solche Aufgabenstellungen werden als Dial-A-Ride-Probleme modelliert. Eine angemessene Service-Qualität kann entweder durch entsprechende Nebenbedingungen gewährleistet oder durch eine zusätzliche Zielfunktion minimiert werden. Beide Herangehensweisen werden hier untersucht. Zuerst wird eine vereinfachte Problemstellung aus der Literatur behandelt und ein kompetitives heuristisches Lösungsverfahren entwickelt. Diese vereinfachte Problemstellung wird in zwei Richtungen erweitert. Einerseits wird, zusätzlich zur Minimierung der Gesamtkosten, eine zweite benutzerorientierte Zielfunktion eingeführt. Andererseits werden eine heterogene Fahrzeugflotte und unterschiedliche Patiententypen in die Standardproblemstellung integriert. Letztendlich wird das reale Patiententransportproblem, basierend auf Informationen des Roten Kreuzes, definiert und gelöst. Neben heterogenen Fahrzeugen und unterschiedlichen Patienten, werden nun auch die Zuordnung von Fahrern und sonstigem Personal zu den verschiedenen Fahrzeugen, Mittagspausen und weitere Aufenthalte am Depot berücksichtigt. Alle eingesetzten exakten Methoden, obwohl sie auf neuesten Erkenntnissen aus der Literatur aufbauen, können Instanzen von realistischer Größe nicht lösen. Dieser Umstand macht die Entwicklung von passenden heuristischen Verfahren nach wie vor unumgänglich. In der vorliegenden Arbeit wird ein relativ generisches System basierend auf der Variable Neighborhood Search Idee entwickelt, das auf alle behandelten Einzielproblemversionen angewandt werden kann; auch für die bi-kriterielle Problemstellung, in Kombination mit Path Relinking, werden gute Ergebnisse erzielt.Humanitarian non-profit ambulance dispatching organizations are committed to look at cost reduction potentials in order to decrease their expenses. While in the context of emergency transportation cost reduction cannot be achieved by means of combined passenger routes, this can be done when dealing with regular patients. This research work is motivated by the problem situation faced by ambulance dispatchers in the field of patient transportation. Problems of this kind are modeled as dial-a-ride problems. In the field of patient transportation, the provision of a certain quality of service is necessary; the term “user inconvenience” is used in this context. User inconvenience can either be considered in terms of additional constraints or in terms of additional objectives. Both approaches are investigated in this book. The aim is to model and solve the real world problem based on available information from the Austrian Red Cross. In a first step, a competitive heuristic solution method for a simplified problem version is developed. This problem version is extended in two ways. On the one hand, besides routing costs, a user-oriented objective, minimizing user inconvenience, in terms of mean user ride time, is introduced. On the other hand, heterogeneous patient types and a heterogeneous vehicle fleet are integrated into the standard dial-a-ride model. In a final step, in addition to heterogeneous patients and vehicles, the assignment of drivers and other staff members to vehicles, the scheduling of lunch breaks, and additional stops at the depot are considered. All exact methods employed, although based on state of the art concepts, are not capable of solving instances of realistic size. This fact makes the development of according heuristic solution methods necessary. In this book a rather generic variable neighborhood search framework is proposed. It is able to accommodate all single objective problem versions and also proves to work well when applied to the bi-objective problem in combination with path relinking

    A Literature Review, Container Shipping Supply Chain: Planning Problems and Research Opportunities

    Get PDF
    This paper provides an overview of the container shipping supply chain (CSSC) by taking a logistics perspective, covering all major value-adding segments in CSSC including freight logistics, container logistics, vessel logistics, port/terminal logistics, and inland transport logistics. The main planning problems and research opportunities in each logistics segment are reviewed and discussed to promote further research. Moreover, the two most important challenges in CSSC, digitalization and decarbonization, are explained and discussed in detail. We raise awareness of the extreme fragmentation of CSSC that causes inefficient operations. A pathway to digitalize container shipping is proposed that requires the applications of digital technologies in various business processes across five logistics segments, and change in behaviors and relationships of stakeholders in the supply chain. We recognize that shipping decarbonization is likely to take diverse pathways with different fuel/energy systems for ships and ports. This gives rise to more research and application opportunities in the highly uncertain and complex CSSC environment.</jats:p

    Engineering coordination : eine Methodologie für die Koordination von Planungssystemen

    Get PDF
    Planning problems, like real-world planning and scheduling problems, are complex tasks. As an efficient strategy for handing such problems is the ‘divide and conquer’ strategy has been identified. Each sub problem is then solved independently. Typically the sub problems are solved in a linear way. This approach enables the generation of sub-optimal plans for a number of real world problems. Today, this approach is widely accepted and has been established e.g. in the organizational structure of companies. But existing interdependencies between the sub problems are not sufficiently regarded, as each problem are solved sequentially and no feedback information is given. The field of coordination has been covered by a number of academic fields, like the distributed artificial intelligence, economics or game theory. An important result is, that there exist no method that leads to optimal results in any given coordination problem. Consequently, a suitable coordination mechanism has to be identified for each single coordination problem. Up to now, there exists no process for the selection of a coordination mechanism, neither in the engineering of distributed systems nor in agent oriented software engineering. Within the scope of this work the ECo process is presented, that address exactly this selection problem. The Eco process contains the following five steps. • Modeling of the coordination problem • Defining the coordination requirements • Selection / Design of the coordination mechanism • Implementation • Evaluation Each of these steps is detailed in the thesis. The modeling has to be done to enable a systemic analysis of the coordination problem. Coordination mechanisms have to respect the given situation and the context in which the coordination has to be done. The requirements imposed by the context of the coordination problem are formalized in the coordination requirements. The selection process is driven by these coordination requirements. Using the requirements as a distinction for the selection of a coordination mechanism is a central aspect of this thesis. Additionally these requirements can be used for documentation of design decisions. Therefore, it is reasonable to annotate the coordination mechanisms with the coordination requirements they fulfill and fail to ease the selection process, for a given situation. For that reason we present a new classification scheme for coordination methods within this thesis that classifies existing coordination methods according to a set of criteria that has been identified as important for the distinction between different coordination methods. The implementation phase of the ECo process is supported by the CoPS process and CoPS framework that has been developed within this thesis, as well. The CoPS process structures the design making that has to be done during the implementation phase. The CoPS framework provides a set of basic features software agents need for realizing the selected coordination method. Within the CoPS process techniques are presented for the design and implementation of conversations between agents that can be applied not only within the context of the coordination of planning systems, but for multiagent systems in general. The ECo-CoPS approach has been successfully validated in two case studies from the logistic domain.Reale Planungsprobleme, wie etwa die Produktionsplanung in einer Supply Chain, sind komplex Planungsprobleme. Eine übliche Strategie derart komplexen Problemen zu lösen, ist es diese Probleme in einfachere Teilprobleme zu zerlegen und diese dann separat, meist sequentiell, zu lösen (divide-and-conquer Strategie). Dieser Ansatz erlaubt die Erstellung von (suboptimalen) Plänen für eine Reihe von realen Anwendungen, und ist heute in den Organisationsstrukturen von größeren Unternehmen institutionalisiert worden. Allerdings werden Abhängigkeiten zwischen den Teilproblemen nicht ausreichend berücksichtigt, da die Partialprobleme sequentiell ohne Feedback gelöst werden. Die erstellten Teillösungen müssen deswegen oft nachträglich koordiniert werden. Das Gebiet der Koordination wird in verschiedenen Forschungsgebieten, wie etwa der verteilten Künstlichen Intelligenz, den Wirtschaftswissenschaften oder der Spieltheorie untersucht. Ein zentrales Ergebnis dieser Forschung ist, dass es keinen für alle Situationen geeigneten Koordinationsmechanismus gibt. Es stellt sich also die Aufgabe aus den zahlreichen vorgeschlagenen Koordinationsmechanismen eine Auswahl zu treffen, die für die aktuelle Situation den geeigneten Mechanismus identifiziert. Für die Auswahl eines solchen Mechanismus existiert bisher jedoch kein strukturiertes Verfahren für die Entwicklung von verteilten Systems und insbesondere im Bereich der Agenten orientierter Softwareentwicklung. Im Rahmen dieser Arbeit wird genau hierfür ein Verfahren vorgestellt, der ECo-Prozess. Mit Hilfe dieses Prozesses wird der Auswahlprozess in die folgenden Schritte eingeteilt: • Modellierung der Problemstellung und des relevante Kontextes • Formulierung von Anforderungen an einen Koordinationsmechanismus (coordination requirements) • Auswahl/Entwurf eines Koordinationsmechanismuses • Implementierung des Koordinationsverfahrens • Evaluation des Koordinationsverfahrens Diese Schritte werden im Rahmen der vorliegenden Arbeit detailliert beschrieben. Die Modellierung der Problemstellung stellt dabei den ersten Schritt dar, um die Problemstellung analytisch zugänglich zu machen. Koordinationsverfahren müssen die Gegebenheiten, den Kontext und die Domäne, in der sie angewendet werden sollen hinreichend berücksichtigen um anwendbar zu sein. Dieses kann über Anforderungen an den Koordinationsprozess formalisiert werden. Der von den Anforderungen getrieben Auswahlprozess ist ein Kernstück der hier vorgestellten Arbeit. Durch die Formulierung der Anforderungen und der Annotation eines Koordinationsmechanismus bezüglich der erfüllten und nicht erfüllten Anforderungen werden die Motive für Designentscheidungen dieses Verfahren expliziert. Wenn Koordinationsverfahren anhand dieser Anforderungen klassifiziert werden können, ist es weiterhin möglich den Auswahlprozess (unabhängig vom ECo-Ansatz) zu vereinfachen und zu beschleunigen. Im Rahmen dieser Arbeit wird eine Klassifikation von Koordinationsansätzen anhand von allgemeinen Kriterien vorgestellt, die die Identifikation von geeigneten Kandidaten erleichtern. Diese Kandidaten können dann detaillierter untersucht werden. Dies wurde in den vorgestellten Fallstudien erfolgreich demonstriert. Für die Unterstützung der Implementierung eines Koordinationsansatzes wird in dieser Arbeit zusätzlich der CoPS Prozess vorgeschlagen. Der CoPS Prozess erlaubt einen ganzheitlichen systematischen Ansatz für den Entwurf und die Implementierung eines Koordinationsverfahrens. Unterstürzt wird der CoPS Prozess durch das CoPS Framework, das die Implementierung erleichtert, indem es als eine Plattform mit Basisfunktionalität eines Agenten bereitstellt, der für die Koordination von Planungssystemen verantwortlich ist. Im Rahmen des CoPS Verfahrens werden Techniken für den Entwurf und die Implementierung von Konversation im Kontext des agenten-orientiertem Software Engineerings ausführlich behandelt. Der Entwurf von Konversationen geht dabei weit über Fragestellung der Formatierung von Nachrichten hinaus, wie dies etwa in den FIPA Standards geregelt ist, und ist für die Implementierung von agentenbasierten Systemen im Allgemeinen von Bedeutung. Die Funktionsweise des ECo-CoPS Ansatzes wird anhand von zweierfolgreich durchgeführten Fallstudien aus dem betriebswirtschaftlichen Kontext vorgestellt

    Learning from complex networks

    Get PDF
    Graph Theory has proven to be a universal language for describing modern complex systems. The elegant theoretical framework of graphs drew the researchers' attention over decades. Therefore, graphs have emerged as a ubiquitous data structure in various applications where a relational characteristic is evident. Graph-driven applications are found, e.g., in social network analysis, telecommunication networks, logistic processes, recommendation systems, modeling kinetic interactions in protein networks, or the 'Internet of Things' (IoT) where modeling billions of interconnected web-enabled devices is of paramount importance. This thesis dives deep into the challenges of modern graph applications. It proposes a robustified and accelerated spectral clustering model in homogeneous graphs and novel transformer-driven graph shell models for attributed graphs. A new data structure is introduced for probabilistic graphs to compute the information flow efficiently. Moreover, a metaheuristic algorithm is designed to find a good solution to an optimization problem composed of an extended vehicle routing problem. The thesis closes with an analysis of trend flows in social media data. Detecting communities within a graph is a fundamental data mining task of interest in virtually all areas and also serves as an unsupervised preprocessing step for many downstream tasks. One most the most well-established clustering methods is Spectral Clustering. However, standard spectral clustering is highly sensitive to noisy input data, and the eigendecomposition has a high, cubic runtime complexity O(n^3). Tackling one of these problems often exacerbates the other. This thesis presents a new model which accelerates the eigendecomposition step by replacing it with a Nyström approximation. Robustness is achieved by iteratively separating the data into a cleansed and noisy part of the data. In this process, representing the input data as a graph is vital to identify parts of the data being well connected by analyzing the vertices' distances in the eigenspace. With the advances in deep learning architectures, we also observe a surge in research on graph representation learning. The message-passing paradigm in Graph Neural Networks (GNNs) formalizes a predominant heuristic for multi-relational and attributed graph data to learn node representations. In downstream applications, we can use the representations to tackle theoretical problems known as node classification, graph classification/regression, and relation prediction. However, a common issue in GNNs is known as over-smoothing. By increasing the number of iterations within the message-passing, the nodes' representations of the input graph align and become indiscernible. This thesis shows an efficient way of relaxing the GNN architecture by employing a routing heuristic in the general workflow. Specifically, an additional layer routes the nodes' representations to dedicated experts. Each expert calculates the representations according to their respective GNN workflow. The definitions of distinguishable GNNs result from k-localized views starting from a central node. This procedure is referred to as Graph Shell Attention (SEA), where experts process different subgraphs in a transformer-motivated fashion. Reliable propagation of information through large communication networks, social networks, or sensor networks is relevant to applications concerning marketing, social analysis, or monitoring physical or environmental conditions. However, social ties of friendship may be obsolete, and communication links may fail, inducing the notion of uncertainty in such networks. This thesis addresses the problem of optimizing information propagation in uncertain networks given a constrained budget of edges. A specialized data structure, called F-tree, addresses two NP-hard subproblems: the computation of the expected information flow and the optimal choice of edges. The F-tree identifies independent components of a probabilistic input graph for which the information flow can either be computed analytically and efficiently or for which traditional Monte-Carlo sampling can be applied independently of the remaining network. The next part of the thesis covers a graph problem from the Operations Research point of view. A new variant of the well-known vehicle routing problem (VRP) is introduced, where customers are served within a specific time window (TW), as well as flexible delivery locations (FL) including capacity constraints. The latter implies that each customer is scheduled in one out of a set of capacitated delivery service locations. Practically, the VRPTW-FL problem is relevant for applications in parcel delivery, routing with limited parking space, or, for example, in the scope of hospital-wide scheduling of physical therapists. This thesis presents a metaheuristic built upon a hybrid Adaptive Large Neighborhood Search (ALNS). Moreover, a backtracking mechanism in the construction phase is introduced to alter unsatisfactory decisions at early stages. In the computational study, hospital data is used to evaluate the utility of flexible delivery locations and various cost functions. In the last part of the thesis, social media trends are analyzed, which yields insights into user sentiment and newsworthy topics. Such trends consist of bursts of messages concerning a particular topic within a time frame, significantly deviating from the average appearance frequency of the same subject. This thesis presents a method to classify trend archetypes to predict future dissemination by investigating the dissemination of such trends in space and time. Generally, with the ever-increasing scale and complexity of graph-structured datasets and artificial intelligence advances, AI-backed models will inevitably play an important role in analyzing, modeling, and enhancing knowledge extraction from graph data.Die Graphentheorie hat sich zur einer universellen Sprache entwickelt, mit Hilfe derer sich moderne und komplexe Systeme und Zusammenhänge beschreiben lassen. Diese theoretisch elegante und gut fundierte Rahmenstruktur attrahierte über Dekaden hinweg die Aufmerksamkeit von Wissenschaftlern/-innen. In der heutigen Informationstechnologie-Landschaft haben sich Graphen längst zu einer allgegenwärtigen Datenstruktur in Anwendungen etabliert, innerhalb derer charakteristische Zusammenhangskomponenten eine zentrale Rolle spielen. Anwendungen, die über Graphen unterstützt werden, finden sich u.a. in der Analyse von sozialen Netzwerken, Telekommunikationsnetwerken, logistische Prozessverwaltung, Analyse von Empfehlungsdiensten, in der Modellierung kinetischer Interaktionen von Proteinstrukturen, oder auch im "Internet der Dinge" (engl.: 'Internet Of Things' (IoT)), welches das Zusammenspiel von abermillionen web-unterstützte Endgeräte abbildet und eine prädominierende Rolle für große IT-Unternehmen spielt. Diese Dissertation beleuchtet die Herausforderungen moderner Graphanwendungen. Im Bereich homogener Netzwerken wird ein beschleunigtes und robustes spektrales Clusteringverfahren, sowie ein Modell zur Untersuchung von Teilgraphen mittels Transformer-Architekturen für attribuierte Graphen vorgestellt. Auf wahrscheinlichkeitsbasierten homogenen Netzwerken wird eine neue Datenstruktur eingeführt, die es erlaubt einen effizienten Informationsfluss innerhalb eines Graphen zu berechnen. Darüber hinaus wird ein Optimierungsproblem in Transportnetzwerken beleuchtet, sowie eine Untersuchung von Trendflüssen in sozialen Medien diskutiert. Die Untersuchung von Verbünden (engl.: 'Clusters') von Graphdaten stellt einen Eckpfeiler im Bereich der Datengewinnung dar. Die Erkenntnisse sind nahezu in allen praktischen Bereichen von Relevanz und dient im Bereich des unüberwachten Lernens als Vorverarbeitungsschritt für viele nachgeschaltete Aufgaben. Einer der weit verbreitetsten Methodiken zur Verbundanalyse ist das spektrale Clustering. Die Qualität des spektralen Clusterings leidet, wenn die Eingabedaten sehr verrauscht sind und darüber hinaus ist die Eigenwertzerlegung mit O(n^3) eine teure Operation und damit wesentlich für die hohe, kubische Laufzeitkomplexität verantwortlich. Die Optimierung von einem dieser Kriterien exazerbiert oftmals das verbleibende Kriterium. In dieser Dissertation wird ein neues Modell vorgestellt, innerhalb dessen die Eigenwertzerlegung über eine Nyström Annäherung beschleunigt wird. Die Robustheit wird über ein iteratives Verfahren erreicht, das die gesäuberten und die verrauschten Daten voneinander trennt. Die Darstellung der Eingabedaten über einen Graphen spielt hierbei die zentrale Rolle, die es erlaubt die dicht verbundenen Teile des Graphen zu identifizieren. Dies wird über eine Analyse der Distanzen im Eigenraum erreicht. Parallel zu neueren Erkenntnissen im Bereich des Deep Learnings lässt sich auch ein Forschungsdrang im repräsentativen Lernen von Graphen erkennen. Graph Neural Networks (GNN) sind eine neue Unterform von künstlich neuronalen Netzen (engl.: 'Artificial Neural Networks') auf der Basis von Graphen. Das Paradigma des sogenannten 'message-passing' in neuronalen Netzen, die auf Graphdaten appliziert werden, hat sich hierbei zur prädominierenden Heuristik entwickelt, um Vektordarstellungen von Knoten aus (multi-)relationalen, attribuierten Graphdaten zu lernen. Am Ende der Prozesskette können wir somit theoretische Probleme angehen und lösen, die sich mit Fragestellungen über die Klassifikation von Knoten oder Graphen, über regressive Ausdrucksmöglichkeiten bis hin zur Vorhersage von relationaler Verbindungen beschäftigen. Ein klassisches Problem innerhalb graphischer neuronaler Netze ist bekannt unter der Terminologie des 'over-smoothing' (dt.: 'Überglättens'). Es beschreibt, dass sich mit steigender Anzahl an Iterationen des wechselseitigen Informationsaustausches, die Knotenrepräsentationen im vektoriellen Raum angleichen und somit nicht mehr unterschieden werden können. In dieser Forschungsarbeit wird eine effiziente Methode vorgestellt, die die klassische GNN Architektur aufbricht und eine Vermittlerschicht in den herkömmlichen Verarbeitungsfluss einarbeitet. Konkret gesprochen werden hierbei Knotenrepräsentationen an ausgezeichnete Experten geschickt. Jeder Experte verarbeitet auf idiosynkratischer Basis die Knoteninformation. Ausgehend von einem Anfrageknoten liegt das Kriterium für die Unterscheidbarkeit von Experten in der restriktiven Verarbeitung lokaler Information. Diese neue Heuristik wird als 'Graph Shell Attention' (SEA) bezeichnet und beschreibt die Informationsverarbeitung unterschiedlicher Teilgraphen von Experten unter der Verwendung der Transformer-technologie. Eine zuverlässige Weiterleitung von Informationen über größere Kommunikationsnetzwerken, sozialen Netzwerken oder Sensorennetzwerken spielen eine wichtige Rolle in Anwendungen der Marktanalyse, der Analyse eines sozialen Gefüges, oder der Überwachung der physischen und umweltorientierten Bedingungen. Innerhalb dieser Anwendungen können Fälle auftreten, wo Freundschaftsbeziehungen nicht mehr aktuell sind, wo die Kommunikation zweier Endpunkte zusammenbricht, welches mittels einer Unsicherheit des Informationsaustausches zweier Endpunkte ausgedrückt werden kann. Diese Arbeit untersucht die Optimierung des Informationsflusses in Netzwerken, deren Verbindungen unsicher sind, hinsichtlich der Bedingung, dass nur ein Bruchteil der möglichen Kanten für den Informationsaustausch benutzt werden dürfen. Eine eigens entwickelte Datenstruktur - der F-Baum - wird eingeführt, die 2 NP-harte Teilprobleme auf einmal adressiert: zum einen die Berechnung des erwartbaren Informationsflusses und zum anderen die Auswahl der optimalen Kanten. Der F-Baum unterscheidet hierbei unabhängige Zusammenhangskomponenten der wahrscheinlichkeitsbasierten Eingabedaten, deren Informationsfluss entweder analytisch korrekt und effizient berechnet werden können, oder lokal über traditionelle Monte-Carlo sampling approximiert werden können. Der darauffolgende Abschnitt dieser Arbeit befasst sich mit einem Graphproblem aus Sicht der Optimierungsforschung angewandter Mathematik. Es wird eine neue Variante der Tourenplanung vorgestellt, welches neben kundenspezifischer Zeitfenster auch flexible Zustellstandorte beinhaltet. Darüber hinaus obliegt den Zielorten, an denen Kunden bedient werden können, weiteren Kapazitätslimitierungen. Aus praktischer Sicht ist das VRPTW-FL (engl.: "Vehicle Routing Problem with Time Windows and Flexible Locations") eine bedeutende Problemstellung für Paketdienstleister, Routenplanung mit eingeschränkten Stellplätzen oder auch für die praktische Planung der Arbeitsaufteilung von behandelnden Therapeuten/-innen und Ärzten/-innen in einem Krankenhaus. In dieser Arbeit wird für die Bewältigung dieser Problemstellung eine Metaheuristik vorgestellt, die einen hybriden Ansatz mit der sogenannten Adaptive Large Neighborhood Search (ALNS) impliziert. Darüber hinaus wird als Konstruktionsheuristik ein 'Backtracking'-Mechanismus (dt.: Rückverfolgung) angewandt, um initiale Startlösungen aus dem Lösungssuchraum auszuschließen, die weniger vielversprechend sind. In der Evaluierung dieses neuen Ansatz werden Krankenhausdaten untersucht, um auch die Nützlichkeit von flexiblen Zielorten unter verschiedenen Kostenfunktionen herauszuarbeiten. Im letzten Kapitel dieser Dissertation werden Trends in sozialen Daten analysiert, die Auskunft über die Stimmung der Benutzer liefern, sowie Einblicke in tagesaktuelle Geschehnisse gewähren. Ein Kennzeichen solcher Trends liegt in dem Aufbraußen von inhaltsspezifischen Themen innerhalb eines Zeitfensters, die von der durchschnittlichen Erscheinungshäufigkeit desselben Themas signifikant abweichen. Die Untersuchung der Verbreitung solches Trends über die zeitliche und örtliche Dimension erlaubt es, Trends in Archetypen zu klassifizieren, um somit die Ausbreitung zukünftiger Trends hervorzusagen. Mit der immerwährenden Skalierung von Graphdaten und deren Komplexität, und den Fortschritten innerhalb der künstlichen Intelligenz, wird das maschinelle Lernen unweigerlich weiterhin eine wesentliche Rolle spielen, um Graphdaten zu modellieren, analysieren und schlussendlich die Wissensextraktion aus derartigen Daten maßgeblich zu fördern.La théorie des graphes s'est révélée être une langue universel pour décrire les systèmes complexes modernes. L'élégant cadre théorique des graphes a attiré l'attention des chercheurs pendant des décennies. Par conséquent, les graphes sont devenus une structure de données omniprésente dans diverses applications où une caractéristique relationnelle est évidente. Les applications basées sur les graphes se retrouvent, par exemple, dans l'analyse des réseaux sociaux, les réseaux de télécommunication, les processus logistiques, les systèmes de recommandation, la modélisation des interactions cinétiques dans les réseaux de protéines, ou l'"Internet des objets" (IoT) où la modélisation de milliards de dispositifs interconnectés basés sur le web est d'une importance capitale. Cette thèse se penche sur les défis posés par les applications modernes des graphes. Elle propose un modèle de regroupement spectral robuste et accéléré dans les graphes homogènes et de nouveaux modèles d'enveloppe de graphe pilotés par transformateur pour les graphes attribués. Une nouvelle structure de données est introduite pour les graphes probabilistes afin de calculer efficacement le flux d'informations. De plus, un algorithme métaheuristique est conçu pour trouver une bonne solution à un problème d'optimisation composé d'un problème étendu de routage de véhicules. La thèse se termine par une analyse des flux de tendances dans les données des médias sociaux. La détection de communautés au sein d'un graphe est une tâche fondamentale d'exploration de données qui présente un intérêt dans pratiquement tous les domaines et sert également d'étape de prétraitement non supervisé pour de nombreuses tâches en aval. L'une des méthodes de regroupement les mieux établies est le regroupement spectral. Cependant, le regroupement spectral standard est très sensible aux données d'entrée bruitées, et l'eigendecomposition a une complexité d'exécution cubique élevée O(n^3). S'attaquer à l'un de ces problèmes exacerbe souvent l'autre. Cette thèse présente un nouveau modèle qui accélère l'étape d'eigendecomposition en la remplaçant par une approximation de Nyström. La robustesse est obtenue en séparant itérativement les données en une partie nettoyée et une partie bruyante. Dans ce processus, la représentation des données d'entrée sous forme de graphe est essentielle pour identifier les parties des données qui sont bien connectées en analysant les distances des sommets dans l'espace propre. Avec les progrès des architectures de Deep Learning, nous observons également une poussée de la recherche sur l'apprentissage de la représentation graphique. Le paradigme du passage de messages dans les réseaux neuronaux graphiques (GNN) formalise une heuristique prédominante pour les données graphiques multi-relationnelles et attribuées afin d'apprendre les représentations des nœuds. Dans les applications en aval, nous pouvons utiliser les représentations pour résoudre des problèmes théoriques tels que la classification des nœuds, la classification/régression des graphes et la prédiction des relations. Cependant, un problème courant dans les GNN est connu sous le nom de lissage excessif. En augmentant le nombre d'itérations dans le passage de messages, les représentations des nœuds du graphe d'entrée s'alignent et deviennent indiscernables. Cette thèse montre un moyen efficace d'assouplir l'architecture GNN en employant une heuristique de routage dans le flux de travail général. Plus précisément, une couche supplémentaire achemine les représentations des nœuds vers des experts spécialisés. Chaque expert calcule les représentations en fonction de son flux de travail GNN respectif. Les définitions de GNN distincts résultent de k vues localisées à partir d'un nœud central. Cette procédure est appelée Graph Shell Attention (SEA), dans laquelle les experts traitent différents sous-graphes à l'aide d'un transformateur. La propagation fiable d'informations par le biais de grands réseaux de communication, de réseaux sociaux ou de réseaux de capteurs est importante pour les applications concernant le marketing, l'analyse sociale ou la surveillance des conditions physiques ou environnementales. Cependant, les liens sociaux d'amitié peuvent être obsolètes, et les liens de communication peuvent échouer, induisant la notion d'incertitude dans de tels réseaux. Cette thèse aborde le problème de l'optimisation de la propagation de l'information dans les réseaux incertains compte tenu d'un budget contraint d'arêtes. Une structure de données spécialisée, appelée F-tree, traite deux sous-problèmes NP-hard: le calcul du flux d'information attendu et le choix optimal des arêtes. L'arbre F identifie les composants indépendants d'un graphe d'entrée probabiliste pour lesquels le flux d'informations peut être calculé analytiquement et efficacement ou pour lesquels l'échantillonnage Monte-Carlo traditionnel peut être appliqué indépendamment du reste du réseau. La partie suivante de la thèse couvre un problème de graphe du point de vue de la recherche opérationnelle. Une nouvelle variante du célèbre problème d'acheminement par véhicule (VRP) est introduite, où les clients sont servis dans une fenêtre temporelle spécifique (TW), ainsi que des lieux de livraison flexibles (FL) incluant des contraintes de capacité. Ces dernières impliquent que chaque client est programmé dans l'un des emplacements de service de livraison à capacité. En pratique, le problème VRPTW-FL est pertinent pour des applications de livraison de colis, d'acheminement avec un espace de stationnement limité ou, par exemple, dans le cadre de la programmation de kinésithérapeutes à l'échelle d'un hôpital. Cette thèse présente une métaheuristique construite sur une recherche hybride de grands voisinages adaptatifs (ALNS). En outre, un mécanisme de retour en arrière dans la phase de construction est introduit pour modifier les décisions insatisfaisantes à des stades précoces. Dans l'étude computationnelle, des données hospitalières sont utilisées pour évaluer l'utilité de lieux de livraison flexibles et de diverses fonctions de coût. Dans la dernière partie de la thèse, les tendances des médias sociaux sont analysées, ce qui donne un aperçu du sentiment des utilisateurs et des sujets d'actualité. Ces tendances consistent en des rafales de messages concernant un sujet particulier dans un laps de temps donné, s'écartant de manière significative de la fréquence moyenne d'apparition du même sujet. Cette thèse présente une méthode de classification des archétypes de tendances afin de prédire leur diffusion future en étudiant la diffusion de ces tendances dans l'espace et dans le temps. D'une manière générale, avec l'augmentation constante de l'échelle et de la complexité des ensembles de données structurées en graphe et les progrès de l'intelligence artificielle, les modèles soutenus par l'IA joueront inévitablement un rôle important dans l'analyse, la modélisation et l'amélioration de l'extraction de connaissances à partir de données en graphe

    Optimizing multiple truck trips in a cooperative environment through MILP and Game Theory

    Get PDF
    Today, the challenge of economy regarding freight transport is to generate flows of goods extremely fast, handling information in short times, optimizing decisions, and reducing the percentage of vehicles that circulate empty over the total amount of transportation means, with benefits to roads congestion and the environment, besides economy. Logistic operators need to pose attention on suitable planning methods in order to reduce their costs, fuel consumption and emissions, as well as to gain economy of scale. To ensure the maximum efficacy, planning should be also based on cooperation between the involved subjects. Collaboration in logistics is an effective approach for business to obtain a competitive edge. In a successful collaboration, parties involved from suppliers, customers, and even competitors perform a coordinated effort to realize the potential benefit of collaboration, including reduced costs, decreased lead times, and improved asset utilization and service level. In addition to these benefit, having a broader supply chain perspective enables firms to make better-informed decisions on strategic issues. The first aim of the present Thesis is to propose a planning approach based on mathematical programming techniques to improve the efficiency of road services of a single carrier combining multiple trips in a port environment (specifically, import, export and inland trips). In this way, in the same route, more than two transportation services can be realized with the same vehicle thus significantly reducing the number of total empty movements. Time windows constraints related to companies and terminal opening hours as well as to ship departures are considered in the problem formulation. Moreover, driving hours restrictions and trips deadlines are taken into account, together with goods compatibility for matching different trips. The second goal of the Thesis is to define innovative planning methods and optimization schemes of logistic networks in which several carriers are present and the decisional actors operate in a cooperative scenario in which they share a portion of their demand. The proposed approaches are characterized by the adoption both of Game Theory methods and of new original methods of profits distribution

    공컨테이너관리 기법을 활용한 효율적인 컨테이너 공급망

    Get PDF
    학위논문 (박사) -- 서울대학교 대학원 : 공과대학 산업공학과, 2021. 2. 문일경.Due to a remarkable surge in global trade volumes led by maritime transportation, shipping companies should make a great effort in managing their container flows especially in case of carrier-owned containers. To do so, they comprehensively implement empty container management strategies and accelerate the flows in a cost- and time-efficient manner to minimize total relevant costs while serving the maximal level of customers demands. However, many critical issues in container flows universally exist due to high uncertainty in reality and hinder the establishment of an efficient container supply chain. In this dissertation, we fully discuss such issues and provide mathematical models along with specific solution procedures. Three types of container supply chain are presented in the following: (i) a two-way four-echelon container supply chain; (ii) a laden and empty container supply chain under decentralized and centralized policies; (iii) a reliable container supply chain under disruption. These models explicitly deal with high risks embedded in a container supply chain and their computational experiments offer underlying managerial insights for the management in shipping companies. For (i), we study empty container management strategy in a two-way four-echelon container supply chain for bilateral trade between two countries. The strategy reduces high maritime transportation costs and long delivery times due to transshipment. The impact of direct shipping is investigated to determine the number of empty containers to be repositioned among selected ports, number of leased containers, and route selection to satisfy the demands for empty and laden containers for exporters and importers in two regions. A hybrid solution procedure based on accelerated particle swarm optimization and heuristic is presented, and corresponding results are compared. For (ii), we introduce the laden and empty container supply chain model based on three scenarios that differ with regard to tardiness in the return of empty containers and the decision process for the imposition of fees with the goal of determining optimal devanning times. The effectiveness of each type of policy - centralized versus decentralized - is determined through computational experiments that produce key performance measures including the on-time return ratio. Useful managerial insights on the implementation of these polices are derived from the results of sensitivity analyses and comparative studies. For (iii), we develop a reliability model based on container network flow while also taking into account expected transportation costs, including street-turn and empty container repositioning costs, in case of arc- and node-failures. Sensitivity analyses were conducted to analyze the impact of disruption on container supply chain networks, and a benchmark model was used to determine disruption costs. More importantly, some managerial insights on how to establish and maintain a reliable container network flow are also provided.해상 수송이 주도함으로써 전 세계 무역량이 급증하기 때문에 회사 소유 컨테이너는 컨테이너 흐름을 관리하는 데 많은 노력을 기울여야 한다. 이를 위해 공 컨테이너 관리 전략을 포괄적으로 구현하고 효율적인 수송 비용 및 시간 절감 방식으로 컨테이너 흐름을 원활히 하여 관련 총비용을 최소화하는 동시에 고객의 수요를 최대한 충족하게 된다. 그러나 현실에서는 높은 불확실성 때문에 컨테이너 흐름에 대한 많은 주요한 이슈가 보편적으로 존재하고 효율적인 컨테이너 공급망 구축을 방해한다. 본 논문에서는 이러한 이슈에 대해 전반적으로 논의하고 적절한 해법과 함께 수리 모형을 제공한다. 이를 위해 세 가지 유형의 컨테이너 공급망을 다룬다. 먼저 (i) 양방향 네 단계 컨테이너 공급망, (ii) 분권화 및 중앙 집중화 정책에 따른 적∙공 컨테이너 공급망; 그리고 (iii) disruption 상황 속에서 신뢰성을 고려하는 컨테이너 공급망이다. 본 논문에서 제시한 세 가지 모형은 컨테이너 공급망에 내재 된 높은 위험을 직접 다루며 계산 실험은 해운 회사의 경영진이나 관계자를 위해 주요한 관리 인사이트를 제공한다. (i)의 경우, 두 지역 간 양자 무역을 위한 양방향 네 단계 컨테이너 공급망에서 공 컨테이너 관리 전략을 연구한다. 이 전략은 환적으로 인한 높은 해상 운송 비용과 긴 배송 시간을 줄일 수 있다. 또한, 직항 수송의 영향을 조사하여 선택된 항구 중 재배치 할 공 컨테이너 수, 임대 컨테이너 수, 두 지역의 수출업자와 수입업자의 적∙공 컨테이너 대한 수요를 만족하기 위한 경로 선택을 결정하게 된다. APSO 및 휴리스틱을 기반으로 하는 하이브리드 해법을 제시하며 비교 실험을 하였다. (ii)의 경우 최적 devanning time 결정을 목표로 공 컨테이너의 반환 지연과 해당 수수료 부과 결정 프로세스와 관련하여 서로 다른 세 가지 시나리오를 기반으로 적∙공 컨테이너 공급망 모형을 제시한다. 각 유형의 정책적(분권화 및 중앙 집중화) 효과는 정시 반환율을 포함한 주요 성능 측정을 고려하는 계산 실험을 통해 결정된다. 이러한 정책 실행에 대한 유용한 관리 인사이트는 민감도 분석 및 비교 연구의 결과에서 도출한다. (iii)의 경우, 본 논문은 컨테이너 네트워크 흐름을 기반으로 하는 신뢰성 모형을 개발하는 동시에 아크 및 노드 failure가 있을 때 street-turn 및 공 컨테이너 재배치 비용을 포함한 기대 총 비용을 구한다. 중단이 컨테이너 공급망 네트워크에 미치는 영향을 분석하기 위해 민감도 분석을 수행했으며 disruption 비용을 결정하기 위해 벤치마크 모형을 활용한다. 더불어 신뢰성을 고려한 컨테이너 네트워크 흐름을 구축하고 신뢰성을 유지하는 방법에 대한 관리적 인사이트도 제공한다.Abstract i Contents ii List of Tables vi List of Figures viii 1. Introduction 1 1.1 Empty Container Repositioning Problem 1 1.2 Reliability Problem 3 1.3 Research Motivation and Contributions 4 1.4 Outline of the Dissertation 7 2. Two-Way Four-Echelon Container Supply Chain 8 2.1 Problem Description and Literature Review 8 2.2 Mathematical Model for the TFESC 15 2.2.1 Overview and Assumptions 15 2.2.2 Notation and Formulation 19 2.3 Solution Procedure for the TFESC 25 2.3.1 Pseudo-Function-based Optimization Problem 25 2.3.2 Objective Function Evaluation 28 2.3.3 Heuristics for Reducing the Number of Leased Containers 32 2.3.4 Accelerated Particle Swarm Optimization 34 2.4 Computational Experiments 37 2.4.1 Heuristic Performances 39 2.4.2 Senstivity Analysis of Varying Periods 42 2.4.3 Senstivity Analysis of Varying Number of Echelons 45 2.5 Summary 48 3. Laden and Empty Container Supply Chain under Decentralized and Centralized Policies 50 3.1 Problem Description and Literature Review 50 3.2 Scenario-based Model for the LESC-DC 57 3.3 Model Development for the LESC-DC 61 3.3.1 Centralized Policy 65 3.3.2 Decentralized Policies (Policies I and II) 67 3.4 Computational Experiments 70 3.4.1 Numerical Exmpale 70 3.4.2 Sensitivity Analysis of Varying Degree of Risk in Container Return 72 3.4.3 Sensitivity Analysis of Increasing L_0 74 3.4.4 Sensitivity Analysis of Increasing t_r 76 3.4.5 Sensitivity Analysis of Decreasing es and Increasing e_f 77 3.4.6 Sensitivity Analysis of Discounting 〖pn〗_{f1} and 〖pn〗_{f2} 78 3.4.7 Sensitivity Analysis of Different Container Fleet Sizes 79 3.5 Managerial Insights 81 3.6 Summary 83 4. Reliable Container Supply Chain under Disruption 84 4.1 Problem Description and Literature Review 84 4.2 Mathematical Model for the RCNF 90 4.3 Reliability Model under Disruption 95 4.3.1 Designing the Patterns of q and s 95 4.3.2 Objective Function for the RCNF Model 98 4.4 Computational Experiments 103 4.4.1 Sensitivity Analysis of Expected Failure Costs 106 4.4.2 Sensitivity Analysis of Different Network Structures 109 4.4.3 Sensitivity Analysis of Demand-Supply Variation 112 4.4.4 Managerial Insights 115 4.5 Summary 116 5. Conclusions and Future Research 117 Appendices 120 A Proof of Proposition 3.1 121 B Proof of Proposition 3.2 124 C Proof of Proposition 3.3 126 D Sensitivity Analyses for Results 129 E Data for Sensitivity Analyses 142 Bibliography 146 국문초록 157 감사의 글 160Docto

    Operational research and simulation methods for autonomous ride-sourcing

    Get PDF
    Ride-sourcing platforms provide on-demand shared transport services by solving decision problems related to ride-matching and pricing. The anticipated commercialisation of autonomous vehicles could transform these platforms to fleet operators and broaden their decision-making by introducing problems such as fleet sizing and empty vehicle redistribution. These problems have been frequently represented in research using aggregated mathematical programs, and alternative practises such as agent-based models. In this context, this study is set at the intersection between operational research and simulation methods to solve the multitude of autonomous ride-sourcing problems. The study begins by providing a framework for building bespoke agent-based models for ride-sourcing fleets, derived from the principles of agent-based modelling theory, which is used to tackle the non-linear problem of minimum fleet size. The minimum fleet size problem is tackled by investigating the relationship of system parameters based on queuing theory principles and by deriving and validating a novel model for pickup wait times. Simulating the fleet function in different urban areas shows that ride-sourcing fleets operate queues with zero assignment times above the critical fleet size. The results also highlight that pickup wait times have a pivotal role in estimating the minimum fleet size in ride-sourcing operations, with agent-based modelling being a more reliable estimation method. The focus is then shifted to empty vehicle redistribution, where the omission of market structure and underlying customer acumen, compromises the effectiveness of existing models. As a solution, the vehicle redistribution problem is formulated as a non-linear convex minimum cost flow problem that accounts for the relationship of supply and demand of rides by assuming a customer discrete choice model and a market structure. An edge splitting algorithm is then introduced to solve a transformed convex minimum cost flow problem for vehicle redistribution. Results of simulated tests show that the redistribution algorithm can significantly decrease wait times and increase profits with a moderate increase in vehicle mileage. The study is concluded by considering the operational time-horizon decision problems of ride-matching and pricing at periods of peak travel demand. Combinatorial double auctions have been identified as a suitable alternative to surge pricing in research, as they maximise social welfare by relying on stated customer and driver valuations. However, a shortcoming of current models is the exclusion of trip detour effects in pricing estimates. The study formulates a shared-ride assignment and pricing algorithm using combinatorial double auctions to resolve the above problem. The model is reduced to the maximum weighted independent set problem, which is APX-hard. Therefore, a fast local search heuristic is proposed, producing solutions within 10\% of the exact approach for practical implementations.Open Acces

    Developing Model of Flexible Periodic Vehicle Routing Problem (FPVRP) Considering Color Combination Requirements for a Paint Distribution System

    Get PDF
    The distribution system in paint product’s sector does have some unique complexities. Within a developing technology, paint products are now wider in color range, faster in manufacturing, and better in quality. Even now it is possible to create a desired color instantly using on-spot paint tinting machine technology (One thousand color policy). Flexible Periodic Vehicle Routing Problem (FPVRP) is a tool chosen within planning the paint distribution system. Paint distributor will be able to plan the deliveries on a weekly planning horizon. The model is developed from previous research by adding the multi-product criteria (weighted bill of color consideration) as well as multi-capacity vehicle criteria to help paint distributors in making a better decision of routing. The benefits obtained from FPVRP decision tools is the increased flexibility of routing options considering the visit frequency, routing sequence and also the selection of the vehicle used which save cost up to 59.85%. Nevertheless, as a drawback, this model requires a very long computational time and some unexpected shut down often occurred especially during calculations for bigger data siz
    corecore