7 research outputs found

    Planung vor Transportnetzen : Herausforderungen an die Tourenplanung

    Get PDF
    Die Planung von großen Transportnetzen auf strategischer, taktischer und operativer Ebene stützt sich maßgeblich auf quantitative Modelle und Verfahren. Dabei spielt die Integration der Planungsebenen, wie zum Beispiel beim Location Routing, eine große Rolle. Die Komplexität der Tourenplanung hängt zum einen von der Größe des Netzes und zum anderen von den betrachteten Nebenbedingungen ab. Effiziente Verfahren, die für unterschiedlichste Varianten des "Rich Vehicle Routing Problems" anwendbar sind, stehen im Zentrum der aktuellen Forschung. Weitere Herausforderung stellen Mischformen aus knoten- und kantenorientierten Rundreiseproblemen, dynamische Problemstellungen sowie Anforderungen der online-Planung dar

    Vergleichen und Aggregieren von partiellen Ordnungen

    Get PDF
    Das Vergleichen und Aggregieren von Informationen ist ein zentraler Bereich in der Analyse von Wahlsystemen. In diesen müssen die verschiedenen Meinungen von Wählern über eine Menge von Kandidaten zu einem möglichst gerechten Wahlergebnis aggregiert werden. In den meisten politischen Wahlen entscheidet sich jeder Wähler durch Ankreuzen für einen einzigen Kandidaten. Daneben werden aber auch Rangordnungsprobleme als eine Variante von Wahlsystemen untersucht. Bei diesen bringt jeder Wähler seine Meinung in Form einer totalen Ordnung über der Menge der Kandidaten zum Ausdruck, wodurch seine oftmals komplexe Meinung exakter repräsentiert werden kann als durch die Auswahl eines einzigen, favorisierten Kandidaten. Das Wahlergebnis eines Rangordnungsproblems ist dann eine ebenfalls totale Ordnung der Kandidaten, welche die geringste Distanz zu den Meinungen der Wähler aufweist. Als Distanzmaße zwischen zwei totalen Ordnungen haben sich neben anderen Kendalls Tau-Distanz und Spearmans Footrule-Distanz etabliert. Durch moderne Anwendungsmöglichkeiten von Rangordnungsproblemen im maschinellen Lernen, in der künstlichen Intelligenz, in der Bioinformatik und vor allem in verschiedenen Bereichen des World Wide Web rücken bereits bekannte, jedoch bislang eher wenig studierte Aspekte in den Fokus der Forschung. Zum einen gewinnt die algorithmische Komplexität von Rangordnungsproblemen an Bedeutung. Zum anderen existieren in vielen dieser Anwendungen unvollständige „Wählermeinungen“ mit unentschiedenen oder unvergleichbaren Kandidaten, so dass totale Ordnungen zu deren Repräsentation nicht länger geeignet sind. Die vorliegende Arbeit greift diese beiden Aspekte auf und betrachtet die algorithmische Komplexität von Rangordnungsproblemen, in denen Wählermeinungen anstatt durch totale Ordnungen durch schwache oder partielle Ordnungen repräsentiert werden. Dazu werden Kendalls Tau-Distanz und Spearmans Footrule-Distanz auf verschiedene nahe liegende Arten verallgemeinert. Es zeigt sich dabei, dass nun bereits die Distanzberechnung zwischen zwei Ordnungen ein algorithmisch komplexes Problem darstellt. So ist die Berechnung der verallgemeinerten Versionen von Kendalls Tau-Distanz oder Spearmans Footrule-Distanz für schwache Ordnungen noch effizient möglich. Sobald jedoch partielle Ordnungen betrachtet werden, sind die Probleme NP-vollständig, also vermutlich nicht mehr effizient lösbar. In diesem Fall werden Resultate zur Approximierbarkeit und zur parametrisierten Komplexität der Probleme vorgestellt. Auch die Komplexität der Rangordnungsprobleme selbst erhöht sich. Für totale Ordnungen effizient lösbare Varianten werden für schwache Ordnungen NP-vollständig, für totale Ordnungen NP-vollständige Varianten hingegen liegen für partielle Ordnungen teilweise außerhalb der Komplexitätsklasse NP. Die Arbeit schließt mit einem Ausblick auf offene Problemstellungen

    Clustering von großen hochdimensionalen und unsicheren Datensätzen in der Astronomie

    Get PDF
    Ein ständiges Wachstum der Datenmengen ist in vielen IT-affinen Bereichen gegeben. Wissenschaftliche und insbesondere astronomische Datensätze weisen komplexe Eigenschaften wie Unsicherheiten, eine hohen Anzahl an Dimensionen sowie die enorme Anzahl an Dateninstanzen auf. Beispielsweise besitzen astronomische Datensätze mehrere Millionen Dateninstanzen mit jeweils mehreren tausend Dimensionen, die sich durch die Anzahl unabhängiger Eigenschaften bzw. Komponenten widerspiegeln. Diese Größenordnungen bzgl. der Dimensionen und Datenmengen in Kombination mit Unsicherheiten zeigen, dass automatisierte Analysen der Datensätze in akzeptabler Analysezeit und damit akzeptabler Berechnungskomplexität notwendig sind. Mit Clustering Verfahren existiert eine mögliche Analysemethodik zur Untersuchung von Ähnlichkeiten innerhalb eines Datensatzes. Aktuelle Verfahren integrieren jedoch nur einzelne Aspekte der komplexen Datensätze im Verfahren, mit einer teilweise nicht-linearen Berechnungskomplexität im Hinblick auf eine steigende Anzahl an Dateninstanzen sowie Dimensionen. Diese Dissertation skizziert die einzelnen Herausforderungen der Prozessierung komplexer Daten in einem Clustering Verfahren. Darüber hinaus präsentiert die Arbeit einen neuartigen parametrisierbaren Ansatz zur Verarbeitung großer und komplexer Datensätze, genannt Fractal Similarity Measures, der die Datenmengen in log-linearer Analysezeit prozessiert. Durch das ebenfalls vorgestellte sogenannte unsichere Sortierungsverfahren für hochdimensionale Daten, stellt die dafür notwendigen Initialisierungsverfahren Gitter bereit. Mit Hilfe des neuen Konzepts des fraktalen Ähnlichkeitsmaßes bzw. dem fraktalen Informationswert analysiert das Verfahren die möglichen Cluster sowie die Dateninstanzen auf Ähnlichkeiten. Zur Demonstration der Funktionalität und Effizienz des Algorithmus evaluiert diese Arbeit das Verfahren mit Hilfe eines synthetischen und eines reellen Datensatzes aus der Astronomie. Die Prozessierung des reellen Datensatzes setzt eine Vergleichbarkeit der gegebenen Spektraldaten voraus, weshalb ein weiteres Verfahren zur Vorprozessierung von Spektraldaten auf Basis des Hadoop-Rahmenwerks vorgestellt wird. Die Dissertation stellt darüber hinaus Ergebnisse des Clustering-Vorgangs des reellen Datensatzes vor, die mit manuell erstellten Ergebnissen von Domänennexperten qualitativ vergleichbar sind

    Siegen Symposium for Geomeasurement Technology - Current and future challenges : from the four-eyes principle to AI

    Get PDF
    Die klimabedingt zu erwartende Zunahme von Extremwetterereignissen stellt die bebaute Umwelt vor erhebliche Herausforderungen und erfordert die Entwicklung geeigneter Anpassungsstrategien. Der Geomesstechnik kommt dabei eine besondere Bedeutung zu, denn verknüpft mit der mathematisch-mechanischen Modellbildung liefert sie die Grundlage für die Bewertung möglicher geomechanischer Risiken und für die daraus abzuleitenden Planungsmaßnahmen. In diesem Symposium werden die aktuellen Entwicklungen, die Möglichkeiten und Grenzen der Geomesstechnik in einem interdisziplinären und thematisch breit angelegten Kontext ausgelotet.The expected increase in extreme weather events due to climate change poses considerable challenges to the built environment and requires the development of suitable adaptation strategies. Geomeasurement technology is of particular importance in this context, because linked with mathematical-mechanical modeling it provides the basis for the assessment of possible geomechanical risks and for the planning measures to be derived from them. In this symposium, the current developments, the possibilities and limits of geomeasurement technology will be explored in an interdisciplinary and thematically broad context

    Graphdatenbanken für die textorientierten e-Humanities

    Get PDF
    Vor dem Hintergrund zahlreicher Digitalisierungsinitiativen befinden sich weite Teile der Geistes- und Sozialwissenschaften derzeit in einer Transition hin zur großflächigen Anwendung digitaler Methoden. Zwischen den Fachdisziplinen und der Informatik zeigen sich große Differenzen in der Methodik und bei der gemeinsamen Kommunikation. Diese durch interdisziplinäre Projektarbeit zu überbrücken, ist das zentrale Anliegen der sogenannten e-Humanities. Da Text der häufigste Untersuchungsgegenstand in diesem Feld ist, wurden bereits viele Verfahren des Text Mining auf Problemstellungen der Fächer angepasst und angewendet. Während sich langsam generelle Arbeitsabläufe und Best Practices etablieren, zeigt sich, dass generische Lösungen für spezifische Teilprobleme oftmals nicht geeignet sind. Um für diese Anwendungsfälle maßgeschneiderte digitale Werkzeuge erstellen zu können, ist eines der Kernprobleme die adäquate digitale Repräsentation von Text sowie seinen vielen Kontexten und Bezügen. In dieser Arbeit wird eine neue Form der Textrepräsentation vorgestellt, die auf Property-Graph-Datenbanken beruht – einer aktuellen Technologie für die Speicherung und Abfrage hochverknüpfter Daten. Darauf aufbauend wird das Textrecherchesystem „Kadmos“ vorgestellt, mit welchem nutzerdefinierte asynchrone Webservices erstellt werden können. Es bietet flexible Möglichkeiten zur Erweiterung des Datenmodells und der Programmfunktionalität und kann Textsammlungen mit mehreren hundert Millionen Wörtern auf einzelnen Rechnern und weitaus größere in Rechnerclustern speichern. Es wird gezeigt, wie verschiedene Text-Mining-Verfahren über diese Graphrepräsentation realisiert und an sie angepasst werden können. Die feine Granularität der Zugriffsebene erlaubt die Erstellung passender Werkzeuge für spezifische fachwissenschaftliche Anwendungen. Zusätzlich wird demonstriert, wie die graphbasierte Modellierung auch über die rein textorientierte Forschung hinaus gewinnbringend eingesetzt werden kann.In light of the recent massive digitization efforts, most of the humanities disciplines are currently undergoing a fundamental transition towards the widespread application of digital methods. In between those traditional scholarly fields and computer science exists a methodological and communicational gap, that the so-called \\\"e-Humanities\\\" aim to bridge systematically, via interdisciplinary project work. With text being the most common object of study in this field, many approaches from the area of Text Mining have been adapted to problems of the disciplines. While common workflows and best practices slowly emerge, it is evident that generic solutions are no ultimate fit for many specific application scenarios. To be able to create custom-tailored digital tools, one of the central issues is to digitally represent the text, as well as its many contexts and related objects of interest in an adequate manner. This thesis introduces a novel form of text representation that is based on Property Graph databases – an emerging technology that is used to store and query highly interconnected data sets. Based on this modeling paradigm, a new text research system called \\\"Kadmos\\\" is introduced. It provides user-definable asynchronous web services and is built to allow for a flexible extension of the data model and system functionality within a prototype-driven development process. With Kadmos it is possible to easily scale up to text collections containing hundreds of millions of words on a single device and even further when using a machine cluster. It is shown how various methods of Text Mining can be implemented with and adapted for the graph representation at a very fine granularity level, allowing the creation of fitting digital tools for different aspects of scholarly work. In extended usage scenarios it is demonstrated how the graph-based modeling of domain data can be beneficial even in research scenarios that go beyond a purely text-based study

    Modellierung und Analyse individuellen Konsumentenverhaltens mit probabilistischen Holonen

    Get PDF
    Der Schwerpunkt dieser Arbeit liegt in der Entwicklung eines agentenbasierten, probabilistischen Konsumentenverhaltensmodells zur Repräsentation und Analyse individuellen Kaufverhaltens. Das Modell dient zur Entscheidungsunterstützung im Handel und speziell im Customer Relationship Management (CRM). Als Modellgrundlage wird eine Klasse probabilistischer Agenten eingeführt, die sich zu Holonen zusammenschließen können und deren Wissensbasen erweiterte Bayes';sche Netze (Verhaltensnetze) sind. Mit Hilfe probabilistischer Holone werden Kundenagenten entwickelt, die einzelne reale Kundenmodellieren. Dazu werden kundenindividuelle Verhaltensmuster unter Berücksichtigung von Domänenwissen aus historischen Kundendaten extrahiert und als nichtlineare Abhängigkeiten zwischen Einflussfaktoren und artikelbezogenen Kundenreaktionen in Verhaltensnetzen repräsentiert. Ein Kundenagent ist dabei ein Holon aus mehreren so genannten Feature-Agenten, die jeweils einzelne Kundeneigenschaften repräsentieren, entsprechende Feature-Verhaltensnetze verwalten und durch Interaktion das Gesamtverhalten des Kunden bestimmen. Die Simulation des Verhaltens besteht aus der Ermittlung von Kundenreaktionen auf vorgegebene Einkaufsszenarien mit Hilfe quantifizierbarer probabilistischer Schlussfolgerungen. Kundenagenten können sich durch Holonisierung zu Kundengruppenagenten zusammenschließen, die unterschiedliche Aggregationen des Kaufverhaltens der Gruppenmitglieder repräsentieren. Zur Bestimmung gleichartiger Kunden werden auf Basis der Verhaltensnetze mehrere Ähnlichkeitsanalyseverfahren sowie verhaltensbezogene Ähnlichkeitsmaße zum Vergleich des dynamischen Kaufverhaltens entwickelt. Bestehende Klassifikations- und Clusteringverfahren werden anschließend so erweitert, dass sie neben klassischen Attributvektoren verhaltensnetzbasierte Repräsentationen als Vergleichsgrundlage verwenden können. Darüber hinaus werden Verfahren zur Zuordnung anonymer Kassenbons zu vorgegebenen Kundengruppen entwickelt, um Ergebnisse von Kundensimulationen auf die Gesamtheit der anonymen Kunden eines Unternehmens übertragen zu können. Nutzen und Qualität der entwickelten Modelle, Verfahren und Maße werden mit Hilfe einer umfangreichen Software-Implementierung anhand mehrerer Anwendungsbeispiele aus der Praxis demonstriert und in einigen Fallstudien evaluiert — basierend auf realen Daten eines deutschen Einzelhandelsunternehmens.The focus of this work is the development of an agent-based, probabilistic model for representing and analysing individual consumer behaviour. The model provides a basis for decision making in marketing and especially in customer relationship management (CRM). As foundation of the model, a class of probabilistic agents is introduced. These agents can be merged to holonic agents (holons) and have probabilistic knowledge bases adapted from Bayesian networks (behaviour networks). An individual customer is modelled as a customer agent which is a probabilistic holon consisting of several feature agents. A feature agent represents a particular property (feature) of the customer';s behaviour and encapsulates appropriate feature-related behaviour networks. The total behaviour of a customer agent is determined by interaction of its feature agents. Individual behaviour patterns of a customer are extracted from real data — in consideration of given domain knowledge — and are represented within behaviour networks as non-linear dependencies between influencing factors and the customer';s product-related reactions. Behaviour simulation is realised by evaluation of expected reactions of customers on given shopping scenarios based on quantifiable, probabilistic reasoning. Customer agents are able to join to customer group agents which represent different behaviour aggregations of their members. Based on behaviour networks, several behaviour-related methods of analysis as well as distance measures are developed to identify homogeneous customers on the basis of their dynamic shopping behaviour. Subsequently, existing vector-based methods of classification and clustering are extended by these behaviour-related methods and measures. In addition, methods are developed to assign anonymous receipts to given customer groups in order to extent customer-related simulation results to anonymous customers of a company. Benefits and quality of the developed models, methods and measures, which are implemented within a complex software system, are shown by practical examples and evaluated in several case studies — based on real data from a German retailer
    corecore