20 research outputs found

    Diameter and Broadcast Time of the Knödel graph

    Get PDF
    Efficient dissemination of information remains a central challenge for all types of networks. There are two ways to handle this issue. One way is to compress the amount of data being transferred and the second way is to minimize the delay of information distribution. Well-received approaches used in the second way either design efficient algorithms or implement reliable network architectures with optimal dissemination time. Among the well-known network architectures, the Knödel graph can be considered a suitable candidate for the problem of information dissemination. The Knödel graph W_(d, n) is a regular graph, of an even order n and degree d, 1 ≤ d ≤ floor(log n). The Knödel graph was introduced by W. Knödel almost four decades ago as network architecture with good properties in terms of broadcasting and gossiping in interconnected networks. Although the Knödel graph has a highly symmetric structure, its diameter is only known for W_(d, 2^d). Recently, the general upper and lower bounds on diameter and broadcast time of the Knödel graph have been presented. In this thesis, our motivation is to find the diameter, the number of vertices at a particular distance and the broadcast time of the Knödel graph. Theoretically, we succeed to prove the diameter and the broadcast time of the Knödel graph W_(3, n). We also claim that the Knödel graph W_(3, n) for n = 4 mod 4 and n > 16, is a diametral broadcast graph. We present that W_(3, 22) is a broadcast graph. Experimentally, however, we obtain the following results; (a) the diameter of some specific Knödel graphs, and (b) the propositions on the number of vertices at a particular distance. We also construct a new graph, denoted as HW_(d,2^d), by connecting Knödel graph W_(d-1,2^(d-1)) to hypercube H_(d-1) and experimentally show that HW_(d,2^d) has even a smaller diameter than Knödel graph W_(d,2^d)

    Advanced Data Mining and Machine Learning Algorithms for Integrated Computer-Based Analyses of Big Environmental Databases

    Get PDF
    Einsicht in die räumliche Verteilung geotechnischer und hydrologischer Untergrundeigenschaften sowie von Reservoir- und Umweltparametern sind grundlegend für geowissenschaftliche Forschungen. Entwicklungen in den Bereichen geophysikalische Erkundung sowie Fernerkundung resultieren in der Verfügbarkeit verschiedenster Verfahren für die nichtinvasive, räumlich kontinuierliche Datenerfassung im Rahmen hochauflösender Messverfahren. In dieser Arbeit habe ich verschiedene Verfahren für die Analyse erdwissenschaftlicher Datenbasen entwickelt auf der Basis von Wissenserschließungsverfahren. Eine wichtige Datenbasis stellt geophysikalische Tomographie dar, die als einziges geowissenschaftliches Erkundungsverfahren 2D und 3D Abbilder des Untergrunds liefern kann. Mittels unterschiedlicher Verfahren aus den Bereichen intelligente Datenanalyse und maschinelles Lernen (z.B. Merkmalsextraktion, künstliche neuronale Netzwerke, etc.) habe ich ein Verfahren zur Datenanalyse mittels künstlicher neuronaler Netzwerke entwickelt, das die räumlich kontinuierliche 2D oder 3D Vorhersage von lediglich an wenigen Punkten gemessenen Untergrundeigenschaften im Rahmen von Wahrscheinlichkeitsaussagen ermöglicht. Das Vorhersageverfahren basiert auf geophysikalischer Tomographie und berücksichtigt die Mehrdeutigkeit der tomographischen Bildgebung. Außerdem wird auch die Messunsicherheit bei der Erfassung der Untergrundeigenschaften an wenigen Punkten in der Vorhersage berücksichtigt. Des Weiteren habe ich untersucht, ob aus den Trainingsergebnissen künstlicher neuronaler Netzwerke bei der Vorhersage auch Aussagen über die Realitätsnähe mathematisch gleichwertiger Lösungen der geophysikalischen tomographischen Bildgebung abgeleitet werden können. Vorhersageverfahren wie das von mir vorgeschlagene, können maßgeblich zur verbesserten Lösung hydrologischer und geotechnischer Fragestellungen beitragen. Ein weiteres wichtiges Problem ist die Kartierung der Erdoberfläche, die von grundlegender Bedeutung für die Bearbeitung verschiedener ökonomischer und ökologischer Fragestellungen ist, wie z.B., die Identifizierung von Lagerstätten, den Schutz von Böden, oder Ökosystemmanagement. Kartierungsdaten resultieren entweder aus technischen (objektiven) Messungen oder visuellen (subjektiven) Untersuchungen durch erfahrene Experten. Im Rahmen dieser Arbeit zeige ich erste Entwicklungen hin zu einer automatisierten und schnellen Integration technischer und visueller (subjektiver) Daten auf der Basis unterschiedlicher intelligenter Datenanalyseverfahren (z.B., Graphenanalyse, automatische Konturerfassung, Clusteranalyse, etc.). Mit solchem Verfahren sollen hart oder weich klassifizierte Karten erstellt werden, die das Untersuchungsgebiet optimal segmentieren um höchstmögliche Konformität mit allen verfügbaren Daten zu erzielen

    A Survey of Interaction Techniques for Interactive 3D Environments

    Get PDF
    International audienceVarious interaction techniques have been developed for interactive 3D environments. This paper presents an up-to-date and comprehensive review of the state of the art of non-immersive interaction techniques for Navigation, Selection & Manipulation, and System Control, including a basic introduction to the topic, the challenges, and an examination of a number of popular approaches. We hope that this survey can aid both researchers and developers of interactive 3D applications in having a clearer overview of the topic and in particular can be useful for practitioners and researchers that are new to the field of interactive 3D graphics

    Lithological relevance of near-surface seismic velocity model

    Get PDF
    [no abstract

    Optimal broadcasting in treelike graphs

    Get PDF
    Broadcasting is an information dissemination problem in a connected network, in which one node, called the originator , disseminates a message to all other nodes by placing a series of calls along the communication lines of the network. Once informed, the nodes aid the originator in distributing the message. Finding the broadcast time of a vertex in an arbitrary graph is NP-complete. The problem is solved polynomially only for a few classes of graphs. In this thesis we study the broadcast problem in different classes of graphs which have various similarities to trees. The unicyclic graph is the simplest graph family after trees, it is a connected graph with only one cycle in it. We provide a linear time solution for the broadcast problem in unicyclic graphs. We also studied graphs with increasing number of cycles and complexity and provide again polynomial time solutions. These graph families are: tree of cycles, necklace graphs, and 2-restricted cactus graphs. We also define the fully connected tree graphs and provide a polynomial solution and use these results to obtain polynomial solution for the broadcast problem in tree of cliques and a constant approximation algorithm for the hierarchical tree cluster networks

    Georadar for small-scale high-resolution dielectric property and water content determination of soils

    Get PDF
    To understand processes and dynamics linked to the volumetric water content of soils thorough knowledge of the water distribution inside soils is required. The applicability of the georadar technique for small scale soil heterogeneity mapping and monitoring is investigated using four different methods. Since the uppermost meter of the soil lacks a sufficient amount of spacious reflectors no standard georadar methods can supply adequate coverage of the investigated area under field conditions. Therefore four methods were evaluated to present an assortment of the most promising methods for different case specific problems. Owing to the averaging nature of the georadar technique the introduced methods needed to be adapted to small scale investigations. Based on numerical simulations and concise measurements new processing procedures are applied to achieve the required spatial resolution of less than 0.3 m. All four methods were successfully applied during realistic field measurement conditions. The transmission method is applied to a soil column experiment filled with undisturbed natural soil. In the course of an irrigation experiment the infiltration of the water front as well as the water dynamics afterwards were reproduced. The application of georadar transmission tomography provided spatial allocatable water content distributions over the time of the water seepage with spatial accuracies of approximately 0.1 m and a temporal resolution of approximately 30 min...thesi

    Adaptive Order Dispatching based on Reinforcement Learning: Application in a Complex Job Shop in the Semiconductor Industry

    Get PDF
    Heutige Produktionssysteme tendieren durch die Marktanforderungen getrieben zu immer kleineren Losgrößen, höherer Produktvielfalt und größerer Komplexität der Materialflusssysteme. Diese Entwicklungen stellen bestehende Produktionssteuerungsmethoden in Frage. Im Zuge der Digitalisierung bieten datenbasierte Algorithmen des maschinellen Lernens einen alternativen Ansatz zur Optimierung von Produktionsabläufen. Aktuelle Forschungsergebnisse zeigen eine hohe Leistungsfähigkeit von Verfahren des Reinforcement Learning (RL) in einem breiten Anwendungsspektrum. Im Bereich der Produktionssteuerung haben sich jedoch bisher nur wenige Autoren damit befasst. Eine umfassende Untersuchung verschiedener RL-Ansätze sowie eine Anwendung in der Praxis wurden noch nicht durchgeführt. Unter den Aufgaben der Produktionsplanung und -steuerung gewährleistet die Auftragssteuerung (order dispatching) eine hohe Leistungsfähigkeit und Flexibilität der Produktionsabläufe, um eine hohe Kapazitätsauslastung und kurze Durchlaufzeiten zu erreichen. Motiviert durch komplexe Werkstattfertigungssysteme, wie sie in der Halbleiterindustrie zu finden sind, schließt diese Arbeit die Forschungslücke und befasst sich mit der Anwendung von RL für eine adaptive Auftragssteuerung. Die Einbeziehung realer Systemdaten ermöglicht eine genauere Erfassung des Systemverhaltens als statische Heuristiken oder mathematische Optimierungsverfahren. Zusätzlich wird der manuelle Aufwand reduziert, indem auf die Inferenzfähigkeiten des RL zurückgegriffen wird. Die vorgestellte Methodik fokussiert die Modellierung und Implementierung von RL-Agenten als Dispatching-Entscheidungseinheit. Bekannte Herausforderungen der RL-Modellierung in Bezug auf Zustand, Aktion und Belohnungsfunktion werden untersucht. Die Modellierungsalternativen werden auf der Grundlage von zwei realen Produktionsszenarien eines Halbleiterherstellers analysiert. Die Ergebnisse zeigen, dass RL-Agenten adaptive Steuerungsstrategien erlernen können und bestehende regelbasierte Benchmarkheuristiken übertreffen. Die Erweiterung der Zustandsrepräsentation verbessert die Leistung deutlich, wenn ein Zusammenhang mit den Belohnungszielen besteht. Die Belohnung kann so gestaltet werden, dass sie die Optimierung mehrerer Zielgrößen ermöglicht. Schließlich erreichen spezifische RL-Agenten-Konfigurationen nicht nur eine hohe Leistung in einem Szenario, sondern weisen eine Robustheit bei sich ändernden Systemeigenschaften auf. Damit stellt die Forschungsarbeit einen wesentlichen Beitrag in Richtung selbstoptimierender und autonomer Produktionssysteme dar. Produktionsingenieure müssen das Potenzial datenbasierter, lernender Verfahren bewerten, um in Bezug auf Flexibilität wettbewerbsfähig zu bleiben und gleichzeitig den Aufwand für den Entwurf, den Betrieb und die Überwachung von Produktionssteuerungssystemen in einem vernünftigen Gleichgewicht zu halten

    Subject Index Volumes 1–200

    Get PDF

    Historical social research: the use of historical and process-produced data

    Full text link
    Die Entwicklung einer quantitativen Sozialgeschichtsschreibung verstärkt die interdisziplinären Beziehungen zwischen Geschichte, Soziologie, Politikwissenschaft und anderen Sozialwissenschaften. Diese verstärkte Kooperation und methodische Diskussion findet in dem Sammelband ihren Niederschlag. Behandelt werden (1) theoretische Überlegungen zum Problem einer quantifizierenden Geschichtswissenschaft; (2) Analysen von Volkszählungsdaten; (3) Analysen von kollektiven und individuellen Biographien; (4) Gehaltsanalysen von Dokumenten; (5) Periodisierungsprobleme; (6) Analysen des sozialen Netzwerks; (7) Probleme der offiziellen statistischen Daten; (8) Probleme der Datenorganisation; (9) neue Datenbanken und Projekte. (BG
    corecore