3,461 research outputs found

    Monte Carlo Tree Search Algorithmen für das Brettspiel ”Scotland Yard”

    Get PDF
    Monte Carlo Algorithmen haben in letzter Zeit immer mehr an Bedeutung gewonnen. Vor allem das Einsetzen von Monte Carlo Algorithmen zum Erstellen und randomisierten Absuchen eines Suchbaums hat neue Wege im Bereich der Künstlichen Intelligenz geschaffen. In der vorangegangenen Arbeit von Minorics wurden für das Brettspiel Scotland Yard KIs für die Steuerung von Mister X entwickelt. Diese KI-Algorithmen haben jedoch keine Planung der Züge im klassischen Sinn vorgenommen. Eine Steuerung der Detektive wurde zudem nicht implementiert. Diese Arbeit erweitert die Ergebnisse der vorangegangenen Arbeit durch das Umsetzen von KIs zur Steuerung der Detektive und durch das Einsetzen von Monte-Carlo-Tree-Search-Algorithmen für die Zugplanung. Neben der Implementierung der einzelnen KIs steht auch deren ausführliche Evaluation im Mittelpunkt der Arbeit. Diese wurde anhand von umfassenden Testspielen durchgeführt, bei den jeweils verschiedene KIs für Mister X und die Detektive gegeneinander evaluiert werden

    Lichttransportsimulation auf Spezialhardware

    Get PDF
    It cannot be denied that the developments in computer hardware and in computer algorithms strongly influence each other, with new instructions added to help with video processing, encryption, and in many other areas. At the same time, the current cap on single threaded performance and wide availability of multi-threaded processors has increased the focus on parallel algorithms. Both influences are extremely prominent in computer graphics, where the gaming and movie industries always strive for the best possible performance on the current, as well as future, hardware. In this thesis we examine the hardware-algorithm synergies in the context of ray tracing and Monte-Carlo algorithms. First, we focus on the very basic element of all such algorithms - the casting of rays through a scene, and propose a dedicated hardware unit to accelerate this common operation. Then, we examine existing and novel implementations of many Monte-Carlo rendering algorithms on massively parallel hardware, as full hardware utilization is essential for peak performance. Lastly, we present an algorithm for tackling complex interreflections of glossy materials, which is designed to utilize both powerful processing units present in almost all current computers: the Centeral Processing Unit (CPU) and the Graphics Processing Unit (GPU). These three pieces combined show that it is always important to look at hardware-algorithm mapping on all levels of abstraction: instruction, processor, and machine.Zweifelsohne beeinflussen sich Computerhardware und Computeralgorithmen gegenseitig in ihrer Entwicklung: Prozessoren bekommen neue Instruktionen, um zum Beispiel Videoverarbeitung, Verschlüsselung oder andere Anwendungen zu beschleunigen. Gleichzeitig verstärkt sich der Fokus auf parallele Algorithmen, bedingt durch die limitierte Leistung von für einzelne Threads und die inzwischen breite Verfügbarkeit von multi-threaded Prozessoren. Beide Einflüsse sind im Grafikbereich besonders stark , wo es z.B. für die Spiele- und Filmindustrie wichtig ist, die bestmögliche Leistung zu erreichen, sowohl auf derzeitiger und zukünftiger Hardware. In Rahmen dieser Arbeit untersuchen wir die Synergie von Hardware und Algorithmen anhand von Ray-Tracing- und Monte-Carlo-Algorithmen. Zuerst betrachten wir einen grundlegenden Hardware-Bausteins für alle diese Algorithmen, die Strahlenverfolgung in einer Szene, und präsentieren eine spezielle Hardware-Einheit zur deren Beschleunigung. Anschließend untersuchen wir existierende und neue Implementierungen verschiedener MonteCarlo-Algorithmen auf massiv-paralleler Hardware, wobei die maximale Auslastung der Hardware im Fokus steht. Abschließend stellen wir dann einen Algorithmus zur Berechnung von komplexen Beleuchtungseffekten bei glänzenden Materialien vor, der versucht, die heute fast überall vorhandene Kombination aus Hauptprozessor (CPU) und Grafikprozessor (GPU) optimal auszunutzen. Zusammen zeigen diese drei Aspekte der Arbeit, wie wichtig es ist, Hardware und Algorithmen auf allen Ebenen gleichzeitig zu betrachten: Auf den Ebenen einzelner Instruktionen, eines Prozessors bzw. eines gesamten Systems

    Regression-based Monte Carlo methods with optimal control variates

    Get PDF
    In der vorliegenden Dissertation werden regressionsbasierte Monte-Carlo-Verfahren für diskretisierte Diffusionsprozesse vorgestellt. Diese Verfahren beinhalten die Konstruktion von geeigneten Kontrollvariaten, die zu einer signifikanten Reduktion der Varianz führen. Dadurch kann die Komplexität des Standard-Monte-Carlo-Ansatzes (epsilon^{-3} für Schemen erster Ordnung und epsilon^{-2.5} für Schemen zweiter Ordnung) im besten Fall reduziert werden auf eine Ordnung von epsilon^{-2+delta} für ein beliebiges delta aus [0,0.25), wobei epsilon die zu erzielende Genauigkeit bezeichnet. In der Komplexitätsanalyse werden sowohl die Fehler, die auch beim Standard-Monte-Carlo-Ansatz auftreten (Diskretisierungs- und statistischer Fehler), als auch die aus der Schätzung bedingter Erwartungswerte mittels Regression resultierenden Fehler berücksichtigt. Darüber hinaus werden verschiedene Algorithmen hergeleitet, die zwar zu einer ähnlichen theoretischen Komplexität führen, jedoch numerisch gesehen bei der Regressionsschätzung unterschiedlich stabil und genau sind. Die Effektivität dieser Algorithmen wird anhand von numerischen Beispielen veranschaulicht und mit anderen bekannten Methoden verglichen. Zudem werden geeignete Kontrollvariaten für die Bewertung von Bermuda-Optionen sowie amerikanischen Optionen basierend auf einer dualen Monte-Carlo-Methode hergeleitet. Auch hierbei ergibt sich eine signifikante Komplexitätsreduktion, sofern die zugrunde liegenden Funktionen gewisse Glattheitsannahmen erfüllen

    Random field sampling for a simplified model of melt-blowing considering turbulent velocity fluctuations

    Full text link
    In melt-blowing very thin liquid fiber jets are spun due to high-velocity air streams. In literature there is a clear, unsolved discrepancy between the measured and computed jet attenuation. In this paper we will verify numerically that the turbulent velocity fluctuations causing a random aerodynamic drag on the fiber jets -- that has been neglected so far -- are the crucial effect to close this gap. For this purpose, we model the velocity fluctuations as vector Gaussian random fields on top of a k-epsilon turbulence description and develop an efficient sampling procedure. Taking advantage of the special covariance structure the effort of the sampling is linear in the discretization and makes the realization possible

    Implementierung eines Algorithmus für den LHCb Level-1 vertex-trigger

    Get PDF
    Current high-energy experiments for precision measurement of CP violation on the basis of B mesons from hadronic reactions make great demands on the trigger system. Only a very small fraction of all produced events qualifies for such analysis. In this thesis an algorithm for the Level-1 vertex trigger of the future LHCb detector at CERN is developed and implemented with the GAUDI framework. It recognizes and reconstructs secondary vertices with a significant distance from the primary interaction point. The existence of these is interpreted as an indication of the presence of interesting B decays in the event. The processing time is measured in great detail and the reconstruction results are qualitatively analyzed

    Vermessung des Passiv-Solarhauses Cölbe und Untersuchungen zur Paramtersensitivität

    Get PDF
    Die Arbeit stellt eine Analyse der Ergebnisse der dreijährigen umfangreichen Vermessung des Passiv-Solarhauses Cölbe vor, es findet eine Bewertung der Subsysteme aktiv-solares Heizungssystem und Lüftungssystem in bezug auf die Kopplung mit dem Gebäude statt. Auf der Basis der Messerfahrungen werden ferner Parameteruntersuchungen an einem Referenz-Wohngebäude durchgeführt. Nach einem Methodenvergleich werden relevante Parameter des Gebäudes bzw. der Anlagentechnik bezüglich der energetischen Anlagenaufwandszahl extrahiert. Ferner erfolgt eine Gegenüberstellung und Bewertung der verwendeten Untersuchungsmethoden (Differentielle Sensitivitätsanalyse, reduzierte Faktoranalyse und Monte Carlo Verfahren). Auf der Grundlage der Parameteruntersuchungen erfolgt ein Vergleich des kumulierten Energieaufwands für das solar unterstützte Referenzgebäude mit einem rein fossil beheizten baugleichen Gebäude

    Bayesian Analysis of a Japanese Meat Demand System: A Robust Likelihood Approach

    Get PDF
    This paper presents an application of Bayesian analysis to an AIDS model of Japanese meat demand extending previous approaches in three ways: (1) The methodology employed is robust with respect to the likelihood function but retains the generic, easily programmable character of algorithms offered by Monte Carlo Integration approaches based on the normal likelihood function. (2) In addition to inequality constraints, linear exact restrictions and stochastic prior information are subjected to a Bayesian posterior analysis of validity and incorporated into Bayesian point estimates of model parameters and elasticities. (3) In order to assess the influence of the prior density on posterior distributions of model parameters relative to the likelihood, a measure quantifying the "degree of prior influence" on the posterior is defined. Das Diskussionspapier stellt eine Bayes'sche Analyse eines AIDS Modells Japanischer Fleischnachfrage vor, die eine Erweiterung fruherer Ansatze in den folgenden drei Punkten darstellt:(1) Die verwendete Methode ist robust bezuglich der Likelihood Funktion, erhalt dabei aber die Flexibilitat und einfache Umsetzung von Algorithmen basierend auf Monte Carlo Integration und der Annahme der Normalverteilung. (2) Zusatzlich zu Ungleichheitsbedingungen werden exakte Restriktionen und stochastische a-priori Information einer Bayes'schen a-posteriori Analyse unterzogen und in die Bayes'sche Punktschatzung von Parametern und Elastizitaten einbezogen. (3) Ein Index zur Messung des Einflusses der a-priori Information auf die a-posteriori Verteilung der Modellparameter wird vorgestellt.Demand and Price Analysis,

    Probabilistic models of natural language semantics

    Get PDF
    This thesis tackles the problem of modeling the semantics of natural language. Neural Network models are reviewed and a new Bayesian approach is developed and evaluated. As the performance of standard Monte Carlo algorithms proofed to be unsatisfactory for the developed models, the main focus lies on a new adaptive algorithm from the Sequential Monte Carlo (SMC) family. The Gradient Importance Sampling (GRIS) algorithm developed in the thesis is shown to give very good performance as compared to many adaptive Markov Chain Monte Carlo (MCMC) algorithms on a range of complex target distributions. Another advantage as compared to MCMC is that GRIS provides a straight forward estimate of model evidence. Finally, Sample Inflation is introduced as a means to reduce variance and speed up mode finding in Importance Sampling and SMC algorithms. Sample Inflation provides provably consistent estimates and is empirically found to improve convergence of integral estimates.Diese Dissertation befasst sich mit der Modellierung der Semantik natürlicher Sprache. Eine Übersicht von Neuronalen Netzwerkmodellen wird gegeben und ein eigener Bayesscher Ansatz wird entwickelt und evaluiert. Da die Leistungsfähigkeit von Standardalgorithmen aus der Monte-Carlo-Familie auf dem entwickelten Model unbefriedigend ist, liegt der Hauptfokus der Arbeit auf neuen adaptiven Algorithmen im Rahmen von Sequential Monte Carlo (SMC). Es wird gezeigt, dass der in der Dissertation entwickelte Gradient Importance Sampling (GRIS) Algorithmus sehr leistungsfähig ist im Vergleich zu vielen Algorithmen des adaptiven Markov Chain Monte Carlo (MCMC), wobei komplexe und hochdimensionale Integrationsprobleme herangezogen werden. Ein weiterer Vorteil im Vergleich mit MCMC ist, dass GRIS einen Schätzer der Modelevidenz liefert. Schließlich wird Sample Inflation eingeführt als Ansatz zur Reduktion von Varianz und schnellerem auffinden von Modi in einer Verteilung, wenn Importance Sampling oder SMC verwendet werden. Sample Inflation ist beweisbar konsistent und es wird empirisch gezeigt, dass seine Anwendung die Konvergenz von Integralschätzern verbessert

    Trajectory Splitting by Restricted Replication

    Get PDF
    New algorithms for efficient trajectory splitting are presented. By derandomizing these techniques that are derived from randomized quasi-Monte Carlo integration, trajectory splitting for the quasi-Monte Carlo method becomes available
    corecore