36 research outputs found

    Essays on applied political economics

    Full text link
    This dissertation consists of three essays on the determinants of voting behavior. In Chapter 1, I empirically examine why candidates who are listed first on voting ballots enjoy substantial advantages such as winning 10% more elections. I use Californian election data where ballot order is randomized but identical for every voter. With these data, I provide new empirical regularities on how such ballot order effects change with the number of votes available to voters and candidate popularity. I show that these patterns are difficult to reconcile with existing models in which ballot order directly affects a voter's choices. In Chapter 2, I propose a novel theory of ballot order effects where rational voters respond to behavioral voters and then amplify the advantage of candidates listed first due to the inherent strategic complementarity in voting. My model is an extension of a standard voting model and allows me to explicitly model the interaction of different types of voters. I estimate my model using a simulated method of moments and find that the interaction between voters is empirically important: rational order effects account for around half of total ballot order effects in terms of vote shares (votes gained just for being listed first), while also reducing the number of behavioral voters necessary to explain the data in other dimensions as well. Motivated by these findings, I suggest new policies to address ballot order effects. In Chapter 3, I investigate how newspaper consumption affects political engagement. To circumvent potential endogeneity issues, I use variation in European languages as an instrument for newspaper consumption. Specifically, I consider variation in how much physical space languages require to express some given information content. I first estimate such language efficiency from large bilingual text compilations. Using a European-wide survey that spans 18 different languages, I find that respondents who speak efficient languages are more likely to read newspapers, as is consistent with this mechanism. This finding is robust to a large variety of alternative specifications. Using language efficiency as an instrument for newspaper consumption, I find that newspaper consumption increases turnout and political interest of immigrants

    Change in Patient Activation and Mental Illness Symptoms after Communication Training: a Multisite Study with a Diverse Patient Sample

    Get PDF
    Objective: Patient activation involves patients’ ability and motivation to communicate about their health and health care. Research has demonstrated that clinician or patient interventions may improve patient activation. This study explored the degree to which clinician and patient interventions affected both patient activation and symptoms of depression and anxiety in a racially and ethnically diverse clinical sample. Methods: Data were from a randomized clinical trial that included 312 patients and 74 clinicians from 13 Massachusetts community- and hospital-based outpatient behavioral health clinics. Patients completed measures of patient activation and depression and anxiety symptoms. Secondary data analyses were conducted to examine the effect of patient and clinician interventions (DECIDE-PA and DECIDE-PC, respectively) on depression and anxiety symptoms and patient activation. A multilevel, mixed-effects simultaneous-equation model was estimated to assess the relationship between the interventions, changes in patients’ symptoms, and patient activation. Results: Clinicians’ greater intervention dosage (i.e., more completed DECIDE-PC training sessions) was associated with patients’ decreased anxiety symptoms, but associations with patient activation or depression symptoms were not significant. The effect of clinician training dosage on anxiety symptoms was stronger when patients and clinicians were not of the same race-ethnicity. The reduction in patients’ anxiety symptoms appeared to increase patient activation. Conclusions: Clinician interventions designed to boost patient-clinician communication and the therapeutic alliance may serve to lessen patients’ anxiety and may ultimately improve patient activation

    Effect of fecal microbiota, live-jslm (REBYOTA [RBL]) on health-related quality of life in patients with recurrent Clostridioides difficile infection: Results from the PUNCH CD3 clinical trial

    Get PDF
    BACKGROUND: Recurrence of METHODS: This was a secondary analysis of a randomized, double-blind, placebo-controlled phase 3 study (PUNCH CD3). The disease-specific RESULTS: Findings were analyzed in a total of 185 patients (RBL, n = 128 [69.2%]; placebo, n = 57 [30.8%]) with available Cdiff32 data. Patients from both arms showed significant improvements in Cdiff32 scores relative to baseline across all outcomes and at all time points (all CONCLUSIONS: In a phase 3 double-blinded clinical trial, RBL-treated patients reported more substantial and sustained disease-specific HRQL improvements than placebo-treated patients. CLINICAL TRIALS REGISTRATION: ClinicalTrials.gov NCT03244644 (https://clinicaltrials.gov/ct2/show/NCT03244644)

    In Silico Resources to Assist in the Development and Evaluation of Physiologically-Based Kinetic Models

    Get PDF
    Since their inception in pharmaceutical applications, physiologically-based kinetic (PBK) models are increasingly being used across a range of sectors, such as safety assessment of cosmetics, food additives, consumer goods, pesticides and other chemicals. Such models can be used to construct organ-level concentration-time profiles of xenobiotics. These models are essential in determining the overall internal exposure to a chemical and hence its ability to elicit a biological response. There are a multitude of in silico resources available to assist in the construction and evaluation of PBK models. An overview of these resources is presented herein, encompassing all attributes required for PBK modelling. These include predictive tools and databases for physico-chemical properties and absorption, distribution, metabolism and elimination (ADME) related properties. Data sources for existing PBK models, bespoke PBK software and generic software that can assist in model development are also identified. On-going efforts to harmonise approaches to PBK model construction, evaluation and reporting that would help increase the uptake and acceptance of these models are also discussed

    Performante Auswertung von Vorhersagemodellen

    No full text
    Mit Data-Mining wird das Extrahieren von Wissen aus Daten bezeichnet. Ziel ist es, Regeln oder Muster in den Daten zu erkennen, um so neue, unbekannte Daten aus derselben Quelle auswerten zu können. Die gewonnenen Informationen werden in einem Modell kodiert, das von einer Scoring Engine eingelesen wird, um anschließend neue Daten zu verarbeiten. Ein Standardformat für Data-Mining-Modelle ist die XML-basierte Predictive Model Markup Language (PMML), die seit 1997 stetig weiterentwickelt wird. Die Scoring Engines von KNIME, R und IBM SPSS können beispielsweise PMML-Dokumente verarbeiten. Mit JPMML existiert außerdem eine umfangreiche Java-Bibliothek für die Auswertung von Modellen im PMML-Format. Den meisten Scoring Engines gemein ist, dass die Daten für die Anwendung eines Modells auf ein spezielles Analysesystem übertragen werden müssen, weil auf dem Datenhaltungssystem die erforderliche Software meist nicht verfügbar ist. Vor allem bei großen Datenmengen stellt diese Übertragung einen nicht zu unterschätzenden Aufwand dar. Um diesen Schritt zu vermeiden, muss das Modell in eine von dem System interpretierbare Form übersetzt werden.Der in dieser Arbeit vorgestellte Übersetzer ist in der Lage, aus PMML-Dokumenten Quellcode in verschiedenen Programmiersprachen zu erzeugen. Beispielsweise können PMML-Modelle in SQL-Abfragen übersetzt werden, um so ihre Auswertung auf relationalen Datenbanken zu ermöglichen. Die Erzeugung von JavaScript dagegen macht die Verarbeitung von Daten aus NoSQL-Datenbanken wie MongoDB und CouchDB möglich. Zusätzlich kann der Übersetzer Java-Code erzeugen, der durch verschiedene domänenspezifische Optimierungen besonders schnell ausgeführt werden kann. Im Vergleich mit ähnlicher Software zeigt sich, dass durch die Vorkompilierung des Modells ein bis zu viermal höherer Durchsatz erreicht werden kann. Durch die Verwendung einer Zwischendarstellung des zu erzeugenden Codes kann der Übersetzer außerdem mit geringem Aufwand sowohl für neue Programmiersprachen als auch neue Modelltypen erweitert werden.Ein weiteres Ziel dieser Arbeit ist, zu untersuchen, wie die Überdeckung des PMMLXML-Schemas durch getestete Dokumente ermittelt werden kann. Dies geschieht durch die Anwendung bekannter kontrollflussorientierter Testverfahren auf einen Graphen, der aus dem PMML-Schema gebildet wird. Somit bietet die Arbeit neben der Beschreibung einer leistungsfähigen Scoring Engine für PMML auch Werkzeuge, um aus der Quellcodeüberdeckung bekannte Verfahren auf XML-Schemata und -Dokumente anzuwenden. Die so gewonnenen Informationen erweisen sich bei der Erweiterung vorhandener Testfälle als nützlich und geben einen überblick über die Unterstützung des Standards durch den Übersetzer

    Effektives Widening mit Hashbasierter Partitionierung des Hypothesenraums

    No full text
    Im maschinellen Lernen werden Modelle so auf zuvor gesammelte Daten angepasst, dass sie diese Daten einerseits gut beschreiben und es andererseits auch erlauben, neue Daten aus derselben Quelle zu klassifizieren oder zu erklären. Die Anpassung eines Modells an die Daten geschieht dabei bei vielen Lernverfahren durch schrittweises Verändern. Änderungen, die zu einer Verringerung einer Kostenfunktion führen, werden übernom- men, andere verworfen. Damit handelt es sich beim Lernen um eine kombinatorische Optimierung und ein Suchproblem. Der Raum, in dem diese Suche ausgeführt wird, ist der Hypothesenraum, dessen Elemente durch Modelle repräsentiert werden. Inner- halb des Hypothesenraums erschweren topologische Merkmale wie lokale Minima und Maxima die Suche nach den besten Modellen. Trotz ihrer Anfälligkeit für solche Hinder- nisse sind heuristische Greedy-Algorithmen aufgrund ihrer Geschwindigkeit ein belieb- tes Verfahren zum Ermitteln geeigneter Modelle. In den meisten Fällen machen diese Algorithmen jedoch keinen Gebrauch von parallelen Recheneinheiten, wie sie heutzu- tage alltäglich sind. Im sogenannten Widening werden parallele Rechnerarchitekturen genutzt, um Greedy-Algorithmen im maschinellen Lernen zu verbessern, indem der Hy- pothesenraum auf verteilten Recheneinheiten breiter durchsucht wird. Dabei spielt eine große Rolle, dass parallel möglichst unterschiedliche Regionen des Raums durchsucht werden und so kritische Strukturen, wie beispielsweise die oben genannten lokalen Op- tima, umgangen werden können. In bisherigen Arbeiten zu dem Thema wurden dabei vor allem Verfahren erforscht, die entweder keine Kommunikation zwischen den Rechen- einheiten erlauben und den Hypothesenraum vor der Ausführung partitionieren, oder Distanzmaße für die Modelle verwenden, um diese explizit und mit ausgiebiger Kommu- nikation auseinanderzuhalten. In der vorliegenden Arbeit wird mit dem Bucket-Selektor ein Widening-Verfahren vorgestellt, welches mit relativ geringer Kommunikation, aber ohne Berechnung von Distanzen zwischen den Modellen, ein breites Durchlaufen des Hypothesenraums ermöglicht und damit qualitativ bessere Modelle findet als andere Verfahren. Besonders effizient kann diese Methode auf MapReduce-Systemen ausgeführt werden. Am Beispiel von zwei Problemen, dem hierarchischen agglomerativen Cluste- ring und der Join-Order-Optimierung, wird gezeigt, dass der Bucket-Selektor schneller bessere Ergebnisse erzielt als andere Methoden.publishe

    Ueber das Formulieren von Stochastikaufgaben

    No full text
    Copy held by FIZ Karlsruhe / FIZ - Fachinformationszzentrum Karlsruhe / TIB - Technische InformationsbibliothekSIGLEDEGerman

    Bucket Selection : A Model-Independent Diverse Selection Strategy for Widening

    No full text
    When using a greedy algorithm for finding a model, as is the case in many data mining algorithms, there is a risk of getting caught in local extrema, i.e., suboptimal solutions. Widening is a technique for enhancing greedy algorithms by using parallel resources to broaden the search in the model space. The most important component of widening is the selector, a function that chooses the next models to refine. This selector ideally enforces diversity within the selected set of models in order to ensure that parallel workers explore sufficiently different parts of the model space and do not end up mimicking a simple beam search. Previous publications have shown that this works well for problems with a suitable distance measure for the models, but if no such measure is available, applying widening is challenging. In addition these approaches require extensive, sequential computations for diverse subset selection, making the entire process much slower than the original greedy algorithm. In this paper we propose the bucket selector, a model-independent randomized selection strategy. We find that (a) the bucket selector is a lot faster and not significantly worse when a diversity measure exists and (b) it performs better than existing selection strategies in cases without a diversity measure.publishe

    Ensembles and PMML in KNIME

    No full text
    In this paper we describe how ensembles can be trained, modified and applied in the open source data analysis platform, KNIME. We focus on recent extensions that also allow ensembles, represented in PMML, to be processed. This way ensembles generated in KNIME can be deployed to PMML scoring engines. In addition ensembles created by other tools and represented as PMML can be applied or further processed (modified or filtered) using intuitive KNIME workflows.publishe
    corecore