170 research outputs found

    Information and participation in decision-making about treatment: a qualitative study of the perceptions and preferences of patients with rheumatoid arthritis.

    Get PDF
    Objectives: To elicit the perceptions and preferences of patients with rheumatoid arthritis regarding information and participation in treatment decision-making. To analyse the patients’ narratives on the background of the ethical discourse on various approaches to treatment decisionmaking. Design: In-depth interviews with themes identified using principles of grounded theory. Participants: 22 patients with long-standing rheumatoid arthritis. Main outcome measures: Qualitative data on patients’ perceptions and preferences regarding information and participation in decision-making about treatment. Results: Decision-making about treatment has been described by the patients as a process consisting of different stages with shifting loci of control and responsibility. Patients initially received one treatment recommendation and were not aware of alternative treatment options. Those participants in this study who wanted information about negative effects of a treatment cited ‘‘interest in one’s own health’’ and the potential ‘‘use of information’’ as reasons for their preference. The physicians’ expert knowledge and clinical experience regarding the effects of medication were cited as arguments by patients for a treatment recommendation. Conclusions: The patients’ accounts of decision-making about treatment differ from models of physician–patient relationship that have been put forward in ethical discourse. These differences may be relevant with respect to the starting point of an ethical analysis of treatment decision-making. Patients’ accounts with respect to a lack of information on treatment alternatives point to ethically relevant challenges regarding treatment decision-making in clinical practice

    Computer-based methods of knowledge generation in science - What can the computer tell us about the world?

    Get PDF
    Der Computer hat die wissenschaftliche Praxis in fast allen Disziplinen signifikant verändert. Neben traditionellen Quellen für neue Erkenntnisse wie beispielsweise Beobachtungen, deduktiven Argumenten oder Experimenten, werden nun regelmäßig auch computerbasierte Methoden wie ‚Computersimulationen‘ und ‚Machine Learning‘ als solche Quellen genannt. Dieser Wandel in der Wissenschaft bringt wissenschaftsphilosophische Fragen in Bezug auf diese neuen Methoden mit sich. Eine der naheliegendsten Fragen ist dabei, ob diese neuen Methoden dafür geeignet sind, als Quellen für neue Erkenntnisse zu dienen. Dieser Frage wird in der vorliegenden Arbeit nachgegangen, wobei ein besonderer Fokus auf einem der zentralen Probleme der computerbasierten Methoden liegt: der Opazität. Computerbasierte Methoden werden als opak bezeichnet, wenn der kausale Zusammenhang zwischen Input und Ergebnis nicht nachvollziehbar ist. Zentrale Fragen dieser Arbeit sind, ob Computersimulationen und Machine Learning Algorithmen opak sind, ob die Opazität bei beiden Methoden von der gleichen Natur ist und ob die Opazität verhindert, mit computerbasierten Methoden neue Erkenntnisse zu erlangen. Diese Fragen werden nah an der naturwissenschaftlichen Praxis untersucht; insbesondere die Teilchenphysik und das ATLAS-Experiment am CERN dienen als wichtige Fallbeispiele. Die Arbeit basiert auf fünf Artikeln. In den ersten beiden Artikeln werden Computersimulationen mit zwei anderen Methoden – Experimenten und Argumenten – verglichen, um sie methodologisch einordnen zu können und herauszuarbeiten, welche Herausforderungen beim Erkenntnisgewinn Computersimulationen von den anderen Methoden unterscheiden. Im ersten Artikel werden Computersimulationen und Experimente verglichen. Aufgrund der Vielfalt an Computersimulationen ist es jedoch nicht sinnvoll, einen pauschalen Vergleich mit Experimenten durchzuführen. Es werden verschiedene epistemische Aspekte herausgearbeitet, auf deren Basis der Vergleich je nach Anwendungskontext durchgeführt werden sollte. Im zweiten Artikel wird eine von Claus Beisbart formulierte Position diskutiert, die Computersimulationen als Argumente versteht. Dieser ‚Argument View‘ beschreibt die Funktionsweise von Computersimulationen sehr gut und ermöglicht es damit, Fragen zur Opazität und zum induktiven Charakter von Computersimulationen zu beantworten. Wie mit Computersimulationen neues Wissen erlangt werden kann, kann der Argument View alleine jedoch nicht ausreichend beantworten. Der dritte Artikel beschäftigt sich mit der Rolle von Modellen in der theoretischen Ökologie. Modelle sind zentraler Bestandteil von Computersimulationen und Machine Learning Algorithmen. Die Fragen über die Beziehung von Phänomenen und Modellen, die hier anhand von Beispielen aus der Ökologie betrachtet werden, sind daher für die epistemischen Fragen dieser Arbeit von zentraler Bedeutung. Der vierte Artikel bildet das Bindeglied zwischen den Themen Computersimulation und Machine Learning. In diesem Artikel werden verschiedene Arten von Opazität definiert und Computersimulationen und Machine Learning Algorithmen anhand von Beispielen aus der Teilchenphysik daraufhin untersucht, welche Arten von Opazität jeweils vorhanden sind. Es wird argumentiert, dass Opazität für den Erkenntnisgewinn mithilfe von Computer-simulationen kein prinzipielles Problem darstellt, Model-Opazität jedoch für Machine Learning Algorithmen eine Quelle von fundamentaler Opazität sein könnte. Im fünften Artikel wird dieselbe Terminologie auf den Bereich von Schachcomputern angewandt. Der Vergleich zwischen einem traditionellen Schachcomputer und einem Schachcomputer, der auf einem neuronalen Netz basiert ermöglicht die Illustration der Konsequenzen der unterschiedlichen Opazitäten. Insgesamt ermöglicht die Arbeit eine methodische Einordnung von Computersimulationen und zeigt, dass sich weder mit einem Bezug auf Experimente noch auf Argumente alleine klären lässt, wie Computersimulationen zu neuen Erkenntnissen führen. Eine klare Definition der jeweils vorhanden Opazitäten ermöglicht eine Abgrenzung von den eng verwandten Machine Learning Algorithmen

    The POW+TREE Strategy’s Effects on the Argumentative Writing of Struggling Secondary Students

    Get PDF
    The present study aims to evaluate the effects of an argumentative writing strategy (POW+TREE) on four struggling ninth graders’ ability to produce persuasive texts regarding their point of view on different questions. I applied a multiple-baseline design to evaluate outcomes across participants. The results indicate the intervention helped students to write more extensive essays, and evidence shows an increase in quality. Follow-up data suggest the effects remained after the treatment ended. I also discuss future research and the findings’ implications for practitioners

    Reading-Racetracks and Self-Graphing on Literacy Performance of Struggling Students With Behavioral Problems

    Get PDF
    Literacy influences all aspects of life. Unfortunately, a rising number of students struggle with reading and spelling, which can result in enormous educational barriers. Difficulties in literacy accompanied by learning-related problem behavior can create additional risk factors. Effective interventions for these students should consider individual needs and focus on multiple components of learning simultaneously. The present single-case study focused on the effects of motivational reading racetracks, with and without self-graphing, on the word-reading and spelling performance of three third graders with severe literacy and behavior problems. Our intervention was carried out three times a week over a 5-week period. The results show strong effects of the racetracks on reading, while the self-graphing component did not seem to be an additional booster. Regarding spelling, the ability to read words was not equivalent to being able to spell all words correctly. However, effects were found when self-graphing was added. In sum, the data suggest that, while it was effective to practice reading using racetracks without motivational reinforcers, it was not sufficient to merely practice spelling. Nevertheless, self-graphing had a positive effect on spelling when attention was focused on spelling the words correctly

    Reaktionsmechanismen in der Karl-Fischer-Lösung

    Get PDF
    [no abstract

    Chess, Artificial Intelligence, and Epistemic Opacity

    Get PDF
    In 2017 AlphaZero, a neural network-based chess engine shook the chess world by convincingly beating Stockfish, the highest-rated chess engine. In this paper, I describe the technical differences between the two chess engines and based on that, I discuss the impact of the modeling choices on the respective epistemic opacities. I argue that the success of AlphaZero’s approach with neural networks and reinforcement learning is counterbalanced by an increase in the epistemic opacity of the resulting model
    • …
    corecore