1,487 research outputs found
Relativism Defended
I argue for a type of relativism that allows different people to have conflicting accurate representations of the world. This is contrary to the view of most Anglo-American philosophers, who would, with Paul Boghossian in Fear of Knowledge, deny that âthere are many radically different, yet âequally validâ ways of knowing the world.â My argument is not a metaphysical argument about the ultimate nature of the outside world, but a psychological argument about the mental processes of representation. The argument starts from a few principles of naĂŻve (or folk) psychology, but is later extended to apply to mechanisms that do not have a âpsychology.â Finally, I briefly discuss the anti-relativist impulse in philosophy, with particular reference to Boghossianâs example of non-scientific beliefs regarding Lakota origins. I argue that both we and the Lakotas have good reason to reject such beliefs while still remaining relativists. Being a relativist does not mean that you get to believe whatever you like
Computer-based methods of knowledge generation in science - What can the computer tell us about the world?
Der Computer hat die wissenschaftliche Praxis in fast allen Disziplinen signifikant verĂ€ndert. Neben traditionellen Quellen fĂŒr neue Erkenntnisse wie beispielsweise Beobachtungen, deduktiven Argumenten oder Experimenten, werden nun regelmĂ€Ăig auch computerbasierte Methoden wie âComputersimulationenâ und âMachine Learningâ als solche Quellen genannt. Dieser Wandel in der Wissenschaft bringt wissenschaftsphilosophische Fragen in Bezug auf diese neuen Methoden mit sich. Eine der naheliegendsten Fragen ist dabei, ob diese neuen Methoden dafĂŒr geeignet sind, als Quellen fĂŒr neue Erkenntnisse zu dienen. Dieser Frage wird in der vorliegenden Arbeit nachgegangen, wobei ein besonderer Fokus auf einem der zentralen Probleme der computerbasierten Methoden liegt: der OpazitĂ€t. Computerbasierte Methoden werden als opak bezeichnet, wenn der kausale Zusammenhang zwischen Input und Ergebnis nicht nachvollziehbar ist. Zentrale Fragen dieser Arbeit sind, ob Computersimulationen und Machine Learning Algorithmen opak sind, ob die OpazitĂ€t bei beiden Methoden von der gleichen Natur ist und ob die OpazitĂ€t verhindert, mit computerbasierten Methoden neue Erkenntnisse zu erlangen. Diese Fragen werden nah an der naturwissenschaftlichen Praxis untersucht; insbesondere die Teilchenphysik und das ATLAS-Experiment am CERN dienen als wichtige Fallbeispiele.
Die Arbeit basiert auf fĂŒnf Artikeln. In den ersten beiden Artikeln werden Computersimulationen mit zwei anderen Methoden â Experimenten und Argumenten â verglichen, um sie methodologisch einordnen zu können und herauszuarbeiten, welche Herausforderungen beim Erkenntnisgewinn Computersimulationen von den anderen Methoden unterscheiden. Im ersten Artikel werden Computersimulationen und Experimente verglichen. Aufgrund der Vielfalt an Computersimulationen ist es jedoch nicht sinnvoll, einen pauschalen Vergleich mit Experimenten durchzufĂŒhren. Es werden verschiedene epistemische Aspekte herausgearbeitet, auf deren Basis der Vergleich je nach Anwendungskontext durchgefĂŒhrt werden sollte. Im zweiten Artikel wird eine von Claus Beisbart formulierte Position diskutiert, die Computersimulationen als Argumente versteht. Dieser âArgument Viewâ beschreibt die Funktionsweise von Computersimulationen sehr gut und ermöglicht es damit, Fragen zur OpazitĂ€t und zum induktiven Charakter von Computersimulationen zu beantworten. Wie mit Computersimulationen neues Wissen erlangt werden kann, kann der Argument View alleine jedoch nicht ausreichend beantworten. Der dritte Artikel beschĂ€ftigt sich mit der Rolle von Modellen in der theoretischen Ăkologie. Modelle sind zentraler Bestandteil von Computersimulationen und Machine Learning Algorithmen. Die Fragen ĂŒber die Beziehung von PhĂ€nomenen und Modellen, die hier anhand von Beispielen aus der Ăkologie betrachtet werden, sind daher fĂŒr die epistemischen Fragen dieser Arbeit von zentraler Bedeutung. Der vierte Artikel bildet das Bindeglied zwischen den Themen Computersimulation und Machine Learning. In diesem Artikel werden verschiedene Arten von OpazitĂ€t definiert und Computersimulationen und Machine Learning Algorithmen anhand von Beispielen aus der Teilchenphysik daraufhin untersucht, welche Arten von OpazitĂ€t jeweils vorhanden sind. Es wird argumentiert, dass OpazitĂ€t fĂŒr den Erkenntnisgewinn mithilfe von Computer-simulationen kein prinzipielles Problem darstellt, Model-OpazitĂ€t jedoch fĂŒr Machine Learning Algorithmen eine Quelle von fundamentaler OpazitĂ€t sein könnte. Im fĂŒnften Artikel wird dieselbe Terminologie auf den Bereich von Schachcomputern angewandt. Der Vergleich zwischen einem traditionellen Schachcomputer und einem Schachcomputer, der auf einem neuronalen Netz basiert ermöglicht die Illustration der Konsequenzen der unterschiedlichen OpazitĂ€ten.
Insgesamt ermöglicht die Arbeit eine methodische Einordnung von Computersimulationen und zeigt, dass sich weder mit einem Bezug auf Experimente noch auf Argumente alleine klĂ€ren lĂ€sst, wie Computersimulationen zu neuen Erkenntnissen fĂŒhren. Eine klare Definition der jeweils vorhanden OpazitĂ€ten ermöglicht eine Abgrenzung von den eng verwandten Machine Learning Algorithmen
Wheels within wheels: an examination of the nature of psychological explanation via a theoretically oriented history of some mechanical models
The aim of this thesis is to ask, and attempt to answer, some
pertinent questions about that type of psychological explanation which
proceeds by simulation, or model building. The method chosen is a
detailed examination of some models, mostly 18th and 19th century
mechanical ones, together with a theoretically motivated discussion of
the relations between these models and the development of psychological theories contemporary with them. Two types of model, formal and intimate, are distinguished, both
by their aetiology and by the way they are used by working scientists,
and several examples of each type are subjected to scrutiny, as are
the intentions of their modellers in building or adopting them.
Four main foci of interest emerge: the history of experimental
psychology (the myth that experimental psychology was born circa 1870
is exploded); the sociology of science (the impact of developing
technology on psychological theory, via the proffering of models, is
clearly demonstrated); the philosophy of psychology (issues such as
the nature of explanation and the problem of representation are disÂŹ
cussed); and, last but not least, theoretical psychology (the value of
work in cognitive simulation, and of some work in Artificial Intelligence,
is stressed and, partly, explained)
ELSI: A Unified Software Interface for Kohn-Sham Electronic Structure Solvers
Solving the electronic structure from a generalized or standard eigenproblem
is often the bottleneck in large scale calculations based on Kohn-Sham
density-functional theory. This problem must be addressed by essentially all
current electronic structure codes, based on similar matrix expressions, and by
high-performance computation. We here present a unified software interface,
ELSI, to access different strategies that address the Kohn-Sham eigenvalue
problem. Currently supported algorithms include the dense generalized
eigensolver library ELPA, the orbital minimization method implemented in
libOMM, and the pole expansion and selected inversion (PEXSI) approach with
lower computational complexity for semilocal density functionals. The ELSI
interface aims to simplify the implementation and optimal use of the different
strategies, by offering (a) a unified software framework designed for the
electronic structure solvers in Kohn-Sham density-functional theory; (b)
reasonable default parameters for a chosen solver; (c) automatic conversion
between input and internal working matrix formats, and in the future (d)
recommendation of the optimal solver depending on the specific problem.
Comparative benchmarks are shown for system sizes up to 11,520 atoms (172,800
basis functions) on distributed memory supercomputing architectures.Comment: 55 pages, 14 figures, 2 table
Xavier University Newswire
https://www.exhibit.xavier.edu/student_newspaper/1601/thumbnail.jp
Technology-Rich Ethnography for Examining the Transition to Authentic Problem-Solving in a High School Computer Programming Class
This study utilized elements of technology-rich ethnography to create a rich description of a multi-user virtual environment in a high school computer programming class. Of particular interest was the transition that took place in classroom culture from one characterized by a well-defined problem solving approach to one more indicative of open learning environment. Using technology, high school students created learning activities and resources for use by younger students in the virtual environment. Evidence supported that high school students initially benefitted from the new open environment; however, some immutable elements of the classroom environment presented barriers to peer collaboration and motivation for high-level, creative work. Our findings lend support to the argument that teachers in high school computer programming classes should incorporate the following features in their curricula: open-ended problem solving, real-world clients, group work, student autonomy and ample opportunities for student creative expression.Yeshttps://us.sagepub.com/en-us/nam/manuscript-submission-guideline
The Pan American (1990-04)
https://scholarworks.utrgv.edu/panamerican/1525/thumbnail.jp
Campus & alumni news
Boston University Medicine was published by the Boston University Medical Campus, and presented stories on events and topics of interest to members of the BU Medical Campus community. It followed the discontinued publication Centerscope as Boston University Medicine from 1991-2005, and was continued as Campus & Alumni News from 2006-2013 before returning to the title Boston University Medicine from 2014-present
Kenyon Collegian - April 8, 1999
https://digital.kenyon.edu/collegian/1565/thumbnail.jp
- âŠ