763 research outputs found

    Evaluating Architectural Safeguards for Uncertain AI Black-Box Components

    Get PDF
    Although tremendous progress has been made in Artificial Intelligence (AI), it entails new challenges. The growing complexity of learning tasks requires more complex AI components, which increasingly exhibit unreliable behaviour. In this book, we present a model-driven approach to model architectural safeguards for AI components and analyse their effect on the overall system reliability

    Writing Facts: Interdisciplinary Discussions of a Key Concept in Modernity

    Get PDF
    "Fact" is one of the most crucial inventions of modern times. Susanne Knaller discusses the functions of this powerful notion in the arts and the sciences, its impact on aesthetic models and systems of knowledge. The practice of writing provides an effective procedure to realize and to understand facts. This concerns preparatory procedures, formal choices, models of argumentation, and narrative patterns. By considering "writing facts" and "writing facts", the volume shows why and how "facts" are a result of knowledge, rules, and norms as well as of description, argumentation, and narration. This approach allows new perspectives on »fact« and its impact on modernity

    Epistemic Thought Experiments and Intuitions

    Get PDF
    This work investigates intuitions' nature, demonstrating how philosophers can best use them in epistemology. First, the author considers several paradigmatic thought experiments in epistemology that depict the appeal to intuition. He then argues that the nature of thought experiment-generated intuitions is not best explained by an a priori Platonism. Second, the book instead develops and argues for a thin conception of epistemic intuitions. The account maintains that intuition is neither a priori nor a posteriori but multi-dimensional. It is an intentional but non-propositional mental state that is also non-conceptual and non-phenomenal in nature. Moreover, this state is individuated by its progenitor, namely, the relevant thought experiment. Third, the author provides an argument for the evidential status of intuitions based on the correct account of the nature of epistemic intuition. The suggestion is the fitting-ness approach: intuition alone has no epistemic status. Rather, intuition has evidentiary value as long as it fits well with other pieces into a whole, namely, the pertinent thought experiment. Finally, the book addresses the key challenges raised by supporters of anti-centrality, according to which philosophers do not regard intuition as central evidence in philosophy. To that end, the author responds to them, showing that they fail to affect the account of intuition developed in this book. This text appeals to students and researchers working in epistemology

    A Non-Ideal Epistemology of Disagreement: Pragmatism and the Need for Democratic Inquiry

    Get PDF
    The aim of this thesis is to provide a non-ideal epistemic account of disagreement, one which explains how epistemic agents can find a rational resolution to disagreement in actual epistemic practice. To do this, this thesis will compare two non-ideal epistemic accounts of disagreement which have been proposed within the contemporary philosophical literature. The first is the evidentialist response to disagreement given within the recent literature on the analytic epistemology of disagreement. According to the evidentialist response to disagreement, an epistemic agent can rationally respond to disagreement by evaluating other epistemic agents as higher-order evidence, and adjusting one's belief accordingly. The second is the pragmatist response to disagreement given within the recent literature on the intersection between American pragmatism and democratic theory. According to the pragmatist response to disagreement, a collective group of epistemic agents can come to a rational resolution of disagreement through a process of social inquiry where epistemic agents cooperatively exchange ideas, reasons, and objections, and collectively form plans of action which settle collective belief. This thesis will critically examine both of these accounts, and explain how the pragmatist response to disagreement provides a better account of both the epistemic challenges which disagreement poses, and the method in which epistemic agent can come to rationally resolve disagreement in actual epistemic practice

    Evaluating Architectural Safeguards for Uncertain AI Black-Box Components

    Get PDF
    KĂŒnstliche Intelligenz (KI) hat in den vergangenen Jahren große Erfolge erzielt und ist immer stĂ€rker in den Fokus geraten. Insbesondere Methoden des Deep Learning (ein Teilgebiet der KI), in dem Tiefe Neuronale Netze (TNN) zum Einsatz kommen, haben beeindruckende Ergebnisse erzielt, z.B. im autonomen Fahren oder der Mensch-Roboter-Interaktion. Die immense DatenabhĂ€ngigkeit und KomplexitĂ€t von TNN haben jedoch gravierende Schwachstellen offenbart. So reagieren TNN sensitiv auf bestimmte Einflussfaktoren der Umwelt (z.B. Helligkeits- oder KontrastĂ€nderungen in Bildern) und fĂŒhren zu falschen Vorhersagen. Da KI (und insbesondere TNN) in sicherheitskritischen Systemen eingesetzt werden, kann solch ein Verhalten zu lebensbedrohlichen Situationen fĂŒhren. Folglich haben sich neue Forschungspotenziale entwickelt, die sich explizit der Absicherung von KI-Verfahren widmen. Ein wesentliches Problem bei vielen KI-Verfahren besteht darin, dass ihr Verhalten oder Vorhersagen auf Grund ihrer hohen KomplexitĂ€t nicht erklĂ€rt bzw. nachvollzogen werden können. Solche KI-Modelle werden auch als Black-Box bezeichnet. Bestehende Arbeiten adressieren dieses Problem, in dem zur Laufzeit “bösartige” Eingabedaten identifiziert oder auf Basis von Ein- und Ausgaben potenziell falsche Vorhersagen erkannt werden. Arbeiten in diesem Bereich erlauben es zwar potenziell unsichere ZustĂ€nde zu erkennen, machen allerdings keine Aussagen, inwiefern mit solchen Situationen umzugehen ist. Somit haben sich eine Reihe von AnsĂ€tzen auf Architektur- bzw. Systemebene etabliert, um mit KI-induzierten Unsicherheiten umzugehen (z.B. N-Version-Programming-Muster oder Simplex Architekturen). DarĂŒber hinaus wĂ€chst die Anforderung an KI-basierte Systeme sich zur Laufzeit anzupassen, um mit sich verĂ€ndernden Bedingungen der Umwelt umgehen zu können. Systeme mit solchen FĂ€higkeiten sind bekannt als Selbst-Adaptive Systeme. Software-Ingenieure stehen nun vor der Herausforderung, aus einer Menge von Architekturellen Sicherheitsmechanismen, den Ansatz zu identifizieren, der die nicht-funktionalen Anforderungen bestmöglich erfĂŒllt. Jeder Ansatz hat jedoch unterschiedliche Auswirkungen auf die QualitĂ€tsattribute des Systems. Architekturelle Entwurfsentscheidungen gilt es so frĂŒh wie möglich (d.h. zur Entwurfszeit) aufzulösen, um nach der Implementierung des Systems Änderungen zu vermeiden, die mit hohen Kosten verbunden sind. DarĂŒber hinaus mĂŒssen insbesondere sicherheitskritische Systeme den strengen (QualitĂ€ts-) Anforderungen gerecht werden, die bereits auf Architektur-Ebene des Software-Systems adressiert werden mĂŒssen. Diese Arbeit befasst sich mit einem modellbasierten Ansatz, der Software-Ingenieure bei der Entwicklung von KI-basierten System unterstĂŒtzt, um architekturelle Entwurfsentscheidungen (bzw. architekturellen Sicherheitsmechanismen) zum Umgang mit KI-induzierten Unsicherheiten zu bewerten. Insbesondere wird eine Methode zur ZuverlĂ€ssigkeitsvorhersage von KI-basierten Systemen auf Basis von etablierten modellbasierten Techniken erforscht. In einem weiteren Schritt wird die Erweiterbarkeit/Verallgemeinerbarkeit der ZuverlĂ€ssigkeitsvorhersage fĂŒr Selbst-Adaptive Systeme betrachtet. Der Kern beider AnsĂ€tze ist ein Umweltmodell zur Modellierung () von KI-spezifischen Unsicherheiten und () der operativen Umwelt des Selbst-Adaptiven Systems. Zuletzt wird eine Klassifikationsstruktur bzw. Taxonomie vorgestellt, welche, auf Basis von verschiedenen Dimensionen, KI-basierte Systeme in unterschiedliche Klassen einteilt. Jede Klasse ist mit einem bestimmten Grad an VerlĂ€sslichkeitszusicherungen assoziiert, die fĂŒr das gegebene System gemacht werden können. Die Dissertation umfasst vier zentrale BeitrĂ€ge. 1. DomĂ€nenunabhĂ€ngige Modellierung von KI-spezifischen Umwelten: In diesem Beitrag wurde ein Metamodell zur Modellierung von KI-spezifischen Unsicherheiten und ihrer zeitlichen Ausdehnung entwickelt, welche die operative Umgebung eines selbstadaptiven Systems bilden. 2. ZuverlĂ€ssigkeitsvorhersage von KI-basierten Systemen: Der vorgestellte Ansatz erweitert eine existierende Architekturbeschreibungssprache (genauer: Palladio Component Model) zur Modellierung von Komponenten-basierten Software-Architekturen sowie einem dazugehörigenWerkzeug zur ZuverlĂ€ssigkeitsvorhersage (fĂŒr klassische Software-Systeme). Das Problem der Black-Box-Eigenschaft einer KI-Komponente wird durch ein SensitivitĂ€tsmodell adressiert, das, in AbhĂ€ngigkeit zu verschiedenen Unsicherheitsfaktoren, die PrĂ€dektive Unsicherheit einer KI-Komponente modelliert. 3. Evaluation von Selbst-Adaptiven Systemen: Dieser Beitrag befasst sich mit einem Rahmenwerk fĂŒr die Evaluation von Selbst-Adaptiven Systemen, welche fĂŒr die Absicherung von KI-Komponenten vorgesehen sind. Die Arbeiten zu diesem Beitrag verallgemeinern/erweitern die Konzepte von Beitrag 2 fĂŒr Selbst-Adaptive Systeme. 4. Klassen der VerlĂ€sslichkeitszusicherungen: Der Beitrag beschreibt eine Klassifikationsstruktur, die den Grad der Zusicherung (in Bezug auf bestimmte Systemeigenschaften) eines KI-basierten Systems bewertet. Der zweite Beitrag wurde im Rahmen einer Fallstudie aus dem Bereich des Autonomen Fahrens validiert. Es wurde geprĂŒft, ob PlausibilitĂ€tseigenschaften bei der ZuverlĂ€ssigkeitsvorhersage erhalten bleiben. Hierbei konnte nicht nur die PlausibilitĂ€t des Ansatzes nachgewiesen werden, sondern auch die generelle Möglichkeit Entwurfsentscheidungen zur Entwurfszeit zu bewerten. FĂŒr die Validierung des dritten Beitrags wurden ebenfalls PlausibilitĂ€tseigenschaften geprĂŒft (im Rahmen der eben genannten Fallstudie und einer Fallstudie aus dem Bereich der Mensch-Roboter-Interaktion). DarĂŒber hinaus wurden zwei weitere Community-Fallstudien betrachtet, bei denen (auf Basis von Simulatoren) Selbst-Adaptive Systeme bewertet und mit den Ergebnissen unseres Ansatzes verglichen wurden. In beiden FĂ€llen konnte gezeigt werden, dass zum einen alle PlausibilitĂ€tseigenschaft erhalten werden und zum anderen, der Ansatz dieselben Ergebnisse erzeugt, wie die DomĂ€nen-spezifischen Simulatoren. DarĂŒber hinaus konnten wir zeigen, dass unser Ansatz Software-Ingenieure bzgl. der Bewertung von Entwurfsentscheidungen, die fĂŒr die Entwicklung von Selbst-Adaptiven Systemen relevant sind, unterstĂŒtzt. Der erste Beitrag wurde implizit mit Beitrag 2 und mit 3 validiert. FĂŒr den vierten Beitrag wurde die Klassifikationsstruktur auf bekannte und reprĂ€sentative KI-Systeme angewandt und diskutiert. Es konnte jedes KI-System in eine der Klassen eingeordnet werden, so dass die generelle Anwendbarkeit der Klassifikationsstruktur gezeigt wurde

    L’institutionnalisation de la raison : le systùme de philosophie du droit de Robert Alexy et ses limites

    Get PDF
    Robert Alexy developed a legal philosophy which, aligning with the neo-constitutionalist paradigm, claimed to overcome the classic alternative between positivism and natural law. This claim led him to posit a theory of law, rights, and practical argumentation that culminated in the formulation of an “inclusive non-positivist” concept of law. The present investigation purports to reconstruct critically and systematically two central aspects of Alexy’s theory in the light of the central idea that structures his thought: “the institutionalization of reason” understood as the effort to reconcile the real and the ideal dimensions of law. The first chapter aims at contextualizing his work in view of its philosophical and legal sources of inspiration and at analyzing his metaphilosophy. It will be shown that besides the clear analytical and Kantian inheritance at work in his thought, the metaphysical theses he puts forth render its internal coherence difficult to maintain. The second chapter, dedicated to the study of his ideas regarding the nature and the concept of law, results in a critique of the “pretention to correctness” as well as of the establishment of the existence of human rights. It concludes that the foundation of the “inclusive non-positivism” he advocates is doubtful. Finally, the third chapter, which analyzes his theory of general practical discourse and legal argumentation, criticizes the logico-transcendental foundation of the discourse rules as well as of his metaethics. This critique unveils the prescriptive and ideological dimensions at work in his legal philosophy. Given the theoretical shortcomings of his work, his legal philosophy does not constitute a satisfactory “third way” between positivism and natural law. Nevertheless, it is an interesting attempt that illustrates, through its wide international reception, the contemporary aspiration to protect the fundamental liberties and rights of citizens in modern constitutional states.Robert Alexy a dĂ©veloppĂ© une philosophie du droit qui, dans la droite lignĂ©e du nĂ©o-constitutionnalisme, porte l’ambition de dĂ©passer l’alternative classique qui oppose positivisme et jusnaturalisme. Cela le conduit Ă  formuler une thĂ©orie du droit, des droits et de l’argumentation pratique qui culmine dans la formulation d’un concept « non-positiviste inclusif » de droit. Cette investigation propose une reconstruction critique et systĂ©matique de deux aspects centraux de la philosophie du droit de Robert Alexy Ă  l’aune de l’idĂ©e centrale qui structure tout le programme thĂ©orique du juriste allemand : « l’institutionnalisation de la raison » conçue comme l’ambition de rĂ©concilier la dimension rĂ©elle et idĂ©ale du droit. Le premier chapitre s’attache, d’une part, Ă  contextualiser son Ɠuvre Ă  l’aune de ses sources d’inspirations philosophiques et juridiques ainsi que, d’autre part, Ă  analyser sa mĂ©taphilosophie. Il rĂ©vĂšle en outre que malgrĂ© l’hĂ©ritage analytique et kantien qui structure son Ɠuvre, les thĂšses proprement mĂ©taphysiques qu’il dĂ©veloppe rendent la cohĂ©rence de sa pensĂ©e difficile Ă  maintenir. Le deuxiĂšme chapitre, dĂ©diĂ© Ă  l’étude de ses dĂ©veloppements relatifs au concept et Ă  la nature du droit, se solde par une critique de la thĂšse de la « prĂ©tention de correction » et de l’établissement de l’existence des droits de l’homme qui permet de douter du bien-fondĂ© du « non-positivisme inclusif » qu’il dĂ©fend. Enfin, le dernier chapitre, dĂ©diĂ© Ă  l’analyse de sa thĂ©orie du discours pratique gĂ©nĂ©ral ainsi qu’à sa thĂ©orie de l’argumentation juridique, propose une critique de la fondation logico-transcendantale des rĂšgles du discours et de sa mĂ©taĂ©thique qui rĂ©vĂšle le caractĂšre essentiellement idĂ©ologique et prescriptif de son travail. Bien que les difficultĂ©s qui grĂšvent sa thĂ©orie sont insusceptibles de lui permettre de constituer une « troisiĂšme voie » entre positivisme et jusnaturalisme, son Ɠuvre prĂ©sente un intĂ©rĂȘt historique indĂ©niable et illustre, par l’ampleur de sa rĂ©ception internationale, l’aspiration contemporaine Ă  la protection des droits fondamentaux et Ă  la rĂ©alisation de l’État de droit

    Categorization through Sensory Codes

    Get PDF
    The central premise of concept empiricism is the denial of unique cognitive mental representations. The negative thesis applies as well to classic empiricists as it does to current ones. John Locke’s (1690) refusal to accept ‘abstract ideas’ is one way of denying unique and distinct cognitive representations. Jesse J. Prinz’s (2002) multi-modality hypothesis, according to which cognition functions on a multi-sensory code instead of a central ‘amodal’ one, is another. Both empiricist models have a common foil in a theory that posits one unique kind of ‘intellectualist’ mental representation to account for human cognitive achievements. For Locke, it was Descartes’ abstract mental medium for clear and distinct ideas and for Prinz it is Jerry Fodor’s Language of Thought. In this paper, I explore the empiricists’ denial of unique cognitive representations and argue that both Locke’s and Prinz’s theories privilege a unique representational medium – a spatial ‘code.’ As such, this tacit assumption does not entail that cognition runs on a unique medium. It does not lead to a ‘common code rationalism,’ to use Prinz’s terms, or support computational theories of the mind that privilege innate linguistic structures over sensory ones. To incorporate the idea of a spatial code more smoothly within empiricist intellectual resources, I interpret it through Lakoff’s experientialist account of categorical cognition. Through Lakoff’s embodied experientialist account – embodied neo-empiricism – the spatiality of cognition becomes founded in a broader and more plausible sensory matrix. I further suggest that Lakoff’s ideas on and use of spatial codes can be given a largely externalist reading. Lakoff’s space is not a unique cognitive one. This way, current neo-empiricism can be saved from assuming any unique internal posits including a language of thought

    Analytics and Intuition in the Process of Selecting Talent

    Get PDF
    In management, decisions are expected to be based on rational analytics rather than intuition. But intuition, as a human evolutionary achievement, offers wisdom that, despite all the advances in rational analytics and AI, should be used constructively when recruiting and winning personnel. Integrating these inner experiential competencies with rational-analytical procedures leads to smart recruiting decisions

    How and Why do Researchers Reference Data? A Study of Rhetorical Features and Functions of Data References in Academic Articles

    Full text link
    Data reuse is a common practice in the social sciences. While published data play an essential role in the production of social science research, they are not consistently cited, which makes it difficult to assess their full scholarly impact and give credit to the original data producers. Furthermore, it can be challenging to understand researchers' motivations for referencing data. Like references to academic literature, data references perform various rhetorical functions, such as paying homage, signaling disagreement, or drawing comparisons. This paper studies how and why researchers reference social science data in their academic writing. We develop a typology to model relationships between the entities that anchor data references, along with their features (access, actions, locations, styles, types) and functions (critique, describe, illustrate, interact, legitimize). We illustrate the use of the typology by coding multidisciplinary research articles (n=30) referencing social science data archived at the Inter-university Consortium for Political and Social Research (ICPSR). We show how our typology captures researchers' interactions with data and purposes for referencing data. Our typology provides a systematic way to document and analyze researchers' narratives about data use, extending our ability to give credit to data that support research.Comment: 35 pages, 2 appendices, 1 tabl
    • 

    corecore