26 research outputs found

    Why Neural Correlates Of Consciousness Are Fine, \ud But Not Enough\ud

    Get PDF
    \ud The existence of neural correlates of consciousness (NCC) is not enough for philosophical purposes. On the other hand, there's more to NCC than meets the sceptic's eye.\ud (I) NCC are useful for a better understanding of conscious experience, for instance: (1) NCC are helpful to explain phenomenological features of consciousness – e.g., dreaming. (2) NCC can account for phenomenological opaque facts – e.g., the temporal structure of consciousness. (3) NCC reveal properties and functions of consciousness which cannot be elucidated either by introspective phenomenology or by psychological experiments alone – e.g., vision.\ud (II) There are crucial problems and shortcomings of NCC: (1) Correlation implies neither causation nor identity. (2) There are limitations of empirical access due to the problem of other minds and the problem of self-deception, and (3) due to the restrictions provided by inter- and intraindividual variations. (4) NCC cannot be catched by neuroscience alone because of the externalistic content of representations. Therefore, NCC are not sufficient for a naturalistic theory of mind, (5) nor are they necessary because of the possibility of multiple realization.\ud (III) Nevertheless, NCC are relevant and important for the mind-body problem: (1) NCC reveal features that are necessary at least for behavioral manifestations of human consciousness. (2) But NCC are compatible with very different proposals for a solution of the mind-body problem. This seems to be both advantageous and detrimental. (3) NCC restrict nomological identity accounts. (4) The investigation of NCC can refute empirical arguments for interactionism as a case study of John Eccles' dualistic proposals will show. (5) The discoveries of NCC cannot establish a naturalistic theory of mind alone, for which, e.g., a principle of supervenience and a further condition – and therefore philosophical arguments – are required.\u

    Discovery of Potential Parallelism in Sequential Programs

    Get PDF
    In the era of multicore processors, the responsibility for performance gains has been shifted onto software developers. Once improvements of the sequential algorithm have been exhausted, software-managed parallelism is the only option left. However, writing parallel code is still difficult, especially when parallelizing sequential code written by someone else. A key task in this process is the identification of suitable parallelization targets in the source code. Parallelism discovery tools help developers to find such targets automatically. Unfortunately, tools that identify parallelism during compilation are usually conservative due to the lack of runtime information, and tools relying on runtime information primarily suffer from high overhead in terms of both time and memory. This dissertation presents a generic framework for parallelism discovery based on dynamic program analysis, supporting various types of parallelism while incurring practically affordable overhead. The framework contains two main components: an efficient data-dependence profiler and a set of parallelism discovery algorithms based on a language-independent concept called Computational Unit. The data-dependence profiler serves as the foundation of the parallelism discovery framework. Traditional dependence profiling approaches introduce a tremendous amount of time and memory overhead. To lower the overhead, current methods limit their scope to the subset of the dependence information needed for the analysis they have been created for, sacrificing generality and discouraging reuse. In contrast, the profiler shown in this thesis addresses the problem via signature-based memory management and a lock-free parallel design. It produces detailed dependences not only for sequential but also for multi-threaded code without causing prohibitive overhead, allowing it to serve as a generic base for various program analysis techniques. Computational Units (CUs) provide a language-independent foundation for parallelism discovery. CUs are computations that follow the read-compute-write pattern. Unlike other concepts, they are not restricted to predefined language constructs. A program is represented as a CU graph, in which vertexes are CUs and edges are data dependences. This allows parallelism to be detected that spreads across multiple language constructs, taking code refactoring into consideration. The parallelism discovery algorithms cover both loop and task parallelism. Results of our experiments show that 1) the efficient data-dependence profiler has a very competitive average slowdown of around 80Ă— with accuracy higher than 99.6%; 2) the framework discovers parallelism with high accuracy, identifying 92.5% of the parallel loops in NAS benchmarks; 3) when parallelizing well-known open-source software following the outputs of the framework, reasonable speedups are obtained. Finally, use cases beyond parallelism discovery are briefly demonstrated to show the generality of the framework

    Entwicklung und Validierung von hochsensitiven Immunoassays zur Analyse von fĂĽnf inflammatorischen Biomarkern

    Get PDF
    Proteinbiomarker sind ein wichtiger Bestandteil der Diagnose, Verlaufsbeurteilung und Risikoeinschätzung von Krankheiten in der Medizin, aber auch ein wichtiger Bestandteil der Forschung und der Arzneimittelentwicklung. Viele dieser Biomarker lassen sich mit herkömmlichen Immunoassays, aufgrund der fehlenden Sensitivität der Technologien, nicht quantifizieren. Dies schwächt die Aussagekraft und die Interpretation von Biomarkern und kann auch dazu führen das Biomarker nicht als solche eingesetzt werden können. Der Bedarf an Sensitivität führte zur Entwicklung von hochsensitiven Immunoassay-Plattformen wie der Single Molecule Array (Abk.: Simoa) -Technologie der Firma Quanterix. Diese nun erreichbaren Sensitivitäten haben das Potential neue diagnostische Biomarker zu identifizieren und zu etablieren. Simoa-Assays sind Mikrosphären basierte ELISAs, die aufgrund von extrem kleinen individuellen Reaktionsräumen gekoppelt mit einer Signalamplifikation den hoch sensitiven Nachweis von niedrigkonzentrierten Analyten ermöglichen. In dieser Arbeit wurden hochsensitive Simoa-Immunoassays für die Zytokine IFN-γ, IL-2, IL 10 und IL-17 und dem Entzündungsmarker PCT entwickelt, die eine hoch sensitive, präzise und einfache Quantifizierung dieser Analyten in Serum, Plasma oder CSF ermöglichen. Die entwickelten Simoa-Immunoassays sind semiautomatisierte Assays, die eine parallele Bearbeitung einer großen Probenanzahl ermöglichen. Im Anschluss an die Entwicklungsphase wurden die Immunoassays in einem zweckgerichteten Ansatz, unter Berücksichtigung der entsprechenden Richtlinien der Gesundheitsbehörden EMA und FDA, validiert. Anhand der ermittelten Validerungsparameter konnte aufgezeigt werden, dass die Sensitivitäten sehr gut und die dynamischen Bereiche passend sind. Die Anwendbarkeit der Assays zur Quantifizierung der Analyten in humanen Serum- und Plasmaproben gesunder Spender wurde in dieser Arbeit gezeigt und für vier der Analyten (ausgenommen IL-2) aufgrund der ausreichenden Sensitivität der Immunoassays ein Referenzbereich gesunder Spender ermittelt. Des Weiteren wurde mit dem entwickelten hochsensitiven PCT Simoa-Assay untersucht, ob die Bestimmung der PCT Konzentration bis in den niedrigen Konzentrationsbereich, die diagnostische Aussagekraft von PCT für die Differenzierung zwischen einer bakteriellen und einer viralen Meningitis steigern kann. Wäre diese Arbeitshypothese korrekt könnte PCT, anders als bisher beschrieben, auch als Biomarker für eine virale Meningitis in der Klinik eingesetzt werden und könnte eine schnellere Diagnose der zugrundeliegenden Ursache ermöglichen. Zur Untersuchung dieser Arbeitshypothese wurde zunächst ein Methodenvergleich zwischen dem entwickelten PCT Simoa-Assay und dem klinischen B·R·A·H·M·S PCT-Sensitive Kryptor-Assay durchgeführt. Es konnte eine gute Korrelation zwischen dem neu entwickelten PCT Assays und der in der Routinediagnostik oft angewendeten Methode zur Quantifizierung von PCT demonstriert werden. Die in dieser Arbeit generierten Ergebnisse konnten die Arbeitshypothese jedoch nicht bestätigen. Mit dem entwickelten PCT Simoa-Assay konnte nicht zwischen gesunden Spendern und Patienten mit diagnostizierter viraler Meningitis diskriminiert werden, was PCT zu keinem Biomarker für eine virale Meningitis macht. Es konnte aber die in der Literatur beschriebene diagnostische Aussagekraft von Procalcitonin zur Diagnose einer bakteriellen Meningitis bestätigt werden. Zuletzt wurde untersucht, ob mit Hilfe der entwickelten hochsensitiven Immunoassays neue Biomarker als Indikatoren des Trainings- und Belastungsprozesses bei Sportlern ermittelt werden können. Die Ergebnisse zeigten, dass ein 30-minütiger Tempodauerlauf ausdauertrainierter Sportler im Bereich der aeroben-anaeroben Schwelle Einflüsse auf die Konzentration der Analyten IFN-γ, IL-10 und PCT im Serum der Probanden hat. Diese waren aber zum Teil geringer als in der Literatur beschrieben. Um zu untersuchen, ab welcher Belastung die untersuchten Analyten ggf. deutlich signifikanter ansteigen, müssten unterschiedliche Belastungsstärken, Belastungsdauern aber auch Erholungsphasen untersucht werden. Mit den neu entwickelten Simoa-Assays wurde gezeigt, dass Sensitivitäten bis in den niedrigen pg·mL-1-Konzentrationsbereich für die gewählten Proteinbiomarker erreicht werden können. Dies ermöglicht es bereits bestehende Aspekte, aber auch neue Fragestellungen zu untersuchen, und kann somit zu weiteren Erkenntnissen bei der Erforschung von inflammatorischen Prozessen führe

    Informatics Inside : Grenzen überwinden - Virtualität erweitert Realität : Informatik-Konferenz an der Hochschule Reutlingen, 11. Mai 2011

    Get PDF
    Die Informatics Inside-Konferenz findet in diesem Jahr zum dritten Mal statt. Mit dem Thema "Grenzen überwinden – Virtualität erweitert Realität" stellt sich die Veranstaltung einem aktuellen Schwerpunkt, der viele Interessierte aus Wirtschaft, Wissenschaft und Forschung anzieht. Die Konferenz hat sich von einer Veranstaltung für die Masterstudenten des Studiengangs Medien- und Kommunikationsinformatik zu einer offenen Studentenkonferenz entwickelt. Um die Qualität weiter zu steigern wurde parallel dazu ein zweistufiges Review-Verfahren für Beiträge dieses Tagungsbandes eingeführt

    Beredtheit der Form

    Get PDF
    Die Dissertation untersucht auf Grundlage der deutschen Uebersetzung des 68. Psalms durch Moses Mendelssohn die juedische Schreib- und Druckgeschichte biblisch-hebraeischer Poesie sowie deren Rezeption im 18. Jahrhundert in Deutschland

    Optimal Global Instruction Scheduling for the Itanium® Processor Architecture

    Get PDF
    On the Itanium 2 processor, effective global instruction scheduling is crucial to high performance. At the same time, it poses a challenge to the compiler: This code generation subtask involves strongly interdependent decisions and complex trade-offs that are difficult to cope with for heuristics. We tackle this NP-complete problem with integer linear programming (ILP), a search-based method that yields provably optimal results. This promises faster code as well as insights into the potential of the architecture. Our ILP model comprises global code motion with compensation copies, predication, and Itanium-specific features like control/data speculation. In integer linear programming, well-structured models are the key to acceptable solution times. The feasible solutions of an ILP are represented by integer points inside a polytope. If all vertices of this polytope are integral, then the ILP can be solved in polynomial time. We define two subproblems of global scheduling in which some constraint classes are omitted and show that the corresponding two subpolytopes of our ILP model are integral and polynomial sized. This substantiates that the found model is of high efficiency, which is also confirmed by the reasonable solution times. The ILP formulation is extended by further transformations like cyclic code motion, which moves instructions upwards out of a loop, circularly in the opposite direction of the loop backedges. Since the architecture requires instructions to be encoded in fixed-sized bundles of three, a bundler is developed that computes bundle sequences of minimal size by means of precomputed results and dynamic programming. Experiments have been conducted with a postpass tool that implements the ILP scheduler. It parses assembly procedures generated by Intel�s Itanium compiler and reschedules them as a whole. Using this tool, we optimize a selection of hot functions from the SPECint 2000 benchmark. The results show a significant speedup over the original code.Globale Instruktionsanordnung hat beim Itanium-2-Prozessor großen Einfluß auf die Leistung und stellt dabei gleichzeitig eine Herausforderung für den Compiler dar: Sie ist mit zahlreichen komplexen, wechselseitig voneinander abhängigen Entscheidungen verbunden, die für Heuristiken nur schwer zu beherrschen sind.Wir lösen diesesNP-vollständige Problem mit ganzzahliger linearer Programmierung (ILP), einer suchbasierten Methode mit beweisbar optimalen Ergebnissen. Das ermöglicht neben schnellerem Code auch Einblicke in das Potential der Itanium- Prozessorarchitektur. Unser ILP-Modell umfaßt globale Codeverschiebungen mit Kompensationscode, Prädikation und Itanium-spezifische Techniken wie Kontroll- und Datenspekulation. Bei ganzzahliger linearer Programmierung sind wohlstrukturierte Modelle der Schlüssel zu akzeptablen Lösungszeiten. Die zulässigen Lösungen eines ILPs werden durch ganzzahlige Punkte innerhalb eines Polytops repräsentiert. Sind die Eckpunkte dieses Polytops ganzzahlig, kann das ILP in Polynomialzeit gelöst werden. Wir definieren zwei Teilprobleme globaler Instruktionsanordnung durch Auslassung bestimmter Klassen von Nebenbedingungen und beweisen, daß die korrespondierenden Teilpolytope unseres ILP-Modells ganzzahlig und von polynomieller Größe sind. Dies untermauert die hohe Effizienz des gefundenen Modells, die auch durch moderate Lösungszeiten bestätigt wird. Das ILP-Modell wird um weitere Transformationen wie zyklische Codeverschiebung erweitert; letztere bezeichnet das Verschieben von Befehlen aufwärts aus einer Schleife heraus, in Gegenrichtung ihrer Rückwärtskanten. Da die Architektur eine Kodierung der Befehle in Dreierbündeln fester Größe vorschreibt, wird ein Bundler entwickelt, der Bündelsequenzen minimaler Länge mit Hilfe vorberechneter Teilergebnisse und dynamischer Programmierung erzeugt. Für die Experimente wurde ein Postpassoptimierer erstellt. Er liest von Intels Itanium-Compiler erzeugte Assemblerroutinen ein und ordnet die enthaltenen Instruktionen mit Hilfe der ILP-Methode neu an. Angewandt auf eine Auswahl von Funktionen aus dem Benchmark SPECint 2000 erreicht der Optimierer eine signifikante Beschleunigung gegenüber dem Originalcode

    Mathematics meets physics: A contribution to their interaction in the 19th and the first half of the 20th century

    Get PDF
    Es gibt wohl kaum Wissenschaftsgebiete, in denen die wechselseitige Beeinflussung stärker ist als zwischen Mathematik und Physik. Eine wichtige Frage ist dabei die nach der konkreten Ausgestaltung dieser Wechselbeziehungen, etwa an einer Universität, oder die nach prägenden Merkmalen in der Entwicklung dieser Beziehungen in einem historischen Zeitabschnitt. Im Rahmen eines mehrjährigen Akademieprojekts wurden diese Beziehungen an den Universitäten in Leipzig, Halle und Jena für den Zeitraum vom Beginn des 19. bis zur Mitte des 20. Jahrhunderts untersucht und in fünf Bänden dargestellt. Der erste dieser Bände erschien in den Abhandlungen der Sächsischen Akademie der Wissenschaften zu Leipzig, die nachfolgenden als eigenständige Reihe unter dem Titel “Studien zur Entwicklung von Mathematik und Physik in ihren Wechselwirkungen“. Ein weiterer und abschließender Band dieser Reihe (der vorliegende) beinhaltet die Beiträge einer wissenschaftshistorischen Fachtagung im Jahr 2010, die das Thema in einem internationalen Kontext einbettet. Der vorliegende Band enthält die Beiträge der Tagung “Mathematics meets physics. A contribution to their interaction in the 19th and the first half of the 20th century”, die vom 22. bis 25. März 2010 in Leipzig stattfand. Die Konferenzbeiträge bestätigen die große Variabilität in der Gestaltung der Wechselbeziehungen zwischen Mathematik und Physik. In ihnen werden u.a. verschiedene Entwicklungsprozesse im 19. und 20. Jahrhundert (zur elektromagnetischen Feldtheorie, zur Quantenmechanik, zur Quantenfeldtheorie, zur Relativitätstheorie) aus unterschiedlichen Perspektiven analysiert. Weitere Beiträge stellen allgemeinere Fragestellungen der Entwicklung der Wechselbeziehungen in den Mittelpunkt und tragen zur Frage einer möglichen Unterscheidung unterschiedlicher Entwicklungsstufen im den Wechselverhältnis von Mathematik und Physik bei. Insgesamt ist einzuschätzen: Zum einen dokumentieren die in den Beiträgen vorgelegten Ergebnisse den Wert und die Notwendigkeit von Detailuntersuchungen, um die Entwicklung der Wechselbeziehungen zwischen Mathematik und Physik in ihrer Vielfalt und mit der nötigen Präzision zu erfassen, zum anderen lassen sie in ihrer Gesamtheit noch zu beantwortende Forschungsfragen erkennen.:Vorwort Karl-Heinz Schlote, Martina Schneider: Introduction Jesper Lützen: Examples and Reflections on the Interplay between Mathematics and Physics in the 19th and 20th Century Juraj Šebesta: Mathematics as one of the basic Pillars of physical Theory: a historical and epistemological Survey Karl-Heinz Schlote, Martina Schneider: The Interrelation between Mathematics and Physics at the Universities Jena, Halle-Wittenberg and Leipzig – a Comparison Karin Reich: Der erste Professor für Theoretische Physik an der Universität Hamburg: Wilhelm Lenz Jim Ritter: Geometry as Physics: Oswald Veblen and the Princeton School Erhard Scholz: Mathematische Physik bei Hermann Weyl – zwischen „Hegelscher Physik“ und „symbolischer Konstruktion der Wirklichkeit“ Scott Walter: Henri Poincaré, theoretical Physics, and Relativity Theory in Paris Reinhard Siegmund-Schultze: Indeterminismus vor der Quantenmechanik: Richard von Mises’ wahrscheinlichkeitstheoretischer Purismus in der Theorie physikalischer Prozesse Christoph Lehner: Mathematical Foundations and physical Visions: Pascual Jordan and the Field Theory Program Jan Lacki: From Matrices to Hilbert Spaces: The Interplay of Physics and Mathematics in the Rise of Quantum Mechanics Helge Kragh: Mathematics, Relativity, and Quantum Wave Equations Klaus-Heinrich Peters: Mathematische und phänomenologische Strenge: Distributionen in der Quantenmechanik und -feldtheorie Arianna Borrelli: Angular Momentum between Physics and Mathematics Friedrich Steinle: Die Entstehung der Feldtheorie: ein ungewöhnlicher Fall der Wechselwirkung von Physik und Mathematik? Vortragsprogramm Liste der Autoren Personenverzeichni

    Discourses on Nations and Identities

    Get PDF
    This book focuses on the interplay between concepts of nation, language, and individual as well as collective identities. Because literary communication happens within different kinds of power structures - linguistic, economic, political -, it often results in fascinating forms of hybridity. And though hybridity may be either foregrounded or regarded as compromise, it is a fascinating lens through which to look at literary history
    corecore