18 research outputs found

    Proceedings of the 5th bwHPC Symposium

    Get PDF
    In modern science, the demand for more powerful and integrated research infrastructures is growing constantly to address computational challenges in data analysis, modeling and simulation. The bwHPC initiative, founded by the Ministry of Science, Research and the Arts and the universities in Baden-Württemberg, is a state-wide federated approach aimed at assisting scientists with mastering these challenges. At the 5th bwHPC Symposium in September 2018, scientific users, technical operators and government representatives came together for two days at the University of Freiburg. The symposium provided an opportunity to present scientific results that were obtained with the help of bwHPC resources. Additionally, the symposium served as a platform for discussing and exchanging ideas concerning the use of these large scientific infrastructures as well as its further development

    Separation und Rekonstruktion funktionaler Elemente im Zentral-Nervensystem

    Get PDF
    Ziel dieser Arbeit ist es, eine Lücke im methodischen Spektrum neurobiologischer Methoden zu schließen. Es ist heute möglich, das Gehirn auf unterschiedlichen Ebenen zu beschreiben. Es stehen jedoch keine Methoden zur Verfügung, um die Anordnung der Zellen innerhalb eines Nukleus quantitativ zu beschreiben. Die Anzahl und die Anordnung der Zellen ist jedoch eine essentielle Voraussetzung, um die Funktion eines Nukleus zu verstehen. Das hier vorgestellte Verfahren zur Rekonstruktion eines Nukleus basiert auf Nissl-gefärbten Semidünnschnitten der Medialen Superioren Olive (MSO) der Wüstenrennmaus Meriones ungiuculatus. Diese werden mit einer Digitalkamera lichtmikroskopisch aufgenommen und bilden die Basis der Rekonstruktion. In einem ersten Schritt werden innerhalb einer Schnittebene mehrere Einzelbilder patchworkartig zu einem Image Mosaic zusammengefügt. Durch diesen Schritt ist die Auflösung innerhalb einer Schnittebene praktisch unbegrenzt. Das Verfahren beinhaltet mehrere Kontrollmechanismen und funktioniert praktisch fehlerfrei. Danach werden die Bilder farblich korrigiert und mit Methoden der Mustererkennung werden die Zellkerne extrahiert. Die Extraktion der Zellkerne steht in ihrer Qualität einer manuellen Extraktion in nichts nach. Die Zellkerne dienen als Grundlage für den Archimedes-Alignment-Algorithmus, der die Schnittserie in einen dreidimensionalen Bezug setzt, indem aufeinander folgende Schnitte aneinander ausgerichtet werden. Auch dieses Verfahren beinhaltet eine Kontrolle und funktioniert fehlerfrei. Aus diesen Daten kann dann eine Rekonstruktion erstellt werden. Diese wird weiter ausgewertet und ergibt schließlich ein dreidimensionales Abbild des untersuchten Bereichs. Sämtliche Verfahrensschritte arbeiten entweder fehlerfrei oder mit einer nur sehr geringen Fehlerrate. Somit stellt dieses Verfahren eine robuste, effiziente und universell anwendbare Möglichkeit für die umfassende Analyse der Neuronenverteilung im ZNS dar. Das Verfahren eröffnet die Möglichkeit, Nuklei dreidimensional zu untersuchen, bietet aber auch einen Ansatzpunkt um mittels histologischer Daten weiteres Datenmaterial (etwa elektrophysiologischer oder morphologische Daten) zu integrieren

    Neues Konzept zur skalierbaren, explorativen Analyse großer Zeitreihendaten mit Anwendung auf umfangreiche Stromnetz-Messdaten

    Get PDF
    Diese Arbeit beschäftigt sich mit der Entwicklung und Anwendung eines neuen Konzepts zur skalierbaren explorativen Analyse großer Zeitreihendaten. Hierzu werden zahlreiche datenintensive Methoden aus dem Bereich des Data-Mining und der Zeitreihenanalyse hinsichtlich ihrer Skalierbarkeit mit wachsendem Datenvolumen untersucht und neue Verfahren und Datenrepräsentationen vorgestellt, die eine Exploration sehr großer Zeitreihendaten erlauben, die mit herkömmlichen Methoden nicht effizient auswertbar sind und unter dem Begriff Big Data eingeordnet werden können. Methoden zur Verwaltung und Visualisierung großer multivariater Zeitreihen werden mit Methoden zur Detektion seltener und häufiger Muster – sog. Discords und Motifs – kombiniert und zu einem leistungsfähigen Explorationssystem namens ViAT (von engl. Visual Analysis of Time series) zusammengefasst. Um auch Analysen von Zeitreihendaten durchführen zu können, deren Datenvolumen hunderte von Terabyte und mehr umfasst, wurde eine datenparallele verteilte Verarbeitung auf Basis von Apache Hadoop entwickelt. Sie erlaubt die Ableitung datenreduzierter Metadaten, welche statistische Eigenschaften und neuartige Strukturbeschreibungen der Zeitreihen enthalten. Auf dieser Basis sind neue inhaltsbasierte Anfragen und Auswertungen sowie Suchen nach bekannten und zuvor unbekannten Mustern in den Daten möglich. Das Design der entwickelten neuen Methoden und deren Integration zu einem Gesamtsystem namens FraScaTi (von engl. Framework for Scalable management and analysis of Time series data) wird vorgestellt. Das System wird evaluiert und im Anwendungsfeld der Stromnetzanalyse erprobt, welches von der Skalierbarkeit und den neuartigen Analysemöglichkeiten profitiert. Hierzu wird eine explorative Analyse hochfrequenter Stromnetz-Messdaten durchgeführt, deren Ergebnisse im Kontext des Anwendungsbereichs präsentiert und diskutiert werden

    Fachinformation und EDV-Arbeitstechniken für Historiker: Einführung und Arbeitsbuch

    Full text link
    'Der Sammelband versucht, die Erfahrungen einzufangen, die von den Herausgebern in den vergangenen Jahren an der Humboldt-Universität zu Berlin in der studentischen EDV-Ausbildung und beim Aufbau vernetzter Informationsdienste für Historiker gemacht wurden. Es handelt sich weder um einen der üblichen Sammelbände noch um eine einfache Softwareeinführung, sondern um ein praktisches Arbeitsbuch für Studierende und Nachwuchswissenschaftler zu Fragen des EDV-Einsatzes in den Geschichtswissenschaften. Dabei stehen das 'Internet' bzw. der Einsatz der sogenannten 'Neuen Medien' im Mittelpunkt. Im ersten Kapitel wird zunächst das Verhältnis der EDV zu den Geisteswissenschaften geklärt. Dies schließt eine Einführung in die Geschichte der EDV und die Betrachtung der EDV-Einsatzfelder in den Geschichtswissenschaften zu den Themen Bibliotheken im Internet, Wissenschaftlicher Alltag und Lehre sowie spezielle historische Fachinformationsangebote ein. Im zweiten Kapitel wird näher auf die Grundlagen der Datenverarbeitung eingegangen. Dabei liegt neben dem PC- und Netzbasiswissen das Hauptaugenmerk auf dem Internet und seinen Diensten. Darauf aufbauend werden im dritten Kapitel ausgewählte Applikationen aus den Bereichen Textverarbeitung, Beschreibungs- und Skriptsprachen, Tabellenkalkulation, Datenanalyse & Datenbanksysteme sowie Grafik, Präsentation und Multimedia an historischen Beispielen in ihrem Funktionsumfang vorgestellt. Im abschließenden vierten Kapitel wird der EDV-Einsatz in den Geschichtswissenschaften an ausgewählten Projekten in Forschung und Lehre exemplarisch beschrieben.' (Autorenreferat

    Architectural Design Decision Documentation through Reuse of Design Patterns

    Get PDF
    The ADMD3 approach presented in this book enchances the architectural design documentation of decision via reuse of design patterns. It combines the support for evaluation of pattern application, semi-automated documentation of decision rationale and trace links. The approach is based on a new kind of design pattern catalogue, whereby usual pattern descriptions are captured together with question annotations to the patterns and information on architectural structure of patterns

    Grenzobjekte und Medienforschung

    Get PDF
    Susan Leigh Stars (1954-2010) Werk bewegt sich zwischen Infrastrukturforschung, Sozialtheorie, Wissenschaftsgeschichte, Ökologie und Feminismus. Die wegweisenden historischen und ethnografischen Texte der US-amerikanischen Technik- und Wissenschaftssoziologin liegen mit diesem Band erstmals gesammelt auf Deutsch vor. Ihre Arbeiten zu Grenzobjekten, Marginalität, Arbeit, Infrastrukturen und Praxisgemeinschaften werden interdisziplinär kommentiert und auf ihre medienwissenschaftliche Produktivität hin befragt. Mit Kommentaren von Geoffrey C. Bowker, Cora Bender, Ulrike Bergermann, Monika Dommann, Christine Hanke, Bernhard Nett, Jörg Potthast, Gabriele Schabacher, Cornelius Schubert, Erhard Schüttpelz und Jörg Strübing.Susan Leigh Star's (1954-2010) research encompasses aspects of infrastructural and social theory, knowledge ecologies, feminism and theories of marginality. For the first time, this volume introduces the American science and technology sociologist's most important writings in German. Her texts on border objects, marginality, infrastructures and standards are commented upon by academics and scientists in these fields, and analyzed for their relevance to media studies. With commentaries by Geoffrey C. Bowker, Cora Bender, Ulrike Bergermann, Monika Dommann, Christine Hanke, Bernhard Nett, Jörg Potthast, Gabriele Schabacher, Cornelius Schubert, Erhard Schüttpelz und Jörg Strübing

    Grenzobjekte und Medienforschung

    Get PDF
    Susan Leigh Star's (1954-2010) research encompasses aspects of infrastructural and social theory, knowledge ecologies, feminism and theories of marginality. For the first time, this volume introduces the American science and technology sociologist's most important writings in German. Her texts on border objects, marginality, infrastructures and standards are commented upon by academics and scientists in these fields, and analyzed for their relevance to media studies. With commentaries by Geoffrey C. Bowker, Cora Bender, Ulrike Bergermann, Monika Dommann, Christine Hanke, Bernhard Nett, Jörg Potthast, Gabriele Schabacher, Cornelius Schubert, Erhard Schüttpelz and Jörg Strübing.Susan Leigh Stars (1954-2010) Werk bewegt sich zwischen Infrastrukturforschung, Sozialtheorie, Wissenschaftsgeschichte, Ökologie und Feminismus. Die wegweisenden historischen und ethnografischen Texte der US-amerikanischen Technik- und Wissenschaftssoziologin liegen mit diesem Band erstmals gesammelt auf Deutsch vor. Ihre Arbeiten zu Grenzobjekten, Marginalität, Arbeit, Infrastrukturen und Praxisgemeinschaften werden interdisziplinär kommentiert und auf ihre medienwissenschaftliche Produktivität hin befragt. Mit Kommentaren von Geoffrey C. Bowker, Cora Bender, Ulrike Bergermann, Monika Dommann, Christine Hanke, Bernhard Nett, Jörg Potthast, Gabriele Schabacher, Cornelius Schubert, Erhard Schüttpelz und Jörg Strübing

    Projekt Nukleare Sicherheitsforschung. Jahresbericht 1999

    Get PDF

    Performance Problem Diagnostics by Systematic Experimentation

    Get PDF
    In this book, we introduce an automatic, experiment-based approach for performance problem diagnostics in enterprise software systems. The proposed approach systematically searches for root causes of detected performance problems by executing series of systematic performance tests. The presented approach is evaluated by various case studies showing that the presented approach is applicable to a wide range of contexts
    corecore