18 research outputs found
Proceedings of the 5th bwHPC Symposium
In modern science, the demand for more powerful and integrated research
infrastructures is growing constantly to address computational challenges
in data analysis, modeling and simulation. The bwHPC initiative, founded
by the Ministry of Science, Research and the Arts and the universities in
Baden-Württemberg, is a state-wide federated approach aimed at assisting
scientists with mastering these challenges. At the 5th bwHPC Symposium
in September 2018, scientific users, technical operators and government
representatives came together for two days at the University of Freiburg. The
symposium provided an opportunity to present scientific results that were
obtained with the help of bwHPC resources. Additionally, the symposium served
as a platform for discussing and exchanging ideas concerning the use of these
large scientific infrastructures as well as its further development
Separation und Rekonstruktion funktionaler Elemente im Zentral-Nervensystem
Ziel dieser Arbeit ist es, eine Lücke im methodischen Spektrum neurobiologischer Methoden zu schließen. Es ist heute möglich, das Gehirn auf unterschiedlichen Ebenen zu beschreiben. Es stehen jedoch keine Methoden zur Verfügung, um die Anordnung der Zellen innerhalb eines Nukleus quantitativ zu beschreiben. Die Anzahl und die Anordnung der Zellen ist jedoch eine essentielle Voraussetzung, um die Funktion eines Nukleus zu verstehen. Das hier vorgestellte Verfahren zur Rekonstruktion eines Nukleus basiert auf Nissl-gefärbten Semidünnschnitten der Medialen Superioren Olive (MSO) der Wüstenrennmaus Meriones ungiuculatus. Diese werden mit einer Digitalkamera lichtmikroskopisch aufgenommen und bilden die Basis der Rekonstruktion. In einem ersten Schritt werden innerhalb einer Schnittebene mehrere Einzelbilder patchworkartig zu einem Image Mosaic zusammengefügt. Durch diesen Schritt ist die Auflösung innerhalb einer Schnittebene praktisch unbegrenzt. Das Verfahren beinhaltet mehrere Kontrollmechanismen und funktioniert praktisch fehlerfrei. Danach werden die Bilder farblich korrigiert und mit Methoden der Mustererkennung werden die Zellkerne extrahiert. Die Extraktion der Zellkerne steht in ihrer Qualität einer manuellen Extraktion in nichts nach. Die Zellkerne dienen als Grundlage für den Archimedes-Alignment-Algorithmus, der die Schnittserie in einen dreidimensionalen Bezug setzt, indem aufeinander folgende Schnitte aneinander ausgerichtet werden. Auch dieses Verfahren beinhaltet eine Kontrolle und funktioniert fehlerfrei. Aus diesen Daten kann dann eine Rekonstruktion erstellt werden. Diese wird weiter ausgewertet und ergibt schließlich ein dreidimensionales Abbild des untersuchten Bereichs. Sämtliche Verfahrensschritte arbeiten entweder fehlerfrei oder mit einer nur sehr geringen Fehlerrate. Somit stellt dieses Verfahren eine robuste, effiziente und universell anwendbare Möglichkeit für die umfassende Analyse der Neuronenverteilung im ZNS dar. Das Verfahren eröffnet die Möglichkeit, Nuklei dreidimensional zu untersuchen, bietet aber auch einen Ansatzpunkt um mittels histologischer Daten weiteres Datenmaterial (etwa elektrophysiologischer oder morphologische Daten) zu integrieren
Neues Konzept zur skalierbaren, explorativen Analyse großer Zeitreihendaten mit Anwendung auf umfangreiche Stromnetz-Messdaten
Diese Arbeit beschäftigt sich mit der Entwicklung und Anwendung eines neuen Konzepts zur skalierbaren explorativen Analyse großer Zeitreihendaten. Hierzu werden zahlreiche datenintensive Methoden aus dem Bereich des Data-Mining und der Zeitreihenanalyse hinsichtlich ihrer Skalierbarkeit mit wachsendem Datenvolumen untersucht und neue Verfahren und Datenrepräsentationen vorgestellt, die eine Exploration sehr großer Zeitreihendaten erlauben, die mit herkömmlichen Methoden nicht effizient auswertbar sind und unter dem Begriff Big Data eingeordnet werden können.
Methoden zur Verwaltung und Visualisierung großer multivariater Zeitreihen werden mit Methoden zur Detektion seltener und häufiger Muster – sog. Discords und Motifs – kombiniert und zu einem leistungsfähigen Explorationssystem namens ViAT (von engl. Visual Analysis of Time series) zusammengefasst. Um auch Analysen von Zeitreihendaten durchführen zu können, deren Datenvolumen hunderte von Terabyte und mehr umfasst, wurde eine datenparallele verteilte Verarbeitung auf Basis von Apache Hadoop entwickelt. Sie erlaubt die Ableitung datenreduzierter Metadaten, welche statistische Eigenschaften und neuartige Strukturbeschreibungen der Zeitreihen enthalten. Auf dieser Basis sind neue inhaltsbasierte Anfragen und Auswertungen sowie Suchen nach bekannten und zuvor unbekannten Mustern in den Daten möglich.
Das Design der entwickelten neuen Methoden und deren Integration zu einem Gesamtsystem namens FraScaTi (von engl. Framework for Scalable management and analysis of Time series data) wird vorgestellt. Das System wird evaluiert und im Anwendungsfeld der Stromnetzanalyse erprobt, welches von der Skalierbarkeit und den neuartigen Analysemöglichkeiten profitiert. Hierzu wird eine explorative Analyse hochfrequenter Stromnetz-Messdaten durchgeführt, deren Ergebnisse im Kontext des Anwendungsbereichs präsentiert und diskutiert werden
Fachinformation und EDV-Arbeitstechniken für Historiker: Einführung und Arbeitsbuch
'Der Sammelband versucht, die Erfahrungen einzufangen, die von den Herausgebern in den vergangenen Jahren an der Humboldt-Universität zu Berlin in der studentischen EDV-Ausbildung und beim Aufbau vernetzter Informationsdienste für Historiker gemacht wurden. Es handelt sich weder um einen der üblichen Sammelbände noch um eine einfache Softwareeinführung, sondern um ein praktisches Arbeitsbuch für Studierende und Nachwuchswissenschaftler zu Fragen des EDV-Einsatzes in den Geschichtswissenschaften. Dabei stehen das 'Internet' bzw. der Einsatz der sogenannten 'Neuen Medien' im Mittelpunkt. Im ersten Kapitel wird zunächst das Verhältnis der EDV zu den Geisteswissenschaften geklärt. Dies schließt eine Einführung in die Geschichte der EDV und die Betrachtung der EDV-Einsatzfelder in den Geschichtswissenschaften zu den Themen Bibliotheken im Internet, Wissenschaftlicher Alltag und Lehre sowie spezielle historische Fachinformationsangebote ein. Im zweiten Kapitel wird näher auf die Grundlagen der Datenverarbeitung eingegangen. Dabei liegt neben dem PC- und Netzbasiswissen das Hauptaugenmerk auf dem Internet und seinen Diensten. Darauf aufbauend werden im dritten Kapitel ausgewählte Applikationen aus den Bereichen Textverarbeitung, Beschreibungs- und Skriptsprachen, Tabellenkalkulation, Datenanalyse & Datenbanksysteme sowie Grafik, Präsentation und Multimedia an historischen Beispielen in ihrem Funktionsumfang vorgestellt. Im abschließenden vierten Kapitel wird der EDV-Einsatz in den Geschichtswissenschaften an ausgewählten Projekten in Forschung und Lehre exemplarisch beschrieben.' (Autorenreferat
Architectural Design Decision Documentation through Reuse of Design Patterns
The ADMD3 approach presented in this book enchances the architectural design documentation of decision via reuse of design patterns. It combines the support for evaluation of pattern application, semi-automated documentation of decision rationale and trace links. The approach is based on a new kind of design pattern catalogue, whereby usual pattern descriptions are captured together with question annotations to the patterns and information on architectural structure of patterns
Grenzobjekte und Medienforschung
Susan Leigh Stars (1954-2010) Werk bewegt sich zwischen Infrastrukturforschung, Sozialtheorie, Wissenschaftsgeschichte, Ökologie und Feminismus. Die wegweisenden historischen und ethnografischen Texte der US-amerikanischen Technik- und Wissenschaftssoziologin liegen mit diesem Band erstmals gesammelt auf Deutsch vor. Ihre Arbeiten zu Grenzobjekten, Marginalität, Arbeit, Infrastrukturen und Praxisgemeinschaften werden interdisziplinär kommentiert und auf ihre medienwissenschaftliche Produktivität hin befragt. Mit Kommentaren von Geoffrey C. Bowker, Cora Bender, Ulrike Bergermann, Monika Dommann, Christine Hanke, Bernhard Nett, Jörg Potthast, Gabriele Schabacher, Cornelius Schubert, Erhard Schüttpelz und Jörg Strübing.Susan Leigh Star's (1954-2010) research encompasses aspects of infrastructural and social theory, knowledge ecologies, feminism and theories of marginality. For the first time, this volume introduces the American science and technology sociologist's most important writings in German. Her texts on border objects, marginality, infrastructures and standards are commented upon by academics and scientists in these fields, and analyzed for their relevance to media studies. With commentaries by Geoffrey C. Bowker, Cora Bender, Ulrike Bergermann, Monika Dommann, Christine Hanke, Bernhard Nett, Jörg Potthast, Gabriele Schabacher, Cornelius Schubert, Erhard Schüttpelz und Jörg Strübing
Grenzobjekte und Medienforschung
Susan Leigh Star's (1954-2010) research encompasses aspects of infrastructural and social theory, knowledge ecologies, feminism and theories of marginality. For the first time, this volume introduces the American science and technology sociologist's most important writings in German. Her texts on border objects, marginality, infrastructures and standards are commented upon by academics and scientists in these fields, and analyzed for their relevance to media studies. With commentaries by Geoffrey C. Bowker, Cora Bender, Ulrike Bergermann, Monika Dommann, Christine Hanke, Bernhard Nett, Jörg Potthast, Gabriele Schabacher, Cornelius Schubert, Erhard Schüttpelz and Jörg Strübing.Susan Leigh Stars (1954-2010) Werk bewegt sich zwischen Infrastrukturforschung, Sozialtheorie, Wissenschaftsgeschichte, Ökologie und Feminismus. Die wegweisenden historischen und ethnografischen Texte der US-amerikanischen Technik- und Wissenschaftssoziologin liegen mit diesem Band erstmals gesammelt auf Deutsch vor. Ihre Arbeiten zu Grenzobjekten, Marginalität, Arbeit, Infrastrukturen und Praxisgemeinschaften werden interdisziplinär kommentiert und auf ihre medienwissenschaftliche Produktivität hin befragt. Mit Kommentaren von Geoffrey C. Bowker, Cora Bender, Ulrike Bergermann, Monika Dommann, Christine Hanke, Bernhard Nett, Jörg Potthast, Gabriele Schabacher, Cornelius Schubert, Erhard Schüttpelz und Jörg Strübing
Recommended from our members
Grundlagen der Informationswissenschaft
Die 7. Ausgabe der "Grundlagen der praktischen Information und Dokumentation" (Erstausgabe 1972) heißt jetzt: „Grundlagen der Informationswissenschaft". Der Bezug zur Praxis und zur Ausbildung bleibt erhalten, aber der neue Titel trägt dem Rechnung, dass die wissenschaftliche theoretische Absicherung für alle Bereiche von Wissen und Information, nicht nur in der Fachinformation, sondern auch in den Informationsdiensten des Internet immer wichtiger wird. Für die Grundlagen sind 73 Artikel in 6 Hauptkapiteln vorgesehen. Viele Themen werden zum ersten Mal behandelt, z.B. Information und Emotion, Informationelle Selbstbestimmung, Informationspathologien. Alle Beiträge sind neu verfasst
Performance Problem Diagnostics by Systematic Experimentation
In this book, we introduce an automatic, experiment-based approach for performance problem diagnostics in enterprise software systems. The proposed approach systematically searches for root causes of detected performance problems by executing series of systematic performance tests. The presented approach is evaluated by various case studies showing that the presented approach is applicable to a wide range of contexts