11 research outputs found

    Transformation oder Stagnation?

    Get PDF
    Die Erwartung an Partizipation in der Nachhaltigkeitsforschung ist hoch: von Wissenschaft und Praxis kollaborativ erarbeitetes Wissen soll Herausforderungen wie die Transformation des Energiesystems adressieren. Doch die Kritik nimmt zu, dass – entgegen der in sie gesetzten Erwartungen – kollaborativ veranlagte Formate wenig neuen Inhalt zur Lösung der Nachhaltigkeitsprobleme beitragen und begrenzte Partizipationsmöglichkeiten fĂŒr diverse soziale Gruppen bieten. Somit fĂŒhren sie zu einer unkritischen Reproduktion hierarchischer Machtstrukturen. Diese Arbeit entwickelt literaturbasiert eine Analyseheuristik zur Charakterisierung vier zentraler PartizipationsansĂ€tze in der Nachhaltigkeitsforschung, die mit Machtdimensionen und Konzepten gesellschaftlicher Transformation verbunden sind. In einem innovativen Fallstudiendesign werden eine vergleichende Metaanalyse und eine vertiefende Einzelfallstudie kombiniert. Die Studie leistet einen innovativen Beitrag zum besseren wissenschaftlichen VerstĂ€ndnis partizipativer Prozesse und deren (Un-)Wirksamkeit und bietet zudem praktische Hinweise fĂŒr reflexive, verantwortungsvolle und diverse Partizipationsprozesse, die berĂŒcksichtigen, dass Prozess und Inhalt maßgeblich von Vorannahmen beeinflusst werden. Annika-Kathrin Musch hat Geographie, Regionalplanung, Management und Tourismus in EichstĂ€tt (Deutschland), BanskĂĄ Bystrica (Slowakei) und Nottingham (England) studiert. Sie promovierte an der LMU MĂŒnchen im Fach Anthropogeographie. Sie forscht zu nachhaltiger Stadt‐ und Regionalentwicklung, zu erneuerbaren Energiesystemen und zu nachhaltiger MobilitĂ€t in stĂ€dtischen RĂ€umen

    Improving reproducibility and reuse of modelling results in the life sciences

    Get PDF
    Research results are complex and include a variety of heterogeneous data. This entails major computational challenges to (i) to manage simulation studies, (ii) to ensure model exchangeability, stability and validity, and (iii) to foster communication between partners. I describe techniques to improve the reproducibility and reuse of modelling results. First, I introduce a method to characterise differences in computational models. Second, I present approaches to obtain shareable and reproducible research results. Altogether, my methods and tools foster exchange and reuse of modelling results.Die verteilte Entwicklung von komplexen Simulationsstudien birgt eine große Zahl an informationstechnischen Herausforderungen: (i) Modelle mĂŒssen verwaltet werden; (ii) Reproduzierbarkeit, StabilitĂ€t und GĂŒltigkeit von Ergebnissen muss sichergestellt werden; und (iii) die Kommunikation zwischen Partnern muss verbessert werden. Ich stelle Techniken vor, um die Reproduzierbarkeit und Wiederverwendbarkeit von Modellierungsergebnissen zu verbessern. Meine Implementierungen wurden erfolgreich in internationalen Anwendungen integriert und fördern das Teilen von wissenschaftlichen Ergebnissen

    Development of RF-MEAM interaction potentials for Fe-Y

    Get PDF
    Der Fokus dieser Arbeit lag zunĂ€chst auf einer simulationsgestĂŒtzen Untersuchung ĂŒber die Entsteh- ungsmechanismen von Oxidteilchen in ODS-StĂ€hlen. Hierbei bilden empirische Wechselwirkungs- potenziale von Eisen-Yttrium-Sauerstoff (Fe-Y-O) die Grundlage fĂŒr eine Beschreibung dieser Oxid- teilchen-Bildungs-Prozesse in Molekulardynamik (MD) Simulationen, die auch Eigenschaften von Versetzungen und anderen Bestrahlungs-PĂ€nomenen detailiert zur weiteren AufklĂ€rung behandeln können. Zu diesem Zweck ist das speziell auf die Simulation zugeschnittene Anfitten der o.g. MD Potenziale (hier fĂŒr Fe-Y-O) notwendig. Hierzu dienen die zuvor durchgefĂŒhrten ab-initio (DFT) Rechnungen als Daten- referenzgrundlage (z.B. von Phasen oder Defekten) zur Optimierung der Potenzialparameter wĂ€hrend des Anfittens, um ein möglichst exaktes MD Potenzial zu erzeugen, dass die ab-initio Daten auf grĂ¶ĂŸeren MD Skalen detailgetreu abbildet. Im ersten Drittel dieses Projektes wurden mehrere Potenziale fĂŒr die einzelnen Metall-Komponenten, Fe-Fe und Y-Y, erzeugt. Dabei stellte sich heraus, dass etablierte Standardmethoden nicht in der Lage sind genaue Fe-Y Potenziale als Teillösung fĂŒr das Fe-Y-O Problem zu erzeugen. Dabei wurde eine Kombination aus dem (M)EAM Modell und zur Optimierung eine LSM gestĂŒtzte Software (POTFIT) genutzt. Die KomplexitĂ€t des Problems liegt in den richtungsabhĂ€ngigen Atombindungen, die die hier entwickelten fortgeschrittenen Simulations- und Fitmethoden benötigen. Im ersten Schritt von drei Schritten (chapter 3) wurden zunĂ€chst einmal die Defizite der Standard-Fittechniken evaluiert, indem die wĂ€hrend des Fitting-Prozesses gefundenen Parametersets im EAM Formalismus mit der flexiblen Software POTFIT auf ihre Eignung hin grĂŒndlich untersucht worden sind. Die hierfĂŒr genutzten Fitfunktionen wurden ursprĂŒnglich Anfang 2000 von Zhou und Wadley entwickelt. Hierbei liegt die Ursache fĂŒr die dann entdeckte Parameterset-Problematik darin, dass zur Beschreibung des Fe-Y Systems das Model aus drei Potentialkomponenten besteht: Fe-Fe, Y-Y und Fe-Y. FĂŒr diese einzelnen Komponenten sind die Potentialparameter erfolgreich angefittet worden mit Bezug zur Gitterkonstante und Bindungs- bzw. KohĂ€sionsenergie (beides mit 1% Genauigkeit bezgl. DFT Rechnungen) sowie zu allen elastischen Konstanten (5% Genauigkeit bezgl. Experimente). All dies unter Zuhilfenahme von Parametersuchraum-beschrĂ€nkenden Techniken, die zur Einhaltung der oben genannten Eigenschaften dienen und urspĂŒrnglich von Johnson & Oh sind. Selbst kompliziertere Defekteigenschaften, wie Zwischengitter- und Leerstellenbildungsenergien wurden erfolgreich angefittet. Das hier entwickelte EAM Potenzial fĂŒr Y-Y ist z.B. in der Lage bei Eigenzwischengitteratomen die basal oktaedrische Position von Zwischengitteratomen (ZA) im Yttrium hcp-Gitter als Grundzustand und die Transition eines jeden ZAs aus einer anderen Position, wie zuvor in DFT berechnet, zu reproduzieren. Zur Bildung des angestrebten Fe-Y Potenzials wurden diese beiden Komponenten, Fe-Fe und Y-Y, zum weiteren Fitten in dem weitgefĂ€cherten und komplexen Fe-Y Potzenzialsuchraum genutzt. Die Parametersets wurden mit sogenannten hier entwickelten Hauptparameter (Key Driver) systematisch untersucht. Ein flexibleres Konzept statt der starreren Universal Binding Relations in AbhĂ€ngigkeit von der Rose Gleichung. Dieser Hauptparameter zeigte eindeutig, dass die Nutzung der Rose Gleichung zur Parametersuchraum-Minimierung den Suchraum dahingehend einschrĂ€nkt, sodass ein akkurates Anfitten der hier genutzten 900 DFT Datensets nicht mehr möglich ist. Allerdings ist die Orientierung im Parametersuchraum mit dieser Rose Gleichung bei standardmĂ€ĂŸigen Optimierungsmethoden (wie LSM) unabdingbar, da ohne diese die benötigten globalen Optima fĂŒr die Parameter nicht auffindbar sind. Als aufklĂ€rendes Testverfahren zur weiteren ErgrĂŒndung dieser Problematik und PrĂŒfung zur Eignung fĂŒr Fe-Y Potenziale und den anschließenden Simulationen diente der Versuch, 9 verschiedene Bindungs-energien von Yttrium-Leerstellenclustern mit ansteigender Leerstellenzahl zu reproduzieren. Dieser Test konnte von diesen Potenzialen nur teilweise erfĂŒllt werden und wurde auf die fehlende Beschreibung der BindungswinkelabhĂ€ngigkeit im Modell zurĂŒckgefĂŒhrt. Die Erweiterung von EAM durch MEAM mit WinkelabhĂ€ngigkeit ist jedoch keineswegs eine zufriedenstellende Lösung, da MEAM alternativlos auf der irrefĂŒhrenden Rose Gleichung beruht. Daher war die Benutzung des ĂŒbersichtlicheren EAM Typs aus zwei GrĂŒnden nĂŒtzlich: 1. MEAM braucht die Rose Gleichung um diesen komplexen Formalismus zu beherrschen mit denselben Problemen wie in EAM, aber dieses grundlegende Problem ist in MEAM deutlich schwerer zu identifizieren als in EAM. 2. Die mit EAM gefundenen, angefitteten Parameter sind eine hervorragende Startparameter-Grundlage fĂŒr den verbesserten darauffolgenden RF-MEAM Typ. Im zweiten Schritt wurde das Problem aus dem ersten Schritt gelöst, indem ein modifizierter MEAM Spezialtyp im referenzlosen Format (RF-MEAM) angewandt worden ist. Im Gegensatz zum herkömmlichen MEAM wird hier die Rose Gleichung durch mehr DFT Daten und insbesondere einer intelligenteren Machine Learning Ă€hnlichen Genetic Algorithmus (GA) Optimiertechnik ersetzt, die allerdings eine bedachte Startparameterwahl vorraussetzt, womit Schritt 1 wieder ins Spiel kommt. Die genutzte fortgeschrittene MEAMfit Software, die per GA funktioniert, wurde zwischen 2016 und 2017 funktionierend eigens dafĂŒr implementiert. Mit den in Schritt 1 gefitteten Parametern und Set-Auswahltechniken konnten die weiterfĂŒhrenden Fits mit optimalen Startparametern durchgefĂŒhrt werden. Auf dieser Stufe waren diese Fits mit der speziell verbesserten Technik in der Lage ein detailgetreues Fe-Y Potenzial zu generieren, das sowohl alle Phasen (Fe2Y, Fe3Y, Fe5Y, Fe23Y6 und Fe17Y2 sowohl als auch reines Fe und Y) als auch die gesamte Defektdatenbasis mit einer durchschnittlichen Abweichung von ≈11% erfolgreich abbildet. ZusĂ€tzlich bestĂ€tigend zu dieser allgemeinen Übereinstimmung wurde konsequenterweise der in Schritt 1 entwickelte Test hervorragend mit einmaliger Genauigkeit bestanden, mit max. 5% Abweichung von den komlexen o.g. Y-Leerstellen Bildungsenergien. Allerdings konnte ein systematischer Fehlertrend aufgespĂŒrt werden, der SchwĂ€chen in der Fe-Fe Komponente offenbarte. Als Folge dessen wurde umgehend diese Komponente durch ein anderes etabliertes Fe-Fe Potenzial von G. Ackland mit einer extrem genauen Schmelztemperatur (nur 3% Abweichung vom Exp.) ausgetauscht. Mit diesem genauen Potenzial konnte zum ersten Mal die Clusterbildung von gelösten Yttrium Atomen in einer Eisenschmelze erfolgreich per MD Simulation auf atomarer Ebene nachgestellt werden oberhalb von 1750 K. Temperaturen darunter hatten eine Ausscheidungsbildung von Y mit sehr geringer Y-Löslichkeit (<0.1%) in Übereinstimmung mit den Experimenten zur Folge. Dies wurde durch den Pot. Typ A ermöglicht, der aber die energetische Reihenfolge bei den Fe-Y Phasen nicht ganz genau einhĂ€lt. Typ B hingegen hĂ€lt diese ein, dort fehlt aber die Y-Clusterbildungsneigung. Durch den gebotenen Praxisbezug zur Metallurgie mĂŒssen die Löslichkeit und Clusterbildung gleichzeitig in der Simulation genau reproduzierbar sein, was aber weder Typ A noch B kann, was zum Typ A/B Dilemma fĂŒhrt. Dieses Typ A/B Dilemma (Phasen oder Defekt Genauigkeit) fĂŒhrt zum letzten dritten Schritt (chapter 5). Darin ist zusĂ€tzlich die StrukturaufklĂ€rung von der Fe17Y2 Phase mit Vergleichen zu exp. EXAFS Spektren unserer Kollaborationspartner vom ISSP (Riga) enthalten. Diese AufklĂ€rung dient auch dazu die fehlenden magnetischen AbhĂ€ngigkeiten im Potenzial zu kompensieren, da die Phasenreihenfolge mit sehr feinen Energieunterschieden wohl stark von magnetischen Wechselwirkungen geprĂ€gt ist. Obwohl Potenzial Typ B diesen (Magnetismus) nicht direkt beachtet, ist es in der Lage das tatsĂ€chlich gemessene EXAFS Spektrum grĂ¶ĂŸtenteils genau wiederzugeben. Allerdings offenbart eine einzige ausgeprĂ€gte Phasenverschiebung, dass die angenommene hcp Struktur durch eine unterschwellige rhombohedrale Komponente, die sporadisch in der c-Gitterrichtung auftritt, korrigiert werden muss. AIMD (DFT) Berechnungen in Kooperation mit der University of Edinburgh bestĂ€tigen dies und zeigen sogar, dass magnetische Wechselwirkungen diese Strukturmischung stabilisieren. EndgĂŒltig bestĂ€tigt werden konnte dies mit der genauen EXAFS Spektren Reproduktion mit dem durch AIMD verbesserten nochmals gefitteten Potenzialtyp B, der als neuer Typ C durch AIMD indirekt den Einfluss der magnetischen Wechselwirkungen mit einschließt. Diese erstmalige nahezu deckungsgleiche MD Simulation eines EXAFS Spektrums von einem komplexen metallischen Alloy, hier Fe-Y, stellt eine bisher unerreichte Verbesserung dar. Schließlich löst Typ C das Typ A/B Dilemma und ernöglicht eine genaue gleichzeitige MD Modellierung von Phasen- und Defekten in Fe-Y – ein Durchbruch in der MD-Potenzialentwicklung

    VertrauenswĂŒrdige, adaptive Anfrageverarbeitung in dynamischen Sensornetzwerken zur UnterstĂŒtzung assistiver Systeme

    Get PDF
    Assistenzsysteme in smarten Umgebungen sammeln durch den Einsatz verschiedenster Sensoren viele Daten, um die Intentionen und zukĂŒnftigen AktivitĂ€ten der Nutzer zu berechnen. In den meisten FĂ€llen werden dabei mehr Informationen gesammelt als fĂŒr die ErfĂŒllung der Aufgabe des Assistenzsystems notwendig sind. Das Ziel dieser Dissertation ist die Konzeption und Implementierung von datenschutzfördernden Algorithmen fĂŒr die Weitergabe sensibler Sensor- und Kontextinformationen zu den Analysewerkzeugen der Assistenzsysteme. Die DatenschutzansprĂŒche der Nutzer werden dazu in IntegritĂ€tsbedingungen der Datenbanksysteme transformiert, welche die gesammelten Informationen speichern und auswerten. Ausgehend vom Informationsbedarf des Assistenzsystems und den DatenschutzbedĂŒrfnissen des Nutzers werden die gesammelten Daten so nahe wie möglich am Sensor durch Selektion, Reduktion, Kompression oder Aggregation durch die Datenschutzkomponente des Assistenzsystems verdichtet. Sofern nicht alle Informationen lokal verarbeitet werden können, werden Teile der Analyse an andere, an der Verarbeitung der Daten beteiligte Rechenknoten ausgelagert. Das Konzept wurde im Rahmen des PArADISE-Frameworks (Privacy-AwaRe Assistive Distributed Information System Environment) umgesetzt und u. a. in Zusammenarbeit mit dem DFG-Graduiertenkolleg 1424 (MuSAMA-Multimodal Smart Appliances for Mobile Application) anhand eines Beispielszenarios getestet

    Music similarity analysis using the big data framework spark

    Get PDF
    A parameterizable recommender system based on the Big Data processing framework Spark is introduced, which takes multiple tonal properties of music into account and is capable of recommending music based on a user's personal preferences. The implemented system is fully scalable; more songs can be added to the dataset, the cluster size can be increased, and the possibility to add different kinds of audio features and more state-of-the-art similarity measurements is given. This thesis also deals with the extraction of the required audio features in parallel on a computer cluster. The extracted features are then processed by the Spark based recommender system, and song recommendations for a dataset consisting of approximately 114000 songs are retrieved in less than 12 seconds on a 16 node Spark cluster, combining eight different audio feature types and similarity measurements.Ein parametrisierbares Empfehlungssystem, basierend auf dem Big Data Framework Spark, wird prĂ€sentiert. Dieses berĂŒcksichtigt verschiedene klangliche Eigenschaften der Musik und erstellt Musikempfehlungen basierend auf den persönlichen Vorlieben eines Nutzers. Das implementierte Empfehlungssystem ist voll skalierbar. Mehr Lieder können dem Datensatz hinzugefĂŒgt werden, mehr Rechner können in das Computercluster eingebunden werden und die Möglichkeit andere Audiofeatures und aktuellere Ähnlichkeitsmaße hizuzufĂŒgen und zu verwenden, ist ebenfalls gegeben. Des Weiteren behandelt die Arbeit die parallele Berechnung der benötigten Audiofeatures auf einem Computercluster. Die Features werden von dem auf Spark basierenden Empfehlungssystem verarbeitet und Empfehlungen fĂŒr einen Datensatz bestehend aus ca. 114000 Liedern können unter BerĂŒcksichtigung von acht verschiedenen Arten von Audiofeatures und Abstandsmaßen innerhalb von zwölf Sekunden auf einem Computercluster mit 16 Knoten berechnet werden

    Political conflict as moral conflict : multiculturalism and the nation in Germany (2015-2017)

    Full text link
    Cette thĂšse examine, depuis une perspective durkheimienne, le conflit politique en Allemagne sur le multiculturalisme, l’immigration, et l’identitĂ© nationale. L’analyse se fait dans la pĂ©riode entre le dĂ©but de la crise des rĂ©fugiĂ©s en 2015 et l’élection fĂ©dĂ©rale allemande de septembre 2017. J’identifie quatre idĂ©aux moraux, soit des visions idĂ©ales de la communautĂ© allemande qui motivent les acteurs politique : l’idĂ©al des Autonomen qui rejettent tout forme de pouvoir et de domination, l’idĂ©al du Verfassungspatriotismus (le patriotisme constitutionnel) de la SPD (et une partie de la CDU), l’idĂ©al de la nation (ethno)culturelle de la plupart de l’AfD (et la CSU et la WerteUnion), et l’idĂ©al de la nation biologique de l’extrĂȘme droite. Au cƓur de chaque idĂ©al est un objet sacrĂ© qui sert d’autoritĂ© morale qui lĂ©gitimant des prescriptions morales et qui amĂšne Ă  une sĂ©rie de vĂ©ritĂ©s morales et de jugements moraux, la totalitĂ© duquel Émile Durkheim identifie comme un fait moral. Pour les Autonomen et les adhĂ©rents du Verfassungspatriotismus, l’objet sacrĂ© est l’individu conçu Ă  travers le concept de la dignitĂ© humaine. Pour les autres, l’objet sacrĂ© est la nation allemande, conçue en termes (ethno)culturels ou en termes biologiques. Cette thĂšse argumente que ces idĂ©aux moraux sont intrinsĂšquement profanatoires, dans le sens que les prescriptions morales d’un objet sacrĂ© (la dignitĂ© humaine) violent directement l’objet sacrĂ© de l’autre (la nation), et vice-versa. Ces idĂ©aux sont tous en concurrence pour le pouvoir et l’influence, avec comme but d’avoir accĂšs au pouvoir Ă©tatique allemand. Le rĂ©sultat est un conflit politique qui traduit essentiellement un conflit moral. Ces conflits ont lieu dans le domaine lĂ©gal, au sein des partis politique, et Ă  travers la violence politique. Ces conflits touchent un nombre de sujets clĂ©s comme la libertĂ© d’expression, le multiculturalisme, et l’extrĂ©misme politique. La prĂ©sente thĂšse cherche Ă  comprendre ces conflits Ă  travers le prisme du concept durkheimien du fait moral, et dĂ©veloppe une sociologie du conflit moral durkheimien. Cette thĂšse s’inspire Ă©galement de la thĂ©orie de conflit de Randall Collins, qui s’inspire elle aussi de l’Ɠuvre de Durkheim.This dissertation examines, from a Durkheimian perspective, political conflict in Germany around the issues of multiculturalism, immigration, and national identity within the context of the Refugee Crisis beginning in 2015 and ending roughly with the German Federal Election in September 2017. It identifies four moral ideals, or ideal visions of the German community, that motivated political actors during this period: the Autonomen ideal that rejects all forms of power and domination; the ideal of Verfassungspatriotismus (Constitutional Patriotism) of the SPD (and parts of the CDU); the ideal of the cultural or ethnocultural nation of much of the AfD (and the CSU and WerteUnion); and the ideal of the biological nation on the far-right. At the heart of each moral ideal is a sacred object that serves as a moral authority that legitimates certain moral prescriptions, and leads to a set of moral truths and moral judgments, the totality of which Émile Durkheim identifies as a moral fact. For the Autonomen and adherents of Verfassungspatriotismus the sacred object is the individual understood through the concept of human dignity. For others the sacred object is the German nation, understood either in an (ethno)cultural sense or a biological sense. As the dissertation argues, these different moral ideals are inherently profanatory to each other, such that the moral prescriptions inspired by one sacred object (human dignity) directly violate the sacred object of the other (the nation), and vice-versa. These ideals all compete with each other for power and influence within the German political sphere as a means to gain access to (or to dismantle) state power. The result is political conflict that takes place essentially within a moral framework. These conflicts occur in the legal domain, in battles over party leadership and membership, and through political violence; they touch on a number of key issues such as free speech, multiculturalism, and political extremism. This dissertation seeks to understand these conflicts through the prism of Durkheim’s concept of the moral fact and to develop a Durkheimian sociology of moral conflict. In this analysis, the dissertation draws on Randall Collins’ conflict theory, which Durkheim’s work also largely inspires

    Transactional and analytical data management on persistent memory

    Get PDF
    Die zunehmende Anzahl von Smart-GerĂ€ten und Sensoren, aber auch die sozialen Medien lassen das Datenvolumen und damit die geforderte Verarbeitungsgeschwindigkeit stetig wachsen. Gleichzeitig mĂŒssen viele Anwendungen Daten persistent speichern oder sogar strenge Transaktionsgarantien einhalten. Die neuartige Speichertechnologie Persistent Memory (PMem) mit ihren einzigartigen Eigenschaften scheint ein natĂŒrlicher AnwĂ€rter zu sein, um diesen Anforderungen effizient nachzukommen. Sie ist im Vergleich zu DRAM skalierbarer, gĂŒnstiger und dauerhaft. Im Gegensatz zu Disks ist sie deutlich schneller und direkt adressierbar. Daher wird in dieser Dissertation der gezielte Einsatz von PMem untersucht, um den Anforderungen moderner Anwendung gerecht zu werden. Nach der Darlegung der grundlegenden Arbeitsweise von und mit PMem, konzentrieren wir uns primĂ€r auf drei Aspekte der Datenverwaltung. ZunĂ€chst zerlegen wir mehrere persistente Daten- und Indexstrukturen in ihre zugrundeliegenden Entwurfsprimitive, um AbwĂ€gungen fĂŒr verschiedene Zugriffsmuster aufzuzeigen. So können wir ihre besten AnwendungsfĂ€lle und Schwachstellen, aber auch allgemeine Erkenntnisse ĂŒber das Entwerfen von PMem-basierten Datenstrukturen ermitteln. Zweitens schlagen wir zwei Speicherlayouts vor, die auf analytische Arbeitslasten abzielen und eine effiziente AbfrageausfĂŒhrung auf beliebigen Attributen ermöglichen. WĂ€hrend der erste Ansatz eine verknĂŒpfte Liste von mehrdimensionalen gruppierten Blöcken verwendet, handelt es sich beim zweiten Ansatz um einen mehrdimensionalen Index, der Knoten im DRAM zwischenspeichert. Drittens zeigen wir unter Verwendung der bisherigen Datenstrukturen und Erkenntnisse, wie Datenstrom- und Ereignisverarbeitungssysteme mit transaktionaler Zustandsverwaltung verbessert werden können. Dabei schlagen wir ein neuartiges Transactional Stream Processing (TSP) Modell mit geeigneten Konsistenz- und NebenlĂ€ufigkeitsprotokollen vor, die an PMem angepasst sind. Zusammen sollen die diskutierten Aspekte eine Grundlage fĂŒr die Entwicklung noch ausgereifterer PMem-fĂ€higer Systeme bilden. Gleichzeitig zeigen sie, wie Datenverwaltungsaufgaben PMem ausnutzen können, indem sie neue Anwendungsgebiete erschließen, die Leistung, Skalierbarkeit und Wiederherstellungsgarantien verbessern, die CodekomplexitĂ€t vereinfachen sowie die ökonomischen und ökologischen Kosten reduzieren.The increasing number of smart devices and sensors, but also social media are causing the volume of data and thus the demanded processing speed to grow steadily. At the same time, many applications need to store data persistently or even comply with strict transactional guarantees. The novel storage technology Persistent Memory (PMem), with its unique properties, seems to be a natural candidate to meet these requirements efficiently. Compared to DRAM, it is more scalable, less expensive, and durable. In contrast to disks, it is significantly faster and directly addressable. Therefore, this dissertation investigates the deliberate employment of PMem to fit the needs of modern applications. After presenting the fundamental work of and with PMem, we focus primarily on three aspects of data management. First, we disassemble several persistent data and index structures into their underlying design primitives to reveal the trade-offs for various access patterns. It allows us to identify their best use cases and vulnerabilities but also to gain general insights into the design of PMem-based data structures. Second, we propose two storage layouts that target analytical workloads and enable an efficient query execution on arbitrary attributes. While the first approach employs a linked list of multi-dimensional clustered blocks that potentially span several storage layers, the second approach is a multi-dimensional index that caches nodes in DRAM. Third, we show how to improve stream and event processing systems involving transactional state management using the preceding data structures and insights. In this context, we propose a novel Transactional Stream Processing (TSP) model with appropriate consistency and concurrency protocols adapted to PMem. Together, the discussed aspects are intended to provide a foundation for developing even more sophisticated PMemenabled systems. At the same time, they show how data management tasks can take advantage of PMem by opening up new application domains, improving performance, scalability, and recovery guarantees, simplifying code complexity, plus reducing economic and environmental costs

    Is Twitter just a Media Amplifier? Evidence from a data-driven, comparative Analysis of German Federal Elections 2017 and European Elections 2019

    Get PDF
    Despite its rather modest number of users, Twitter has gained a certain status as platform for on-time political communication and recent studies have brought evidence, that signicant events tend to produce peaks in Twitter activity. This article focuses on the interaction between Twit-ter and traditional mass media channels (newspapers, magazines, TV) by analysing topics central in Twitter communication on politics. The data-driven analysis presented in the article analyses the structure and dynamics of topics discussed on Twitter during elections. The data used in this article are from two political events, the German Federal Elections 2017 and European elections 2019. Both datasets contain more than one million tweets Empirically, the article seeks to evidence the usefulness of Twitter data when it comes to gain understanding of actual political debates in a society. Methodically, the article seeks to present how data mining, modelling and visualisation tools can be exploited in order to extract scientically relevant, reliable and signicant, and analytically interesting results from a very large dataset to be used to answer questions being relevant for political and social sciences and media studies as well.</p

    Heterogeneous data to knowledge graphs matching

    Get PDF
    Many applications rely on the existence of reusable data. The FAIR (Findability, Accessibility, Interoperability, and Reusability) principles identify detailed descriptions of data and metadata as the core ingredients for achieving reusability. However, creating descriptive data requires massive manual effort. One way to ensure that data is reusable is by integrating it into Knowledge Graphs (KGs). The semantic foundation of these graphs provides the necessary description for reuse. In the Open Research KG, they propose to model artifacts of scientific endeavors, including publications and their key messages. Datasets supporting these publications are essential carriers of scientific knowledge and should be included in KGs. We focus on biodiversity research as an example domain to develop and evaluate our approach. Biodiversity is the assortment of life on earth covering evolutionary, ecological, biological, and social forms. Understanding such a domain and its mechanisms is essential to preserving this vital foundation of human well-being. It is imperative to monitor the current state of biodiversity and its change over time and to understand its forces driving and preserving life in all its variety and richness. This need has resulted in numerous works being published in this field. For example, a large amount of tabular data (datasets), textual data (publications), and metadata (e.g., dataset description) have been generated. So, it is a data-rich domain with an exceptionally high need for data reuse. Managing and integrating these heterogeneous data of biodiversity research remains a big challenge. Our core research problem is how to enable the reusability of tabular data, which is one aspect of the FAIR data principles. In this thesis, we provide answer for this research problem
    corecore