2,957 research outputs found
A Survey on Forensics and Compliance Auditing for Critical Infrastructure Protection
The broadening dependency and reliance that modern societies have on essential services
provided by Critical Infrastructures is increasing the relevance of their trustworthiness. However, Critical
Infrastructures are attractive targets for cyberattacks, due to the potential for considerable impact, not just
at the economic level but also in terms of physical damage and even loss of human life. Complementing
traditional security mechanisms, forensics and compliance audit processes play an important role in ensuring
Critical Infrastructure trustworthiness. Compliance auditing contributes to checking if security measures are
in place and compliant with standards and internal policies. Forensics assist the investigation of past security
incidents. Since these two areas significantly overlap, in terms of data sources, tools and techniques, they can
be merged into unified Forensics and Compliance Auditing (FCA) frameworks. In this paper, we survey the
latest developments, methodologies, challenges, and solutions addressing forensics and compliance auditing
in the scope of Critical Infrastructure Protection. This survey focuses on relevant contributions, capable of
tackling the requirements imposed by massively distributed and complex Industrial Automation and Control
Systems, in terms of handling large volumes of heterogeneous data (that can be noisy, ambiguous, and
redundant) for analytic purposes, with adequate performance and reliability. The achieved results produced
a taxonomy in the field of FCA whose key categories denote the relevant topics in the literature. Also, the
collected knowledge resulted in the establishment of a reference FCA architecture, proposed as a generic
template for a converged platform. These results are intended to guide future research on forensics and
compliance auditing for Critical Infrastructure Protection.info:eu-repo/semantics/publishedVersio
Serverless Strategies and Tools in the Cloud Computing Continuum
Tesis por compendio[ES] En los últimos años, la popularidad de la computación en nube ha permitido a los usuarios acceder a recursos de cómputo, red y almacenamiento sin precedentes bajo un modelo de pago por uso. Esta popularidad ha propiciado la aparición de nuevos servicios para resolver determinados problemas informáticos a gran escala y simplificar el desarrollo y el despliegue de aplicaciones. Entre los servicios más destacados en los últimos años se encuentran las plataformas FaaS (Función como Servicio), cuyo principal atractivo es la facilidad de despliegue de pequeños fragmentos de código en determinados lenguajes de programación para realizar tareas específicas en respuesta a eventos. Estas funciones son ejecutadas en los servidores del proveedor Cloud sin que los usuarios se preocupen de su mantenimiento ni de la gestión de su elasticidad, manteniendo siempre un modelo de pago por uso de grano fino.
Las plataformas FaaS pertenecen al paradigma informático conocido como Serverless, cuyo propósito es abstraer la gestión de servidores por parte de los usuarios, permitiéndoles centrar sus esfuerzos únicamente en el desarrollo de aplicaciones. El problema del modelo FaaS es que está enfocado principalmente en microservicios y tiende a tener limitaciones en el tiempo de ejecución y en las capacidades de computación (por ejemplo, carece de soporte para hardware de aceleración como GPUs). Sin embargo, se ha demostrado que la capacidad de autoaprovisionamiento y el alto grado de paralelismo de estos servicios pueden ser muy adecuados para una mayor variedad de aplicaciones. Además, su inherente ejecución dirigida por eventos hace que las funciones sean perfectamente adecuadas para ser definidas como pasos en flujos de trabajo de procesamiento de archivos (por ejemplo, flujos de trabajo de computación científica).
Por otra parte, el auge de los dispositivos inteligentes e integrados (IoT), las innovaciones en las redes de comunicación y la necesidad de reducir la latencia en casos de uso complejos han dado lugar al concepto de Edge computing, o computación en el borde. El Edge computing consiste en el procesamiento en dispositivos cercanos a las fuentes de datos para mejorar los tiempos de respuesta. La combinación de este paradigma con la computación en nube, formando arquitecturas con dispositivos a distintos niveles en función de su proximidad a la fuente y su capacidad de cómputo, se ha acuñado como continuo de la computación en la nube (o continuo computacional).
Esta tesis doctoral pretende, por lo tanto, aplicar diferentes estrategias Serverless para permitir el despliegue de aplicaciones generalistas, empaquetadas en contenedores de software, a través de los diferentes niveles del continuo computacional. Para ello, se han desarrollado múltiples herramientas con el fin de: i) adaptar servicios FaaS de proveedores Cloud públicos; ii) integrar diferentes componentes software para definir una plataforma Serverless en infraestructuras privadas y en el borde; iii) aprovechar dispositivos de aceleración en plataformas Serverless; y iv) facilitar el despliegue de aplicaciones y flujos de trabajo a través de interfaces de usuario. Además, se han creado y adaptado varios casos de uso para evaluar los desarrollos conseguidos.[CA] En els últims anys, la popularitat de la computació al núvol ha permès als usuaris accedir a recursos de còmput, xarxa i emmagatzematge sense precedents sota un model de pagament per ús. Aquesta popularitat ha propiciat l'aparició de nous serveis per resoldre determinats problemes informàtics a gran escala i simplificar el desenvolupament i desplegament d'aplicacions. Entre els serveis més destacats en els darrers anys hi ha les plataformes FaaS (Funcions com a Servei), el principal atractiu de les quals és la facilitat de desplegament de petits fragments de codi en determinats llenguatges de programació per realitzar tasques específiques en resposta a esdeveniments. Aquestes funcions són executades als servidors del proveïdor Cloud sense que els usuaris es preocupen del seu manteniment ni de la gestió de la seva elasticitat, mantenint sempre un model de pagament per ús de gra fi.
Les plataformes FaaS pertanyen al paradigma informàtic conegut com a Serverless, el propòsit del qual és abstraure la gestió de servidors per part dels usuaris, permetent centrar els seus esforços únicament en el desenvolupament d'aplicacions. El problema del model FaaS és que està enfocat principalment a microserveis i tendeix a tenir limitacions en el temps d'execució i en les capacitats de computació (per exemple, no té suport per a maquinari d'acceleració com GPU). Tot i això, s'ha demostrat que la capacitat d'autoaprovisionament i l'alt grau de paral·lelisme d'aquests serveis poden ser molt adequats per a més aplicacions. A més, la seva inherent execució dirigida per esdeveniments fa que les funcions siguen perfectament adequades per ser definides com a passos en fluxos de treball de processament d'arxius (per exemple, fluxos de treball de computació científica).
D'altra banda, l'auge dels dispositius intel·ligents i integrats (IoT), les innovacions a les xarxes de comunicació i la necessitat de reduir la latència en casos d'ús complexos han donat lloc al concepte d'Edge computing, o computació a la vora. L'Edge computing consisteix en el processament en dispositius propers a les fonts de dades per millorar els temps de resposta. La combinació d'aquest paradigma amb la computació en núvol, formant arquitectures amb dispositius a diferents nivells en funció de la proximitat a la font i la capacitat de còmput, s'ha encunyat com a continu de la computació al núvol (o continu computacional).
Aquesta tesi doctoral pretén, doncs, aplicar diferents estratègies Serverless per permetre el desplegament d'aplicacions generalistes, empaquetades en contenidors de programari, a través dels diferents nivells del continu computacional. Per això, s'han desenvolupat múltiples eines per tal de: i) adaptar serveis FaaS de proveïdors Cloud públics; ii) integrar diferents components de programari per definir una plataforma Serverless en infraestructures privades i a la vora; iii) aprofitar dispositius d'acceleració a plataformes Serverless; i iv) facilitar el desplegament d'aplicacions i fluxos de treball mitjançant interfícies d'usuari. A més, s'han creat i s'han adaptat diversos casos d'ús per avaluar els desenvolupaments aconseguits.[EN] In recent years, the popularity of Cloud computing has allowed users to access unprecedented compute, network, and storage resources under a pay-per-use model. This popularity led to new services to solve specific large-scale computing challenges and simplify the development and deployment of applications. Among the most prominent services in recent years are FaaS (Function as a Service) platforms, whose primary appeal is the ease of deploying small pieces of code in certain programming languages to perform specific tasks on an event-driven basis. These functions are executed on the Cloud provider's servers without users worrying about their maintenance or elasticity management, always keeping a fine-grained pay-per-use model.
FaaS platforms belong to the computing paradigm known as Serverless, which aims to abstract the management of servers from the users, allowing them to focus their efforts solely on the development of applications. The problem with FaaS is that it focuses on microservices and tends to have limitations regarding the execution time and the computing capabilities (e.g. lack of support for acceleration hardware such as GPUs). However, it has been demonstrated that the self-provisioning capability and high degree of parallelism of these services can be well suited to broader applications. In addition, their inherent event-driven triggering makes functions perfectly suitable to be defined as steps in file processing workflows (e.g. scientific computing workflows).
Furthermore, the rise of smart and embedded devices (IoT), innovations in communication networks and the need to reduce latency in challenging use cases have led to the concept of Edge computing. Edge computing consists of conducting the processing on devices close to the data sources to improve response times. The coupling of this paradigm together with Cloud computing, involving architectures with devices at different levels depending on their proximity to the source and their compute capability, has been coined as Cloud Computing Continuum (or Computing Continuum).
Therefore, this PhD thesis aims to apply different Serverless strategies to enable the deployment of generalist applications, packaged in software containers, across the different tiers of the Cloud Computing Continuum. To this end, multiple tools have been developed in order to: i) adapt FaaS services from public Cloud providers; ii) integrate different software components to define a Serverless platform on on-premises and Edge infrastructures; iii) leverage acceleration devices on Serverless platforms; and iv) facilitate the deployment of applications and workflows through user interfaces. Additionally, several use cases have been created and adapted to assess the developments achieved.Risco Gallardo, S. (2023). Serverless Strategies and Tools in the Cloud Computing Continuum [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202013Compendi
IT skills, occupation specificity and job separations
This paper examines how workers’ earnings change after involuntary job separations depending on the workers’ acquired IT skills and the specificity of their occupational training. We categorize workers’ occupational skill bundles along two independent dimensions. First, we distinguish between skill bundles that are more specific or less specific compared to the skill bundles needed in the overall labor market. Second, as digitalization becomes ever more important, we distinguish between skill bundles that contain two different types of IT skills, generic or expert IT skills. We expect that after involuntary separations, these different types of IT skills can have opposing effects, either reducing or amplifying earnings losses of workers with specific skill bundles. We find clearly opposing results for workers in specific occupations—but not in general occupations: Having more generic IT skills is positively correlated with earnings after involuntary separations, whereas more expert IT skills is negatively correlated
Digitalization and Development
This book examines the diffusion of digitalization and Industry 4.0 technologies in Malaysia by focusing on the ecosystem critical for its expansion. The chapters examine the digital proliferation in major sectors of agriculture, manufacturing, e-commerce and services, as well as the intermediary organizations essential for the orderly performance of socioeconomic agents.
The book incisively reviews policy instruments critical for the effective and orderly development of the embedding organizations, and the regulatory framework needed to quicken the appropriation of socioeconomic synergies from digitalization and Industry 4.0 technologies. It highlights the importance of collaboration between government, academic and industry partners, as well as makes key recommendations on how to encourage adoption of IR4.0 technologies in the short- and long-term.
This book bridges the concepts and applications of digitalization and Industry 4.0 and will be a must-read for policy makers seeking to quicken the adoption of its technologies
Untersuchung von Performanzveränderungen auf Quelltextebene
Änderungen am Quelltext einer Software können zu veränderter Performanz führen. Um das Auftreten von Regressionen zu verhindern und die Effekte von Quelltextänderungen, von denen eine Verbesserung erwartet wird, zu überprüfen, ist die Messung der Auswirkungen von Quelltextänderungen auf die Performanz sowie das tiefgehende Verständnis des Laufzeitverhaltens der beteiligten Quelltextkonstrukte notwendig. Die Spezifikation von Benchmarks oder Lasttests, um Regressionen zu erkennen, erfordert immensen manuellen Aufwand. Für das Verständnis der Änderungen sind anschließend oft weitere Experimente notwendig.
In der vorliegenden Arbeit wird der Ansatz Performanzanalyse von Softwaresystemen (Peass) entwickelt. Peass beruht auf der Annahme, dass Performanzänderungen durch Messung der Performanz von Unittests erkennbar ist. Peass besteht aus (1) einer Methode zur Regressionstestselektion, d. h. zur Bestimmung, zwischen welchen Commits sich die Performanz geändert haben kann basierend auf statischer Quelltextanalyse und Analyse des Laufzeitverhaltens, (2) einer Methode zur Umwandlung von Unittests in Performanztests und zur statistisch zuverlässigen und reproduzierbaren Messung der Performanz und (3) einer Methode zur Unterstützung des Verstehens von Ursachen von Performanzänderungen. Der Peass-Ansatzes ermöglicht es somit, durch den Workload von Unittests messbare Performanzänderungen automatisiert zu untersuchen.
Die Validität des Ansatzes wird geprüft, indem gezeigt wird, dass (1) typische Performanzprobleme in künstlichen Testfällen und (2) reale, durch Entwickler markierte Performanzänderungen durch Peass gefunden werden können. Durch eine Fallstudie in einem laufenden Softwareentwicklungsprojekt wird darüber hinaus gezeigt, dass Peass in der Lage ist, relevante Performanzänderungen zu erkennen.:1 Einleitung
1.1 Motivation
1.2 Ansatz
1.3 Forschungsfragen
1.4 Beiträge
1.5 Aufbau der Arbeit
2 Grundlagen
2.1 Software Performance Engineering
2.2 Modellbasierter Ansatz
2.2.1 Überblick
2.2.2 Performanzantipattern
2.3 Messbasierter Ansatz
2.3.1 Messprozess
2.3.2 Messwertanalyse
2.4 Messung in künstlichen Umgebungen
2.4.1 Benchmarking
2.4.2 Lasttests
2.4.3 Performanztests
2.5 Messung in realen Umgebungen: Monitoring
2.5.1 Überblick
2.5.2 Umsetzung
2.5.3 Werkzeuge
3 Regressionstestselektion
3.1 Ansatz
3.1.1 Grundidee
3.1.2 Voraussetzungen
3.1.3 Zweistufiger Prozess
3.2 Statische Testselektion
3.2.1 Selektierte Änderungen
3.2.2 Prozess
3.2.3 Implementierung
3.3 Tracevergleich
3.3.1 Selektierte Änderungen
3.3.2 Prozess
3.3.3 Implementierung
3.3.4 Kombination mit statischer Analyse
3.4 Evaluation
3.4.1 Implementierung
3.4.2 Exaktheit
3.4.3 Korrektheit
3.4.4 Diskussion der Validität
3.5 Verwandte Arbeiten
3.5.1 Funktionale Regressionstestbestimmung
3.5.2 Regressionstestbestimmung für Performanztests
4 Messprozess
4.1 Vergleich von Mess- und Analysemethoden
4.1.1 Vorgehen
4.1.2 Fehlerbetrachtung
4.1.3 Workloadgröße der künstlichen Unittestpaare
4.2 Messmethode
4.2.1 Aufbau einer Iteration
4.2.2 Beenden von Messungen
4.2.3 Garbage Collection je Iteration
4.2.4 Umgang mit Standardausgabe
4.2.5 Zusammenfassung der Messmethode
4.3 Analysemethode
4.3.1 Auswahl des statistischen Tests
4.3.2 Ausreißerentfernung
4.3.3 Parallelisierung
4.4 Evaluierung
4.4.1 Vergleich mit JMH
4.4.2 Reproduzierbarkeit der Ergebnisse
4.4.3 Fazit
4.5 Verwandte Arbeiten
4.5.1 Beenden von Messungen
4.5.2 Änderungserkennung
4.5.3 Anomalieerkennung
5 Ursachenanalyse
5.1 Reduktion des Overheads der Messung einzelner Methoden
5.1.1 Generierung von Beispielprojekten
5.1.2 Messung von Methodenausführungsdauern
5.1.3 Optionen zur Overheadreduktion
5.1.4 Messergebnisse
5.1.5 Überprüfung mit MooBench
5.2 Messkonfiguration der Ursachenanalyse
5.2.1 Grundlagen
5.2.2 Fehlerbetrachtung
5.2.3 Ansatz
5.2.4 Messergebnisse
5.3 Verwandte Arbeiten
5.3.1 Monitoringoverhead
5.3.2 Ursachenanalyse für Performanzänderungen
5.3.3 Ursachenanalyse für Performanzprobleme
6 Evaluation
6.1 Validierung durch künstliche Performanzprobleme
6.1.1 Reproduktion durch Benchmarks
6.1.2 Umwandlung der Benchmarks
6.1.3 Überprüfen von Problemen mit Peass
6.2 Evaluation durch reale Performanzprobleme
6.2.1 Untersuchung dokumentierter Performanzänderungen offenen Projekten
6.2.2 Untersuchung der Performanzänderungen in GeoMap
7 Zusammenfassung und Ausblick
7.1 Zusammenfassung
7.2 AusblickChanges to the source code of a software may result in varied performance. In order to prevent the occurance of regressions and check the effect of source changes, which are
expected to result in performance improvements, both the measurement of the impact of source code changes and a deep understanding of the runtime behaviour of the used
source code elements are necessary. The specification of benchmarks and load tests, which are able to detect performance regressions, requires immense manual effort. To
understand the changes, often additional experiments are necessary.
This thesis develops the Peass approach (Performance analysis of software systems). Peass is based on the assumption, that performance changes can be identified by unit
tests. Therefore, Peass consists of (1) a method for regression test selection, which determines between which commits the performance may have changed based on static code
analysis and analysis of the runtime behavior, (2) a method for transforming unit tests into performance tests and for statistically reliable and reproducible measurement of
the performance and (3) a method for aiding the diagnosis of root causes of performance changes. The Peass approach thereby allows to automatically examine performance
changes that are measurable by the workload of unit tests.
The validity of the approach is evaluated by showing that (1) typical performance problems in artificial test cases and (2) real, developer-tagged performance changes can be found by Peass. Furthermore, a case study in an ongoing software development project shows that Peass is able to detect relevant performance changes.:1 Einleitung
1.1 Motivation
1.2 Ansatz
1.3 Forschungsfragen
1.4 Beiträge
1.5 Aufbau der Arbeit
2 Grundlagen
2.1 Software Performance Engineering
2.2 Modellbasierter Ansatz
2.2.1 Überblick
2.2.2 Performanzantipattern
2.3 Messbasierter Ansatz
2.3.1 Messprozess
2.3.2 Messwertanalyse
2.4 Messung in künstlichen Umgebungen
2.4.1 Benchmarking
2.4.2 Lasttests
2.4.3 Performanztests
2.5 Messung in realen Umgebungen: Monitoring
2.5.1 Überblick
2.5.2 Umsetzung
2.5.3 Werkzeuge
3 Regressionstestselektion
3.1 Ansatz
3.1.1 Grundidee
3.1.2 Voraussetzungen
3.1.3 Zweistufiger Prozess
3.2 Statische Testselektion
3.2.1 Selektierte Änderungen
3.2.2 Prozess
3.2.3 Implementierung
3.3 Tracevergleich
3.3.1 Selektierte Änderungen
3.3.2 Prozess
3.3.3 Implementierung
3.3.4 Kombination mit statischer Analyse
3.4 Evaluation
3.4.1 Implementierung
3.4.2 Exaktheit
3.4.3 Korrektheit
3.4.4 Diskussion der Validität
3.5 Verwandte Arbeiten
3.5.1 Funktionale Regressionstestbestimmung
3.5.2 Regressionstestbestimmung für Performanztests
4 Messprozess
4.1 Vergleich von Mess- und Analysemethoden
4.1.1 Vorgehen
4.1.2 Fehlerbetrachtung
4.1.3 Workloadgröße der künstlichen Unittestpaare
4.2 Messmethode
4.2.1 Aufbau einer Iteration
4.2.2 Beenden von Messungen
4.2.3 Garbage Collection je Iteration
4.2.4 Umgang mit Standardausgabe
4.2.5 Zusammenfassung der Messmethode
4.3 Analysemethode
4.3.1 Auswahl des statistischen Tests
4.3.2 Ausreißerentfernung
4.3.3 Parallelisierung
4.4 Evaluierung
4.4.1 Vergleich mit JMH
4.4.2 Reproduzierbarkeit der Ergebnisse
4.4.3 Fazit
4.5 Verwandte Arbeiten
4.5.1 Beenden von Messungen
4.5.2 Änderungserkennung
4.5.3 Anomalieerkennung
5 Ursachenanalyse
5.1 Reduktion des Overheads der Messung einzelner Methoden
5.1.1 Generierung von Beispielprojekten
5.1.2 Messung von Methodenausführungsdauern
5.1.3 Optionen zur Overheadreduktion
5.1.4 Messergebnisse
5.1.5 Überprüfung mit MooBench
5.2 Messkonfiguration der Ursachenanalyse
5.2.1 Grundlagen
5.2.2 Fehlerbetrachtung
5.2.3 Ansatz
5.2.4 Messergebnisse
5.3 Verwandte Arbeiten
5.3.1 Monitoringoverhead
5.3.2 Ursachenanalyse für Performanzänderungen
5.3.3 Ursachenanalyse für Performanzprobleme
6 Evaluation
6.1 Validierung durch künstliche Performanzprobleme
6.1.1 Reproduktion durch Benchmarks
6.1.2 Umwandlung der Benchmarks
6.1.3 Überprüfen von Problemen mit Peass
6.2 Evaluation durch reale Performanzprobleme
6.2.1 Untersuchung dokumentierter Performanzänderungen offenen Projekten
6.2.2 Untersuchung der Performanzänderungen in GeoMap
7 Zusammenfassung und Ausblick
7.1 Zusammenfassung
7.2 Ausblic
Recommended from our members
Local structure of nanocrystalline, nanoporous, and heterogeneous functional materials: advancing tools for extracting order from disorder
Nanocrystalline, nanoporous, and heterogeneous functional materials have a range of unique physical and chemical properties at the nanoscale that make them useful in various fields such as gas storage, sensing, catalysis, and construction. However, these materials have complex and varied internal structures make them difficult to analyze using traditional methods. In this work, advanced tools were presented that combine several existing algorithms and techniques to enable efficient and accurate analysis of the structures of these materials. The tools were tested on well-studied systems (TiO2 nanoparticles) and novel materials (multiple metal organic frameworks), and the results showed that they produced accurate and reliable results. These results have contributed to important scientific discoveries, some of which are highlighted in this thesis.
First, an automated platform for x-ray scattering experiments and a streaming data pipeline were developed to determine pair distribution functions, which were used to study nanocrystalline, nanoporous, and heterogeneous functional materials. A systematic workflow was then proposed and tested to analyze the phases and morphologies of metal oxide nanoparticles. Using the data pipeline and workflow, the effects of temperature on phases, morphologies, and structure order during the synthesis of titanium oxide (bronze) nanoparticles were demonstrated. Specific tools were then designed to analyze the structures of nanoporous materials based on the disorder in their complex structures. The turbostratic disorder in zirconium phosphates was analyzed, and the potential to tune disorders using phosphoric acid concentration was demonstrated. In addition, the glass transition in metal-organic frameworks was detected, and a reminiscent correlation between metal sites in the glass state was discovered. Furthermore, evidence of polar solvent-induced lattice arrangement in an aluminum metal-organic framework was found using the analysis of pair distribution functions. Finally, a simple but effective algorithm was proposed to study the grain distribution and mosaicity in heterogeneous crystalline materials, moving beyond the study of homogeneous systems.
Overall, these studies aim to enable faster and more comprehensive analysis of the disordered structures in nanocrystalline, nanoporous, and heterogeneous materials, which could have applications in fields including photocatalysis, optical or gas sensing, radioactive waste storage, and metallurgical industry
Open Science Praktiken und Anreize – eine Meta-wissenschaftliche Untersuchung
The replication crisis has uncovered crucial issues in sciences based on statistical inference, such as the biomedical sciences, psychology, and other social or human sciences: key findings seem to be unreplicable, and as research has been conducted largely intransparently, it is unclear how to know what future research can build on. Open Science and reproducibility-related practices have been suggested as a potential solution to this problem by the reform movement as well as metascientific researchers generally. These practices include traditional “open” practices such as openly sharing research results (Open Access), data and/or code (Open Data), and materials (Open Materials); but they also include the pre-registration of studies, and even robust and transparent replication projects.
This dissertation presents two projects aimed at evaluating Open Science practices as working towards a solution to the replication crisis, particularly in psychology. The first project, which was led by the author of this dissertation, considers the effectiveness of the Open Data badge incentive at the journal Psychological Science through the computational reproducibility of a full issue of this journal. We found that there is much room for improvement: the majority of articles failed to share the relevant analysis code, and only 4/14 articles were at least essentially reproducible. We make several recommendations to improve the policy of this incentive and thus its influence on the replication crisis. The second study, a collaboration led by Tom Hardwicke, investigates citation patterns after strongly contradictory replication results in four psychology studies,
and finds only weak correction effects by the relevant research communities.
Overall, the studies presented in this dissertation may seem to paint a pessimistic picture of possible solutions to the replication crisis, and thus the future of fields plagued by such crises. In the text accompanying the two publications, I try to be cautiously optimistic while pointing out important challenges that need to be addressed by metaresearchers and researchers involved in the reform movement. In particular, I want to highlight the need
for further theoretical work refining the underlying concepts.Die Replikationskrise hat in den auf statistischen Schlussfolgerungen basierenden Wissenschaften wie der Biomedizin, der Psychologie und anderen Sozial- und Humanwissenschaften entscheidende Probleme aufgedeckt: wichtige Ergebnisse scheinen nicht reproduzierbar zu sein, und da die Forschung weitgehend intransparent durchgeführt wurde, ist unklar, worauf zukünftige Forschung aufbauen kann. Sowohl die Reformbewegung als auch metawissenschaftliche ForscherInnen haben Open Science Praktiken und andere reproduzierbarkeitsbezogene Methoden als mögliche Lösung für dieses Problem vorgeschlagen. Zu diesen Praktiken gehören traditionelle "offene" Praktiken wie der offene Austausch von Forschungsergebnissen (Open Access), Daten und/oder Code (Open Data) und Materialien (Open Materials), aber auch die Präregistrierung von Studien sowie robuste Replikationsprojekte.
In dieser Dissertation werden zwei Projekte vorgestellt, die darauf abzielen, Open Science Praktiken als Beitrag zur Lösung der Replikationskrise zu evaluieren, insbesondere in der Psychologie. Das erste Projekt, das von der Autorin dieser Dissertation geleitet wurde, untersucht die Anreizmethode des Open Data Badge der Zeitschrift Psychological Science anhand der rechnerischen Reproduzierbarkeit einer vollständigen Ausgabe dieser Zeitschrift. Wir fanden heraus, dass es ein großes Verbesserungspotential gibt: Die Mehrheit der untersuchten Artikel hatte den relevanten Analysecode nicht geteilt, und nur 4/14 Artikel waren zumindest im Wesentlichen reproduzierbar. Die zweite Studie, eine Zusammenarbeit unter der Leitung von Tom Hardwicke, befasst sich mit den Zitationsmustern nach stark widersprüchlichen Replikationsergebnissen in vier Psychologiestudien und fand nur schwache Korrektureffekte durch die betreffenden Forschungsgemeinschaften.
Insgesamt scheinen die in dieser Dissertation vorgestellten Studien ein pessimistisches Bild von möglichen Lösungen für die Replikationskrise und damit für die Zukunft der von solchen Krisen geplagten Fachgebiete zu zeichnen. In diesem Manteltext versuche ich, vorsichtig optimistisch zu sein und gleichzeitig auf wichtige Herausforderungen hinzuweisen, die von MetawissenschaftlerInnen und ForscherInnen, die an der Reformbewegung beteiligt sind, angegangen werden müssen. Insbesondere möchte ich auf die Notwendigkeit weiterer theoretischer Arbeiten zum besseren Verständnis der zugrunde liegenden Konzepte hinweisen
Serverless Cloud Computing: A Comparative Analysis of Performance, Cost, and Developer Experiences in Container-Level Services
Serverless cloud computing is a subset of cloud computing considerably adopted to build modern web applications, while the underlying server and infrastructure management duties are abstracted from customers to the cloud vendors. In serverless computing, customers must pay for the runtime consumed by their services, but they are exempt from paying for the idle time. Prior to serverless containers, customers needed to provision, scale, and manage servers, which was a bottleneck for rapidly growing customer-facing applications where latency and scaling were a concern.
The viability of adopting a serverless platform for a web application regarding performance, cost, and developer experiences is studied in this thesis. Three serverless container-level services are employed in this study from AWS and GCP. The services include GCP Cloud Run, GKE AutoPilot, and AWS EKS with AWS Fargate. Platform as a Service (PaaS) underpins the former, and Container as a Service (CaaS) the remainder. A single-page web application was created to perform incremental and spike load tests on those services to assess the performance differences. Furthermore, the cost differences are compared and analyzed. Lastly, the final element considered while evaluating the developer experiences is the complexity of using the services during the project implementation.
Based on the results of this research, it was determined that PaaS-based solutions are a high-performing, affordable alternative for CaaS-based solutions in circumstances where high levels of traffic are periodically anticipated, but sporadic latency is never a concern. Given that this study has limitations, the author recommends additional research to strengthen it
- …