reposiTUm (TUW Vienna)
Not a member yet
194321 research outputs found
Sort by
Training One-Dimensional Graph Neural Networks is NP-Hard
We initiate the study of the computational complexity of training graph neural networks (GNNs). We consider the classical node classification setting; there, the intractability of training multidimensonal GNNs immediately follows from known lower bounds for training classical neural networks (and holds even for trivial GNNs). However, one-dimensional GNNs form a crucial case of interest: the computational complexity of training such networks depends on both the graphical structure of the network and the properties of the involved activation and aggregation functions. As our main result, we establish the NP-hardness of training ReLU-activated one-dimensional GNNs via a highly non-trivial reduction. We complement this result with algorithmic upper bounds for the training problem in the ReLU-activated and linearly-activated settings
ICOtronic - Optimierung von Bearbeitungsprozessen mittels sensorischer Werkzeugaufnahmen
Energy scalability limits of dissipative solitons
In this study, we apply a thermodynamical approach to elucidate the primary constraints on the energy scaling of dissipative solitons (DS). We rely on the adiabatic theory of strongly chirped DS and define the DS energy scaling in terms of dissipative soliton resonance (DSR). Three main experimentally verifiable signatures identify a transition to DSR: (i) growth of a Lorentzian spike at the centrum of the DS spectrum, which resembles a spectral condensation in Bose-Einstein condensate, (ii) saturation of the spectrum broadening, and (iii) asymptotic DS stretching. We connect the DSR breakup with three critical factors: (i) decoupling of two correlation scales inherent in strongly chirped DS, (ii) resulting rise of the DS entropy with energy, which provokes its disintegration, and (iii) transition to a nonequilibrium phase, which is characterized by negative temperature. The breakup results in multiple stable DS generation. Theoretical results are in good qualitative agreement with the experimental data from a Kerr-lens mode-locked Cr2+:ZnS chirped-pulse oscillator (CPO) that paves the way for optimizing high-energy femtosecond pulse generation in solid-state CPO and all-normal-dispersion fiber lasers
Nonlinear static (pushover) analysis of mortared precast walls
In der letzten Zeit werden die Vorfertigteilwände zunehmend bei mehrgeschossigen Gebäuden eingesetzt. Durch den Einsatz dieser Wände lässt sich nicht nur die Bauzeit verkürzen, sondern auch die Kosten reduzieren, die durch Schalungsarbeiten und Gerüstaufbau verursacht werden. Nichtdestotrotz stellt die Verbindung zwischen der Betonvollfertigteilwänden und der Decke eine Schwachstelle dar. In Grunde genommen, werden die Wände in geschosshohen Wandelemente geliefert und in einem Mörtelbett verlegt. Die Verbindung zur Decke erfolgt mittels Anschlussbewehrung an der Oberkannte der Wand. Bei dieser Bauweise, bei der die Verbindung zwischen der Deckenoberkante und der darüberliegenden Wand ausschließlich über eine unbewehrte, vermörtelte Fuge erfolgt, ist insbesondere auf den Schubwiderstand zu achten. Der Schubwiederstand der aussteifenden Wände wird durch das Kippverhalten der Wände sowie den Gleitwiderstand in der Mörtelfuge gegeben. Letzterer wird durch die Reibung in der Mörtelfuge repräsentiert. Besonders relevant sind die Belastungen auf der Druckseite an den Wandenden, die bei einer Erdbebensimulation infolge des Wandkippens auftreten. Dennoch kann die Wand ins Gleiten kommen, wenn die Reibung überwunden wird. Zyklische Belastungsversuche zeigen jedoch, dass ein guter Gleitwiderstand auch bei größeren Verformungen in der Gleitfuge bestehen bleibt. Der Schwerpunkt dieser Arbeit liegt auf der nummerischen Untersuchung des plastischen Potentials der Mörtelfuge. Es werden drei einfache Systeme analysiert und die mögliche Versagensmechanismen vorgestellt. Alle drei Systeme repräsentieren ein viergeschossiges Gebäude, wobei sich der Unterschied in der Schlankheit der Systeme zeigt. Zur Ermittlung des plastischen Potentials der Mörtelfuge wird die in Eurocode 8 beschriebene nichtlineare Push-Over Methode sowie die in RFEM 6 implementierte Push-Over Analyse herangezogen. Als Grundlage dient die Laboruntersuchung, die am Institut für Tragwerksplanung und Ingenieurholzbau der TU Wien durchgeführt wurde. Anschließend werden der gesamte Modellierungsprozess, und die Tragfähigkeitsüberprüfung detailliert erklärt.In recent times, prefabricated walls have been increasingly used for multi-storey buildings. The use of these walls not only shortens the construction time, but also reduces the costs associated with formwork and scaffolding.Nevertheless, the connection between the precast concrete walls and the ceiling is a weak point. Basically, the walls are delivered in storey-high wall elements and laid in a so-called mortar bed. The connection to the ceiling is made by means of connecting reinforcement at the top edge of the wall.With this construction method, in which the connection between the upper edge of the slab and the wall above is made exclusively via an unreinforced, mortared joint, particular attention must be paid to the shear resistance. The shear resistance of the bracing end walls is determined by the tilting behavior of the walls and the sliding resistance in the mortar joint. The latter is represented by the friction in the mortar joint. Particularly relevant are the loads on the pressure side at the wall ends, which occur in an earthquake simulation as a result of wall tilting. Nevertheless, the wall can start to slide if the friction is overcome. However, cyclic loading tests show that a good sliding resistance remains even with larger deformations in the sliding joint.The focus of this thesis is on the numerical investigation of the plastic potential of the mortar joint. Three simple systems are analyzed and the possible failure mechanisms are presented. All three systems represent a four-storey building, with the difference being the slenderness of the systems. The non-linear push-over method described in Eurocode 8 and the push-over analysis implemented in RFEM 6 are used to determine the plastic potential of the mortar joint. The laboratory investigation, which was carried out at the Institute of Structural Design and Timber Engineering at the Vienna University of Technology, serves as the basis. The entire modeling process and the load-bearing capacity check are then explained in detail
Gestaltung einer visuellen Analyse-Pipeline zur Untersuchung der TMS-Wirkungen auf die Herzfrequenz
Wir haben eine hochflexible, visuelle Analyse-Pipeline in Jupiter Notebooks entwickelt,um die transkranielle Magnetstimulation (TMS) und die Herzfrequenz (HF) in verschiedenen kognitiven Zuständen von Probanden zu untersuchen. TMS ist eine vielversprechende Behandlungsmethode für schwere depressive Störungen, die nicht auf pharmakologische Behandlungen ansprechen. Der Wirkmechanismus ist jedoch noch nicht vollständig aufgeklärt. Die Forschung zu den besten Erfassungseinstellungen, wie Stimulationsintensitäten und Zielorte, befindet sich noch im Anfangsstadium. Eine multimodale Analysepipeline, die TMS, funktionelle Magnetresonanztomographie (fMRI) und HF integriert, könnte Aufschluss über die Nervenbahnen geben und die Effizienz der TMS steigern. Um die bereits verfügbare Pipeline zur simultanen TMS-fMRI-Analyse auf die multimodale gleichzeitige TMS-fMRI-HR-Analyse auszuweiten, ist die Untersuchung der Auswirkungen der TMS auf die HR der nächste Schritt. Um die Pipeline für visuelle Analyse zu gestalten, führen wir eine Erweiterung des Daten-Nutzer-Aufgaben Designdreiecks [Miksch and Aigner, 2014] ein und wenden diese an, indem wir den bisherigen Workflow-Ansatz in den Gestaltungsprozess integrieren. Da sich der Datenverarbeitungs-Workflow in diesem Bereich noch in der Entwicklung befindet, bietet die Integration des bisherigen Workflow-Ansatzes in den Designprozess Vorteile, indem das Datenerbe respektiert, die Anpassungsfähigkeit der Benutzer unterstützt und die Kompatibilität der Aufgaben sichergestellt wird. Wir bezeichnen dieses Framework als Daten-Benutzer-Workflow-Aufgaben Designpyramide.Anschließend stellen wir eine visuelle Analyse-Pipeline bereit, um die Datenexploration in den frühen Phasen der Forschung zu unterstützen. Die interaktive Vorverarbeitungs-Pipeline umfasst die Extraktion von Daten, die Behandlung fehlender Daten und die Rauschunterdrückung. Um Zeitreihen der HR mit unterschiedlichen Eigenschaften zu vergleichen, visualisieren wir die Ähnlichkeitsmessung Dynamic Time Warping (DTW) und das Clustering der Herzfrequenzvariabilität (HFV). Wir bewerten die Vorverarbeitungsschrittequantitativ anhand simulierter EKG-Daten. Das wichtigste Ergebnis ist, dasslineare und polynomiale Interpolation mit RMSE-Werten (Root Mean Squared Error) von nur -3 bzw. -5-te Potenze als Imputationsmethoden für EKG mit einer Abtastfrequenz von 400 Hz besonders effektiv sind. Zur Bewertung des Nutzungsszenarios für die TMS- und EKG-Datenexploration, verwenden wir die Qualitative Inspektion der Ergebnisse (QRI). Unsere vorgeschlagene visuelle Analyse-pipeline stellt die ersten Schritte zur Integration der TMS-HR-Analyse in einen trimodalen simultanen TMS-fMRI-HF-Ansatz dar.We designed a highly flexible notebook-based visual analysis pipeline to explore Transcranial Magnetic Stimulation (TMS) and heart rate (HR) in different subjects’ cognitive states. TMS is a promising treatment of major depressive disorder not responsive to pharmacological treatment. However, the mechanism of action is not yet fully understood. The research in the best acquiring settings, such as stimulation intensities and target sites, is emerging. Multimodal analysis pipeline integrating TMS, Functional Magnetic Resonance Imaging (fMRI), and HR could shed light on both understanding the neural pathways and increasing the efficiency of TMS. To extend the already available concurrent TMS-fMRI analysis pipeline towards multimodal concurrent TMS-fMRI-HR, exploring the effect of TMS on HR is the next step. To design the visual analysis pipeline, we introduce and apply an extension of Data–Users–Tasks design triangle [Miksch and Aigner, 2014] by integrating the previous data workflow approach in the designing process. When the data processing workflow in the domain is only evolving, integrating the previous workflow approach into the design process benefits by respecting the data legacy, supports users’ adaptability, and ensures tasks’ compatibility. We refer to this framework as the Data–Users–Workflow-Tasks design pyramid. We subsequently provide a visual analysis pipeline to support data exploration in the early stages of research. The interactive preprocessing pipeline involves extracting data, handling missing data, and reducing noise. To compare time series of HR with different properties, we visualize Dynamic Time Warping (DTW) similarity measurement, and heart rate variability (HRV) metric clustering. We quantitatively evaluate the preprocessing steps using simulated ECG data. The key result is that linear and polynomial interpolation with root mean squared error (RMSE) values as low as to the power of -3 and -5, respectively, are especially effective as imputation methods for ECG with 400 Hz sampling frequency. To further assess the values of the usage scenarios for TMS and ECG data exploration, we employ Qualitative Result Inspection (QRI). Our proposed visual analysis pipeline assembles the first steps towards integrating TMS-HR analysis into a trimodal concurrent TMS-fMRI-HR approach
Potential for desealing in local spatial planning. Regulatory framework, identification of potential areas and limitations using the example of Bregenz
Die zunehmende Bodenversiegelung stellt insbesondere im Kontext fortschreitender Klimawandelfolgen wie Hitzeinseln und Starkregenereignissen eine zentrale Herausforderung für die Raumplanung dar. Obwohl das Thema an Bedeutung gewinnt, erfährt Bodenentsiegelung bislang nur geringe Beachtung aus raumplanerischer Perspektive. Insbesondere eine räumliche Differenzierung potenzieller Entsiegelungsflächen wurde bisher wenig thematisiert. Vor diesem Hintergrund untersucht die vorliegende Arbeit, wie Entsiegelung strategisch zur Erreichung raumplanerischer Ziele eingesetzt werden kann. Dafür werden einerseits die rechtlichen und planerischen Rahmenbedingungen der Landeshauptstadt Bregenz analysiert und andererseits ein methodischer Ansatz zur Identifikation und Priorisierung geeigneter Entsiegelungsflächen entwickelt. Dabei fließen sowohl ökologische und soziale als auch liegenschaftsbezogene Kriterien in die Bewertung ein, etwa Hitzebelastung, mangelnde Grünraumausstattung, Vulnerabilität unterschiedlicher Bevölkerungsgruppen und Eigentumsverhältnisse. Der entwickelte Ansatz wird exemplarisch auf das Stadtgebiet von Bregenz angewendet. Durch die Kombination von GIS-gestützten Raumanalysen, einer Bewertung anhand definierter Kriterien sowie stichprobenartigen Vor-Ort-Erhebungen werden konkrete Flächen identifiziert, deren Entsiegelung ein strategisches Potenzial für die Stadtplanung haben. Die Ergebnisse zeigen, dass Entsiegelung in Bregenz zwar als relevantes Handlungsfeld wahrgenommen wird, jedoch bislang unzureichend in rechtliche Grundlagen und planerische Prozesse integriert ist. Die örtliche Planung in Bregenz verfügt über Planungs- und Entscheidungsspielräume, um die Reduktion der Bodenversiegelung voranzutreiben; diese werden in Handlungsempfehlungen aufgezeigt. Deutlich wird jedoch auch der Handlungsbedarf auf Landesebene: Um die kommunalen Handlungsspielräume zu stärken, bedarf es finanzieller Anreize, fachlicher Begleitung sowie klarer Vorgaben im Raumplanungsgesetz und weiteren relevanten Rechtsmaterien.The increasing sealing of soil surfaces poses a significant challenge for spatial plan-ning, particularly in light of ongoing climate change impacts such as urban heat islands and heavy rainfall events. Although the issue is gaining importance, the topic of soil unsea-ling has so far received limited attention from a planning perspective. In particular, the spa-tial differentiation of potential unsealing areas in urban contexts remains underexplored. Against this background, the present thesis investigates how unsealing can be strategically emp-loyed to support spatial planning objectives. To this end, the legal and planning frameworks of the city of Bregenz are analyzed, and a methodological approach is developed to identify and prioritize suitable unsealing areas. The assessment incorporates ecological, social, and land-related criteria, such as heat stress, lack of green space, the vulnerability of different population groups, and proper-ty ownership. The developed approach is applied to the urban area of Bregenz as a case study. By combining GIS-based spatial analyses, an evaluation based on defined indicators, and selective field surveys, specific sites are identified whose unsealing offers strategic potential for urban planning. The results show that while unsealing is increasingly recognized as a relevant field of action in Bre-genz, it remains insufficiently embedded in legal frameworks and planning processes. Local planning in Bregenz does possess instruments and decision-making leeway to advance the reduction of sea-led surfaces, which are addressed through targeted recommendations. However, the analysis also re-veals a clear need for action at the state level: strengthening municipal capacities will require financial incentives, technical support, and binding targets and regulations within the spatial planning law and other relevant legal instruments
Automatisierung der Evaluierung von Datenverwaltungsplänen durch die Integration von maschinenlesbaren Plänen für die Datenverwaltung und FAIRen Implentationsprofilen
maschinenlesbaren Data Management Plans (maDMPs) vor. Grundlage ist die Ausrichtung von maDMPs, die nach dem Research Data Alliance Common Standard für maschinenlesbare Data Management Plans (DCS-Schema) strukturiert sind, an community-definierten Erwartungen, die in FAIR Implementation Profiles (FIPs) erfasst werden. Die Arbeit verwendet zwei zentrale Metriken: Erstens die mapping coverage, die den Anteil derFragen misst, die zur Erstellung eines FIP genutzt werden und Feldern des DCS-Schemas zugeordnet werden können; zweitens das Konzept der planned FAIR alignment, das bewertet, wie gut die in einem maDMP angegebenen oder geplanten Maßnahmen (z. B. Wahl der Lizenz, Metadatenschema, Identifikatoren) mit den Erwartungen der FIPs übereinstimmen. Im Unterschied zu Werkzeugen zur FAIR-Bewertung auf Datensatzebene konzentriert sich dieser Ansatz auf die Compliance innerhalb von RDM-Workflows.Ein Prototyp zur Compliance-Prüfung implementiert diese Zuordnungen und erzeugt strukturierte Evaluationsergebnisse, die dem OSTrails FAIR Test Result Specification (FTR) entsprechen. Diese Ergebnisse unterstützen semantische Abfragen in RDF und erleichtern automatisierte Vorab-Prüfungen in Aufgaben des Forschungsdatenmanagements (z. B. Vollständigkeitsprüfungen und Richtlinienabgleich mit Community-Profilen). Das Framework unterstützt zudem die Übernahme von FIP-Fragen aus Nanopublications, um neue Zuordnungen in das Tool einzubinden und so die Übertragbarkeit auf verschiedeneFachdomänen zu verbessern. Insgesamt trägt die Arbeit mit einem operativen Werkzeug und einem methodischen Ansatz dazu bei, FAIR-orientierte Planung zu stärken und eine reproduzierbare, maschinenlesbare Bewertung von maDMPs zu ermöglichen.This master’s thesis presents a framework for the automated assessment of machineactionable Data Management Plans (maDMPs). It is based on aligning maDMPs structured via the Research Data Alliance Common Standard for machine-actionable Data Management Plans (DCS) schema, with community-defined expectations, captured in FAIR Implementation Profiles (FIPs). The research employs two central metrics: first, the mapping coverage, measuring the proportion of the questions used to create a FIP that can be matched to fields in the DCS schema; second, the concept of planned FAIR alignment, evaluating how well the actions (or planned actions) specified in a maDMP (e.g., choice of license, metadata schema, identifiers) align with FIP expectations. Unlike dataset-level FAIR scoring tools, the approach focuses on compliance within ResearchData Management (RDM) workflows.A prototype compliance checker implements these mappings and produces structured evaluation outputs conforming to the OSTrails FAIR Test Result specification FTR. These outputs support semantic querying RDF and facilitate automated pre-assessment workflows for data stewardship tasks (e.g., completeness checks and policy alignment against community profiles). The framework also supports ingesting FIP questions from Nanopublications to add new mappings to the tool, improving portability across domains. Overall, the thesis contributes an operational tool and a methodological approach that strengthen FAIR-aligned planning and enable reproducible, machine-readable assessmentof maDMPs
CoMECS: Framework for Comparing and Measuring the Energy Consumption of Software
The current human-made climate change is one of the greatest challenges of the last, current and coming generations. Humans produce a huge amount of greenhouse gases, that warm up the atmosphere. The immense thirst for energy that we as a society have is one of the main drivers. Achieving the ambitious goals set in the agreements that most countries of the world signed, will necessarily mean reducing our global energy consumption. The Statistical Review of The World report from 2024 shows that the world only produces around 20% of its energy from renewable sources. The rest emits greenhouse gases during its production. Thus we have to transition to renewable energy to avoid these emissions. This is however not possible to do quickly enough, so besides transforming the energy production, we also have to reduce our energy consumption globally. This includes every single part of the economy, which of course means that IT also needs to evaluate and reduce its impact. Malmodin and Lundén estimate in their paper from 2018 that the energy consumption of the ICT and Entertainment & Media sector will fall overall in the future, but for data centers it will rise. The newest report from the International Energy Agency from 2025 estimates that the energy consumption of data centers will more than double by 2030, especially due to the rise in popularity of AI applications.The IT sector and specifically the part of it that is focused on server infrastructure therefore has to get ready to measure and reduce its energy consumption. Underlying a huge part of modern server infrastructure is open-source software, which is usually maintained by just a small number of volunteers. These people do not have the resources to do extensive testing of the energy consumption of their software. This problem is amplified by the lack of well tested and freely available tooling that can be used to measure the power usage of programs. Additionally the available tools are very different in their input, output and their usage.We therefore propose a framework and methodology which facilitate the measurement of energy consumption of software with a wide variety of available software-based power meters. The three goals that we define for this are Openness, Reproducibility and Standardized Output, which our framework CoMECS has to fulfill. We show how we built a wrapper structure based on Nix, which allows for reproducible experiments. We also present our approach to using SSH for controlling the test machine, on which the energy consumption is measured. These techniques allow us to define and execute reliable and reproducible tests against a desktop machine and server without changing any of the defined wrappers.We then use our framework to compare six software-based power meters against a hardware-based solution. Our results show that using the values from the pkg domain of RAPL sensor or the CodeCarbon tool most closely resembles the real measurements using a hardware-based power meter. This is however only true for CPU and main memory focused work loads. Another experiment we conducted was reproducing previous results of how much energy consumption overhead containerization using Docker causes. Lastly, we evaluated the power consumption of nginx over the course of 16 releases and found that it reduced its average energy consumption between the version 1.11 and 1.26 by around 3%
A new open-source Python toolbox for processing seismic surface wave data
The use of open-source processing tools represents a strategic resource for the scientific community. The Open Science philosophy (https://www.unesco.org/en/open-science) promotes transparency, reproducibility and accessibility to data and source codes. This not only ensures continuous and collaborative development, but also increases the quality of proposed solutions.
Characterizing the near surface based on geophysical methods is of considerable interest for many disciplines, and the reliability and quality of the provided results is tied to the available processing resources. The surface wave analysis (SWA) of active seismic data is widely used to determine the shear wave velocities of a site. Several efforts have been made to create open-source tools for SWA, starting with the precursor Geopsy (Wathelet, 2005), continuing with the more recent SWIP (Pasquet and Bodet, 2017), MASWaves (Olafsdottir et al., 2018), and SWprocess (Vantassel and Cox, 2022). The classical procedure they propose is limited to a local 1D analysis on (moving) spatial windows, where homogeneous conditions are assumed. Although this is a robust approach, it does not highlight small-scale lateral variations.
In this talk, we introduce a new open-source tool under continuous development for processing surface wave data. The Python-based library incorporates, in addition to the classical 1D analysis on moving windows, more advanced techniques such as the Multi-Offset Phase Analysis (MOPA; Strobbia and Foti, 2006) and the Tomography-like approach (Barone et al., 2021), which perform high-resolution 2D SWA for a more accurate identification of lateral velocity variations. The ultimate intent of our Python library is to contribute to further developing standards for processing and inversion of surface wave data in a proper 2D sense
Exemplaric densification in Bruderndorf, Lower Austria
Die vorliegende Arbeit befasst sich mit einer exemplarischen Nachverdichtung in der Ortschaft Bruderndorf, einem Ort in der Gemeinde Niederhollabrunn im Bezirk Korneuburg in Niederösterreich, samt Hintergrundrecherche. Das Hauptaugenmerk liegt dabei auf Vervielfältigung, Innovationscharakter, Ökologie, Ressourcennutzung und Flexibilität. Ausgangslage für die Nachverdichtung waren Überlegungen zum Bauen und Leben am Land im Zusammenhang mit dem dadurch stattfindenden Flächenverbrauch. Es wird weiters aufgezeigt, wie ein Mehrwert aufgrund einer modularartigen Nachverdichtung entstehen kann,und dass diese sehr oft durch- und ausführbar ist.Abschließend werden eine Modulvariante auf Einreichplanungsniveau, sowie Detailpläne und weitere Unterlagen dargestellt. Dies soll die realitätsnahe Art und Weise einer Nachverdichtung veranschaulichen.The assignment at hand concerns with an exemplary redensification in the village of Bruderndorf, a town in the municipality of Niederhollabrunn in the Korneuburg district in Lower Austria, including background research. The main focus is on the duplication, innovative character, ecology, use of resources and flexibility.The starting point for the redensification were considerations about building and living in the country in connection with the land consumption taking place there. It is also shown how added value can arise from modular-like densification and that this can often be implemented.Finally, a modular variant at the submission planning level, as well as detailed plans and further documents are presented. This should illustrate the realistic way of this densification