Offenburg University of Applied Sciences

Hochschulschriftenserver der Hochschule Offenburg
Not a member yet
    5440 research outputs found

    Biogas production from chitin-rich mealworm residue: Investigating the impact of diverse pretreatment methods

    No full text
    This thesis delves into the optimization of chitin-rich mealworm residue sourced from the University of Warmia and Mazury in Olsztyn for the purpose of biogas production. The study focused on two types of mealworm residue, namely shell and frass, which represent the collected exoskeletons of the worms and the entirety of the residue from mealworm farming, respectively. Cellulase enzyme initially enhanced biogas production significantly, showing promising results with a notable increase of up to 23% from shell waste and 30% from frass substrates. These findings underscore the potential of enzymatic interventions to augment biogas production from such substrates. Subsequently, the study sought to optimize the activity of chitinase enzyme to facilitate the degradation of chitin content present in the mealworm residue. However, the Chit36-TA chitinase enzyme, exhibited no activity on the shell waste. As a result, various pretreatment methods, encompassing enzymatic, mechanical, and thermal approaches, were explored to promote chitin degradation. Despite these efforts, none of the pretreatment methods yielded significant improvements in chitin degradation. This study underscores the complexities involved in enzymatic pretreatment strategies for chitin-rich waste materials. While cellulase showed promise in enhancing biogas production, the limited efficacy of chitinase highlights the need for further research to explore alternative methods for efficient chitin degradation. Such endeavors are crucial for unlocking the full potential of mealworm residue as a valuable substrate for biogas production, thereby contributing to the sustainable management of organic waste and renewable energy generation. Finally, the application of chitinase in the biogas reactor was evaluated, revealing no positive influence on biogas production from shell substrates

    4D printing of magnetoresponsive soft gripper and phenomenological approach for required magnetical actuation field

    Full text link
    4D printing is the next step in additive manufacturing. Magnetoresponsive materials facilitate the creation of gripping tools through 4D printing, allowing for structural changes in response to external stimuli. In this study, the structural change is manifested as motion, triggered by an external magnetic field. This technology offers significant advantages in medical and industrial applications, including the printing of life-like moving organ models for medical training and the development of actuators for use in explosive environments. Magnetoresponsive materials are programmed with a magnetic profile and actuated by an external magnetic field. A compound of strontium ferrite microparticles Sr Fe12 O19 (≤ 20μm) and an elastic polymer (thermoplastic copolyester) with a Hardness of Shore D 40 was produced. A star-shaped body was programmed and actuated by two permanent magnets, each of Br = 1.29 − 1.32T. As there is no analytical approach for calculating the required actuation flux density, one has been developed. The approach is verified experimentally by using a Hall probe. It is appropriate to set the field with a Helmholtz coil, despite the utilization of two permanent magnets. The use of a commercial fused filament fabrication printer for the processing of magnetoresponsive materials has been realized here for the first time. The main contributions are the short time constant (around ta = 0.1s) for actuation and the repeatability (around n = 200 actuation cycles) of the motion. The feasibility of multiple diverse reprogramming is a step forward in 4D printing. Hence, the post-print programming and the inhomogeneity of the field limit the ease of the presented method

    Security Data Processing and Dispatching

    No full text
    As software ecosystems grow increasingly complex, the effective management of software vulnerabilities has become critical to ensuring project security and stability. This process begins with the identification of potential vulnerabilities, which must be systematically tracked and verified. Organizations commonly utilize issue-tracking systems, such as JIRA, to log these vulnerabilities as specific ticket types, allowing for their confirmation or dismissal based on additional information. In the DevSecOps framework, Software Composition Analysis (SCA) plays a vital role in identifying and managing vulnerabilities within third-party components. SCA tools automate the scanning of software dependencies to detect known vulnerabilities, licensing conflicts, and policy violations, while also generating issues in integrated tracking systems like JIRA to support mitigation efforts. This automation enhances efficiency in vulnerability management by providing actionable data. This research investigates the automation of vulnerability management in the context of SCA, focusing on the integration between SCA tools and issue-tracking systems. Despite their effectiveness in detecting vulnerable dependencies, these tools face challenges in handling internal components, often failing to accurately link these dependencies to corresponding issues in issue-tracking systems. This gap can lead to inefficiencies and delays in vulnerability remediation. To address this limitation, the study proposes a proof of concept to improve the integration of the MEND SCA tool with issue-tracking systems, aiming to enhance the overall efficiency and effectiveness of vulnerability tracking and resolution processes

    Acute physiological, biomechanical, and perceptual responses of runners wearing downward-curved carbon fiber insoles

    Full text link
    In a randomized controlled cross-over study ten male runners (26.7 ± 4.9 years; recent 5-km time: 18:37 ± 1:07 min:s) performed an incremental treadmill test (ITT) and a 3-km time trial (3-km TT) on a treadmill while wearing either carbon fiber insoles with downwards curvature or insoles made of butyl rubber (control condition) in light road racing shoes (Saucony Fastwitch 9). Oxygen uptake, respiratory exchange ratio, heart rate, blood lactate concentration, stride frequency, stride length and time to exhaustion were assessed during ITT. After ITT, all runners rated their perceived exertion, perceived shoe comfort and perceived shoe performance. Running time, heart rate, blood lactate levels, stride frequency and stride length were recorded during, and shoe comfort and shoe performance after, the 3-km TT. All parameters obtained during or after the ITT did not differ between the two conditions [range: p = 0.188 to 0.948 (alpha value: 0.05); Cohen's d = 0.021 to 0.479] despite the rating of shoe comfort showing better scores for the control insoles (p = 0.001; d = −1.646). All parameters during and after the 3-km TT showed no differences (p = 0.200 to 1.000; d = 0.000 to 0.501) between both conditions except for shoe comfort showing better scores for control insoles (p = 0.017; d = −0.919). Running with carbon fiber insoles with downwards curvature did not change running performance or any submaximal or maximal physiological or biomechanical parameter and perceived exertion compared to control condition. Shoe comfort is impaired while running with carbon fiber insoles. Wearing carbon fiber insoles with downwards curvature during treadmill running is not beneficial when compared to running with control insoles

    Energy performance of district heating and cooling - Part 6: Weighting factors acc. to the Power loss and Carnot method

    No full text
    Änderungen gegenüber der Fassung 2021: - Abschnitt 1: Der Anwendungsbereich umfasst nun auch Primärenergiefaktoren, - Redaktionelle Änderungen und Fehlerkorrekturen, - 7.2.3.1: Neue Formel (15) für Allokationsfaktoren für mehrere Wärmeflüsse mit unterschiedlichen, - Temperaturen aus derselben KWK-Anlage, - 7.2.3.2: Neue Anmerkung zur Klarstellung, dass Formel (14) auch für die Arbeitswertmethode gilt, - Neuer Unterabschnitt 7.2.6 mit der Vereinfachung, dass KWK-Wärme unter 100 °C Vorlauftemperatur, - mit der pauschalen Aufwandszahl 0,5 bewertet werden darf, - Anhang A wurde neu gefasst, damit zusätzliche Anwendungsbereiche wie Gesetze oder Förderprogramme, - die eigenen Festlegungen zu Gewichtungsfaktoren machen, dieses Dokument widerspruchsfrei, - in Bezug nehmen können, - Anhang B.4 mit einem Berechnungsbeispiel zur Kälteversorgung wurde gestrichen

    Garbage in, Garbage out: How does ambiguity in data affect state-of-the-art pedestrian detection?

    No full text
    This thesis investigates the critical role of data quality in computer vision, particularly in the realm of pedestrian detection. The proliferation of deep learning methods has emphasised the importance of large datasets for model training, while the quality of these datasets is equally crucial. Ambiguity in annotations, arising from factors like mislabelling, inaccurate bounding box geometry and annotator disagreements, poses significant challenges to the reliability and robustness of the pedestrian detection models and their evaluation. This work aims to explore the effects of ambiguous data on model performance with a focus on identifying and separating ambiguous instances, employing an ambiguity measure utilizing annotator estimations of object visibility and identity. Through accurate experimentation and analysis, trade-offs between data cleanliness and representativeness, noise removal and retention of valuable data emerged, elucidating their impact on performance metrics like the log average miss-rate, recall and precision. Furthermore, a strong correlation between ambiguity and occlusion was discovered with higher ambiguity corresponding to greater occlusion prevalence. The EuroCity Persons dataset served as the primary dataset, revealing a significant proportion of ambiguous instances with approximately 8.6% ambiguity in the training dataset and 7.3% in the validation set. Results demonstrated that removing ambiguous data improves the log average miss-rate, particularly by reducing the false positive detections. Augmentation of the training data with samples from neighbouring classes enhanced the recall but diminished precision. Error correction of wrong false positives and false negatives significantly impacts model evaluation results, as evidenced by shifts in the ECP leaderboard rankings. By systematically addressing ambiguity, this thesis lays the foundation for enhancing the reliability of computer vision systems in real-world applications, motivating the prioritisation of developing robust strategies to identify, quantify and address ambiguity.In dieser Bachelorarbeit wird die kritische Rolle der Datenqualität auf dem Gebiet von Computer Vision untersucht, insbesondere im Bereich der Fußgängererkennung. Die Verwendung von Deep-Learning-Methoden hat die Bedeutung umfangreicher Datensätze für das Training von Modellen hervorgehoben, wobei die Qualität dieser Datensätze von entscheidender Bedeutung ist. Die Mehrdeutigkeit von Annotationen, die durch Faktoren wie falsches Labeling, ungenaue Bounding-Box Geometrie und Unstimmigkeiten zwischen den Annotatoren entsteht, stellt eine große Herausforderung für die Zuverlässigkeit und Robustheit der Fußgängererkennungsmodelle und deren Evaluation dar. Diese Arbeit zielt darauf ab, die Auswirkungen mehrdeutiger Daten auf die Modellleistung zu untersuchen, wobei der Schwerpunkt auf der Identifizierung und Abtrennung mehrdeutiger Instanzen liegt, wozu ein Mehrdeutigkeitsmaß verwendet wird, das die Schätzungen von Annotatoren bezüglich der Objektsichtbarkeit und -identität nutzt. Durch präzise Experimente und Analysen konnten Kompromisse zwischen der Datenreinheit und Repräsentativität der Daten, der Entfernung von mehrdeutigen Daten und der Beibehaltung wertvoller Daten gefunden werden, die sich auf Leistungskennzahlen wie die Log Average Miss-Rate, den Recall und die Precision auswirken. Darüber hinaus wurde eine starke Korrelation zwischen Mehrdeutigkeit und Okklusion festgestellt, wobei eine höhere Mehrdeutigkeit mit einer größeren Okklusionsprävalenz einhergeht. Der EuroCity Persons Datensatz diente als primärer Datensatz, der mit etwa 8,6% mehrdeutigen Instanzen im Trainingsdatensatz und 7,3% in den Validierungsdaten einen erheblichen Anteil mehrdeutiger Daten aufwies. Die Ergebnisse zeigten, dass das Entfernen mehrdeutiger Daten die Log Average Miss-Rate verbessert, insbesondere durch die Verringerung von False Positives. Eine Erweiterung der Trainingsdaten mit Beispielen aus benachbarten Klassen verbesserte den Recall, verringerte aber die Precision. Die Fehlerkorrektur von falschen False Positives und False Negatives wirkt sich erheblich auf die Ergebnisse der Modellevaluation aus, wie Veränderungen in der ECP-Rangliste zeigten. Durch den systematischen Umgang mit Mehrdeutigkeit legt diese Arbeit den Grundstein für die Verbesserung der Zuverlässigkeit von Bildverarbeitungssystemen in realen Anwendungen und motiviert dazu, robuste Strategien zur Identifizierung, Quantifizierung und Behandlung von Mehrdeutigkeit zu entwickeln

    Granulation compared to co-application of biochar plus mineral fertilizer and its impacts on crop growth and nutrient leaching

    No full text
    Mechanized biochar field application remains challenging due to biochar’s poor flowability and bulk density. Granulation of biochar with fertilizer provides a product ready for application with well-established machinery. However, it’s unknown whether granulated biochar-based fertilizers (gBBF) are as effective as co-application of non-granulated biochar with fertilizer. Here, we compared a gBBF with a mineral compound fertilizer (control), and with a non-granulated biochar that was co-applied at a rate of 1.1 t ha−1 with the fertilizer in a white cabbage greenhouse pot trial. Half the pots received heavy rain simulation treatments to investigate nutrient leaching. Crop yields were not significantly increased by biochar without leaching compared to the control. With leaching, cabbage yield increased with gBBF and biochar-co-application by 14% (p > 0.05) and 34% (p < 0.05), respectively. Nitrogen leaching was reduced by 26–35% with both biochar amendments. Biochar significantly reduced potassium, magnesium, and sulfur leaching. Most nitrogen associated with gBBF was released during the trial and the granulated biochar regained its microporosity. Enriching fertilizers with biochar by granulation or co-application can improve crop yields and decrease nutrient leaching. While the gBBF yielded less biomass compared to biochar co-application, improved mechanized field application after granulation could facilitate the implementation of biochar application in agriculture

    Elektrische Charakterisierung einer Lithiumeisenphosphatbatterie und Entwicklung einer Datenbank-basierten Auswertemethodik

    No full text
    Elektrochemische Energiespeicher in Form von Batteriezellen nehmen in der nahen Zukunft für die Transformation zu einer nachhaltigen Energiewirtschaft eine entscheidende Rolle ein. Im Rahmen dieser Arbeit soll die effiziente und aussagekräftige Charakterisierung von Batteriezellen zum Thema sein. Dazu wird erläutert, wie für die Batteriearbeitsgruppe der Hochschule Offenburg eine neue Dateninfrastruktur aufgebaut wird. Gleichzeit wird thematisiert, auf welche Weise Batteriezellen charakterisiert werden können um zur Erstellung eines Äquivalentschaltkreismodells verwendet werden können. Am Ende der Arbeit stehen mit den neuen Methode einige ersten Ergebnisse für die erfolgreiche Umsetzung der Dateninfrastruktur sowie erste Ergebnisse für das neue Testverfahren für die Charakterisierung von Lithiumeisenphosphat-Batteriezellen

    'Mixed Zone' - Entwicklung eines Treatments für einen fiktionalen Mittellangfilm unter Verwendung von KI in der Buchentwicklung

    No full text
    Die vorliegende Arbeit präsentiert eine Übersicht über die Anwendungsgebiete von Künstlicher Intelligenz (KI) in der Filmbranche und zeigt auf, wie ein Treatment und ein Drehbuch für einen fiktionalen Mittellangfilm mithilfe KI entwickelt werden können. Anhand einer Literaturanalyse wird der Begriff erläutert und der Status quo in der Filmbranche betrachtet. Es folgt ein Überblick über gängige Tools und eine Analyse der Chancen und Risiken unter eingehender Betrachtung rechtlicher und ethischer Aspekte, wobei der Schwerpunkt auf dem Einsab von künstlicher Intelligenz in der Drehbuchentwicklung liegt. Der zweite Teil der Arbeit beschäftigt sich mit der Entwicklung und Konzeptualisierung eines Exposés, eines Treatments und eines Drehbuchs für den Mittellangfilm „Mixed Zone“. Es folgt theoretisches Hintergrundwissen zu den oben genannten Begriffen und zu den Themen Zielgruppenanalyse, Sportberichterstattung, Mixed Zone und der Wintersportart Biathlon. Für die Erstellung des Treatments und des Drehbuchs wurde die Software „DramaQueen“ verwendet. Im Rahmen des Kapitels zur Konzeptualisierung des Mi/ellangfilms erfolgt eine detaillierte Darstellung und Erläuterung der Anwendung sowie der KI-Erweiterung. Ziel dieser Arbeit ist es, einen Überblick über die aktuelle Entwicklung und den Einsab von KI in der Filmbranche zu geben sowie die einzelnen Arbeitsschritte einer Drehbuchentwicklung am Beispiel des Mittellangfilms darzustellen. Eine detaillierte Analyse des Themenbereichs „Künstliche Intelligenz in der Filmbranche” zeigt, dass die aktuelle technische Entwicklung die Erstellung umfangreicher Texte mit einer zusammenhängenden Handlung durch künstliche Intelligenz nicht ermöglicht. Zudem kommt es häufig zu Wortwiederholungen. Derzeit findet KI-Technologie daher vorwiegend als Recherche-, Ideenfindungs- und Überarbeitungswerkzeug für Textanwendungen

    Ergonomische Gestaltung des Arbeitsplatzes

    No full text
    Das Ziel dieser Arbeit ist es, ergonomische Optimierungspotenziale im gesamten Arbeitssystem Sonderschweißer aufzuzeigen und die gewonnenen Erkenntnisse im Aufbau eines neuen Arbeitsplatzes zu nutzen. Um die Optimierungspotenziale zu erfassen, wurde der IST-Zustand aufgenommen und eine Analyse des Arbeitsplatzes durchgeführt. Dabei wurden Aufgabenstellungen und der Arbeitsablauf begutachtet, sowie der Heizkörperfluss und die genutzten Arbeitsmittel analysiert. Ebenfalls wurde eine Mitarbeiterumfrage durchgeführt, die Leitmerkmalmethode am Arbeitsplatz genutzt und eine Zeitaufnahme initiiert. Dabei konnten Optimierungspotenziale in den verwendeten Arbeitsmitteln und im vorliegenden Arbeitsprozess aufgedeckt und verbessert werden. Zudem konnte ebenfalls ein großer Einfluss der Psyche auf die Belastungsempfindung nachgewiesen werden. Die Arbeit zeigt auf, wie ergonomische Verbesserungen auch bedeuten, die Organisation anzupassen und damit die Effizienz zu steigern. Des Weiteren können durch geringere Verschwendung Kosteneinsparungen erzielt und die Mitarbeitenden rückwirkend entlastet werden.The plan of this study is to identify ergonomic optimization potentials throughout the work system of special welders and to take advantage of the insights gained in creating a new workplace. To record optimization potentials, the current state was documented, and an analysis of the workplace was organized. Tasks and workflow were inspected, and the radiator flow and utilized tools were evaluated. Additionally, an employee survey was conducted, the key feature method was used at the workplace, and a time study was done. This process revealed optimization potentials in the utilized tools and the existing work process that could be uncovered and improved. Furthermore, a significant impact of psychology on the perceived workload was also demonstrated. The study illustrates how ergonomic improvements entail adapting the organization, thereby increasing efficiency. Moreover, cost savings can be achieved through reduced waste, and employees can be retrospectively relieved

    397

    full texts

    5,440

    metadata records
    Updated in last 30 days.
    Hochschulschriftenserver der Hochschule Offenburg is based in Germany
    Access Repository Dashboard
    Do you manage Open Research Online? Become a CORE Member to access insider analytics, issue reports and manage access to outputs from your repository in the CORE Repository Dashboard! 👇