Publikationer från KTH
Not a member yet
    57969 research outputs found

    An Empathetic Conversational Agent for Pain Self-Management and Well-Being

    No full text
    Chronic pain is highly prevalent and persistent, affecting a significant portion of the global population and causing reduced quality of life. Its complex nature requires a multifaceted, multidisciplinary approach that integrates medical, physical, psychological, and social interventions to achieve the best outcomes for patients. In recent years, digital health interventions have emerged as promising tools to support chronic pain management, aiming to enhance self-management. However, despite their potential, a major challenge for digital health interventions remains long-term user engagement and adherence, which can limit the effectiveness of these tools and undermine their benefits for chronic pain management. Among emerging digital health technologies, conversational agents represent a particularly underexplored yet promising avenue for chronic pain management. This study explores how an empathetic conversational agent, named Lindra (meaning ”Relief” in Swedish), can provide support and evidence-based interventions that complement existing pain management approaches. The research follows an iterative and user-centered methodology based on the Information Systems Research (ISR) framework, utilizing Hume AI’s Empathic Voice Interface (EVI) and Claude Sonnet 3.5 for developing an empathetic conversational agent that integrates cognitive behavioral therapy techniques, empathy-driven dialogue, and personalization. The pilot study employs mixed methods, including quantitative analysis through the Bot Usability Scale (BUS) and Motivation, Engagement, Thriving in User Experience (METUX) scales measuring psychological need satisfaction based on Self-Determination Theory, alongside qualitative analysis via think-aloud and semi-structured interviews with 9 adults with self-reported chronic pain. Participants reported multiple perceived benefits including 24/7 accessibility, non-judgmental support, emotional validation, practical guidance, and companionship, with the agent’s empathetic voice delivery being particularly valued. Preliminary results demonstrate that Lindra successfully supported users’ psychological needs, with participants reporting excellent autonomy support and competence support for pain self-management tasks. Cognitive Behavioral Therapy (CBT) techniques were effectively integrated, with cognitive restructuring, behavioral activation, and relaxation techniques providing immediate stress relief and emotional regulation support. Personalization emerged as a critical factor, with user profiles containing preferences and personality traits enhancing all three psychological needs and contributing to sustained engagement. In summary, this pilot study offers a user-centered framework for developing empathetic conversational agents, provides insights into the integration of CBT techniques, and reveals how personalization can enhance user motivation and engagement through the fulfillment of fundamental psychological needs. These preliminary findings inform future development of complementary digital health solutions that can support sustained user engagement and treatment adherence in chronic pain management.Kronisk smärta är mycket utbredd och ihållande, och påverkar en betydande del av den globala befolkningen samt orsakar försämrad livskvalitet. Dess komplexa natur kräver en mångfacetterad, tvärvetenskaplig strategi som integrerar medicinska, fysiska, psykologiska och sociala interventioner för att uppnå bästa möjliga resultat för patienter. Under de senaste åren har digitala hälsointerventioner framträtt som lovande verktyg för att stödja kronisk smärthantering, med syfte att förbättra självhantering. Trots deras potential kvarstår dock en stor utmaning för digitala hälsointerventioner i form av långsiktigt användarengagemang och uppföljning, vilket kan begränsa effektiviteten av dessa verktyg och undergräva deras fördelar för kronisk smärthantering. Bland framväxande digitala hälsotekniker representerar konversationsagenter en särskilt outforskad men ändå lovande väg för kronisk smärthantering. Denna studie undersöker hur en empatisk konversationsagent, som heter Lindra, kan ge stöd och empiriskt bevisade interventioner som kompletterar befintliga smärthanteringsmetoder. Forskningen följer en iterativ och användarcentrerad metodik baserad på Information Systems Research (ISR)-ramverket, Hume AI:s Empathic Voice Interface (EVI) och Claude Sonnet 3.5 för att utveckla en empatisk konversationsagent som integrerar kognitiv beteendeterapi-tekniker, empatidriven dialog och personalisering. Pilotstudien använder blandade metoder, inklusive kvantitativ analys genom Bot Usability Scale (BUS) och Motivation, Engagement, Thriving in User Experience (METUX)-skalor som mäter psykologisk behovstillfredsställelse baserat på självbestämmandeteori, tillsammans med kvalitativ analys via think-aloud och semistrukturerade intervjuer med nio vuxna med självrapporterad kronisk smärta. Deltagarna rapporterade flera upplevda fördelar inklusive 24/7-tillgänglighet, icke-dömande stöd, emotionell validering, praktisk vägledning och sällskap, där agentens empatiska röstleverans särskilt värderades. Preliminära resultat visar att Lindra framgångsrikt stödde användarnas psykologiska behov, med deltagare som rapporterade utmärkt autonomistöd och kompetensstöd för självhantering av smärta. Kognitiv beteendeterapi (KBT)-tekniker integrerades effektivt, där kognitiv omstrukturering, beteendeaktivering och avslappningstekniker gav omedelbar stresslindring och emotionell regleringsstöd. Personalisering framträdde som en kritisk faktor, där användarprofiler innehållande preferenser och personlighetsdrag förstärkte alla tre psykologiska behov och bidrog till hållbart engagemang. Sammanfattningsvis erbjuder denna pilotstudie ett användarcentrerat ramverk för utveckling av empatiska konversationsagenter, ger insikter i integrationen av KBT-tekniker, och avslöjar hur personalisering kan förbättra användarmotivation och engagemang genom uppfyllandet av grundläggande psykologiska behov. Dessa preliminära insikter informerar framtida utveckling av kompletterande digitala hälsolösningar som kan stödja hållbart användarengagemang och uppföljning av behandling inom kronisk smärthantering

    Kaskadmaskininlärningsmodeller för anomalidetektering vid kanten : Optimering av beräkningseffektivitet i flerstegs anomalidetektering för edge-enheter

    No full text
    Time series anomaly detection is a crucial aspect of predictive maintenance and fault diagnosis in industrial applications. In edge computing environments, such as connected vehicles, real-time anomaly detection is challenging due to computational constraints. While deep learning models have demonstrated high accuracy in anomaly detection, their resourceintensive nature makes them unsuitable for direct deployment on edge devices. To address this, cascaded machine learning models offer a promising solution, balancing computational efficiency with detection performance. This study investigates a three-stage cascaded machine learning approach for anomaly detection at the edge. The key challenge is to develop a framework that progressively refines predictions while minimizing computational overhead. Despite the growing interest in anomaly detection for edge computing, existing solutions often rely on either lightweight models with limited accuracy or complex deep learning architectures that are impractical for real-time edge deployment. This research bridges the gap by systematically evaluating a range of machine learning models to identify an optimal trade-off between efficiency and accuracy. A variety of machine learning models were explored, including statistical, probabilistic, and deep learning methods. Through extensive experimentation, it was found that the Gaussian mixture model provides a cost-effective solution for anomaly detection on edge devices, offering a reasonable balance between computational efficiency and accuracy. Meanwhile, for cloud-based processing, a fully connected variational autoencoder demonstrated the highest anomaly detection accuracy, making it suitable for offloaded inference in resource-rich environments. Additionally, an adaptive learning mechanism is being integrated to dynamically adjust the offloading threshold during inference, allowing the system to react to varying conditions in real time. To quantify its performance, a regret bound will be computed to measure how far the adaptive decisions deviate from the optimal threshold. By structuring the detection pipeline into a cascaded model and incorporating adaptive thresholding, this approach enables scalable, efficient, and intelligent anomaly detection tailored to resource-constrained edge environments.Tidsseriebaserad avvikelsedetektering är en avgörande komponent inom prediktivt underhåll och felsökning i industriella tillämpningar. I edge computing-miljöer, såsom uppkopplade fordon, är realtidsdetektering av avvikelser särskilt utmanande på grund av begränsade beräkningsresurser. Även om djupa inlärningsmodeller har visat hög noggrannhet inom avvikelsedetektering, är deras resurskrävande karaktär olämplig för direkt användning på enheter vid nätverkets ytterkant. För att hantera detta erbjuder kaskadbaserade maskininlärningsmodeller en lovande lösning som balanserar beräkningseffektivitet med detekteringsprestanda. Denna studie undersöker en trestegs kaskadbaserad maskininlärningsmetod för avvikelsedetektering vid edge. Den huvudsakliga utmaningen är att utveckla en ram som successivt förfinar prediktionerna samtidigt som den minimerar den beräkningsmässiga belastningen. Trots det ökande intresset för avvikelsedetektering inom edge computing bygger många existerande lösningar antingen på lättviktiga modeller med begränsad noggrannhet eller på komplexa djupinlärningsarkitekturer som är opraktiska för realtidsanvändning på enheter med begränsade resurser. Denna forskning överbryggar detta gap genom att systematiskt utvärdera ett brett spektrum av maskininlärningsmodeller för att identifiera en optimal avvägning mellan effektivitet och noggrannhet. En mängd olika maskininlärningsmodeller har analyserats, inklusive statistiska, probabilistiska och djupinlärningsbaserade metoder. Genom omfattande experiment visades att Gaussian mixture model är en kostnadseffektiv lösning för avvikelsedetektering på edge-enheter, och erbjuder en rimlig balans mellan beräkningseffektivitet och noggrannhet. För molnbaserad bearbetning visade sig en fully connected variational autoencoder ge högst detekteringsnoggrannhet, vilket gör den lämplig för offloading till resursrika miljöer. Dessutom har en adaptiv inlärningsmekanism integrerats för att dynamiskt justera gränsvärdet för offloading under inferens, vilket gör att systemet kan anpassa sig till varierande förhållanden i realtid. För att kvantifiera denna prestanda beräknas ett regret-mått som anger hur långt de adaptiva besluten avviker från det optimala tröskelvärdet. Genom att strukturera detekteringsflödet som en kaskadmodell och inkludera adaptiv tröskelstyrning möjliggör detta angreppssätt en skalbar, effektiv och intelligent avvikelsedetektering anpassad för resursbegränsade edge-miljöer

    Query-by-Example Ljudsök med Akustiska Ordinbäddningar : Omvandling av wav2vec 2.0-inbäddningar med Kontrastiv Inlärning

    No full text
    The daily creation and consumption of audio and video content has grown dramatically, making large-scale speech analysis essential for trendspotting and market analysis. While transcription-based models are common, they are often costly and prone to errors, especially in low-resource languages. Query-by-Example (QbE) audio search offers an intuitive way to retrieve spoken content by using audio queries instead of text. In this thesis, we investigate how contrastive embedding learning can improve clustering of acoustic word embeddings, to filter out speaker characteristics and background noise, and to enhance QbE search performance. Starting from pre-trained wav2vec 2.0 embeddings, we train a projection network using triplet loss to better align similar word instances while increasing separation between dissimilar words. We evaluate this approach in two phases: (1) a clustering evaluation, which measures the embedding space structure before and after transformation, and (2) a QbE-focused information retrieval evaluation to quantify improvements in word retrieval accuracy. Our experiments compare a Swedish pre-trained model named VoxRex to a multilingual model XLS-R and conclude that the Swedish model shows high potential for QbE audio search. In contrast, the XLS-R needs further work before being viable. This work contributes partly to going completely transcription-free in audio search, which is an ambitious but attainable goal that could save both time and computational costs for businesses in the automatic speech recognition field, and also to understanding how contrastive learning can be used to construct a phonetically structured embedding space.Det dagliga skapandet och konsumtionen av ljud- och videoinnehåll har ökat dramatiskt, vilket gör storskalig talanalys avgörande för trendspaning och marknadsanalys. Transkriptionsbaserade modeller är normen i industin, men de är ofta kostsamma och kan sakna träffsäkerhet, särskilt när det gäller språk med begränsad tillgänglighet av ljuddata. Query-by-Example ljudsökning erbjuder ett intuitivt sätt att söka efter talat innehåll genom att använda en inspelning av ett sökord istället för text. I den här uppsatsen undersöker vi hur kontrastiv inlärning kan förbättra klustring av akustiska ordinbäddningar, för att filtrera bort specifika talares egenskaper och bakgrundsljud för att förbättra QbE-sökningsprestanda. Med utgångspunkt i förtränade wav2vec 2.0-inbäddningar tränar vi ett projektionsnätverk med målfunktion baserad på triplettförlust för att bättre anpassa liknande ordsegment samtidigt som separationen mellan orelaterade ordsegment ökar. Vi utvärderar detta tillvägagångssätt i två steg: (1) en klustringsutvärdering, som mäter strukturen i inbäddningsrummet före och efter transformation och (2) en QbE-fokuserad utvärdering av informationssökning för att kvantifiera förbättringar i ordsökningsnoggrannhet. Våra experiment jämför en svensk förtränad modell (VoxRex) med en flerspråkig förtränad modell (XLS-R) och drar slutsatsen att den svenska modellen visar stor potential för QbE-ljudsökning, medan XLS-R behöver ytterligare arbete innan den kan användas i praktiken. Denna uppsats bidrar delvis till att gå mot att göra ljudsök fritt från kostsam transkribering vilket hade gynnat företag i taligenkänningsbranchen, samt bidrar med förståelse för hur kontrastiv inlärning kan användas för att skapa ett fonetiskt klustrat inbäddningsrum

    Effekten av tidig användbarhetstestning på användbarhetsmått för en prototyp av ett verktyg för hållbarhetsworkshop : Utvärdering av användbarhetsförbättringar från Mellan-Fidelity till Hög-Fidelity Prototyp inom Design Thinking Ramverket

    No full text
    This thesis investigates how gathering early user feedback from mid-fidelity (wireframe) prototype influences the usability metrics of the final version of high-fidelity prototype, within the Design Thinking framework. In UX (user-experience) design, deciding the right time for starting usability testing is challenging, and the impact of early user feedback is often unclear and understudied. This study, while following the design thinking process to design a user interface, incorporates early and iterative usability testing from interactive wireframe prototype to examine how early user feedback contributes to refining and improving the usability of the high-fidelity prototype of the tool. The usability testing focuses on measurable metrices which are- Task Completion Time, Task Success Rate, System Usability Scale (SUS), and Single Ease Question (SEQ) scores. A medium-fidelity interactive prototype was tested early with five users, and based on user feedback the prototype was refined into high-fidelity and retested with different users to see the change in the usability metrics. The findings from this study reveal that conducting early usability testing resulted in significant and measurable benefits, and that is evidenced by the improved task success rate by 4% (indicates increased effectiveness), decreased task completion time by nearly 5% (indicates increased efficiency), and improved SUS scores by nearly 12% (indicates increased satisfaction). Moreover, the SEQ scores dropped by 7.14%, which highlighted the potential areas for improvement and the need for more design iterations. These findings will guide the UX practitioners or design teams to take more informed decisions regarding when and how to conduct usability testing for better results.Den här examensarbete undersöker hur insamling av tidig användarfeedback från mid-fidelity (wireframe) prototyp påverkar användbarhetsmåtten för den slutliga versionen av en high-fidelity prototyp, inom ramverket för Design Thinking. Inom UX (användarupplevelse) design är det utmanande att bestämma rätt tid för att starta användbarhetstestning, och effekten av tidig användarfeedback är ofta oklar och understuderad. Denna studie, som följer design thinking-processen för att designa ett användargränssnitt, integrerar tidig och iterativ användbarhetstestning från interaktiva wireframe-prototyp för att undersöka hur tidig användarfeedback bidrar till att förfina och förbättra användbarheten hos verktygets high-fidelity prototyp. Användbarhetstestningen fokuserar på mätbara mätvärden som är - Task Completion Time (tid för uppgiftsslutförande), Task Success Rate (lyckfrekvens för uppgifter), System Usability Scale (SUS) och Single Ease Question (SEQ) poäng. En interaktiv prototyp med medium-fidelity testades tidigt med fem användare, och baserat på användarfeedback förfinades prototypen till high-fidelity och testades om med olika användare för att se förändringen i användbarhetsmåtten. Resultaten från denna studie visar att tidiga användbarhetstester resulterade i betydande och mätbara fördelar, vilket framgår av en förbättrad framgångsgrad för uppgifter med 4 % (indikerar ökad effektivitet), minskad slutförandetid för uppgifter med nästan 5 % (indikerar ökad effektivitet) och förbättrade SUS-poäng med nästan 12 % (indikerar ökad nöjdhet). Dessutom minskade SEQ-poängen med 7,14 %, vilket belyste potentiella förbättringsområden och behovet av fler designiterationer. Dessa resultat kommer att vägleda UX-utövare eller designteam att fatta mer välgrundade beslut om när och hur användbarhetstester ska genomföras för bättre resultat

    Utformning av Utskovsluckor : Parametrisk Optimering och Jämförelse mellan luckor i Rostfritt Stål och Konstruktionsstål

    No full text
    The safety and sustainability of hydropower dams in Sweden is a growing concern, prompting modernization projects to enhance structural reliability and discharge capacity. This thesis focuses on optimizing the design of vertical lift spillway gates using a Python-based parametric tool developed to support material selection and structural dimensioning. The tool integrates an analytical model based on Eurocode standards with a Genetic Algorithm to evaluate design alternatives in terms of investment cost and environmental impact, specifically CO2 emissions during material production. The study compares structural steel and stainless steel options for key components of a simplified gate model, applying constraints on stress, deformation, buckling, and geometric feasibility. Results show that while structural steel (S355J2+N) minimizes cost, stainless steel (Forta LDX 2101) significantly reduces environmental impact. However, the choice of material is highly sensitive to modeling assumptions, especially with respect to stiffness and strength. The work demonstrates a clear trade-off between economic and environmental objectives and highlights the importance of stress and deformation in the skinplate as critical design factors. While the tool provides a robust framework for preliminary design evaluation, further refinement is recommended through expanded lifecycle analysis, more detailed modeling, and validation via finite element methods.Säkerheten och hållbarheten hos vattenkraftsdammar i Sverige är en växande angelägenhet, vilket har lett till moderniseringsprojekt för att förbättra den strukturella tillförlitligheten och öka flödeskapaciteten. Detta examensarbetet fokuserar på att optimera utformningen av utskovsluckor i form av planluckor. Detta med hjälp av ett Python-baserat parametriskt verktyg, utvecklat för att stödja materialval och dimensionering. Verktyget integrerar en analytisk modell base-rad på Eurokod-standarder med en genetisk algoritm för att utvärdera designalternativ utifrån investeringskostnad och miljöpåverkan, uttryckt som CO2-utsläpp vid materialtillverkning. Studien jämför konstruktionsstål och rostfritt stål för huvudkomponenter i en förenklad luckmodell, med hänsyn till begränsningar såsom spänning, deformation, buckling och geometrisk genomförbarhet. Resultaten visar att konstruktionsstål (S355J2+N) minimerar kostnaderna, medan rostfritt stål (Forta LDX 2101) minskar miljöpåverkan. Valet av material är dock mycket känsligt för modellantaganden, särskilt gällande styvhet och hållfasthet. Arbetet tydliggör en avvägning mellan ekonomiska och miljömässiga mål, och betonar betydelsen av spänningar och deformationer i bordläggningplåten som kritiska konstruktionsfaktorer. Verktyget erbjuder en stabil grund för utvärdering i ett tidigt skede av designprocessen, men ytterligare vidarearbete rekommenderas genom utökad livscykelanalys, mer detaljerad modellering och verifiering med finita elementmetoder

    Predicting opportunities for improvement in trauma care using machine learning : a retrospective registry-based study at a major trauma centre

    No full text
    OBJECTIVE: To develop models to predict opportunities for improvement in trauma care and compare the performance of these models to the currently used audit filters. DESIGN: Retrospective registry-based study. SETTING: Single-centre, Scandinavian level one equivalent trauma centre. PARTICIPANTS: 8220 adult trauma patients screened for opportunities for improvement between 2013 and 2022. PRIMARY AND SECONDARY OUTCOME MEASURES: Two machine learning models (logistic regression and XGBoost) and the currently used audit filters were compared. Internal validation by an expanding window approach with annual updates was used for model evaluation. Performance measured by discrimination, calibration, sensitivity and false positive rate of opportunities for improvement prediction. RESULTS: A total of 8220 patients, with a mean age of 45 years, were analysed; 69% were men with a mean injury severity score of 12. Opportunities for improvement were identified in 496 (6%) patients. Both the logistic regression and XGBoost models were well-calibrated, with intercalibration indices of 0.02 and 0.02, respectively. The models demonstrated higher areas under the receiver operating characteristic curve (AUCs) (logistic regression: 0.71; XGBoost: 0.74). The XGBoost model had a lower false positive rate at a similar sensitivity (false positive rate: 0.63). The audit filters had an AUC of 0.62 and a false positive rate of 0.67. CONCLUSIONS: The logistic regression and XGBoost models outperformed audit filters in predicting opportunities for improvement among adult trauma patients and can potentially be used to improve systems for selecting patients for trauma peer review.QC 20250704</p

    Standardisering av Namngivningssystem För Lagringsplatser : En Fallstudie om Design, Implementering och Upprätthållande i Decentraliserad Tillverkning

    No full text
    This master’s thesis explores the design, implementation, and sustainment of a standardized storage location naming system within a decentralized manufacturing context. The study is conducted as an in-depth qualitative case study at a Swedish manufacturing company facing operational inefficiencies due to inconsistent and fragmented naming conventions across multiple production facilities. Drawing on literature in operations management, standardization, and change management, the study combines empirical data from semi-structured interviews, observations, and internal documentation. A thematic analysis approach was applied to identify key challenges, stakeholder needs, and potential strategies for standardization. Findings indicate that a standardized naming system can improve internal logistics, support ERP system accuracy, and enhance collaboration between facilities. However, implementation is constrained by technical limitations, legacy systems, and organizational culture. The study emphasizes the importance of process ownership, stakeholder involvement, and a stepwise implementation strategy to ensure long-term sustainment. Contributions include a framework for designing, implementing, and sustaining standardized location naming systems in decentralized manufacturing contexts, along with practical insights for managing operational change in growing industrial organizations.Detta examensarbete undersöker utformning, implementering och långsiktig upprätthållning av ett standardiserat namngivningssystem för lagringsplatser inom en decentraliserad tillverkningskontext. Studien genomförs som en kvalitativ fallstudie vid ett svenskt tillverkningsföretag som uppvisar operativa ineffektiviteter till följd av inkonsekventa och fragmenterade namngivningsprinciper mellan flera produktionsanläggningar. Med stöd i litteratur inom operations management, standardisering och förändringsledning kombinerar studien empiriska data från semistrukturerade intervjuer, observationer och intern dokumentation. En tematisk analysmetod tillämpades för att identifiera centrala utmaningar, behov hos intressenter samt möjliga strategier för standardisering. Resultaten visar att ett standardiseratsystem för lagringsplatser kan förbättra intern logistik, stärka datakvaliteten i ERP-systemet och främja samarbete mellan fabriker. Implementeringen begränsas dock av tekniska begränsningar, äldre system och organisatoriska kulturer. Studien lyfter fram vikten av tydligt processägarskap, aktiv involvering av intressenter samt en stegvis implementeringsstrategi för att uppnå långsiktig hållbarhet. Arbetet bidrar med ett ramverk för att utforma, implementera och säkerställa långsiktig användning av standardiserade namngivningssystem i decentraliserade tillverkningsmiljöer, samt ger praktiska insikter i hur operativa förändringar kan hanteras i växande industriföretag.

    Egenskaper och Oxidationskinetik hos Koks på Förbrukade Metylcyklohexan-Dehydrogeneringskatalysatorer : En Studie mot Effektiv Vätgasleverans med Flytande Organiska Vätgasbärare

    No full text
    Flytande organiska vätgasbärare (LOHC), så som metylcyklohexan (MCH) – toluen (TOL) systemet, utvecklas som en alternativ lösning för vätgaslagring och transport. En stor begränsning i dess utveckling är dock den snabba katalysator-deaktiveringen orsakad av koksdeposition. Återställning av katalysatorns aktivitet kräver exoterm koksoxidation, vilket medför risk för uppkomsten av värmevågor som potentiellt kan leda till skada på både katalysatorn och reaktorn. Därför syftar denna avhandling till att undersöka oxidationsbeteendet hos koks på förbrukade platina- (4wt% Pt/γ-Al2O3 och 4wt% Pt/MgAl2O4) och nickel-baserade (12wt% Ni/γ-Al2O3 och 12wt% Ni/MgAl2O4) katalysatorer som deaktiverats genom MCH dehydrogenering. De förbrukade katalysatorerna analyserades med temperaturprogrammerad oxidation (TPO). Begränsad information från TPO-analysen, i kombination med snabb deaktivering, ledde till att Ni katalysatorerna inte studerades vidare. Pt-katalysatorerna undersöktes dock vidare med termogravimetrisk analys (TGA), infrarödspektroskopi (FTIR) och Soxhlet-extraktion följt av gaskromatografi/masspektrometri (GC/MS). Den totala kolhalten på katalysatorerna befanns vara 5,93 wt% efter 30 timmar reaktionstid för Pt/Al2O3 respektive 6,81 wt% efter 124 timmar reaktionstid för Pt/MgAl2O4. Dessutom kunde två oxidations-event urskiljas för Pt-baserade katalysatorerna, troligtvis motsvarande koks på metallen och bärarmaterialet. Kokset på Al2O3-bäraren visade sig mer dehydrogenerat (H/C = 0,60 jämfört med 0,86 på Pt/MgAl2O4). Detta kan förklaras av den högre surheten hos Al2O3-bäraren vilket gynnar sekundära reaktioner. FTIR-analysen visade förekomst av polyaromatiskt koks på Pt/Al2O3, vilket korrelerar väl med det uppmätta H/C-förhållandet. Vidare så kunde vibrationer från alkener, aromater och metylgrupper identifieras på Pt/MgAl2O4-katalysatorn. Dessa toppar återfanns dock även i den reducerade katalysatorn och därmed krävs ytterligare analyser för att fastställa koksens exakta natur. TGA-mätningarna visade på låg reproducerbarhet, och Soxhlet-extraktion av Pt/Al2O3 påvisade förekomst av dimetylbifenyl föreningar. En kinetiskt modell utvecklades dessutom för att estimera kinetiska parametrar ochsimulera regenereringen genom att ta hänsyn till olika koksfamiljer vilka kan karakteriseras av sin oxidations reaktivitet. Aktiveringsenergierna uppskattades till 46,54 ± 0,50 kJ/mol respektive 68,78 ± 2,47 kJ/mol för de två koksfamiljerna på Pt/Al2O3 samt till 53,68 ± 0,79 kJ/mol respektive 43,52 ± 0,78 kJ/mol för motsvarande koks familjer på Pt/MgAl2O4. Simulering av regenereringen visade att kokset på MgAl2O4-bäraren kunde avlägsnas lättare än kokset på Al2O3-bäraren.Liquid organic hydrogen carriers (LOHC), such as the methylcyclohexane (MCH) –toluene (TOL) system, are emerging as an alternative solution to hydrogen storage and transport. However, the rapid catalyst deactivation due to coke deposition during MCH dehydrogenation is a major limitation for its development. Restoring the catalytic activity requires exothermic coke oxidation, which entails the risk of hotspots formation that can potentially damage both the catalyst and reactor. In this thesis, the oxidation behaviour of coke on spent platinum- (4 wt% Pt/γ-Al2O3 and 4 wt% Pt/MgAl2O4) and nickel-based (12 wt% Ni/γ-Al2O3 and 12 wt% Ni/MgAl2O4) catalysts, used in MCH dehydrogenation, is investigated. The spent catalysts were analysed by temperature-programmed oxidation (TPO). Limited information from the TPO, combined with rapid deactivation, led to the decision not to investigate the Ni–based catalysts further. The Pt catalysts were analysed by means of thermogravimetric analysis (TGA), infrared spectroscopy (FTIR), and Soxhlet extraction followed by gas chromatography/mass spectrometry (GC/MS). Total carbon content on the catalysts was found to be 5.93 wt% and 6.81 wt% after 30 and 124 hours on stream for the Pt/Al2O3 and Pt/MgAl2O4 catalysts, respectively. Two oxidation events could be distinguished for the Pt-based catalysts, plausibly corresponding to coke on the metal and on the support. The coke on the Al2O3 support was found to be more dehydrogenated (H/C = 0.60 compared to 0.86 on Pt/MgAl2O4). This could be attributed to the higher acidity of the Al2O3 support, contributing to secondary reactions. The FTIR showed the presence of polyaromatic coke on Pt/Al2O3, correlating well with the determined H/C ratio. In addition, alkene, aromatic, and methyl group vibrations could be identified on the coked Pt/MgAl2O4 catalyst. However, similar peaks are also found in the reduced catalyst sample, indicating that further analysis is required to determine the exact nature of the coke. Moreover, TGA exhibited poor reproducibility, while Soxhlet extraction of Pt/Al2O3 revealed the presence of dimethylbiphenyls. Furthermore, a kinetic model was developed to estimate kinetic parameters and simulate the regeneration taking into account different coke families, characterized by their oxidation reactivity. The activation energies were estimated to be 46.54 ± 0.50 kJ/mol and 68.78 ± 2.47 kJ/mol for the two coke families present on Pt/Al2O3 and 53.68 ± 0.79 kJ/mol and 43.52 ± 0.78 kJ/mol for those on Pt/MgAl2O4. Simulation of the regeneration showed that the coke on the MgAl2O4 support could be removed more readily than the coke on the Al2O3 support

    En jämförande analys av träningsstrategier för autoencoders vid detektering av kreditkortsbedrägerier

    No full text
    As time passes, financial payments become more digitalized. Thus, the probability for credit card fraud arises and detecting these become a crucial challenge in today’s society. This study investigates the impact of modifying the training method of numerous hybrid models consisting of an autoencoder and some classifier. Here, the goal is to compare two approaches: One that involves using legitimate and fraudulent transactions as training data, and the other only training our model on legitimate transactions. The first part of the hybrid model, the encoding stage of an autoencoder, reduces the dimensionality and then inputs the data to one of three classifiers. These include: K-Nearest Neighbors (KNN), Logistic Regression and Multi-Layer Perceptron (MLP). For evaluation of these hybrid models we use several metrics which involves precision, recall, F1-Score and accuracy. Our findings contradict our hypothesis regarding how only using legitimate transactions as training data might improve performance, where the results suggest a decrease in performance across all models introduced. These discoveries potentially imply that excluding fraudulent transactions in the training data reduces the model’s ability to distinguish anomalies in the latent space. Although the idea did not increase performance, this study is still a new addition to the limited literature on hybrid models in fraud detection and opens the door to further research into hybrid model design and training strategies for fraud detection.Finansiella betalningar blir alltmer digitaliserade, därmed blir risken för kortbedrägerier mer vanliga. Därför blir utvecklandet av modeller som kan upptäcka dessa en stor utmaning för dagens samhälle. Denna studie undersöker effekten av att modifiera träningsmetoder för flera olika hybridmodeller, bestående av kodningsdelen av en autoencoder och en klassificerare. Två metoder jämförs: Ett där man använder både legitima och icke legitima transaktioner och ett som enbart använder sig av legitima transaktioner för att träna våra modeller. Autoencodern reducerar indatat till en lägre dimension och sedan ger ut data till en av tre klassificerare: K-Nearest Neighbors (KNN), Logistic Regression and Multi-Layer Perceptron (MLP). För att evaluera prestandan för dessa hybridmodeller används följande mätningar: precision, recall, F1-Score and accuracy. Resultatet motsäger vår hypotes kring att bara träna vår modell på enbart legitima transaktioner, potentiellt kan öka prestandan där resultatet blev sänkning för alla hybridmodeller för det föreslagna tillvägagångssättet. Dessa tyder på att uteslutning av icke legitima transaktioner påverkar modellens förmåga att urskilja anomalier i det latenta rummet. Trots att modellen inte uppfyllde hypotesen, är denna studie fortfarande ett tillägg till den begränsade forskningen kring hybridmodeller inom upptäckandet av bedrägerier. Vidare öppnar denna studie upp dörren för vidare studier inom modellarkitektur och träningsstrategier

    Fingeravtrycksmetod för att upptäcka icke-naturligt DNA i blodprov till följd av AAV-baserad gendopning

    No full text
    Genterapi förutspås vara en mycket lovande behandling för flertalet sjukdomar och detta har lett till utvecklingen av nya och förbättrade leverans metoder av sådana terapier. Rekombinanta Adeno-associerade virus (rAAV) vektorer, som kan leverera valda gener av intresse till målceller, anses vara lämpade för utvecklingen av nya leveransmetoder, och vissa produkter baserade på dessa används redan kliniskt. Utvecklingen av dessa behandlingar har dock lett till en ökad risk för felanvändning, vilket leder till möjligheten att utnyttja dessa rAAV vektorer inom gendoping. För tillfället, när det anses nödvändigt, så upptäcks AAV injektioner från behandlingar genom biopsier av den berörda vävnaden, något som inte är kompatibelt med rutinmässiga anti-dopingkontroller. Det finns därmed ett behov av nya detektionsmetoder, som specifikt och med tillräckligt hög sensitivitet kan upptäcka genomen från dessa rAAV vektorer. Modeller för blodkroppsinfektioner sattes därmed upp, och Jurkat cellinjer transducerades med en rAAV6 vektor. DNA extraherades och kvantifierades sedan genom en flerstegsprocess som resulterade i specifik detektion av rAAV genomer. Denna rapport hjälper till att ge stöd åt faktumet att det är möjligt att modellera blodkroppsinfektioner i en laboratoriemiljö och att episomalt rAAV genom kan detekteras via ITR2-specifik targeting.Gene therapy has been regarded as a promising treatment for various diseases, and this has led to the development of new and improved delivery tools for such therapies. Recombinant Adeno-associated virus (rAAV) vectors, which can deliver the gene of interest to the host cells, are being considered as a new promising tool, with some products already in clinical use. However, with the development of such treatments, the risk of misuse also increases, leading to the possibility of using these rAAV vectors in gene doping. Nowadays, when needed, typical methods to detect and follow up AAV injections after a treatment includes biopsies of the target tissue, which is not compatible with an anti-doping routine check. Therefore, there is a need of new detection methods, which can precisely and with high enough sensitivity detect these rAAV vector genomes. Blood cells infection models were therefore set up, were Jurkat cells lines were transduced with an rAAV6 vector. DNA was then extracted and quantified through a multi-step process which resulted in the specific detection of rAAV genomes. This report helps provide support that a blood cell infection can be modelled in a laboratory setting, and that rAAV episomal genomes can be detected through specific ITR2 targeting

    0

    full texts

    57,969

    metadata records
    Updated in last 30 days.
    Publikationer från KTH is based in Sweden
    Access Repository Dashboard
    Do you manage Open Research Online? Become a CORE Member to access insider analytics, issue reports and manage access to outputs from your repository in the CORE Repository Dashboard! 👇