Publikationer från KTH
Not a member yet
    57969 research outputs found

    Effektivitetsutvärdering av LSTM-baserad lösenordsgenerering mot traditionella lösenordsknäckningstekniker på RockYou : En omvärdering av en gammal datamängd med nya verktyg

    No full text
    In today’s digital landscape, password-based authentication remains a primary security mechanism for protecting users’ data across online services. However, users frequently employ predictable patterns when creating passwords, making them vulnerable to attacks. This thesis addresses this vulnerability by training and evaluating a Long Short-Term Memory neural network to generate realistic passwords that mirror human-created password patterns. We tested the generated passwords in simulated attack scenarios to evaluate their effectiveness against existing password cracking techniques, including Markov chain-based methods. Additionally, we performed statistical analysis on the original dataset, which revealed that users predominantly create easily guessable passwords. The password frequency distribution followed Zipf’s law, indicating that a small number of passwords account for a large portion of all passwords. The analysis also showed a clear tendency toward shorter passwords with lower entropy values. Comparison between the generated passwords and the original dataset using entropy and length metrics demonstrated that the generated passwords follow similar patterns to the original dataset. The results showed that the LSTM model generating 10 million passwords can find 6.31% of user-generated passwords, on average. These findings highlight the critical importance of strong password policies and provide valuable insights for future research and cybersecurity education.I dagens digitala landskap förblir lösenordsbaserad autentisering en primär säkerhetsmekanism för att skydda användarens data över onlinetjänster. Användare använder dock ofta förutsägbara mönster när de skapar lösenord, vilket gör dem sårbara för attacker. Således adresserar detta examensarbete denna sårbarhet genom att träna och utvärdera ett Long Short-Term Memory-baserat neuralt nätverk för att generera realistiska lösenord som speglar människoskapade lösenordsmönster. De genererade lösenorden användes i simulerade attackscenarion för att utvärdera deras effektivitet mot befintliga lösenordsknäckningstekniker såsom Markov-kedjebaserade metoder. Dessutom utfördes en statistisk analys som började med den ursprungliga datamängden. Analysen visade att användare främst skapar lättgissade lösenord, med en lösenordsfrekvensfördelning som nära följer Zipfs lag. Detta indikerar att ett litet antal lösenord står för en stor del av lösenorden. Analysen visade också en tydlig tendens mot kortare längd och lägre entropinivå för lösenord. Jämförelse av de genererade lösenorden mot den ursprungliga datamängden, med användning av entropi och längd, visar att de genererade lösenorden följer liknande mönster som den ursprungliga datamängden. Resultaten visade att när LSTM-modellen genererade 10 miljoner lösenord, hittades 6.31% lösenord i genomsnitt. Dessa fynd hjälper till att belysa den kritiska betydelsen av starka lösenordspolicyer och ger värdefull insikt för framtida forskning och cybersäkerhetsutbildning

    En datadriven modell för att förutsäga övergångssummor för fotbollsspelare : Att kombinera maskininlärning med branschspecifika lösningar

    No full text
    This thesis addresses the need for a more accurate and impartial method to football player valuation by developing a predictive model that incorporates performance data. In collaboration with Goalunit, a Swedish football analytics startup, the project aims to refine existing valuation techniques in order to satisfy the demands of contemporary football clubs looking for data-driven decision support. Goalunit currently provides clubs in European leagues with a proprietary Key Performance Index (KPI) that summarizes player attributes, including age, goals, and other performance indicators. While useful, this KPI cannot accurately convert performance into market prices. Our dataset comprises players from 40 major European men’s leagues and covers the period from 2014 to 2024. Two machine learning models were employed: a linear regression model using Least Absolute Shrinkage and Selection Operator (LASSO) and a tree-based model known as the Gradient Boosting Machine (GBM). These models were trained on a curated dataset of 5629 players and 139 features, encompassing a wide range of performance indicators and market-related variables to estimate realistic transfer fees for both current and future players. The GBM model yielded the best performance, evaluated using cross-validation with an 80/20 train-test split, and achieved results comparable to those in related data-driven studies. Market value consistently emerged as the most influential feature in the GBM model and ranked among the top three predictors in the LASSO model. This thesis contributes to both industry practice and academic research. The outcome is expected to improve how football clubs assess player investments and make transfer decisions, while also showcasing the author’s competencies in applied engineering, data analysis, and research.Detta examensarbete behandlar behovet av en mer exakt och opartisk metod för att värdera fotbollsspelare genom att utveckla en prediktiv modell som integrerar prestationsdata. I samarbete med Goalunit, ett svenskt företag inom fotbollsanalys, syftar projektet till att förbättra befintliga värderingstekniker för att möta kraven från moderna fotbollsklubbar som efterfrågar datadrivet beslutsstöd. Goalunit tillhandahåller för närvarande ett egenutvecklat Key Performance Index (KPI) till klubbar i europeiska ligor, vilket sammanfattar spelarens attribut såsom ålder, mål och andra prestationsindikatorer. Även om KPI:n är användbar kan den inte på ett tillförlitligt sätt omvandla prestation till marknadspris. Datasettet omfattar spelare från 40 Största europeiska ligor och sträcker sig över perioden 2014 till 2024. Två maskininlärningsmodeller användes: en linjär regressionsmodell baserad på Least Absolute Shrinkage and Selection Operator (LASSO) och en trädbaserad modell kallad Gradient Boosting Machine (GBM). Dessa modeller tränades på ett bearbetat dataset med 5 629 spelare och 139 variabler, vilka inkluderade ett brett spektrum av prestationsindikatorer och marknadsrelaterade faktorer för att uppskatta realistiska övergångssummor för både nuvarande och framtida spelare. GBM-modellen presterade bäst och utvärderades genom korsvalidering med en 80/20-tränings- och testfördelning. Resultaten var jämförbara med andra datadrivna studier inom området. Marknadsvärde visade sig vara den mest inflytelserika faktorn i GBM-modellen och rankades bland de tre viktigaste även i LASSO-modellen. Detta arbete bidrar till både industrins praxis och den akademiska forskningen. Resultaten förväntas förbättra hur fotbollsklubbar bedömer spelarinvesteringar och fattar beslut om övergångar, samtidigt som det demonstrerar författarens färdigheter inom tillämpad ingenjörskonst, dataanalys och forskning

    Mikrohomologi bindning av Recombinas A på en high-throughput DNA array

    No full text
    Sökprocessen vid homolog rekombination (HR), en fundamental DNA-reparationsmekanism, moduleras av interaktioner mellan Recombinase A (RecA) och korta homologa sekvenser, såsom 8 baspar långa mikrohomologier. Syftet med detta projekt var att noggrant karakterisera dessa interaktioners bindningsaffinitet med hjälp av en höggenomströmnings-DNA-array. Trots att resultat från elektromobilitets-shift-analyser (EMSAs), fluorescenspolarisation och DNA-arrayen inte kunde fastställa ett entydigt samband gällande mikrohomologiernas inflytande på RecA-bindning, har denna studie framgångsrikt implementerat och utvärderat en ny metod för att analysera DNA-proteininteraktioner i hög genomströmning. De utmaningar som uppstod vid stabilisering och kvantifiering av dessa interaktioner indikerar ett tydligt behov av ytterligare metodologisk optimering. Som ett direkt resultat av denna studie har det identifierats flera lovande framtida projekt. Dessa inkluderar förfining av arrayens design och optimering av förhållanden för kinetiska mätningar, vilket förväntas leda till en djupare förståelse för RecA:s interaktioner med mikrohomologier och dess avgörande roll i HR-processen.The efficiency of the search process in homologous recombination (HR) is modulated by interactions between Recombinase A (RecA) and short homologous DNA sequences, as short as 8 bp, known as microhomologies. The aim of this project was to characterize the binding affinity of RecA to distinct microhomologies using a high-throughput DNA array. While the results of electromobility shift assays (EMSAs), fluorescence polarization and the DNA array did not establish a clear relationship regarding the influence of microhomologies on RecA binding, this study implemented and tested a novel high-throughput approach for analysing DNA-protein interactions. The challenges encountered in stabilizing and quantifying these interactions necessitate further optimization of the method. Future projects identified as a result of this study include refining the array design and conditions for kinetic measurements, which could lead to a better understanding of RecA’s interactions with microhomologies in its role in the HR pathway

    Passagenhuset - a lost opportunity? : A study about the motives behind demolition and a alternative solution

    No full text
    Aktörer inom bygg- och fastighetssektorn vittnar om att rivning av större byggnader från 60–80-talet ökar i Sverige. Med hänsyn till pågående hållbarhetsarbete upplevs det som en något motsägelsefull utveckling. Den här studien undersöker omständigheter kring byggnader som rivits i syfte att ge plats till nya. Vid ytliga granskningar tycks många av byggnaderna ha varit fullt funktionsdugliga, vilket väcker frågor angående bakomliggande motiv till rivningarna. Var rivningarna verkligen nödvändiga?Genom att göra en djupare utredning av en redan riven byggnad, undersöker studien om rivning hade kunnat undvikas och presenterar ett alternativ som visar hur byggnaden hade kunnat bevarats.Rapporten inleds med en omvärldsanalys där relevant bakgrundsinformation kartläggs och som placerar studiens ämne i en större kontext. Därefter presenteras den fastighet som studien valt att fokusera på, vilken utgörs av Hästen 21 och byggnaden Passagenhuset, som idag är ersatt av en ny kontorsbyggnad. För att skapa en bredare förståelse kring varför byggnader rivs redogörs även för ett antal referensprojekt samt intervjuer med sakkunniga inom ämnen som rör studien. Vidare redovisas en litteraturstudie som genomförts för att identifiera generella faktorer som påverkar beslut bakom rivning, följt av en mer djupgående analys av processen under vilken Passagenhuset revs. Studien sammanfattas genom att analysera resultatet och ge förslag på vidare studier.I syfte att föreslå en alternativ lösning till rivning har studien tagit fram ett gestaltningsförslag som visar att Passagenhuset hade kunnat leva vidare. Målet med gestaltningen var också att kunna göra jämförelser mellan att riva och bevara byggnader för att påvisa för- och nackdelar med de olika alternativen. Främst med hänsyn till hållbarhet och funktion, men också andra faktorer.Av resultatet framgår att det finns tydliga fördelar med att bevara och renovera, trots det väljer många att riva. Studien visar också att motiv som rör svårigheter att anpassa äldre byggnader efter dagens standard inte håller fullt ut. Motiven bakom rivningsbeslut visar sig snarare vara ekonomiska, där alternativa bevarandelösningar tycks uteslutas redan innan de har prövats.Actors in the construction and real estate sector report that demolition of larger buildings from the 1960s to the 1980s is increasing in Sweden. Given the ongoing sustainability efforts this trend is perceived as somewhat contradictory. This study examines circumstances surrounding buildings that have been demolished to make place for new ones. At first glance, many of the buildings seemed to be fully functional, raising questions concerning the underlaying motives to their demolition. Were they necessary?Through a deeper analysis of a specific demolished building, the study will investigate if the demolition could have been avoided and present an alternative that demonstrates how the building could have been preserved.The report begins with an external analysis, providing relevant background information and to place the subject of the study in a wider context. It then introduces the property that the study has chosen to focus on – Hästen 21 and the building Passagenhuset, which has been replaced by a new office building. To provide a broader understanding to why buildings are being demolished, the study also includes reference projects and interviews with experts in fields related to the subject in matter. Additionally, a review of literature is presented to identify general factors that influence decisions surrounding demolition, followed by a more detailed account of the process through which Passagnehuset was demolished. The study is concluded by analyzing the results and providing suggestions for further research.To offer an alternative solution, the study provides a design proposal, showing how Passagnehuset could have continued to exist. The proposal was also used to compare demolition and preservation, highlighting the advantages and disadvantages of each option, primarily considering sustainability and functionality, whereas other factors were analyzed more briefly.The results indicate that there are clear advantages to preserving and renovating, yet many still choose to demolish. The study also shows that arguments related to difficulties in adapting older buildings to modern standards do not fully hold up. Instead, the motives behind demolition decisions appear to be primarily economic, with alternative preservation solutions seemingly excluded before being properly considered

    Vad är igång? : Aktiv inlärning för klassificering av apparater utifrån effektsignaturer

    No full text
    As electrification and decentralized energy increase demand, smarter energy use becomes vital. Appliance-level feedback, enabled by Non-Intrusive Load Monitoring (NILM), decomposes total power into device-specific signals. Accurate classification relies on large labeled datasets, but collecting such data is costly and challenging. Variations across households and changes over time in device signatures further hinder the scalability and robustness of current NILM systems. To overcome these limitations, this thesis explores how active learning can reduce dependence on manual labeling while maintaining adaptability to changing appliance behaviors. Rather than simply collecting more data, the focus is on efficiently learning from limited supervision. Conducted in collaboration with Float Technologies, a Danish startup specializing in household energy solutions, this research applies active learning techniques to improve classification of appliance signatures within low-frequency NILM systems deployed in real-world scenarios. A systematic experimental framework was used to evaluate multiple classification models (Random Forest, XGBoost, Logistic Regression, k-Nearest Neighbors, Support Vector Classifier, Multilayer Perceptron, and Gaussian Naive Bayes) and query strategies (Entropy, Least Confidence, Margin, Density-Weighted, clustering, and Query by Committee sampling) in both pool-based and stream-based active learning scenarios, using public NILM datasets. In total, the experiments included 18 households and 14 appliance classes. Key findings show that active learning enhances performance across models and strategies, though effectiveness depends on the specific combination. The best result used Entropy sampling with Random Forest, reducing labeling effort by 48 times and achieving F1 ≈ 0.96 (p < 0.001). For post-deployment adaptation, three active learning strategies were tested: stream-based, buffer-based, and hybrid. The hybrid approach was most effective, requiring only 18 labels on average, significantly fewer than the 60 needed by buffer-only, and achieved higher precision (17% vs. 7%). Stream-based active learning detected new appliances in only 1 of 16 households. Future research should focus on cross-household generalization using transfer or meta-learning. Overall, this thesis confirms that active learning is a promising path toward scalable, label-efficient NILM systems with long-term adaptability.I takt med att elektrifieringen ökar och energiproduktionen blir mer decentraliserad blir det allt viktigare att använda elen smartare. Genom så kallad Non-Intrusive Load Monitoring (NILM) kan man bryta ner hushållets totala elförbrukning till enskilda apparater. För att identifiera apparaterna krävs dock stora mängder märkta data, något som är både tidskrävande och dyrt att samla in. Dessutom varierar apparaternas elförbrukning mycket mellan olika hushåll och kan förändras över tid, vilket gör dagens NILM-system svåra att skala upp och hålla tillförlitliga i längden. Den här uppsatsen undersöker hur aktiv inlärning (Active learning) kan minska behovet av manuell märkning samtidigt som systemet förblir anpassningsbart till förändrade apparatbeteenden. Fokus ligger inte på att samla in mer data, utan på att lära sig effektivt från begränsad information. Arbetet är i samarbete med det danska företaget Float Technologies, som utvecklar energilösningar för hemmet och tillämpar aktiv inlärning för att förbättra igenkänningen av apparater i NILM-system med låg mätfrekvens, alltså sådana som är mer realistiska för verkliga användningar. En systematisk experimentuppställning användes för att testa flera olika klassificeringsmodeller (Random Forest, XGBoost, Logistic Regression, k-Nearest Neighbors, Support Vector Classifier, Multilayer Perceptron, and Gaussian Naive Bayes) samt olika urvalsstrategier (Entropy, Least Confidence, Margin, Density-Weighted, Cluster och Query by Committee) i både pool-baserade och strömbaserade aktiv inlärning-scenarion, med publika NILM-dataset. Totalt ingick 18 hushåll och 14 olika typer av apparater i experimenten. Resultaten visar att aktiv inlärning förbättrar prestandan i de flesta fall men hur bra det fungerar beror på vilken kombination av modell och strategi som används. Det bästa resultatet uppnåddes med entropibaserad urval tillsammans med Random Forest, vilket minskade behovet av märkning med 48 gånger och nådde ett F1-värde på cirka 0.96 (p < 0.001). För att testa hur systemet kan anpassa sig efter att det redan är i drift, jämfördes tre aktiv inlärning-strategier: strömbaserad, buffer-baserad och en kombinerad variant. Den kombinerade metoden presterade bäst. Den behövde i snitt bara 18 märkningar, jämfört med 60 för buffer-metoden, och gav också högre precision (17% mot 7%). Strömbaserad aktiv inlärning lyckades bara upptäcka nya apparater i 1 av 16 hushåll. Framtida forskning bör fokusera på hur modeller kan generalisera mellan olika hushåll, till exempel med hjälp av transfer learning eller meta-inlärning. Sammantaget visar uppsatsen att aktiv inlärning är ett lovande sätt att bygga NILM-system som kräver mindre märkning men ändå kan anpassa sig över tid och fungera i stor skala

    Massive Spatial Multiplexing Using Large Aperture Antenna Arrays

    No full text
    The ever-growing demand for higher wireless data rates has driven the exploration of novel methods to harness spatial degrees of freedom in multiple input multiple output (MIMO) systems. This thesis investigates the potential of both fixed and movable antenna arrays in line-of-sight (LoS) and multipath rich environments to optimize spatial multiplexing performance in narrowband and wideband settings. First, fixed dual-polarized planar antenna arrays are considered, and their spatial configuration is optimized to maximize the MIMO channel rank and condition number. Through careful optimization of antenna spacing, it is shown that the MIMO rank can grow quadratically with the carrier frequency, enabling data rates well beyond 1 Tbps. Analytical and numerical results confirm that strategically designed sparse arrays can deliver superior spectral efficiency, even within physically compact apertures. Building on this, arrays of movable antenna (MA) are examined for their ability to dynamically adapt antenna positions to changing channel conditions. While theoretically powerful, real time optimization of MA systems is computationally intensive and practically challenging. To address this, a pre-optimized irregular array (PIA) design is introduced, where antenna positions are fixed based on statistical knowledge of the coverage area. Using particle swarm optimization, PIAs are shown to achieve performance close to that of fully dynamic MA systems, without the need for real-time repositioning. Finally, MA systems are analyzed in wideband MIMO scenarios, where hardware impairments and multipath richness present additional challenges. A novel wideband system model is developed that incorporates hardware non-idealities, and antenna positions are optimized to maximize the average sum rate across subcarriers. Results reveal that the performance benefits of MA systems over fixed arrays are highly dependent on factors such as transceiver quality, channel richness, and the number of subcarriers. Overall, this work presents a unified exploration of spatial array design, spanning from optimized fixed geometries to adaptive movable configurations in both narrowband and wideband systems. The insights gained offer practical guidelines for deploying next generation high capacity MIMO communication networks.Den ständigt växande efterfrågan på högre datahastigheter i trådlösa system har drivit på utforskandet av nya metoder för att utnyttja rumsliga frihetsgrader i MIMO-system (multiple-input multiple-output). Denna avhandling undersöker potentialen hos både fasta och rörliga gruppantenner, i såväl fri siktlinje (LOS) som flervägsrika miljöer, för att optimera prestandan för rumslig multiplexing i smalbandiga och bredbandiga system. Först beaktas fasta, dubbelpolariserade, plana gruppantenner, och deras rumsliga konfiguration optimeras för att maximera MIMO-kanalmatrisens rang och konditionstal. Genom noggrann optimering av antennavstånden visas det att MIMO-rangen kan växa kvadratiskt med bärfrekvensen, vilket möjliggör datahastigheter långt över 1 Tbps. Analytiska och numeriska resultat bekräftar att strategiskt utformade glesa gruppantenner kan leverera överlägsen spektraleffektivitet, även när den fysiska ytan är begränsad. Baserat på detta undersöks därefter gruppantenner bestående av rörliga antenner (MA, movable antennas) som har förmågan att dynamiskt anpassa antennpositionerna till förändrade kanalförhållanden. Även om de är teoretiskt kraftfulla, är realtidsoptimering av MA-system beräkningsintensivt och praktiskt utmanande. För att hantera detta introduceras en föroptimerad PIA-design (pre-optimized irregular array, föroptimerad oregelbunden gruppantenn), där antennpositionerna är fasta och förutbestämda baserat på statistisk kunskap om täckningsområdet för mobilmasten. Med hjälp av partikelsvärmoptimering visas att PIA-designen uppnår prestanda nära den för helt dynamiska MA-system, utan behov av realtidsoptimering av antennpositionerna. Slutligen analyseras MA-system i bredbandiga MIMO-scenarier, där hårdvarubegränsningar och flervägsutbredning skapar ytterligare utmaningar. En ny bredbandig systemmodell härleds som inkluderar hårvarudistorsion, och antennpositionerna optimeras för att maximera den genomsnittliga datahastigheten över alla underbärvågor. Resultaten visar att de relativa prestandafördelarna med MA-system jämfört med fasta gruppantenner är starkt beroende av faktorer som sändarhårdvarans kvalitet, kanalens fädningsrikedom och antalet mängden bandbredd. Sammantaget presenterar denna avhandling en bred utforskning av antenngruppdesign som sträcker sig från optimerade fasta geometrier till adaptiva rörliga antennkonfigurationer i både smalbandiga och bredbandiga system. De insikter som erhållits ger praktiska riktlinjer för att utformningen av nästa generations MIMO-kommunikationsnätverk med hög kapacitet.QC 20250811</p

    Studier av strålinducerade bakgrundsprocesser för sökningar i fördröjda jet-sluttilstånd med ATLAS-detektorn

    No full text
    When searching for new elementary particles at collider experiments, estimation of background processes is one of the most challenging and fundamental components. This is particularly true when the search is focused on extremely rare events from models of new physics beyond the standard model. This thesis aims to study beam-induced background characteristics in the granularity of the single cells within the calorimeter subsystems, to reject unwanted particles for exotic long-lived particles delayed jets analysis. The method relies on the relation between time, spatial coordinate z and radial distance R for different types of particles. Dedicated non-collision background datasets are compared to Monte Carlo simulated long-lived particles signal data, using single cells as fitting points for cluster discrimination. A first rejection method for single beam-induced background clusters is successfully studied and described, highlighting important limitations about the computed timing sensitivity of the calorimeters.Vid sökandet efter nya elementarpartiklar i kolliderexperiment är uppskattning av bakgrund en av de mest utmanande och grundläggande komponenterna. Detta är särskilt sant när sökandet är inriktat på extremt sällsynta händelser från modeller av ny fysik bortom standardmodellen. Denna avhandling syftar till att studera strålinducerade bakgrundsegenskaper i granulariteten hos de enskilda cellerna inom kalorimetersystemen, för att kunna förkasta oönskade partiklar i analysen av exotiska långlivade partiklars fördröjda jetstrålar. Metoden bygger på relationen mellan tid, den rumsliga koordinaten z och det radiala avståndet R för olika typer av partiklar. Dedikerade bakgrundsdatamängder utan kollision jämförs med Monte Carlo-simulerad signaldata för långlivade partiklar, där enskilda celler används som anpassningspunkter för klustrets diskriminering. En första förkastningsmetod för enskilda strålinducerade bakgrundskluster studeras och beskrivs framgångsrikt, med betoning på viktiga begränsningar i kalorimetrarnas beräknade tidskänslighet

    Identifiering av elevers stödbehov med hjälp av maskininlärning

    No full text
    This study investigates how machine-learning techniques can be employed to identify students at risk of academic underperformance. The motivation for this study is to help teachers distribute their resources more equitably and to give students from different contexts a similar chance at success. Two datasets are used: a sample of Portuguese students from the UCI ML Repository and a subset of Swedish students from the PISA 2022 survey. These datasets are preprocessed by employing strategies such as data balancing, feature transformation, and regularization. Machine learning is performed using linear and logistic regression models, due to their interpretability Results show that logistic regression with L2 regularization achieves the highest predictive performance on both datasets, with F-scores of 0.633 and 0.772, respectively. Key predictors include prior academic failures, digital resource usage, and aspirations for further education. The findings indicate that interpretable models can provide actionable insights into student risk classification, supporting more targeted educational interventions.Denna studie undersöker hur tekniker inom maskininlärning kan användas för att identifiera elever som riskerar att prestera svagt i skolan. Syftet med denna studie är att hjälpa lärare att fördela sina resurser mer rättvist och ge elever från olika kontexter en likvärdig chans att lyckas. Två dataset används: ett urval av portugisiska elever från UCI ML Repository samt ett urval av svenska elever från PISA 2022-undersökningen. Dessa dataset är förbehandlade genom att använda strategier såsom databalansering, funktionsomvandling och regularisering. Maskininlärningen utförs med hjälp av linjära och logistiska regressionsmodeller, på grund av deras tolkbarhet. Resultaten visar att logistisk regression med L2-regularisering uppnår den högsta prediktiva prestandan i båda datamängderna, med F-värden på 0,633 respektive 0,772. Viktiga prediktorer inkluderar tidigare underkända kurser, användning av digitala resurser och ambitioner att fortsätta till högre utbildning. Studien visar att tolkbara modeller kan erbjuda handlingsbara insikter i identifieringen av riskelever, vilket stödjer mer riktade pedagogiska insatser

    Effekten av AI-driven rekrytering på mångfald och inkludering i organisationer

    No full text
    This thesis focuses on how AI-based recruitment affects diversity and inclusion in organizations. As more companies use artificial intelligence to help in hiring processes, concerns have grown about the potential for bias and unfair treatment of candidates. The study looks at how AI recruitment tools assess candidates and whether they might reinforce existing biases related to age, gender or background. A mixed-methods approach was used, including a literature review, interviews with HR professionals, and experimental testing of three publicly available AI recruitment tools. The findings reveal that while AI tools can improve efficiency and consistency, some tools still show signs of bias. The interviews confirmed these concerns and highlighted the need for transparency and human involvement. The thesis ends with suggestions for reducing bias in AI recruitment and brings up the importance of building ethical and inclusive systems.Denna kandidatuppsats fokuserar på hur AI-baserad rekrytering påverkar mångfald och inkludering i organisationer. I takt med att allt fler företag använder artificiell intelligens i sina rekryteringsprocesser har oron ökat kring risken för partisk och orättvis behandling av kandidater. Studien undersöker hur AI-verktyg bedömer kandidater och om de kan förstärka befintliga bias kopplade till ålder, kön eller bakgrund. Ett blandat metodupplägg har använts, med litteraturstudie, intervjuer med HR-personal samt experimentell testning av tre publikt tillgängliga AI-rekryteringsverktyg. Resultaten visar att AI-verktyg kan förbättra effektivitet, men vissa verktyg uppvisar fortfarande tecken på bias. Intervjuerna bekräftade dessa farhågor och betonade att det är viktigt med transparens och mänsklig inblandning. Uppsatsen avslutas med förslag på hur bias i AI-rekrytering kan minskas och lyfter vikten av att utveckla etiska och inkluderande system

    Stress-testing the brick wall model for black entropy near extremality

    No full text
    In this report, we investigate the possibility of reproducing quantum corrections to the entropy of near-extremal black holes—black holes whose temperature nearly vanishes—derived from semiclassical quantum gravity using the ’t Hooft brick wall model. Beyond rederiving these corrections within a mathematically simpler framework, the aim is to investigate the predictions that this approach could yield for near-extremal geometries where the gravitational path integral formalism struggles to resolve such corrections, despite recent developments. To this end, a general, geometry-independent formula is developed for the logarithmic correction as a function of temperature to the Bekenstein–Hawking entropy in the brick wall framework. Several refinements to the model are considered and used to improve this formula. It is then applied to a variety of near-extremal black holes with different asymptotic geometries (flat, anti-de Sitter, and de Sitter), to compare with known results from the gravitational path integral formalism. The model’s failure to reproduce the expected corrections ultimately leads to a key conclusion: The common perception of black hole event horizons as hard, opaque walls is inadequate in the considered near-extremal limits. This model and this perception lack the subtlety needed to capture quantum effects when these become dominant at low temperatures near extremality.I denna rapport undersöks möjligheten att återge kvantkorrektioner till entropin hos nästintill extrema svarta hål, såsom de härleds inom den semiklassiska kvantgravitationens ramverk, med hjälp av ’t Hoofts så kallade brick wall-modell. Förutom att återskapa dessa korrektioner inom en matematiskt enklare modell är målet att studera vilka förutsägelser som modellen kan ge i nästintill extrema geometriska konfigurationer där kvantgravitationen inte förmår lösa problemen fullt ut. För detta ändamål utvecklas en allmän, geometrioberoende formel för den logaritmiska korrektionen till Bekenstein–Hawkings entropi inom brick wall-modellen. Många förbättringar av modellen övervägs och används för att förfina denna formel. Därefter tillämpas den på ett antal nästintill extrema svarta hål med olika asymptotiska geometriska egenskaper (platt, anti-de Sitter och de Sitter), både för att jämföra med kända resultat från kvantgravitation och – i ett fall – för att undersöka modellens begränsningar. Modellens oförmåga att återge de förväntade korrektionerna leder slutligen till en viktig slutsats: Den vanliga uppfattningen om svarta håls händelsehorisonter som ogenomträngliga väggar är otillräcklig. Den här modellen och denna uppfattning saknar den finkänslighet som krävs för att fånga upp kvanteffekter när dessa blir dominerande vid låga temperaturer nära extrempunkten

    0

    full texts

    57,969

    metadata records
    Updated in last 30 days.
    Publikationer från KTH is based in Sweden
    Access Repository Dashboard
    Do you manage Open Research Online? Become a CORE Member to access insider analytics, issue reports and manage access to outputs from your repository in the CORE Repository Dashboard! 👇