Publikationer från KTH
Not a member yet
    57969 research outputs found

    From bits to biometrics : sustainable hacking of optical storage technologies for atomic force microscopy and medical applications

    No full text
    This article showcases how optical pickup units, a type of optical data storage technology, can be sustainably hacked for advanced applications in atomic force microscopy (AFM) and medical diagnostics. The evolution of these technologies from compact discs to Blu-ray is discussed, and their creative applications in high-precision, cost-effective scientific tools are detailed. The transition from data storage to nanoscale imaging has implications for skin nanotexture biometrics, as demonstrated by the example of high-speed dermal AFM for dermatological analysis. Although several technical challenges arise, this approach can have considerable economic and educational benefits and future possibilities, including integration with internet of things and artificial intelligence for stronger functionality. Innovation grounded in hacking can democratize scientific exploration, promote sustainable research, and advance precision medicine, thereby creating a new paradigm for the development of scientific instrumentation.QC 20250623</p

    LLM: Hämtning kontra Parametriskt Minne

    No full text
    Large language models (\textit{LLM}) have made remarkable progress but still suffer from factual inconsistencies when it comes to general knowledge questions, often producing incorrect or unsupported information. This thesis addresses that limitation by comparing two paradigms for open-domain question answering: a retrieval-augmented generation (\textit{RAG}) system that supplements a small \textit{LLM} with an external document retriever, and a large standalone \textit{LLM} that relies solely on knowledge stored in its model weights. The central question is whether a much smaller retriever-backed model can achieve factual accuracy comparable to or better than a state-of-the-art large standalone \textit{LLM} in answering general knowledge questions. To investigate this, a \textit{RAG} pipeline was implemented using a relatively small \textit{LLM} (billions of parameters) for generation, and a large (millions of documents) retrieval corpus. Its performance on answer accuracy was then evaluated against leading large \textit{LLM}s (trillion+ parameters) on a curated dataset of 1,000 open-domain question \&amp; answer (\textit{QA}) pairs. Each system’s rate of factually correct answers were measured and analyzed where their responses differ. This study thus explores the trade-off between “memory” (internal parametric knowledge) and “retrieval” (external knowledge lookup) in LLMs, aiming to understand how much external retrieval can compensate for a smaller model’s limited internal knowledge in terms of factual accuracy.Stora språkmodeller (LLM:er) har gjort anmärkningsvärda framsteg men lider fortfarande av faktamässiga inkonsekvenser och producerar ofta felaktig eller obestyrkt information. Denna uppsats tar itu med den begränsningen genom att jämföra två paradigm för frågesvar i öppna domäner: ett retrieval-augmented generation (RAG)-system som kompletterar en liten LLM med en extern dokumenthämtare, och en stor parametrisk LLM som enbart förlitar sig på kunskap lagrad i sina modellvikter. Den centrala frågeställningen är huruvida en betydligt mindre modell med RAG-stöd kan uppnå en faktamässig noggrannhet som är jämförbar med, eller bättre än en avancerad stor LLM vid besvarande av allmänkunskapsfrågor. För att undersöka detta implementerades en RAG-pipeline med en relativt liten LLM (med miljarder parametrar) tillsammans med ett textkorpus i webbskala, och dess prestanda utvärderades mot en ledande stor LLM (med biljoner parametrar) på en kuraterad datamängd bestående av cirka 1 000 öppna QA-par. Varje systems andel faktamässigt korrekta svar mättes och analyserades där deras svar skilde sig åt. Denna studie utforskar därmed avvägningen mellan ”minne” (intern parametrisk kunskap) och ”hämtning” (extern kunskapsuppslagning) i LLM:er, med målet att förstå hur mycket extern hämtning kan kompensera för en mindre modells begränsade interna kunskap när det gäller faktanoggrannhet

    Genomförbarhet av IMU-baserad mätning av träningsbelastning i trampett inom truppgymnastik

    No full text
    Wearable sensor technology is transforming sports analysis by enabling detailed, real-time motion tracking outside of laboratory settings. In gymnastics disciplines like TeamGym, where athletes perform rapid and complex movements, accurately monitoring training load remains a significant challenge. Effective training load monitoring is essential for optimizing performance and reducing injury risk, but traditional motion capture tools are often not feasible for in-field use in gymnastics environment. The goal of this thesis is to systematically evaluate whether IMU can provide reliable and meaningful training load metrics for TeamGym trampette jumps. Key steps included identifying relevant features of external training load, implementing IMU-based methods for measuring them, validating their accuracy, reliability and sensitivity, and developing a mobile application to support coaches and athletes. Data was collected both through test data protocol and real world data protocol, and signal processing methods and algorithms were used to extract horizontal velocity, peak jerk, net impulse, jump height, total energy and jump count. The results show that peak jerk, net impulse, jump height, total energy at jump apex and jump count, are promising indicators of external training load. The IMU-based methods where validated against video-based methods to further strengthened their credibility. A prototype app was successfully developed to deliver jump count feedback and demonstrated potential for integrating additional features. These findings highlight the feasibility of using IMUs for performance monitoring in TeamGym and lay the groundwork for technology-assisted, data-driven coaching. With further development, such systems may also help reduce injury risk by detecting excessive load patterns and supporting more informed training decisions.Bärbara sensorer håller på att förändra idrottsanalysen genom att möjliggöra noggranna mätningar i realtid i verkliga träningsmiljöer. Att mäta snabba och komplexa rörelser inom truppgymnastik är ingen självklar uppgift och utgör en stor utmaning. Effektiv monitorering av träningsbelastning är avgörande för att maximera prestation och minimera skaderisk, men traditionella rörelseinspelningsutrustningar är ofta inte praktiskt användbara i verkliga tränings-miljöer. Syftet med denna uppsats är att systematiskt utvärdera om tröghetssensorer (IMU:er) kan ge tillförlitliga och meningsfulla mätningar av träningsbelastning vid trampetthopp inom truppgymnastik. De centrala delarna av projektet bestod i att identifiera relevanta egenskaper för extern träningsbelastning, implementera mätmetoder baserade på tröghetssensor-teknik, validera deras noggrannhet, tillförlitlighet och känslighet, samt utveckla en mobilapplikation som stöd för tränare och idrottare. Data samlades in genom både ett testdataprotokoll och ett protokoll för verkliga förhållanden. Signalbehandling och algoritmer användes för att beräkna horisontell hastighet, maximal jerk, nettoimpuls, hopphöjd, total energi och antal hopp. Resultaten visar att maximal jerk, nettoimpuls, hopphöjd, total energi vid hoppets högsta punkt och antal hopp är goda indikator på träningsbelastning. Validering mot videobaserade metoder stärkte ytterligare deras trovärdighet. En prototypsapp utvecklades framgångsrikt för att ge återkoppling på antal hopp och visade potential för att integrera ytterligare funktioner. Resultaten visar på en möjlig användning av tröghetssensorer för att mäta träningsbelastning och lägger grunden för teknikstödd- och datadriven coachning. Med fortsatt utveckling kan sådana system även bidra till att minska skaderisken genom att upptäcka överbelastningsmönster och hjälpa till att fatta mer välgrundade träningsbeslut.Verið er að gjörbreyta íþrótta greiningum með nákvæmum hreyfinemum á líkama íþróttafólks, sem safna gögnum í raunverulegum aðstæðum. Að mæla kvikar og ólínulegar hreyfingar hópfimleikafólks er krefjandi verkefni. Vöntun er á skilvirkara eftirliti með æfingarálagi til að hámarka afköst og lágmarka álagsmeilsli og hefðbundin hreyfimælitækni telst ekki raunhæfur kostur í raunverulegum æfingaraðstöðum. Markmið þessarar ritgerðar er að meta á kerfisbundinn hátt hvort hreyfimælar (IMUs) geti veitt marktækar áætlanir á æfinga-álagi þegar kemur að trampólín stökkum í hópfimleikum. Verkefnið greinir helstu eiginleika ytra æfingaálags, útfærir mælingaraðferðir byggðar á hreyfimæla tækni, sannreynir nákvæmni, marktækni og næmni þeirra, og þróa farsíma-forrit til stuðnings fyrir þjálfara og íþróttafólks. Gögnum var safnað bæði úr raunverulegum aðstæðum og vinnslu stafrænna merkja og reiknirit notuð til að reikna út láréttan hraða, hámarksbreyting á hröðun, heildar áhrif krafts yfir tíma, stökkhæð, heildarorku og fjölda stökkva. Niðurstöðurnar sýna að hámarksbreyting á hröðun, heidar áhrif krafts yfir tíma, stökkhæð, heildarorka á hápunkti stökksins og fjöldi stökkva eru góðir vísar að æfingarálagi. Trúverðugleiki þessara aðferða var staðfestur enn frekar með myndböndum. Góðum árangri var náð í þróun á appi sem telur fjölda stökkva og hefur góða möguleika á að bæta við fleiri mælanlegum þáttum. Niðurstöðurnar sýna fram á mögulega notkun hreyfimælitækja til að mæla æfingarálag og leggja góðan grunn fyrir tækni studdar og gagnadrifnar þjálfunaraðferðir. Með frekari þróun gætu slík kerfi einnig aðstoðað við að draga úr meiðslahættu með því að greina ofþjálfun og styðja við upplýstar ákvarðanatökur í þjálfun

    The expansion of the planner’s rationality in citizen dialogues : A Study on AI’s potential to enhance efficiency and foster democratization in consultation processes

    No full text
    Idag kan samrådsfaserna i våra planeringsprocesser ses präglas av enflaskhalsproblematik. Samrådens funktion av att spegla och integrera medborgares synpunkter iplanförslag begränsas, på grund av en brist på tid och resurser. De stadsplanerarna somansvarar för samråden tvingas därför nedprioritera fullständiga undersökningar avsynpunkternas ursprung – och därmed analyser av deras underliggande premisser. Dettatillåter inflytelserika aktörer kan förskjuta diskursens underliggande rationalitet till sinafördelar, på bekostnad av intressenter med lägre status. Det är denna dynamik som försvårarför strävan mot mer deliberativ demokrati, där principen om folkstyre upprätthålls genomlikvärdig behandling av argument. Men givet den relativt nya upptäckten av den artificiellaintelligensens kraftfulla förmåga till naturlig språkbehandling skymtar en potentiell lösning:att automatisera den monotona men tidskrävande kategoriseringen av samrådssynpunkter, vilket frigör tid som planerarna kan återinvestera i mer djupgående analyser av de diskursbildande processerna. Denna studie har sammanställt ett kunskapsunderlag som syftar till att integrera denyckelinsikter som krävs för att utveckla en AI-driven modell som kan effektivisera ochdemokratisera planeringens samrådsprocesser, med särskilt fokus på sammanställningarna avderas tillhörande samrådsredogörelser. Det insamlade kunskapsunderlaget visar att dagenskategoriseringsprocesser kan fullt ut replikeras och automatiseras med en AI-modell, vilketger både eftersträvade tidsvinster, men även grundläggande kvalitetshöjningar. Tack varedessa modellers skalbarhet kan ramverket också utvidgas för att hantera ytterligarekontextberikande uppgifter, vars resultat sedan kan visualiseras med valbara grafer ianvändargränssnittet – och därmed hjälpa planerarna att upprätthålla en mer deliberativdiskurs. I diskussionen föreslås att dessa förbättringar ska utforskas vidare genom konkretapilot- och forskningsprojekt för att uppnå den fulla potentialen av denna typ av modell.Kunskapsunderlaget beaktar dessutom de risker som är förknippade med AI-drivna system.Today, the consultation stages of our planning processes can be characterized by a bottleneckphenomenon. Their ability to reflect and integrate citizens’ comments into planning proposalsis constrained by a lack of time and resources. Urban planners overseeing these consultationsare therefore forced to deprioritize comprehensive examinations of where those comments originate—and thus analyses of their underlying premises. This allows influential actors to skew the discourse’s rational foundations to their advantage, at the expense of lower-statusstakeholders. It is this dynamic that impedes the pursuit of a more deliberative democracy, inwhich popular rule is upheld through the equal treatment of arguments. However, given therelatively recent emergence of artificial intelligence’s powerful natural-language processing capabilities, a potential solution comes into view: automating the monotonous yet time-consuming categorization of consultation comments, thereby freeing up time that planners can reinvest in deeper analyses of the discursive processes. This study has assembled a knowledge base aimed at integrating the key insights needed todevelop an AI-driven model capable of streamlining and democratizing planning’sconsultation processes, with a particular focus on compiling their associated consultationreports. The collected evidence shows that today’s categorization workflows can be fullyreplicated by—and automated with—an AI model, yielding both the sought-after timesavings and fundamental quality improvements. Thanks to the scalability of such models, thisframework can be extended to handle additional context-enriching tasks, which can in turn bevisualized via optional graphs in the user interface—thereby helping planners sustain a moredeliberative discourse. The discussion proposes that these enhancements be explored furtherthrough concrete pilot and research projects aimed at developing this type of model. Theknowledge base also accounts for the risks inherent to AI-driven systems

    Analys av S&amp;P 500 vid politiska skiften

    No full text
    The stock market index S&amp;P 500 is influenced by a wide range of macroeconomic and behavioral factors. This study aims to explore how the relationship between key indicators differs under two U.S. presidential administrations – Joe Biden and Donald Trump. This is achieved by analyzing periods with differing political climates. Principal Component Regression (PCR) is used to identify the extent to which the selected variables affect stock market behavior and to evaluate whether this relationship differs across the presidential administrations. The results show that while the Biden-era model provides stronger and more interpretable patterns than the Trump-era model, both models exhibit limited reliability due to short time spans and data constraints. The political environment appears to have a strong impact on stock market performance, and PCR proves effective in capturing the complex relationships among variables.Aktieindexet S&amp;P 500 påverkas av flertalet olika makroekonomiska och beteendemässiga faktorer. Denna studie syftar till att undersöka hur sambandet mellan centrala indikatorer skiljer sig åt under två amerikanska presidentadministrationer – Joe Biden och Donald Trump. Detta uppnås genom att analysera perioder med olika politiska klimat. Principal Component Regression (PCR) används för att identifiera i vilken utsträckning de valda variablerna påverkar börsbeteendet och för att utvärdera om detta samband skiljer sig mellan presidentadministrationerna. Resultaten visar att även om modellen för Biden-perioden ger starkare och mer tolkbara mönster än modellen för Trump-perioden, uppvisar båda modellerna begränsad tillförlitlighet på grund av korta tidsperioder och begränsad data. Det politiska klimatet har ett starkt inflytande på aktiemarknadens utveckling och PCR visar sig vara effektivt för att förstå de komplexa sambanden mellan variablerna

    Deep Learning based Tool for Optimizing Scrap Feed prior to EAF Operation

    No full text
    Självklart! Här är texten med de saknade mellanslagen tillagda, utan andra ändringar:  The steel industry is a key sector for modern society. Due to the extreme versatility of steel, it finds application in very different sectors. However, the steel industry is also very polluting, accounting for roughly 7-9 % of the yearly global anthropogenic CO2 emissions. Steel is produced either from iron ore, with the Blast Furnace-Basic Oxygen Furnace (BF-BOF) process, or from steel scrap, following the Electric Arc Furnace (EAF) process. With the latter being a more sustainable alternative (roughly half of the energy required and 1.5 tonnes of CO2 emissions), the steel industry looks forward to shifting the production towards the EAF, which today accounts for 29 % of the global production. However, differently from the BF-BOF, the EAF has still not been optimized up to its full potential. In the process of achieving EAF process’ maximum efficiency, the integration of artificial intelligence could represent a significant step forward. The power and computational ability of machine learning models may indeed be used to further analyse the data collected from industry. In this way, it could be possible to improve the understanding of the EAF process and help optimizing it. This thesis focuses on using data clustering algorithms (Gaussian Mixture Model and K-Means) to analyse real industrial data. The objective was to examine the influence of the steel scrap type and its preparation on the EAF energy consumption. The information gathered during the preliminary data analysis and the data clustering were then used to develop and support an optimizer tool used to predict the most energy-efficient configuration of the EAF charging bucket.Självklart! Här är texten med de saknade mellanslagen tillagda, utan några andra ändringar:  Stålindustrin är en nyckelsektor för det moderna samhället. På grund av stålets extrema mångsidighet, finner det användning inom väldigt olika sektorer. Men stålindustrin är också mycket förorenande och står för ungefär 7-9 % av de årliga globala antropogena CO2-utsläppen. Stål framställs antingen från järnmalm, med masugns-Basic Oxygen Furnace (BF-BOF)-processen, eller från stålskrot, enligt den elektriska ljusbågsugnen (EAF)-processen. Eftersom det senare är ett mer hållbart alternativ (ungefär hälften av energin som krävs och 1.5 ton CO2-utsläpp) ser stålindustrin fram emot att flytta produktionen mot EAF, som idag står för 29 % av den globala produktionen. Men till skillnad från BF-BOF har EAF fortfarande inte optimerats till sin fulla potential. I processen att uppnå EAF-processens maximala effektivitet kan integreringen av artificiell intelligens utgöra ett betydande steg framåt. Kraften och beräkningsförmågan hos modeller för maskininlärning kan verkligen användas för att ytterligare analysera data som samlas in från industrin. På så sätt skulle det kunna vara möjligt att förbättra förståelsen av EAF-processen och hjälpa till att optimera den. Denna avhandling fokuserar på att använda dataklustringsalgoritmer (Gaussian Mixture Model och K-Means) för att analysera verklig industriell data. Syftet var att undersöka vilken inverkan stålskrottypen och dess beredning har på energiförbrukningen för EAF. Informationen som samlades in under den preliminära dataanalysen och dataklustringen användes sedan för att utveckla och stödja ett optimeringsverktyg som används för att förutsäga den mest energieffektiva konfigurationen av EAF-laddningsskopan

    Utvärdering av OPM-MEG med hjälp av auditiva framkallade svar

    No full text
    Magnetoencefalografi (MEG), som icke-invasivt mäter det magnetfält som genereras från neuronkluster, har potential att användas i kliniska miljöer för diagnos och prediktion av behandlingssvar. Konventionell MEG använder supraledande kvantinterferensdetektorer (SQUIDs) som kräver kryogen kylning. Därför är sensorerna fästa cirka 2 cm från huvudet i en fast formation för en standardhuvudstorlek, vilket leder till minskad känslighet. I kontrast, kan optiskt pumpade magnetometrar (OPMer) placeras direkt på skalpen, vilket ökar signalstyrkan samt gör att sensoruppsättningen kan anpassas efter studiesyfte och deltagare. I detta projekt kommer gruppnivåanalyser genomföras i sensorrum för att jämföra amplitud, effekt och latenser för auditiva responser. Syftet är att jämföra och validera OPM-MEG mot SQUID-MEG. Huvudkomponenterna vilket ska jämföras kommer att vara M100, M300 och frekvensmärkningens respons. Resultaten visade att M100- och M300-komponenterna, utöver MMN och standardton, hade en ökad amplitud för OPM-MEG. M300 och MMN är särskilt viktiga då de har använts som markörer för kognitiva störningar. Faslåst aktivitet var urskiljbar för No Go-tonerna, vilket indikerar att frekvensmärkning är detekterbar med OPM. Amplituderna och effekterna visade en ökning med cirka 250 % respektive 630 %. Latensmätningarna indikerade ingen signifikant skillnad, vilket tyder på att samma neurala svar registrerades med båda modaliteterna. Trots en begränsad deltagargrupp tyder resultaten på ökad känslighet för OPMer, vilket gör dem till en potentiellt hållbar och kostnadseffektiv lösning för forskning och klinisk användning.Magnetoencephalography (MEG), which non-invasively measures the magnetic field generated from neuronal clusters, has the potential for use in clinical settings for diagnosis and treatment response prediction. The conventional MEG uses superconducting interference devices (SQUIDs) that require cryogenic cooling. Consequently, the sensors are fixed approximately 2 cm from the head in a fixed formation for a standard head size which leads to decreased sensitivity. In contrast, optically pumped magnetometers (OPMs) can be placed directly on the scalp, increasing sensor signal and allowing the sensor array to be customised for study purpose and participants. In this project, group-level analysis will be performed in sensor-space to compare amplitude, power and latencies of auditory responses. The aim is to benchmark and validate OPM-MEG against SQUID-MEG. The main components to be compared will be the M100, M300 and frequency tagging responses. Results showed that M100 and M300 components, in addition to MMN and standard tone, had an increased amplitude for OPM-MEG. M300 and MMN are particularly important as they have been used as markers for cognitive disorders. Phase-locked activity was distinguishable for the No Go tones indicating that frequency tagging is detectable using OPMs. Amplitudes and powers showed approximately 250% and 630% increases, respectively. Latency measurements indicated no significant difference, implying that the same neural response was recorded with both modalities. Despite a limited participant group, the results suggest increased sensitivity for OPMs making them a potentially sustainable and cost-effective solution for research and clinical use

    Maskininlärning för förebyggande sjukvård för äldre: Prognostisering av sjukhusinläggningar med hjälp av prediktiv AI : En ljudbaserad metod för tidig upptäckt och intervention

    No full text
    The increasing adoption of connected technologies and AI in healthcare offers new opportunities to improve senior care by enabling early detection of health risks and emergencies. This thesis explores the development of a non-invasive, sound-based AI system designed for passive health monitoring of elderly individuals living independently at home. Unlike wearable devices, the proposed system analyzes ambient audio to detect distress situations such as falls and cries for help, as well as to identify behavioral changes indicative of health deterioration. Using supervised deep learning and a hybrid edge- cloud architecture, the system achieves real-time detection while preserving privacy through on-device processing. Evaluation on real-world data confirms the feasibility of this approach, although challenges remain related to data quality, environmental noise, and model generalization. Future work includes expanding the dataset, improving audio quality, and enhancing temporal context analysis. This work contributes to safer aging-in-place solutions and demonstrates the potential of sound-based AI for proactive senior healthcare.Den ökande användningen av uppkopplad teknik och artificiell intelligens (AI) inom vården erbjuder nya möjligheter att förbättra äldreomsorgen genom att möjliggöra tidig upptäckt av hälsorisker och nödsituationer. Denna avhandling undersöker utvecklingen av ett icke-invasivt, ljudbaserat AI-system utformat för passiv hälsomonitorering av äldre personer som bor självständigt hemma. Till skillnad från bärbara enheter analyserar det föreslagna systemet omgivningsljud för att upptäcka nödsituationer såsom fall och rop på hjälp, samt identifiera beteendeförändringar som tyder på försämrad hälsa. Genom att använda övervakad djupinlärning och en hybrid edge-moln- arkitektur möjliggör systemet realtidsdetektion samtidigt som integriteten bevaras genom lokal bearbetning. Utvärdering på data från verkliga miljöer bekräftar genomförbarheten i detta tillvägagångssätt, även om utmaningar kvarstår relaterade till datakvalitet, bakgrundsljud och generalisering av modellen. Framtida arbete inkluderar utökning av datasetet, förbättring av ljudkvaliteten samt fördjupad analys av tidsmässiga sammanhang. Detta arbete bidrar till säkrare lösningar för att möjliggöra åldrande i hemmet och visar potentialen hos ljudbaserad AI för proaktiv äldreomsorg

    Evaluation of Direct and Indirect Methods for Occupancy Detection and Air Quality Control in Buildings

    No full text
    This thesis investigates a range of sensor-based methodologies for the detection of occupancy in indoor environments, with the objective of improving HVAC control and energy efficiency. The research was conducted in the Bäckström Conference Room at KTH, utilizing existing environmental sensors, including CO₂, temperature, humidity, a PIR motion sensor, and custom-designed Bluetooth Low Energy tracking systems developed on ESP32 microcontrollers. Among the techniques assessed, CO₂ concentration emerged as the most reliable single indicator of occupancy, demonstrating a robust correlation (R² = 0.98) with the actual headcount. While temperature and relative humidity provided useful insights into the dynamics and stratification of the indoor environment, their individual predictive capabilities were found to be limited. The PIR sensor predominantly functioned to verify presence due to its less precise measurement resolution. The BLE-based approaches comprised two distinct methodologies. The first was a BLE device counter that passively detects nearby broadcasting devices, showing a strong correlation with occupancy data. A linear regression model developed using the device count achieved an R² value of 0.874 with a dataset characterized by a limited number of occupants and devices. The second methodology focused on analyzing the BLE signal strength (RSSI) between a transmitter-receiver pair. Although this approach did not facilitate occupant counting, it enabled the detection of occupant positioning and movement patterns within the space by examining signal attenuation characteristics. Occupancy data were employed to develop adaptive occupancy schedules, which were subsequently implemented in IDA ICE building simulations. The objective of these simulations was to evaluate the potential energy savings achievable through occupancy-based HVAC control by comparing dynamic, sensor-informed occupancy profiles with conventional static profiles grounded in EN 16798-1 standards. Importantly, this research focused on assessing two distinct occupancy scenarios within the same HVAC system configuration, rather than analyzing different energy control technologies. The results indicated a significant reduction in annual HVAC energy consumption when authentic occupancy data were utilized, highlighting the critical impact of internal gains on energy demand. The Bäckström Room, characterized as a thermally stable and controlled environment, relies predominantly on the Mechanical Supply Air system for temperature regulation, with minimal contributions from active heating and cooling systems

    Designing with the Solar Internet : Towards Constraint-Based Design for Sustainable Consumption

    No full text
    In response to the escalating impact of mindless consumption in the fashion and IT industry, we began to think of and with a constraintbased approach to interaction design. This paper describes a research through design investigation into a paradigm of constraintbased design, founded on the practical and perceived constraints of solar-powered internet. Our intention is not to examine individual consumer as a site for sustainable transition, but the industries and industry practitioners at the interface with consumers. We employed strategies that included optimisation as a form of minimisation, visibility as a means to mark existing absence, offloading from automation, and the design of dead-ends. We discuss the challenges in learning to design against the cornucopian paradigm. While the overall vision of an internet powered by the sun seems at once desirable and achievable, the pursuit of a constraints-based interaction design highlights the desire to confirm the dominant paradigm of abundance.Part of proceedings ISBN 9798400713941QC 20250619</p

    0

    full texts

    57,969

    metadata records
    Updated in last 30 days.
    Publikationer från KTH is based in Sweden
    Access Repository Dashboard
    Do you manage Open Research Online? Become a CORE Member to access insider analytics, issue reports and manage access to outputs from your repository in the CORE Repository Dashboard! 👇