POLITesi - Archivio digitale delle tesi di laurea e di dottorato (Politecnico di Milano)
Not a member yet
    59810 research outputs found

    Mathematical models and methods for the processing of earth observation data in agricultural applications

    No full text
    DOTTORATOIl settore agricolo sta vivendo rapidi progressi dovuti all’emergere del nuovo paradigma dell’Agricoltura 4.0, che si basa su pratiche agricole sostenibili ed efficienti. Questo paradigma sfrutta tecnologie emergenti come il telerilevamento, l’analisi dei big data e l’intelligenza artificiale. In questo contesto, le principali sfide riguardano la disponibilità, la gestione e l’interpretabilità dei dati satellitari, i quali sono risorse essenziali per agri- coltori e stakeholder nell’ottica di prendere decisioni informate in ambito agricolo. Questa tesi affronta tali problematiche focalizzandosi su tre aspetti principali. i) L’impossibilità d’uso dei dati ottici se acquisiti in presenza di condizioni meteorologiche avverse. ii) L’elevato carico legato alla memorizzazione ed elaborazione di grandi volumi di dati di Osservazione della Terra. iii) Metodi di classificazione avanzati per un’analisi ottimale della copertura del suolo. La prima parte del progetto esamina l’uso dei dati Radar ad Apertura Sintetica (SAR) come surrogato in assenza di immagini ottiche, colmando un’importante lacuna nel monitoraggio continuo delle colture, in particolare nel contesto della fertilizzazione azotata. Infatti, molti algoritmi di fertilizzazione si basano su dati satellitari ottici, i quali, se acquisiti in presenza di condizioni meteorologiche sfavorevoli, non garantiscono, quando necessario, la possibilità di calcolare ed attuare applicazioni azotate a rateo variabile. Per affrontare questo problema, prendiamo in considerazione un semplice algoritmo di fertilizzazione basato su dati ottici e proponiamo una tecnica di data fusion, integrando dati SAR e ottici, per calcolare mappe di prescrizione azotata, anche in assenza di dati ottici, durante le principali fasi fenologiche a ridosso delle appli- cazioni di fertilizzante azotato. L’approccio proposto consiste nei seguenti passaggi: i) a partire da dati ottici e SAR, addestrare una rete neurale convoluzionale di tipo U-Net per apprendere la relazione tra i coefficienti SAR di backscattering e l’Indice di Vegetazione Normalizzato (NDVI); ii) utilizzare il modello addestrato per stimare l’informazione ot- tica del NDVI (quando non disponibile) a partire dai dati SAR; iii) calcolare le mappe di prescrizione azotata applicando l’algoritmo di fertilizzazione in questione all’NDVI derivato dai dati SAR. La seconda parte del progetto si concentra sulla rappresentazione efficace, la compressione e la memorizzazione dei dati ottici multibanda, che rappresen- tano la principale risorsa all’interno del paradigma dell’Agricoltura 4.0. A tal proposito, è stato implementato un innovativo metodo di compressione per i dati ottici multibanda, caratterizzato da un elevato tasso di compressione. Esso si articola in tre fasi. La prima fase prevede una procedura a due stadi: i) l’utilizzo dell’Analisi delle Componenti Princi- pali (PCA) lungo la dimensione dei canali del dato ottico per rappresentare efficacemente l’informazioni spettrale ad esso associata tramite una collezione di un numero ridotto di immagini di base, corrispondenti alle componenti principali; ii) l’adozione di tecniche di adattazione anisotropa di griglia per rappresentare efficacemente l’informazione spaziale associata alle immagini di base. La risultante rappresentazione PCA-TriangolareAdattiva (PCA-AT) di un dato ottico consiste in una tassellazione triangolare, non strutturata, adattiva del dominio dell’immagine e in una collezione di funzioni agli Elementi Finiti (EF) continue, lineari definite su tale mesh, che approssimano le immagini di base. La seconda fase riguarda l’efficiente memorizzazione della rappresentazione PCA-AT, ossia la generazione del formato PCA-AT, e coinvolge l’uso della codifica di Huffman e della pro- prietà space-filling delle curve di Hilbert per comprimere rispettivamente l’informazione associata alle funzioni EF e alla mesh. L’ultima fase si occupa della decodifica del formato PCA-AT, tramite una versione anisotropa personalizzata dell’algoritmo di Delaunay, in- sieme alla conseguente ricostruzione del dato ottico. Infine, la terza area di ricerca del progetto esplora la classificazione nodo per nodo, in termini di uso del suolo, della rappre- sentazione PCA-AT proposta, che possiede intrinsecamente una struttura a grafo. A tal proposito, il candidato utilizza una Rete Neurale Convoluzionale per Grafi (GCN) per la classificazione semi-supervisionata dei nodi, in grado di sfruttare le relazioni di vicinanza tra i nodi, diversamente dai classificatori tradizionali come le Support Vector Machine (SVM). Affrontando questi tre aspetti (disponibilità dei dati, memorizzazione dei dati, classificazione dei dati), il progetto di ricerca mira a migliorare e ottimizzare la gestione dei dati satellitari nel settore downstream dell’industria dei dati satellitari che coinvolge l’utente finale. Il progetto nasce da una collaborazione con l’azienda aerospaziale Thales Alenia Space.The agricultural sector has been experiencing rapid advancements with the rise of the new paradigm of Agriculture 4.0, which is based on sustainable, and efficient farming practices. This paradigm leverages emerging technologies such as remote sensing, big data analytics, and artificial intelligence. In this context, key challenges regard the avail- ability, management, and interpretability of satellite data, that are the essential resource for farmers and stakeholders with a view to agricultural informed-decisions. This thesis addresses these issues by focusing on three main aspects. i) Optical data unavailability under adverse weather conditions. ii) Significant burden concerning the storage and pro- cessing of high-volume Earth Observation data. iii) Advanced classification methods for optimal land-use analysis. The first part of the project investigates the use of Synthetic Aperture Radar (SAR) data as a surrogate in the absence of optical imagery, filling a crucial gap in continuous agricultural monitoring, and particularly in the nitrogen fertil- ization context. Indeed, many fertilization algorithms are based on optical satellite data, which are often unavailable due to unfavourable weather conditions, not guaranteeing the possibility of implementing nitrogen variable rate applications when required. To address this issue, we consider a simple optical data-based fertilization strategy and propose a data fusion technique, integrating SAR and optical data, to compute nitrogen prescrip- tion maps even in absence of optical data during critical phenological stages related to nitrogen fertilization. The proposed approach consists of the following steps: i) starting from optical and SAR data, train a U-Net-like Convolutional Neural Network (CNN) learning the relationship between SAR backscatter coefficients and the Normalized Dif- ference Vegetation Index (NDVI); ii) use the trained model to surrogate the optical NDVI information (when not available) from SAR data; iii) compute nitrogen prescription maps by applying the considered fertilization algorithm to the SAR-derived NDVI information. The second part of the project focuses on the effective representation, compression and storage of multiband optical data, which represent the first key resource within the Agri- culture 4.0 paradigm. With regard to this, a novel compression method for multiband optical data, characterized by high compression capability, is implemented. It consists of three stages. The first one involves a two-fold procedure. i) The use of Principal Component Analysis (PCA) along the channel dimension of an optical data to effec- tively represent its spectral information through a collection of a small number of basis images, corresponding to principal components. ii) The adoption of anisotropic mesh adaption techniques to effectively represent the spatial information associated with basis images. The resulting PCA-AdaptiveTriangular (PCA-AT) representation of an optical data consists of a triangular, unstructured, adaptive tessellation of the image domain, and a collection of linear continuous Finite Element (FE) functions defined on such a mesh, approximating basis images. The second stage involves the effective storage in memory of the PCA-AT representation, that is, the generation of the PCA-AT format, and involves the usage of Huffman encoding and Hilbert curves space-filling properties to compress information associated with the FE functions and mesh, respectively. The last stage deals with the decoding of the PCA-AT format, via a customized anisotropic ver- sion of the Delaunay algorithm, together with the consequent reconstruction of the optical data. Finally, the third research area of the project explores the node-wise classification in terms of land use of the proposed PCA-AT representation, which has intrinsically a graph structure. To this aim, the candidate employs a Graph Convolutional Network (GCN) for semi-supervised node-wise classification, which is able to exploit proximity relation- ships among nodes, unlike traditional classifiers as Support Vector Machines (SVM). By addressing these three aspects (data availability, data storage, data classification), the research project aims at enhancing and optimizing satellite data management within the end-user downstream sector. The project comes from a collaboration with the aerospace company Thales Alenia Space.DIPARTIMENTO DI MATEMATICA37VERZINI, GIANMARIACORREGGI, MICHEL

    Sensorialita' negli spazi educativi: il ruolo di colore, materiali e percezione nell'esperienza didattica

    No full text
    LAUREA MAGISTRALEPercepire correttamente gli ambienti in cui trascorriamo gran parte del nostro tempo quotidianamente influisce direttamente sul nostro benessere fisico e psicologico. In questi termini, gli spazi educativi hanno la necessità e il dovere di adattarsi alle nuove esigenze sia da un punto di vista didattico-metodologico, sia a supporto di chi ne fruisce quotidianamente. La qualità percettiva di un ambiente, sebbene sia spesso semplificata a una mera interpretazione degli stimoli visivi, rappresenta un sistema complesso, influenzato da molteplici fattori multisensoriali e personali tra cui svolgono un ruolo determinante anche colore, matericità e caratteristiche sensoriali. Oltre a un impatto estetico e funzionale, questi aspetti possono influenzare emozioni, comportamento e performance degli studenti. Per comprendere come una progettazione consapevole di queste componenti possa influire sull’esperienza didattica, sono stati approfonditi i principi teorici della percezione. In particolare, sono stati indagati i processi cognitivi legati alla visione e alla sensorialità, oltre al ruolo del colore nella costruzione dell’esperienza spaziale. A conclusione dell’analisi teorica e delle strategie individuate, lo studio si traduce in una proposta progettuale applicata all’interno dell’edificio B2 del Politecnico di Bovisa.Properly perceiving the environments where we spend most of our daily lives directly affects our physical and psychological well-being. In this regard, educational spaces must evolve to meet new didactic and methodological needs while ensuring comfort for those using them regularly. Although the perceptive quality of an environment is often reduced to a simple interpretation of visual stimuli, it represents a complex system, influenced by multiple multi-sensorial and personal factors. Elements such as color, materiality, and sensorial characteristics play a crucial role, not only in shaping the aesthetic and functional aspects of a space but also in influencing students' emotions, behavior, and performance. In order to understand how a conscious design of these components can influence the learning experience, perceptual theoretical principles have been explored. Specifically, this thesis investigates the cognitive processes related to vision and sensoriality, as well as the role of colour in the construction of spatial experience. Building on the theoretical analysis and the identified strategies, the study concludes with a design proposal applied within the Bovisa Politecnico building B2

    Green warehousing in the retail industry: a simulation-driven framework for warehouse decarbonization with real-world applications

    No full text
    LAUREA MAGISTRALEIl tema della decarbonizzazione dei magazzini nell’industria retail sta ricevendo crescente attenzione sia da parte dei ricercatori che dei professionisti, che ne hanno riconosciuto il ruolo cruciale nella riduzione del significativo impatto ambientale del settore. Questa tesi magistrale, parte di un più ampio progetto di ricerca PNRR finanziato dall’Italia “Centro Nazionale per la Mobilità Sostenibile (MOST) - Spoke 10 Logistica Sostenibile”, approfondisce questo tema attraverso l’impiego di diverse metodologie di ricerca in un approccio multi-metodo. Per comprendere lo stato attuale della ricerca accademica sulla sostenibilità ambientale nelle operazioni logistiche del settore retail, è stata condotta una revisione della letteratura seguendo una versione modificata della metodologia PRISMA che permette di includere sia gli articoli peer-reviewd che le fonti secondarie. Il focus è stato rivolto all’esame delle pratiche di green logistics e warehousing più comunemente adottate dai retailers, nonché all’analisi del loro impatto quantitativo sulla performance ambientale. Data la natura emergente del tema, l’analisi ha rivelato delle lacune che hanno orientato la formulazione delle domande di ricerca, affrontate mediante le metodologie caso studio e simulazione. Con l’obiettivo di colmare la mancanza di un modello strutturato che possa guidare le aziende nella transizione ecologica dei propri immobili logistici, è stato sviluppato un framework che prevede di valutare le prestazioni energetiche ed emissive di un dato edificio logistico, identificare le aree di miglioramento e, sulla base di queste, definire scenari alternativi che incorporino pratiche di green warehousing, il cui impatto ambientale ed economico è simulato in modo quantitativo. Il framework è stato poi applicato a due casi reali del settore retail, al fine di testarne la validità ed efficacia. Infine, sono stati presentati i risultati principali della tesi, oltre a evidenziare i limiti della ricerca e i possibili sviluppi futuri.The topic of warehouse decarbonization in the retail industry is receiving increasing attention from both researchers and practitioners, who have recognized its crucial role in reducing the significant environmental impact of the sector. This Master Thesis, part of a larger NRRP research project funded by Italy “National Center for Sustainable Mobility (MOST) - Spoke 10 Sustainable Logistics,” explores this topic using various research methodologies within a multi-method approach. To understand the current state of academic research on environmental sustainability in the logistics operations of the retail sector, a literature review was conducted following a modified version of the PRISMA methodology which allows for the inclusion of both peer-reviewed articles and secondary sources. The focus was on the examination of green logistics and warehousing practices most commonly adopted by retailers, as well as on the analysis of their quantitative impact on environmental performance. Given the emerging nature of the topic, the analysis revealed some gaps, that guided the formulation of the research questions, addressed through case study and simulation methodologies. With the aim of filling the lack of a structured model that could guide companies in the ecological transition of their logistics facilities, a framework was developed that involves evaluating the energy and emission performance of a given logistics building, identifying areas for improvement and, based on these, defining alternative scenarios that incorporate green warehousing practices, whose environmental and economic impact is quantitatively simulated. The framework was then applied to two real-world cases in the retail sector to test its validity and effectiveness. Finally, the main results of the thesis were presented, along with the limitations of the research and possible future developments

    BESS control strategy: compensation of delays and inertial response

    No full text
    LAUREA MAGISTRALEIn accordo con la spinta globale verso la decarbonizzazione, la penetrazione di Fonti di Energia Rinnovabile (FER) è cresciuta significativamente, ponendo sfide alla stabilità del sistema elettrico a causa della riduzione dell’inerzia fornita dalle centrali tradizionali. La crescente diffusione delle Risorse Basate su Inverter (IBR) ha ulteriormente impattato la stabilità della rete, poiché gli inverter convenzionali Grid-Following (GFL) non possiedono le caratteristiche delle macchine sincrone, come la capacità di fornire supporto inerziale. Gli inverter Grid-Forming (GFM) sono emersi come una soluzione efficace, in grado di fornire un migliore controllo della tensione e della frequenza, soprattutto in reti con carenza di capacità inerziale. I Sistemi di Accumulo a Batterie (BESS) svolgono un ruolo cruciale in questa transizione, offrendo una risposta rapida a condizioni di carico variabile e migliorando la stabilità della rete. Tuttavia, l’efficacia gli impianti BESS viene ostacolata dalle latenze di comunicazione e dalla corretta gestione del controllo degli inverter. Questa tesi propone un modello di impianto BESS, progettato per analizzare gli effetti dei ritardi di comunicazione e del supporto inerziale sul controllo dell’impianto. In particolare, il Controllore Centrale di Impianto (CCI), responsabile della gestione centralizzata dell’impianto, è stato testato in due configurazioni (Feedforward con stima del ritardo e Smith Predictor) per valutarne l’impatto sulla stabilità nel controllo di un inverter Grid-Following. Inoltre, analizzando l’effetto del supporto inerziale fornito da una Macchina Sincrona Virtuale (MSV) in risposta ad un evento di variazione di frequenza, è stato valutato l’impatto sulla risposta del sistema in presenza di un inverter Grid-Forming Nel caso di studio con inverter Grid-Following, è stato dimostrato che, poiché lo schema Feedforward non è in grado di determinare la stabilità del sistema ad anello chiuso dell’impianto, lo Smith Predictor si dimostra essere più adatto per il controllo di processi affetti da disturbi o ritardi che causano instabilità. Nel caso di inverter Grid-Forming, entrambe le configurazioni dei controllori hanno fornito come risultato un’errata compensazione della potenza di supporto inerziale fornita dalla MSV. Pertanto, una soluzione atta a mascherare al CCI la potenza inerziale della MSV è stata proposta. Attraverso studi di stabilità e analisi di risposta del sistema nei due casi di inverter in Grid-Following e Grid-Forming, questa ricerca mira a fornire uno strumento per migliorare l’efficacia del controllo centralizzato ad opera del CCI all’interno degli impianti BESS.As the global push for decarbonization accelerates, the integration of Renewable Energy Sources (RES) has grown significantly, posing challenges to power system stability due to the decline of synchronous inertia. The increasing presence of Inverter-Based Resources (IBRs) has further impacted grid dynamics, as conventional Grid-Following (GFL) inverters lack synchronous machine characteristics, such as frequency response. To overcome these limitations, Grid-Forming (GFM) inverters have emerged as a viable solution, providing improved voltage and frequency control, particularly in low-inertia conditions. Battery Energy Storage Systems (BESS) play a crucial role in this transition, offering rapid response capabilities and enhanced grid stability. However, real-world BESS plants face performance challenges due to communication latencies and inverter control complexities. This study presents a BESS plant model, designed to analyze the effects of communication delays and inertial support on plant control. Specifically, the Power Plant Controller (PPC), responsible for centralized plant management, has been tested in two configurations (Feedforward with delay estimation and Smith Predictor) to assess its impact on stability when regulating Grid-Following inverters. Additionally, the influence of Virtual Synchronous Machine (VSM) inertial support on plant response has been evaluated, introducing in the model a new input representing the provision of inertial power in response to a Rate of Change of Frequency (RoCoF). In Grid-Following scenario, it has been demonstrated that, since the feedforward scheme is not able to determine the stability of the closed loop system model of the plant, Smith Predictor could be more suitable for controlling processes with uncertainties causing instability. When controlling Grid-Forming inverter, both controllers’ configurations have demonstrated to wrongly compensate for the inertial support of the VSM, therefore a solution to hide the inertial power has been provided. Through stability studies and system response analysis in both Grid-Following and Grid-Forming inverter cases, this research aims to provide a tool to enhance the effectiveness of centralized control by the PPC within BESS plants

    A feasibility study on the integration of a Linear Fresnel system for the coverage of heating and cooling demand in a rural settlement in Cyprus

    No full text
    LAUREA MAGISTRALELa crescente domanda di riscaldamento e raffrescamento nel settore delle costruzioni richiede l'esplorazione di nuove fonti di energia. Le tecnologie dell'energia solare concentrata (CSP) rappresentano un'alternativa promettente alla generazione di energia da combustibili fossili. Tuttavia, persiste un potenziale non sfruttato nell'integrazione di queste tecnologie per il raffrescamento degli edifici. Questa ricerca è stata condotta durante un periodo di visita presso the Cyprus Institute a Nicosia, promosso dal programma di finanziamento Erasmus+ dell'UE. Lo studio esplora la fattibilità dell'integrazione di un sistema a collettore lineare di Fresnel (LFC) in un ipotetico insediamento in legno a Cipro, scelta che affronta anche la discrepanza tra le moderne pratiche edilizie di Cipro e i suoi requisiti climatici e ambientali. La tesi segue un approccio in due fasi: un'analisi di sensibilità dal lato della domanda e un'analisi parametrica dal lato della fornitura energetica. La prima fase si concentra sull'individuazione dei parametri più impattanti nei consumi energetici dell'edificio, fornendo uno strumento di supporto alle scelte progettuali preliminari. La seconda fase ha l'obiettivo di valutare, attraverso una serie di simulazioni parametriche, l'efficacia e la fattibilità economica di molteplici configurazioni insediative nel soddisfare la domanda di energia. I risultati dell'analisi di sensibilità mostrano che, tra quelli analizzati, i parametri di progettazione che più influenzano i carichi energetici annuali negli edifici residenziali sono il tasso di infiltrazione dell'aria e la trasmittanza termica delle pareti. I risultati dell'analisi parametrica del sistema, invece, mostrano che, se adeguatamente dimensionato e integrato, un LFC può fornire una fonte di energia affidabile ed economica per il condizionamento degli ambienti, evidenziando il potenziale delle tecnologie CSP nel contesto mediterraneo e offrendo approfondimenti sulla loro più ampia applicazione in regioni con condizioni climatiche simili. Sfruttando strumenti di simulazione come IES-VE e TRNSYS, lo studio fornisce informazioni fondamentali sulla fattibilità tecnico-economica dell'integrazione CSP-LFC nel mondo delle costruzioni, contribuisce all’attuale discussione sulla progettazione energetica sostenibile ed efficiente e offre un riferimento per i responsabili politici, i ricercatori e gli stakeholder del settore che mirano a ottimizzare l'integrazione delle energie rinnovabili nel clima mediterranei.The increasing demand for heating and cooling in the built environment requires the exploration of new energy sources. Concentrated solar power (CSP) technologies represent a promising alternative to fossil fuel energy generation. However, untapped potential persists in the integration of these technologies for building cooling. This research was conducted as part of a visiting period at the Cyprus Institute in Nicosia, supported by the EU’s Erasmus+ funding scheme. The study explores the feasibility of integrating a linear Fresnel collector (LFC) system into a hypothetical timber-based settlement in Cyprus, choice that also addresses the mismatch between Cyprus' modern building practices and its climatic and environmental requirements. The thesis follows a two-phase approach: a demand-side sensitivity analysis and a supply-side parametric analysis. The first focuses on identifying the most impactful parameters in the building's energy consumption, providing support for preliminary design choices, while the second aims to evaluate, through a series of parametric simulations, the effectiveness and economic feasibility of multiple settlement configurations in meeting energy demand. The results of the building sensitivity analysis show that, among those analysed, the most sensitive design parameters affecting annual energy loads in residential buildings are air infiltration rate and wall thermal transmittance. The findings of the system parametric analysis show that, when properly sized and integrated, a LFC can be a reliable and cost-effective energy source for space conditioning, highlighting the potential of CSP technologies in the Mediterranean context and offering insights into their broader application in regions with similar climatic conditions. By leveraging simulation tools such as IES-VE and TRNSYS, the study provides fundamental insights on the techno-economic feasibility of CSP-LFC integration in the built environment. It contributes to the ongoing discussion on sustainable and efficient energy design and offers a reference for policymakers, researchers, and industry stakeholders aiming to optimise renewable energy integration in the Mediterranean climate

    Internet of Things for industry 5.0: unlocking the potential behind Italy's transition 5.0 Plan

    Get PDF
    LAUREA MAGISTRALELe sfide e le opportunità generate dalla quarta rivoluzione industriale hanno dato origine all’Industria 5.0 e alla Società 5.0, due paradigmi interconnessi che gettano le loro fondamenta nei concetti di sostenibilità, responsabilità sociale e reintegrazione dei lavoratori al centro del sistema produttivo. Questa nuova prospettiva evidenzia l’urgenza di far fronte alle sfide ambientali globali, quali il cambiamento climatico, l’esaurimento delle risorse e la transizione verso un’economia a basse emissioni di CO2. In questo contesto, iniziative come il Green Deal europeo, che mira a rendere l'Europa il primo continente climaticamente neutro entro il 2050, e l'Agenda 2030 delle Nazioni Unite, che promuove lo sviluppo sostenibile sotto il profilo ambientale, economico e sociale, giocano un ruolo cruciale. Per rispondere a questa esigenza, nel 2024 il governo italiano ha introdotto il Piano Transizione 5.0, una misura finanziaria inclusa nel PNRR e volta a supportare il processo di “Twin Transition” delle imprese, integrando l'efficienza energetica con la trasformazione digitale per la promozione di processi produttivi più intelligenti e sostenibili. Il piano prevede uno schema che concede alle aziende un beneficio sotto forma di credito d'imposta, basato sulla spesa sostenuta per l’investimento e sulla riduzione energetica ottenuta. Tuttavia, l'impatto che questa iniziativa potrebbe generare sul panorama industriale italiano non è ancora noto. La revisione della letteratura sulla trasformazione del settore manifatturiero abilitata dall’Internet of Things (IoT) ha messo in luce l’emergere di nuovi modelli di business, in cui la servitizzazione digitale, la cooperazione negli ecosistemi e le piattaforme sono elementi di spinta. Nonostante ciò, alcuni autori ritengono necessaria un’analisi più approfondita sull’adozione dell’Industrial IoT, distinguendo tra PMI e grandi imprese, mentre altri sottolineano l’importanza di esaminarne il contributo al raggiungimento degli obiettivi di sostenibilità. Inoltre, la mancanza di un’analisi quantitativa dell’impatto ambientale e di una visione complessiva dell’industria manifatturiera italiana evidenziano l’urgenza di colmare questa lacuna. Pertanto, la seguente tesi presenta un processo di ricerca basato su un sondaggio su oltre 160 aziende manifatturiere italiane, 19 interviste con referenti aziendali e lo sviluppo di un modello quantitativo capace di stimare le riduzioni di emissioni di CO2 raggiungibili a livello nazionale, in base a diversi scenari di adesione al Piano Transizione 5.0. In conclusione, il potenziale profitto e il tempo di recupero dell’investimento in questa iniziativa vengono valutati attraverso un caso studio teorico, fornendo alle aziende un supporto concreto per decisioni strategiche che bilancino gli obiettivi economici e ambientali.The challenges and opportunities brought by the fourth industrial revolution have led to the emergence of Industry 5.0 and Society 5.0, two interconnected paradigms that base their pillars on sustainability, social responsibility and the reintegration of workers at the heart of the production system. This new view recognises the urgent need to cope with global environmental challenges, such as climate change, resource depletion and the transition to a low-carbon economy. In this context, a crucial role is played by initiatives like the European Green Deal, which aims to make Europe the first climate-neutral continent by 2050, and the United Nations 2030 Agenda for the promotion of environmentally, economically and socially sustainable development. In 2024, the Italian government sought to address this need with the introduction of the Transition 5.0 Plan, a financial measure included within the PNRR and designed to support the process of “Twin Transition” of companies, integrating energy efficiency with digital transformation for the promotion of smarter and greener manufacturing processes. The plan introduces a scheme granting a benefit to companies in the form of a tax credit, based on the expenditure incurred for the investment and the energy reduction achieved. However, there is still a lack of clear understanding regarding the potential impact that this plan could have on the Italian industrial landscape. The literature review on the transformation of the manufacturing sector enabled by the Internet of Things (IoT) has highlighted the emergence of new business models, where the concepts of digital servitization, cooperation in ecosystems, and platforms are driving forces. Nevertheless, some authors suggest the need for a deeper analysis of Industrial IoT adoption, differentiating between SMEs and large enterprises, while others stress the importance of examining its contribution to sustainability goals. Moreover, the lack of quantitative analysis of the environmental perspective and a missing comprehensive view of the Italian manufacturing industry, require bridging this gap. Therefore, this dissertation propose a research process based on a survey conducted on more than 160 Italian manufacturing companies, 19 interviews with firms’ representatives, and the development of a quantitative model capable of estimating the achievable reductions in CO2 emissions at the national level, based on different scenarios of participation in the Transition 5.0 Plan. Ultimately, the obtainable economic return and payback time of investing in this initiative are assessed through a theoretical case study, providing companies with concrete support for strategic decisions that balance economic and environmental objectives

    Adapting robot_localization for differential drive robots: comparing omnidirectional and differential motion models

    Get PDF
    LAUREA MAGISTRALEIl processo di localizzazione è utilizzato per stimare la posizione e l’orientamento di robot mobili, queste informazioni sono fondamentali in ogni applicazione che coinvolge robot di questo tipo. L’accuratezza della localizzazione dipende, tra gli altri fattori, dal modello di moto, il quale consiste in un insieme di equazioni che descrivono il movimento di un robot in condizioni ideali. Un approccio molto comune in applicazioni riguardanti robot mobili è il pacchetto ROS robot_localization, che utilizza un modello di moto omnidirezionale per garantire flessibilità e adattabilità ad ogni scenario. Tuttavia, questa strategia può introdurre imprecisioni quando applicata a robots non olonomici, ad esempio quelli a guida differenziale o skid-steering. Questa Tesi analizza l’impatto della scelta del modello di moto sull’accuratezza della localizzazione. In particolare, valuta se l’uso di un modello di moto omnidirezionale in robot_localization possa generare errori significativi nella localizzazione quando applicato a robot a guida differenziale, e se l’adozione di un modello di moto più adeguato possa migliorare visibilmente le prestazioni. Lo studio inizia con un’analisi dettagliata del processo che stima lo stato del robot all’interno del pacchetto, con particolare attenzione all’implementazione dell’Extended Kalman Filter (EKF). Successivamente, viene sviluppata e implementata una versione di robot_localization che incorpora un modello di moto differenziale. Infine, viene condotta un’analisi comparativa tra il modello standard omnidirezionale, il nuovo modello differenziale e una versione modificata del modello omnidirezionale ottenuta attraverso una configurazione particolare dei parametri di stato. L’efficacia di ciascun modello su un robot a guida differenziale viene valutata attraverso una serie di simulazioni progettate per evidenziare le differenze di prestazioni in vari scenari: da test teorici fino a condizioni più realistiche che includono rumore nei sensori, suolo scivoloso, e occlusioni del segnale GPS. I principali contributi di questa tesi includono un’analisi dettagliata dell’implementazione del pacchetto robot_localization, un adattamento del pacchetto all’integrazione di un modello di moto differenziale, e una valutazione, basata su simulazioni, dell’impatto della scelta del modello di moto sulla localizzazione. I risultati evidenziano come l’uso di un modello generico possa causare errori di localizzazione, soprattutto in applicazioni in cui i sensori esterocettivi, come il GPS, non siano disponibili o affidabili. Le conclusioni sottolineano l’importanza di adottare un modello di moto che rappresenti fedelmente la cinematica del robot, mettendo in luce i limiti di un approccio generico nei sistemi con cinematica vincolata. Infine, l’estensione di robot_localization per supportare un modello di moto differenziale fornisce indicazioni utili per migliorare la precisione della localizzazione nei robot a guida differenziale, contribuendo a una stima dello stato più affidabile nelle applicazioni reali.The localization process enables a mobile robot to estimate its position and orientation, fundamental requirements for any application. Localization accuracy depends, among other factors, on the motion model, which is a set of equations describing how a robot is expected to move in ideal conditions. A widely adopted approach in robotic software frameworks is the ROS package robot_localization which adopts an omnidirectional motion model for flexibility and generalization. However, this approach may introduce inaccuracies when applied to machines with constrained movement, such as differential drive or skid-steering robots. This thesis investigates the impact of motion model selection on localization accuracy. Specifically, it evaluates whether using an omnidirectional motion model in robot_localization leads to significant localization errors when applied to differential drive robots, and whether a more accurate motion model can improve localization performance. Initially, the study provides a detailed examination of the package’s state estimation process, focusing on its Extended Kalman Filter (EKF) implementation. Subsequently, a modified version of robot_localization incorporating a differential motion model is developed and implemented. Finally, a comparative analysis is conducted between the standard omnidirectional model, the newly developed differential one, and a modified version of the standard omnidirectional model obtained through a particular configuration of state parameters. The effectiveness of each model on a differential drive robot is studied through a series of simulations designed to highlight differences in performance across various scenarios ranging from theoretical tests to more realistic conditions involving sensor noise, slippery surfaces, and GPS occlusions. The primary contributions of this thesis include an in-depth examination of the implementation of the robot_localization package, an extension of the package incorporating a differential drive motion model, and a simulation-based evaluation of the impact of motion model selection. The results demonstrate that using a generalist motion model can lead to localization errors, particularly in applications where exteroceptive sensors like GPS are neither available nor reliable. The findings underscore the importance of selecting a motion model that accurately represents a robot’s kinematics, also highlighting the limitations of a generic motion model in constrained kinematics. By adapting robot_localization to support a differential motion model, this work also provides insights into improving localization accuracy for differential drive robots, contributing to a more reliable localization in real-world applications

    A combinatorial bandit algorithm for supply-side platform curation in advertising

    No full text
    LAUREA MAGISTRALENel 2023, la pubblicità su Internet ha raggiunto ricavi per 225 miliardi di dollari, con un aumento del 7,3% rispetto all'anno precedente, secondo l'Interactive Advertising Bureau (IAB). Gran parte di questi ricavi proviene dalla pubblicità programmatic, in cui avviene il Real-Time Bidding (RTB): gli inserzionisti acquistano spazi pubblicitari sui siti o sulle app degli editori partecipando ad aste in competizione con altri attraverso le Demand-Side Platforms (DSP). Recentemente è emersa la curation lato sell-side, un servizio fornito dalle Sell-Side Platforms (SSP) che consente alle agenzie pubblicitarie di creare un pacchetto, chiamato anche deal, per gli inserzionisti. Questo pacchetto comprende un elenco di siti o app e altre caratteristiche, come la posizione geografica o il formato dell'annuncio, in base alle quali i clienti possono acquistare spazi pubblicitari. Si tratta di un metodo per limitare le aste a cui gli inserzionisti parteciperanno nelle DSP. In questo modo, gli inserzionisti hanno un maggiore controllo su dove appariranno i loro annunci, potendo escludere tutti i siti web di bassa qualità e pubblicizzare solo su editori affidabili che non danneggino la loro reputazione. Questi elenchi possono comprendere decine di migliaia di siti che i curator devono monitorare quotidianamente per soddisfare i requisiti degli inserzionisti in termini di prestazioni, come un CTR minimo ottenuto dal deal. In questa tesi, forniamo una soluzione al problema combinatorio online vincolato che i curator affrontano, utilizzando Multi-Armed Bandits combinatori con un Knapsack Solver, il cui obiettivo è massimizzare il numero totale di clic, rispettando un vincolo di soglia minima di CTR. Abbiamo testato le nostre soluzioni su dati simulati generati tramite un simulatore di aste pubblicitarie, Amazon AuctionGym, e su una campagna pubblicitaria reale. Abbiamo implementato il nostro approccio per essere utilizzato in una piattaforma SaaS e rilasciato in un ambiente reale.2023 Internet advertising reached revenues for $225 billion, an increase of 7.3% year-over-year between 2022 and 2023, according to the Interactive Advertising Bureau (IAB). Much of the revenues comes from programmatic advertising, where real-time bidding (RTB) occurs, in which advertisers buy ad spaces on publishers' sites or apps by participating in auctions in competition with others through Demand-Side Platforms (DSP). Recently, sell-side curation emerged. It is a service provided by Sell-Side Platforms (SSP) that lets advertising agencies create a package, also called a deal, for advertisers. The package comprises a list of sites or apps and other characteristics, such as the location or the ad format, according to which the clients can buy advertising space. It is a way to limit the auctions in which advertisers will participate in the DSPs. So, advertisers have more control over where their advertisements will appear, being able to exclude all low-quality websites and advertise only on reliable publishers that do not spoil their reputation. These lists can comprise tens of thousands of sites that curators must monitor daily to meet the advertiser's requirements in terms of performance, such as a minimum CTR obtained by the deal. In this thesis, we provide a solution to the online combinatorial constraint problem curators face by employing combinatorial Multi-Armed Bandits with a Knapsack Solver that has as an objective function the maximization of the overall number of clicks and, as a constraint, a minimum CTR threshold. We tested our solutions on simulated data generated using an advertising auction simulator, Amazon AuctionGym, and on a real advertising campaign. We implemented our approach to be used in a SaaS platform and released in a real environment

    Goal-oriented adaptive mesh refinements for corona discharge simulations

    Get PDF
    LAUREA MAGISTRALECon questo progetto è stato sviluppato un codice di raffinamento adattivo di tipo goal-oriented ed è stato messo alla prova nel contesto del progetto IPROP. Questo approccio nasce dall’esigenza di simulare in modo accurato il campo elettrico intorno agli emettitori dei propulsori elettroidrodinamici (EHD), grandezza fondamentale per misurare la generazione di ioni a carica positiva delle molecole d’aria in atmosfera. A questo scopo, è stata impostata una solida base matematica per la stima degli errori, per poi aggiungere progressivamente nuovi livelli di complessità dal punto di vista geometrico, spaziando dall’introduzione di superfici curve all’impiego di geometrie con rapporti di scala molto alti fra le dimensioni dell’emettitore e la distanza di questo dal collettore, per rispecchiare al meglio le condizioni reali. Tra le migliorie chiave risaltano l’imposizione in fase di raffinamento della geometria ai bordi e l’impiego di mappe polinomiali di secondo ordine fra la cella di riferimento e la controparte sul dominio reale. Queste innovazioni garantiscono che l’algoritmo mantenga elevati livelli di precisione e robustezza anche in ambienti di simulazione complessi. I test di validazione dimostrano la superiorità di questo metodo rispetto a molteplici tecniche di raffinamento tradizionali. Inoltre, l’algoritmo è stato applicato ad un caso reale. La triangolazione risultante dal processo di raffinamento adattivo è stata impiegata con successo nel risolutore delle equazioni di drift-diffusion, per la simulazione di una scarica effetto corona. Considerando le esigenze di simulazioni su larga scala, il codice è stato parallelizzato e la griglia completamente distribuita, così da permetterne l’utilizzo su piattaforme di calcolo ad alte prestazioni con molti nodi di CPU. Nel complesso, questo lavoro non solo affronta sfide critiche nel campo della simulazione numerica, ma fornisce anche uno strumento computazionale preciso ed efficiente, con importanti implicazioni per le simulazioni avanzate di campi elettrici e plasmi.A goal-oriented adaptive refinement code with dual-weighted error estimation has been developed and put to the test within the framework of the IPROP project. This approach is motivated by the need to accurately simulate the electric field around the emitters of electrohydrodynamic (EHD) thrusters, which is determinant in the generation of positive ions from molecules of atmospheric air. To address this challenge, a robust mathematical foundation for the error estimation is established and the geometric complexity is progressively increased, including curved shapes and geometries with pronounced scale disparities between the emitter’s size and its distance from the collector, in order to resemble the real setup as faithfully as possible. Key improvements include the imposition of the description of the underlying geometry at the boundaries and the utilization of second-order polynomial mappings from the reference to the physical cell. These enhancements ensure that the algorithm maintains accuracy and robustness even in complex simulation environments. Validation tests demonstrate that this method outperforms several established refinement techniques. Furthermore, the algorithm has been applied to the real case geometry, where the resulting triangulation has been successfully utilized to solve the drift-diffusion equations and simulate a corona discharge. Recognizing the demands of large-scale simulations, the code has been converted to a fully-distributed parallel form, allowing its execution on high-performance computing platforms with multiple CPU nodes. Overall, this work not only addresses critical simulation challenges but also provides an accurate and efficient computational tool with significant implications for advanced electric field and plasma simulations

    Coupling of thermal and mechanical deformation in high-speed testing of aluminum

    No full text
    LAUREA MAGISTRALEQuesta tesi studia l’accoppiamento dei fenomeni termici e meccanici dell’alluminio 6060 T6 in prove ad alta velocità di deformazione. Lo studio si basa sulla valutazione di tutti i parametri caratterizzanti il materiale da un punto di vista termico e meccanico. In particolare, l’attenzione è focalizzata sulla quantificazione del coefficiente di Taylor-Quinney, il parametro chiave per determinare la percentuale di lavoro plastico convertita in energia termica, durante la deformazione plastica del materiale. Successivamente, attraverso la risoluzione dell’equazione di conservazione dell’energia, è stata calcolata la distribuzione della deformazione locale a partire dalla sola misura di temperatura superficiale durante una prova di trazione. Sono state sperimentalmente valutate grandezze fisiche come la densità e il calore specifico, la risposta meccanica a un carico di trazione e la dipendenza dalla velocità di deformazione. Il metodo sviluppato permette di calcolare il coefficiente di Taylor-Quinney (TQC) durante prove di trazione a diverse velocità di deformazione, nell'intervallo 1 s−1 – 105 s−1, tramite la simultanea misurazione cinematica e termica, rispettivamente attraverso la termografia a infrarossi (IRT) e la Digital Image Correlation (DIC). Successivamente, la distribuzione di deformazione locale è stata calcolata dalle temperature ottenute tramite termografia a infrarossi (IRT) e confrontate con le misurazioni fatte applicando la Digital Image Correlation (DIC). Il coefficiente di Taylor-Quinney è risultato dipendere dalla deformazione plastica, partendo da valori più bassi (0,2 - 0,6) e aumentando fino a 0,88 nel punto di rottura, con un valore medio di 0,72. Inoltre, è risultato indipendente dalla velocità di deformazione, nell’intervallo oggetto di studio. La buona corrispondenza tra le distribuzioni di deformazione ottenute con IRT e DIC, la stima dello snervamento e la possibilità di distinguere il regime elastico da quello plastico, dimostrano il potenziale della termografia a infrarossi come tecnica di misurazione senza contatto nello studio di prove meccaniche ad alta velocità di deformazione.This thesis investigates the thermal and mechanical deformation coupling of aluminium 6060 T6 during high strain rate tests. The study is based on the evaluation of all the required data to fully characterize the material, from a thermal and mechanical perspective. Specifically, the focus is on the assessment of the Taylor-Quinney Coefficient (TQC), the key parameter to evaluate the plastic work conversion into heat. Then, through the resolution of the energy conservation equation, the local full field strain distribution is computed from the full field temperature measurement of a tensile test. Physical quantities, such as density and specific heat capacity, mechanical response to tensile load, and strain rate dependency, are experimentally evaluated. The method developed evaluates the Taylor-Quinney Coefficient (TQC) during tensile tests at different strain rates, in the range 1 s-1 – 105 s-1, through simultaneous thermal and kinematic measurements, respectively, with Infrared Thermography (IRT) and Digital Image Correlation (DIC). Then, the local full field strain distribution is calculated from full field temperature data obtained with Infrared Thermography (IRT) and compared with Digital Image Correlation (DIC) measurements. The Taylor-Quinney Coefficient is found to vary with plastic strain, from lower values (0,2 - 0,6) up to 0,88 at fracture, with a mean value around 0,72. In the evaluated strain rate range, it is strain rate independent. The good agreement between IRT and DIC strain distributions, the estimation of the yielding strain and the possibility of isolating the elastic deformation regime from the plastic one, show the potential of infrared thermography application as a non-contact measuring technique, in the study of high strain rate loading conditions

    15,058

    full texts

    59,810

    metadata records
    Updated in last 30 days.
    POLITesi - Archivio digitale delle tesi di laurea e di dottorato (Politecnico di Milano) is based in Italy
    Access Repository Dashboard
    Do you manage Open Research Online? Become a CORE Member to access insider analytics, issue reports and manage access to outputs from your repository in the CORE Repository Dashboard! 👇