2 research outputs found

    Sviluppo, Deployment e Validazione Sperimentale di Architetture Distribuite di Machine Learning su Piattaforma fog05

    Get PDF
    Ultimamente sta crescendo sempre di più l'interesse riguardo al fog computing e alle possibilità che offre, tra cui la capacità di poter fruire di una capacità computazionale considerevole anche nei nodi più vicini all’utente finale: questo permetterebbe di migliorare diversi parametri di qualità di un servizio come la latenza nella sua fornitura e il costo richiesto per le comunicazioni. In questa tesi, sfruttando le considerazioni sopra, abbiamo creato e testato due architetture di machine learning distribuito e poi le abbiamo utilizzate per fornire un servizio di predizione (legato al condition monitoring) che migliorasse la soluzione cloud relativamente ai parametri citati prima. Poi, è stata utilizzata la piattaforma fog05, un tool che permette la gestione efficiente delle varie risorse presenti in una rete, per eseguire il deployment delle architetture sopra. Gli obiettivi erano due: validare le architetture in termini di accuratezza e velocità di convergenza e confermare la capacità di fog05 di gestire deployment complessi come quelli necessari nel nostro caso. Innanzitutto, sono state scelte le architetture: per una, ci siamo basati sul concetto di gossip learning, per l'altra, sul federated learning. Poi, queste architetture sono state implementate attraverso Keras e ne è stato testato il funzionamento: è emerso chiaramente come, in casi d'uso come quello in esame, gli approcci distribuiti riescano a fornire performance di poco inferiori a una soluzione centralizzata. Infine, è stato eseguito con successo il deployment delle architetture utilizzando fog05, incapsulando le funzionalità di quest'ultimo dentro un orchestratore creato ad-hoc al fine di gestire nella maniera più automatizzata e resiliente possibile la fornitura del servizio offerto dalle architetture sopra

    Edge Computing for Extreme Reliability and Scalability

    Get PDF
    The massive number of Internet of Things (IoT) devices and their continuous data collection will lead to a rapid increase in the scale of collected data. Processing all these collected data at the central cloud server is inefficient, and even is unfeasible or unnecessary. Hence, the task of processing the data is pushed to the network edges introducing the concept of Edge Computing. Processing the information closer to the source of data (e.g., on gateways and on edge micro-servers) not only reduces the huge workload of central cloud, also decreases the latency for real-time applications by avoiding the unreliable and unpredictable network latency to communicate with the central cloud
    corecore