581 research outputs found

    Edge Computing for Internet of Things

    Get PDF
    The Internet-of-Things is becoming an established technology, with devices being deployed in homes, workplaces, and public areas at an increasingly rapid rate. IoT devices are the core technology of smart-homes, smart-cities, intelligent transport systems, and promise to optimise travel, reduce energy usage and improve quality of life. With the IoT prevalence, the problem of how to manage the vast volumes of data, wide variety and type of data generated, and erratic generation patterns is becoming increasingly clear and challenging. This Special Issue focuses on solving this problem through the use of edge computing. Edge computing offers a solution to managing IoT data through the processing of IoT data close to the location where the data is being generated. Edge computing allows computation to be performed locally, thus reducing the volume of data that needs to be transmitted to remote data centres and Cloud storage. It also allows decisions to be made locally without having to wait for Cloud servers to respond

    Adaptive learning-based resource management strategy in fog-to-cloud

    Get PDF
    Technology in the twenty-first century is rapidly developing and driving us into a new smart computing world, and emerging lots of new computing architectures. Fog-to-Cloud (F2C) is among one of them, which emerges to ensure the commitment for bringing the higher computing facilities near to the edge of the network and also help the large-scale computing system to be more intelligent. As the F2C is in its infantile state, therefore one of the biggest challenges for this computing paradigm is to efficiently manage the computing resources. Mainly, to address this challenge, in this work, we have given our sole interest for designing the initial architectural framework to build a proper, adaptive and efficient resource management mechanism in F2C. F2C has been proposed as a combined, coordinated and hierarchical computing platform, where a vast number of heterogeneous computing devices are participating. Notably, their versatility creates a massive challenge for effectively handling them. Even following any large-scale smart computing system, it can easily recognize that various kind of services is served for different purposes. Significantly, every service corresponds with the various tasks, which have different resource requirements. So, knowing the characteristics of participating devices and system offered services is giving advantages to build effective and resource management mechanism in F2C-enabled system. Considering these facts, initially, we have given our intense focus for identifying and defining the taxonomic model for all the participating devices and system involved services-tasks. In any F2C-enabled system consists of a large number of small Internet-of-Things (IoTs) and generating a continuous and colossal amount of sensing-data by capturing various environmental events. Notably, this sensing-data is one of the key ingredients for various smart services which have been offered by the F2C-enabled system. Besides that, resource statistical information is also playing a crucial role, for efficiently providing the services among the system consumers. Continuous monitoring of participating devices generates a massive amount of resource statistical information in the F2C-enabled system. Notably, having this information, it becomes much easier to know the device's availability and suitability for executing some tasks to offer some services. Therefore, ensuring better service facilities for any latency-sensitive services, it is essential to securely distribute the sensing-data and resource statistical information over the network. Considering these matters, we also proposed and designed a secure and distributed database framework for effectively and securely distribute the data over the network. To build an advanced and smarter system is necessarily required an effective mechanism for the utilization of system resources. Typically, the utilization and resource handling process mainly depend on the resource selection and allocation mechanism. The prediction of resources (e.g., RAM, CPU, Disk, etc.) usage and performance (i.e., in terms of task execution time) helps the selection and allocation process. Thus, adopting the machine learning (ML) techniques is much more useful for designing an advanced and sophisticated resource allocation mechanism in the F2C-enabled system. Adopting and performing the ML techniques in F2C-enabled system is a challenging task. Especially, the overall diversification and many other issues pose a massive challenge for successfully performing the ML techniques in any F2C-enabled system. Therefore, we have proposed and designed two different possible architectural schemas for performing the ML techniques in the F2C-enabled system to achieve an adaptive, advance and sophisticated resource management mechanism in the F2C-enabled system. Our proposals are the initial footmarks for designing the overall architectural framework for resource management mechanism in F2C-enabled system.La tecnologia del segle XXI avança ràpidament i ens condueix cap a un nou món intel·ligent, creant nous models d'arquitectures informàtiques. Fog-to-Cloud (F2C) és un d’ells, i sorgeix per garantir el compromís d’acostar les instal·lacions informàtiques a prop de la xarxa i també ajudar el sistema informàtic a gran escala a ser més intel·ligent. Com que el F2C es troba en un estat preliminar, un dels majors reptes d’aquest paradigma tecnològic és gestionar eficientment els recursos informàtics. Per fer front a aquest repte, en aquest treball hem centrat el nostre interès en dissenyar un marc arquitectònic per construir un mecanisme de gestió de recursos adequat, adaptatiu i eficient a F2C.F2C ha estat concebut com una plataforma informàtica combinada, coordinada i jeràrquica, on participen un gran nombre de dispositius heterogenis. La seva versatilitat planteja un gran repte per gestionar-los de manera eficaç. Els serveis que s'hi executen consten de diverses tasques, que tenen requisits de recursos diferents. Per tant, conèixer les característiques dels dispositius participants i dels serveis que ofereix el sistema és un requisit per dissenyar mecanismes eficaços i de gestió de recursos en un sistema habilitat per F2C. Tenint en compte aquests fets, inicialment ens hem centrat en identificar i definir el model taxonòmic per a tots els dispositius i sistemes implicats en l'execució de tasques de serveis. Qualsevol sistema habilitat per F2C inclou en un gran nombre de dispositius petits i connectats (conegut com a Internet of Things, o IoT) que generen una quantitat contínua i colossal de dades de detecció capturant diversos events ambientals. Aquestes dades són un dels ingredients clau per a diversos serveis intel·ligents que ofereix F2C. A més, el seguiment continu dels dispositius participants genera igualment una gran quantitat d'informació estadística. En particular, en tenir aquesta informació, es fa molt més fàcil conèixer la disponibilitat i la idoneïtat dels dispositius per executar algunes tasques i oferir alguns serveis. Per tant, per garantir millors serveis sensibles a la latència, és essencial distribuir de manera equilibrada i segura la informació estadística per la xarxa. Tenint en compte aquests assumptes, també hem proposat i dissenyat un entorn de base de dades segura i distribuïda per gestionar de manera eficaç i segura les dades a la xarxa. Per construir un sistema avançat i intel·ligent es necessita un mecanisme eficaç per a la gestió de l'ús dels recursos del sistema. Normalment, el procés d’utilització i manipulació de recursos depèn principalment del mecanisme de selecció i assignació de recursos. La predicció de l’ús i el rendiment de recursos (per exemple, RAM, CPU, disc, etc.) en termes de temps d’execució de tasques ajuda al procés de selecció i assignació. Adoptar les tècniques d’aprenentatge automàtic (conegut com a Machine Learning, o ML) és molt útil per dissenyar un mecanisme d’assignació de recursos avançat i sofisticat en el sistema habilitat per F2C. L’adopció i la realització de tècniques de ML en un sistema F2C és una tasca complexa. Especialment, la diversificació general i molts altres problemes plantegen un gran repte per realitzar amb èxit les tècniques de ML. Per tant, en aquesta recerca hem proposat i dissenyat dos possibles esquemes arquitectònics diferents per realitzar tècniques de ML en el sistema habilitat per F2C per aconseguir un mecanisme de gestió de recursos adaptatiu, avançat i sofisticat en un sistema F2C. Les nostres propostes són els primers passos per dissenyar un marc arquitectònic general per al mecanisme de gestió de recursos en un sistema habilitat per F2C.Postprint (published version

    Improving water network management by efficient division into supply clusters

    Full text link
    El agua es un recurso escaso que, como tal, debe ser gestionado de manera eficiente. Así, uno de los propósitos de dicha gestión debiera ser la reducción de pérdidas de agua y la mejora del funcionamiento del abastecimiento. Para ello, es necesario crear un marco de trabajo basado en un conocimiento profundo de la redes de distribución. En los casos reales, llegar a este conocimiento es una tarea compleja debido a que estos sistemas pueden estar formados por miles de nodos de consumo, interconectados entre sí también por miles de tuberías y sus correspondientes elementos de alimentación. La mayoría de las veces, esas redes no son el producto de un solo proceso de diseño, sino la consecuencia de años de historia que han dado respuesta a demandas de agua continuamente crecientes con el tiempo. La división de la red en lo que denominaremos clusters de abastecimiento, permite la obtención del conocimiento hidráulico adecuado para planificar y operar las tareas de gestión oportunas, que garanticen el abastecimiento al consumidor final. Esta partición divide las redes de distribución en pequeñas sub-redes, que son virtualmente independientes y están alimentadas por un número prefijado de fuentes. Esta tesis propone un marco de trabajo adecuado en el establecimiento de vías eficientes tanto para dividir la red de abastecimiento en sectores, como para desarrollar nuevas actividades de gestión, aprovechando esta estructura dividida. La propuesta de desarrollo de cada una de estas tareas será mediante el uso de métodos kernel y sistemas multi-agente. El spectral clustering y el aprendizaje semi-supervisado se mostrarán como métodos con buen comportamiento en el paradigma de encontrar una red sectorizada que necesite usar el número mínimo de válvulas de corte. No obstante, sus algoritmos se vuelven lentos (a veces infactibles) dividiendo una red de abastecimiento grande.Herrera Fernández, AM. (2011). Improving water network management by efficient division into supply clusters [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/11233Palanci

    Security risk assessment in cloud computing domains

    Get PDF
    Cyber security is one of the primary concerns persistent across any computing platform. While addressing the apprehensions about security risks, an infinite amount of resources cannot be invested in mitigation measures since organizations operate under budgetary constraints. Therefore the task of performing security risk assessment is imperative to designing optimal mitigation measures, as it provides insight about the strengths and weaknesses of different assets affiliated to a computing platform. The objective of the research presented in this dissertation is to improve upon existing risk assessment frameworks and guidelines associated to different key assets of Cloud computing domains - infrastructure, applications, and users. The dissertation presents various informal approaches of performing security risk assessment which will help to identify the security risks confronted by the aforementioned assets, and utilize the results to carry out the required cost-benefit tradeoff analyses. This will be beneficial to organizations by aiding them in better comprehending the security risks their assets are exposed to and thereafter secure them by designing cost-optimal mitigation measures --Abstract, page iv

    Intelligent Sensor Networks

    Get PDF
    In the last decade, wireless or wired sensor networks have attracted much attention. However, most designs target general sensor network issues including protocol stack (routing, MAC, etc.) and security issues. This book focuses on the close integration of sensing, networking, and smart signal processing via machine learning. Based on their world-class research, the authors present the fundamentals of intelligent sensor networks. They cover sensing and sampling, distributed signal processing, and intelligent signal learning. In addition, they present cutting-edge research results from leading experts

    Large-Scale Indexing, Discovery, and Ranking for the Internet of Things (IoT)

    Get PDF
    Network-enabled sensing and actuation devices are key enablers to connect real-world objects to the cyber world. The Internet of Things (IoT) consists of the network-enabled devices and communication technologies that allow connectivity and integration of physical objects (Things) into the digital world (Internet). Enormous amounts of dynamic IoT data are collected from Internet-connected devices. IoT data are usually multi-variant streams that are heterogeneous, sporadic, multi-modal, and spatio-temporal. IoT data can be disseminated with different granularities and have diverse structures, types, and qualities. Dealing with the data deluge from heterogeneous IoT resources and services imposes new challenges on indexing, discovery, and ranking mechanisms that will allow building applications that require on-line access and retrieval of ad-hoc IoT data. However, the existing IoT data indexing and discovery approaches are complex or centralised, which hinders their scalability. The primary objective of this article is to provide a holistic overview of the state-of-the-art on indexing, discovery, and ranking of IoT data. The article aims to pave the way for researchers to design, develop, implement, and evaluate techniques and approaches for on-line large-scale distributed IoT applications and services

    Overhead Management Strategies for Internet of Things Devices

    Get PDF
    Overhead (time and energy) management is paramount for IoT edge devices considering their typically resource-constrained nature. In this thesis we present two contributions for lowering resource consumption of IoT devices. The first contribution is minimizing the overhead of the Transport Layer Security (TLS) authentication protocol in the context of IoT networks by selecting a lightweight cipher suite configuration. TLS is the de facto authentication protocol for secure communication in Internet of Things (IoT) applications. However, the processing and energy demands of this protocol are the two essential parameters that must be taken into account with respect to the resource-constraint nature of IoT devices. For the first contribution, we study these parameters using a testbed in which an IoT board (Cypress CYW43907) communicates with a server over an 802.11 wireless link. Although TLS supports a wide-array of cipher suites, in this paper we focus on DHE RSA, ECDHE RSA, and ECDHE ECDSA, which are among the most popular ciphers used due to their robustness. Our studies show that ciphers using Elliptic Curve Diffie Hellman (ECDHE) key exchange are considerably more efficient than ciphers using Diffie Hellman (DHE). Furthermore, ECDSA signature verification consumes more time and energy than RSA signature verification for ECDHE key exchange. This study helps IoT designers choose an appropriate TLS cipher suite based on application demands, computational capabilities, and energy resources available. The second contribution of this thesis is deploying supervised machine learning anomaly detection algorithms on an IoT edge device to reduce data transmission overhead and cloud storage requirements. With continuous monitoring and sensing, millions of Internet of Things sensors all over the world generate tremendous amounts of data every minute. As a result, recent studies start to raise the question as whether to send all the sensing data directly to the cloud (i.e., direct transmission), or to preprocess such data at the network edge and only send necessary data to the cloud (i.e., preprocessing at the edge). Anomaly detection is particularly useful as an edge mining technique to reduce the transmission overhead in such a context when the frequently monitored activities contain only a sparse set of anomalies. This paper analyzes the potential overhead-savings of machine learning based anomaly detection models on the edge in three different IoT scenarios. Our experimental results prove that by choosing the appropriate anomaly detection models, we are able to effectively reduce the total amount of transmission energy as well as minimize required cloud storage. We prove that Random Forest, Multilayer Perceptron, and Discriminant Analysis models can viably save time and energy on the edge device during data transmission. K-Nearest Neighbors, although reliable in terms of prediction accuracy, demands exorbitant overhead and results in net time and energy loss on the edge device. In addition to presenting our model results for the different IoT scenarios, we provide guidelines for potential model selections through analysis of involved tradeoffs such as training overhead, prediction overhead, and classification accuracy

    Ambient intelligence in buildings : design and development of an interoperable Internet of Things platform

    Get PDF
    During many years, people and governments have been warned about the increasing levels of pollution and greenhouse gases (GHG) emissions that are endangering our lives on this planet. The Information and Communication Technology sector, usually known as the ICT sector, responsible for the computerization of the society, has been pinpointed as one of the most important sectors contributing to such a problem. Many efforts, however, have been put to shift the trend towards the utilization of renewable resources, such as wind or solar power. Even though governments have agreed to follow this path and avoid the usage of non-renewable energies, it is not enough. Although the ICT sector might seem an added problem due to the number of connected devices, technology improvements and hardware optimization enable new ways of fighting against global warming and GHG emissions. The aforementioned computerization has forced companies to evolve their work into a computer-assisted one. Due to this, companies are now forced to establish their main headquarters inside buildings for work coordination, connection and management. Due to this, buildings are becoming one of the most important issues regarding energy consumption. In order to cope with such problem, the Internet of Things (IoT) offers new paradigms and alternatives for leading the change. IoT is commonly defined as the network of physical and virtual objects that are capable of collecting surrounding data and exchanging it between them or through the Internet. Thanks to these networks, it is possible to monitor any thinkable metric inside buildings, and, then, utilize this information to build efficient automated systems, commonly known as Building Energy Management Systems (BEMS), capable of extracting conclusions on how to optimally and efficiently manage the resources of the building. ICT companies have foreseen this market opportunity that, paired with the appearance of smaller, efficient and more durable sensors, allows the development of efficient IoT systems. However, the lack of agreement and standardization creates chaos inside IoT, and the horizontal connectivity between such systems is still a challenge. Moreover, the vast amount of data to process requires the utilization of Big Data techniques to guarantee close to real-time responses. This thesis initially presents a standard Cloud-based IoT architecture that tries to cope with the aforementioned problems by employing a Cloud middleware that obfuscates the underlying hardware architecture and permits the aggregation of data from multiple heterogeneous sources. Also, sensor information is exposed to any third-party client after authentication. The utilization of automated IoT systems for managing building resources requires high reliability, resilience, and availability. The loss of sensor data is not permitted due to the negative consequences it might have, such as disruptive resource management. For this, it is mandatory to grant backup options to sensor networks in order to guarantee correct functioning in case of partial network disconnections. Additionally, the placement of the sensors inside the building must guarantee minimal energy consumption while fulfilling sensing requirements. Finally, a building resource management use case is presented by means of a simulation tool. The tool draws on occupants' probabilistic models and environmental condition models for actuating upon building elements to ensure optimal and efficient functioning. Occupants' comfort is also taken into consideration and the trade-off between the two metrics is studied. All the presented work is meant to deliver insights and tools for current and future IoT system implementations by setting the basis for standardization agreements yet to happen.Durant molts anys, s'ha alertat a la població i als governs sobre l'increment en els nivells de pol·lució i d'emissió de gasos d'efecte hivernacle, que estan posant en perill la nostra vida a la Terra. El sector de les Tecnologies de la Informació i Comunicació, normalment conegut com les TIC, responsable de la informatització de la societat, ha estat senyalat com un dels sectors més importants encarregat d'agreujar tal problema. Però, molt esforç s'està posant per revertir aquesta situació mitjançant l'ús de recursos renovables, com l'energia eòlica o solar. Tot i que els governs han acordat seguir dit camí i evitar l'ús d'energia no renovable tant com sigui possible, no és suficient per erradicar el problema. Encara que el sector de les TIC pugui semblar un problema afegit donada la gran quantitat i l'increment de dispositius connectats, les millores en tecnologia i en hardware estan habilitant noves maneres de lluitar contra l'escalfament global i l'emissió de gasos d'efecte hivernacle. La informatització, anteriorment mencionada, ha forçat a les empreses a evolucionar el seu model de negoci cap a un més enfocat a la utilització de xarxes d'ordinadors per gestionar els seus recursos. Per això, dites companyies s'estan veient forçades a establir les seves seus centrals dintre d'edificis, per tenir un major control sobre la coordinació, connexió i maneig dels seus recursos. Això està provocant un augment en el consum energètic dels edificis, que s'estan convertint en un dels principals problemes. Per poder fer front al problema, la Internet de les Coses o Internet of Things (IoT) ofereix nous paradigmes i alternatives per liderar el canvi. IoT es defineix com la xarxa d'objectes físics i virtuals, capaços de recol·lectar la informació per construir sistemes automatitzats, coneguts com a Sistemes de Gestió Energètica per Edificis, capaços d'extreure conclusions sobre com utilitzar de manera eficient i òptima els recursos de l'edifici. Companyies pertanyents a les TIC han previst aquesta oportunitat de mercat que, en sincronia amb l'aparició de sensors més petits, eficients i duradors, permeten el desenvolupament de sistemes IoT eficients. Però, la falta d'acord en quant a l'estandardització de dits sistemes està creant un escenari caòtic, ja que s'està fent impossible la connectivitat horitzontal entre dits sistemes. A més, la gran quantitat de dades a processar requereix la utilització de tècniques de Big Data per poder garantir respostes en temps acceptables. Aquesta tesi presenta, inicialment, una arquitectura IoT estàndard basada en la Neu, que tracta de fer front als problemes anteriorment presentats mitjançant l'ús d'un middleware allotjat a la Neu que ofusca l'arquitectura hardware subjacent i permet l'agregació de la informació originada des de múltiples fonts heterogènies. A més, la informació dels sensors s'exposa perquè qualsevol client de tercers pugui consultar-la, després d'haver-se autenticat. La utilització de sistemes IoT automatitzats per gestionar els recursos dels edificis requereix un alt nivell de fiabilitat, resistència i disponibilitat. La perduda d'informació no està permesa degut a les conseqüències negatives que podría suposar, com una mala presa de decisions. Per això, és obligatori atorgar opcions de backup a les xarxes de sensors per garantir un correcte funcionament inclús quan es produeixen desconnexions parcials de la xarxa. Addicionalment, la col·locació dels sensors dintre de l'edifici ha de garantir un consum energètic mínim dintre de les restriccions de desplegament imposades. Finalment, presentem un cas d'ús d'un Sistema de Gestió Energètica per Edificis mitjançant una eina de simulació. Dita eina utilitza com informació d'entrada models probabilístics sobre les accions dels ocupants i models sobre la condició ambiental per actuar sobre els elements de l'edifici i garantir un funcionament òptim i eficient. A més, el confort dels ocupants també es considera com mètrica a optimitzar. Donada la impossibilitat d’optimitzar les dues mètriques de manera conjunta, aquesta tesi també presenta un estudi sobre el trade-off que existeix entre elles. Tot el treball presentat està pensat per atorgar idees i eines pels sistemes IoT actuals i futurs, i assentar les bases per l’estandardització que encara està per arribar.Durante muchos años, se ha alertado a la población y a los gobiernos acerca del incremento en los niveles de polución y de emisión de gases de efecto invernadero, que están poniendo en peligro nuestra vida en la Tierra. El sector de las Tecnologías de la Información y Comunicación, normalmente conocido como las TIC, responsable de la informatización de la sociedad, ha sido señalada como uno de los sectores más importantes encargado de agravar tal problema. Sin embargo, mucho esfuerzo se está poniendo para revertir esta situación mediante el uso de recursos renovables, como la energía eólica o solar. A pesar de que los gobiernos han acordado seguir dicho camino y evitar el uso de energía no renovable tanto como sea posible, no es suficiente para erradicar el problema. Aunque el sector de las TIC pueda parecer un problema añadido dada la gran cantidad y el incremento de dispositivos conectados, las mejoras en tecnología y en hardware están habilitando nuevas maneras de luchar contra el calentamiento global y la emisión de gases de efecto invernadero. Durante las últimas décadas, compañías del sector público y privado conscientes del problema han centrado sus esfuerzos en la creación de soluciones orientadas a la eficiencia energética tanto a nivel de hardware como de software. Las nuevas redes troncales están siendo creadas con dispositivos eficientes y los proveedores de servicios de Internet tienden a crear sistemas conscientes de la energía para su optimización dentro de su dominio. Siguiendo esta tendencia, cualquier nuevo sistema creado y añadido a la red debe garantizar un cierto nivel de conciencia y un manejo óptimo de los recursos que utiliza. La informatización, anteriormente mencionada, ha forzado a las empresas a evolucionar su modelo de negocio hacia uno más enfocado en la utilización de redes de ordenadores para gestionar sus recursos. Por eso, dichas compañías se están viendo forzadas a establecer sus sedes centrales dentro de edificios, para tener un mayor control sobre la coordinación, conexión y manejo de sus recursos. Esto está provocando un aumento en el consumo energético de los edificios, que se están convirtiendo en uno de los principales problemas. Para poder hacer frente al problema, el Internet de las Cosas o Internet of Things (IoT) ofrece nuevos paradigmas y alternativas para liderar el cambio. IoT se define como la red de objetos físicos y virtuales, capaces de recolectar la información del entorno e intercambiarla entre los propios objetos o a través de Internet. Gracias a estas redes, es posible monitorizar cualquier métrica que podamos imaginar dentro de un edificio, y, después, utilizar dicha información para construir sistemas automatizados, conocidos como Sistemas de Gestión Energética para Edificios, capaces de extraer conclusiones sobre cómo utilizar de manera eficiente y óptima los recursos del edificio. Compañías pertenecientes a las TIC han previsto esta oportunidad de mercado que, en sincronía con la aparición de sensores más pequeños, eficientes y duraderos, permite el desarrollo de sistemas IoT eficientes. Sin embargo, la falta de acuerdo en cuanto a la estandarización de dichos sistemas está creando un escenario caótico, ya que se hace imposible la conectividad horizontal entre dichos sistemas. Además, la gran cantidad de datos a procesar requiere la utilización de técnicas de Big Data para poder garantizar respuestas en tiempos aceptables. Esta tesis presenta, inicialmente, una arquitectura IoT estándar basada en la Nube que trata de hacer frente a los problemas anteriormente presentados mediante el uso de un middleware alojado en la Nube que ofusca la arquitectura hardware subyacente y permite la agregación de la información originada des de múltiples fuentes heterogéneas. Además, la información de los sensores se expone para que cualquier cliente de terceros pueda consultarla, después de haberse autenticado. La utilización de sistemas IoT automatizados para manejar los recursos de los edificios requiere un alto nivel de fiabilidad, resistencia y disponibilidad. La pérdida de información no está permitida debido a las consecuencias negativas que podría suponer, como una mala toma de decisiones. Por eso, es obligatorio otorgar opciones de backup a las redes de sensores para garantizar su correcto funcionamiento incluso cuando se producen desconexiones parciales de la red. Adicionalmente, la colocación de los sensores dentro del edificio debe garantizar un consumo energético mínimo dentro de las restricciones de despliegue impuestas. En esta tesis, mejoramos el problema de colocación de los sensores para redes heterogéneas de sensores inalámbricos añadiendo restricciones de clustering o agrupamiento, para asegurar que cada tipo de sensor es capaz de obtener su métrica correspondiente, y restricciones de protección mediante la habilitación de rutas de transmisión secundarias. En cuanto a grandes redes homogéneas de sensores inalámbricos, esta tesis estudia aumentar su resiliencia mediante la identificación de los sensores más críticos. Finalmente, presentamos un caso de uso de un Sistema de Gestión Energética para Edificios mediante una herramienta de simulación. Dicha herramienta utiliza como información de entrada modelos probabilísticos sobre las acciones de los ocupantes y modelos sobre la condición ambiental para actuar sobre los elementos del edificio y garantizar un funcionamiento óptimo y eficiente. Además, el comfort de los ocupantes también se considera como métrica a optimizar. Dada la imposibilidad de optimizar las dos métricas de manera conjunta, esta tesis también presenta un estudio sobre el trade-off que existe entre ellas. Todo el trabajo presentado está pensado para otorgar ideas y herramientas para los sistemas IoT actuales y futuros, y asentar las bases para la estandarización que todavía está por llegar.Postprint (published version

    A Survey on Behavioral Pattern Mining from Sensor Data in Internet of Things

    Get PDF
    The deployment of large-scale wireless sensor networks (WSNs) for the Internet of Things (IoT) applications is increasing day-by-day, especially with the emergence of smart city services. The sensor data streams generated from these applications are largely dynamic, heterogeneous, and often geographically distributed over large areas. For high-value use in business, industry and services, these data streams must be mined to extract insightful knowledge, such as about monitoring (e.g., discovering certain behaviors over a deployed area) or network diagnostics (e.g., predicting faulty sensor nodes). However, due to the inherent constraints of sensor networks and application requirements, traditional data mining techniques cannot be directly used to mine IoT data streams efficiently and accurately in real-time. In the last decade, a number of works have been reported in the literature proposing behavioral pattern mining algorithms for sensor networks. This paper presents the technical challenges that need to be considered for mining sensor data. It then provides a thorough review of the mining techniques proposed in the recent literature to mine behavioral patterns from sensor data in IoT, and their characteristics and differences are highlighted and compared. We also propose a behavioral pattern mining framework for IoT and discuss possible future research directions in this area. © 2013 IEEE
    corecore