2 research outputs found

    Resource scheduling in edge computing IoT networks using hybrid deep learning algorithm

    Get PDF
    The proliferation of the Internet of Things (IoT) and wireless sensor networks enhances data communication. The demand for data communication rapidly increases, which calls the emerging edge computing paradigm. Edge computing plays a major role in IoT networks and provides computing resources close to the users. Moving the services from the cloud to users increases the communication, storage, and network features of the users. However, massive IoT networks require a large spectrum of resources for their computations. In order to attain this, resource scheduling algorithms are employed in edge computing. Statistical and machine learning-based resource scheduling algorithms have evolved in the past decade, but the performance can be improved if resource requirements are analyzed further. A deep learning-based resource scheduling in edge computing IoT networks is presented in this research work using deep bidirectional recurrent neural network (BRNN) and convolutional neural network algorithms. Before scheduling, the IoT users are categorized into clusters using a spectral clustering algorithm. The proposed model simulation analysis verifies the performance in terms of delay, response time, execution time, and resource utilization. Existing resource scheduling algorithms like a genetic algorithm (GA), Improved Particle Swarm Optimization (IPSO), and LSTM-based models are compared with the proposed model to validate the superior performances.Поширення Інтернету речей (IoT) і бездротових сенсорних мереж покращує передачу даних. Попит на передачу даних швидко зростає, що ви- кликає появу парадигми периферійних обчислень. Граничні обчислення віді- грають важливу роль у мережах IoT і надають обчислювальні ресурси поблизу користувачів. Перенесення служб із хмари до користувачів розширює комуні- каційні, сховища та мережеві функції користувачів. Однак масивні мережі IoT потребують великого обсягу ресурсів для своїх обчислень. Щоб досягти цього, у граничних обчисленнях використовуються алгоритми планування ресурсів. Алгоритми планування ресурсів, засновані на статистиці та машинному на- вчанні, розвинулися протягом останнього десятиліття, але їх продуктивність можна покращити, якщо додатково проаналізувати вимоги до ресурсів. У ро- боті подано глибоке планування ресурсів на основі навчання в периферійних обчислювальних мережах IoT з використанням глибокої двонаправленої реку- рентної нейронної мережі (BRNN) і алгоритмів згорткової нейронної мережі. Перед плануванням користувачі IoT класифікуються в різні кластери за допо- могою спектрального алгоритму кластеризації. Пропонований аналіз моделю- вання перевіряє продуктивність з точки зору затримки, часу відгуку, часу ви- конання та використання ресурсів. Існуючі алгоритми планування ресурсів, як- от генетичний алгоритм (GA), покращена оптимізація роїв частинок (IPSO) і моделі на основі LSTM, порівнюються із запропонованою моделлю для під- твердження кращої продуктивності
    corecore