2 research outputs found
Resource scheduling in edge computing IoT networks using hybrid deep learning algorithm
The proliferation of the Internet of Things (IoT) and wireless sensor networks
enhances data communication. The demand for data communication rapidly
increases, which calls the emerging edge computing paradigm. Edge computing
plays a major role in IoT networks and provides computing resources close to the
users. Moving the services from the cloud to users increases the communication,
storage, and network features of the users. However, massive IoT networks require a
large spectrum of resources for their computations. In order to attain this, resource
scheduling algorithms are employed in edge computing. Statistical and machine
learning-based resource scheduling algorithms have evolved in the past decade, but
the performance can be improved if resource requirements are analyzed further. A
deep learning-based resource scheduling in edge computing IoT networks is presented
in this research work using deep bidirectional recurrent neural network
(BRNN) and convolutional neural network algorithms. Before scheduling, the IoT
users are categorized into clusters using a spectral clustering algorithm. The proposed
model simulation analysis verifies the performance in terms of delay, response
time, execution time, and resource utilization. Existing resource scheduling
algorithms like a genetic algorithm (GA), Improved Particle Swarm Optimization
(IPSO), and LSTM-based models are compared with the proposed model to validate
the superior performances.Поширення Інтернету речей (IoT) і бездротових сенсорних мереж
покращує передачу даних. Попит на передачу даних швидко зростає, що ви-
кликає появу парадигми периферійних обчислень. Граничні обчислення віді-
грають важливу роль у мережах IoT і надають обчислювальні ресурси поблизу
користувачів. Перенесення служб із хмари до користувачів розширює комуні-
каційні, сховища та мережеві функції користувачів. Однак масивні мережі IoT
потребують великого обсягу ресурсів для своїх обчислень. Щоб досягти цього,
у граничних обчисленнях використовуються алгоритми планування ресурсів.
Алгоритми планування ресурсів, засновані на статистиці та машинному на-
вчанні, розвинулися протягом останнього десятиліття, але їх продуктивність
можна покращити, якщо додатково проаналізувати вимоги до ресурсів. У ро-
боті подано глибоке планування ресурсів на основі навчання в периферійних
обчислювальних мережах IoT з використанням глибокої двонаправленої реку-
рентної нейронної мережі (BRNN) і алгоритмів згорткової нейронної мережі.
Перед плануванням користувачі IoT класифікуються в різні кластери за допо-
могою спектрального алгоритму кластеризації. Пропонований аналіз моделю-
вання перевіряє продуктивність з точки зору затримки, часу відгуку, часу ви-
конання та використання ресурсів. Існуючі алгоритми планування ресурсів, як-
от генетичний алгоритм (GA), покращена оптимізація роїв частинок (IPSO) і
моделі на основі LSTM, порівнюються із запропонованою моделлю для під-
твердження кращої продуктивності