The application of neural network based on the parameters of EEG-signal spectrum characteristics for classification of movement, intention of movement and personal affiliation of the signal

Abstract

Badanie zmian zachodzących w sygnale elektroencefalograficznym (EEG) pod wpływem zadanego bodźca wymaga założenia, że ta reakcja ma własną i powtarzalną charakterystykę, w przeciwieństwie do ciągłej, spontanicznej aktywności mózgu, która w tym kontekście może być traktowana jako addytywny szum. Na podstawie powyższego założenia podzielono otrzymane w eksperymencie próbki sygnału EEG na grupy danych, związanych z odpowiedzią mózgu na zadane bodźce. Artykuł przedstawia wyniki otrzymane po zastosowaniu prostej sieci neuronowej LVQ (learning vector quantization) do rozróżnienia otrzymanych w eksperymencie danych. Porównano dane związane z ruchem palca i z wyobrażeniem ruchu palcem oraz przeprowadzono rozróżnienie danych otrzymanych od różnych osób. Zastosowanie sieci neuronowej samoorganizującej LVQ, opartej na parametrach charakterystyki widma EEG, pozwoliło na rozróżnienie przynależności personalnej sygnału EEG pomiędzy dwiema osobami ze średnią skutecznością 87,31% oraz pomiędzy czterema osobami ze średnią skutecznością 77,39%.The evaluation of changes within electroencephalography signal (EEG) occurred in response to stimuli, requires the assumption that this reaction has its own, repeatable characteristics compare to the continuous spontaneous brain activity, which can be treated in this context as the additive noise. Therefore, the recorded EEG signal samples, were divided into data groups connected with brain response to the stimuli. The simple neural network LVQ (learning vector quantization) was applied to evaluate recorded data. Movement of finger and voluntary intention of movement were examined. The application of simple neural network LVQ based on parameters of EEG-signal spectrum characteristics allowed for differentiation of EEG signal between two persons with the average efficiency of 87.31% and between four persons with the 77.39% accuracy

    Similar works