10 research outputs found

    Klasifikace pohybu ruky z EEG dat na bázi ERD/ERS vícevrstvým perceprtronem

    No full text
    Kontinuální EEG aktivita měřených subjektů obsahuje různé vzorce (grafoelementy), podle toho, jakou činnost měřený subjekt vykonával. ERD a ERS jsou příkladem takových vzorců souvisejících s pohybem ruky, prstů popř. nohy. Tento článek se zabývá detekcí pohybu na základě vzorců ERD/ERS. Z naměřených a předzpracovaných EEG dat se stanoví ERD/ERS, ze které se vytvoří příznakové vektory, které se následně klasifikují neuronovou sítí. Výsledná neuronová síť se skládá z jedné vstupní a jedné výstupní vrstvy a dvou skrytých vrstev. První skrytá vrstva obsahuje 3 000 neuronů a druhá 1 500 neuronů. Pro natrénování neuronové sítě se z naměřených a upravených dat vytvoří trénovací množina příznakových vektorů, pro následnou úpravu vah neuronové sítě během trénování se používá algoritmus zpětného šíření. S tímto nastavením a tréninkem je neuronová síť schopna klasifikovat pohyb v záznamu EEG s průměrnou přesností 79,92%.Continuous EEG activity in the measured subjects includes different patterns depending on what activity the subject performed. ERD and ERS are examples of such patterns related to movement, for example of a hand, finger or foot. This article deals with the detection of motion based on the ERD/ERS patterns. By linking ERD/ERS, feature vectors which are later classified by neural network are created. The resulting neural network consists of one input and one output layer and two hidden layers. The first hidden layer contains 3,000 neurons and the second one 1,500 neurons. A training set of feature vectors is used for the training of this neural network and the back-propagation algorithm is used for the subsequent adjustment of the weights. With this setting and training, the neural network is able to classify motion in an EEG record with an average accuracy of 79.92%

    Stacked Autoencoders for the P300 Component Detection

    No full text
    Novel neural network training methods (commonly referred to as deep learning) have emerged in recent years. Using a combination of unsupervised pre-training and subsequent fine-tuning, deep neural networks have become one of the most reliable classification methods. Since deep neural networks are especially powerful for high-dimensional and non-linear feature vectors, electroencephalography (EEG) and event-related potentials (ERPs) are one of the promising applications. Furthermore, to the authors' best knowledge, there are very few papers that study deep neural networks for EEG/ERP data. The aim of the experiments subsequently presented was to verify if deep learning-based models can also perform well for single trial P300 classification with possible application to P300-based brain-computer interfaces. The P300 data used were recorded in the EEG/ERP laboratory at the Department of Computer Science and Engineering, University of West Bohemia, and are publicly available. Stacked autoencoders (SAEs) were implemented and compared with some of the currently most reliable state-of-the-art methods, such as LDA and multi-layer perceptron (MLP). The parameters of stacked autoencoders were optimized empirically. The layers were inserted one by one and at the end, the last layer was replaced by a supervised softmax classifier. Subsequently, fine-tuning using backpropagation was performed. The architecture of the neural network was 209-130-100-50-20-2. The classifiers were trained on a dataset merged from four subjects and subsequently tested on different 11 subjects without further training. The trained SAE achieved 69.2% accuracy that was higher (p < 0.01) than the accuracy of MLP (64.9%) and LDA (65.9%). The recall of 58.8% was slightly higher when compared with MLP (56.2%) and LDA (58.4%). Therefore, SAEs could be preferable to other state-of-the-art classifiers for high-dimensional event-related potential feature vectors

    Classifying visemes for automatic lipreading

    No full text
    Automatic lipreading is automatic speech recognition that uses only visual information. The relevant data in a video signal is isolated and features are extracted from it. From a sequence of feature vectors, where every vector represents one video image, a sequence of higher level semantic elements is formed. These semantic elements are "visemes" the visual equivalent of "phonemes" The developed prototype uses a Time Delayed Neural Network to classify the visemes

    Změny kognitivních funkcí měřené pomocí ERPs v časném a pozdním pooperačním období po intravenózní nebo inhalační anestezii

    No full text
    Cíl: Studie zkoumala změny kognitivních funkcí po intravenozní (TIVA) a inhalační (IA) anestézii měřené pomocí sluchových kognitivních evokovaných potenciálů (ERPs). Metoda: Jeden den před operací, první, šestý a čtyřicátý druhý den po operaci byly pacienti vyšetřeni pomocí sluchových ERPs s registrací N1, P3a a P3b komponenty. Výsledky u obou skupin s rozdílnou anestézií byly porovnány. Výsledky: První den po operaci byla prodloužena latence vlny N1 u skupiny po IA anestézii. Signifikantní snížení amplitudy vlny P3a šestý pooperační den s přetrváváním až do čtyřicátého druhého dne bylo zaznamenáno po obou typech anestézie. Snížení amplitudy vlny P3b první pooperační den s normalizací šestý pooperační den bylo zaznamenáno po obou typech anestézie. Závěr: Intravenozní i inhalační anestézie vedou k podobným změnám kognitivních funkcí měřených pomocí ERPs v časném i pozdním pooperačním období. Nemohlo být jasně potvrzeno, zda tyto změny jsou vyvolány anestézií nebo jinými nemonitorovanými perioperačními faktory. Význam: Postanestetické změny reprezentují subklinické poškození, nicméně představují potenciální riziko pro rozvoj následným kognitivním problémům.This study investigated modification in cognitive function following inhalation (IA) and total intravenous (TIVA) anaesthesia measured using auditory ERPs (Event Related Potentials). Methods : Auditory ERPs examination with N1, P3a and P3b component registration was carried out one day before surgery (D-1) and on the first (D+1), sixth (D+6) and 42nd (D+42) days after surgery. Results were compared between two anaesthetic groups. Results: On D+1, N1 latency was increased in the IA group. A significant reduction was observed in amplitude of the P3a component on D+6, which persisted up to D+42 for both IA and TIVA groups. A reduction in the amplitude of P3b on D+1 with normalization by D+6 was found in both groups as well. Conclusions: Intravenous and inhalation anaesthesia lead to similar changes in cognitive function as determined by ERPs, both during the early and late postoperative periods. It cannot be clearly confirmed whether the observed effects are due to anaesthesia or other unmonitored perioperative factors. Significance: Post anaesthetic changes represent a subclinical impairment; nevertheless, they represent a potential risk for subsequent development of cognitive difficulties
    corecore