60,409 research outputs found
Connected Component Algorithm for Gestures Recognition
This paper presents head and hand gestures recognition system for Human Computer Interaction (HCI). Head and Hand gestures are an important modality for human computer interaction. Vision based recognition system can give computers the capability of understanding and responding to the hand and head gestures. The aim of this paper is the proposal of real time vision system for its application within a multimedia interaction environment. This recognition system consists of four modules, i.e. capturing the image, image extraction, pattern matching and command determination. If hand and head gestures are shown in front of the camera, hardware will perform respective action. Gestures are matched with the stored database of gestures using pattern matching. Corresponding to matched gesture, the hardware is moved in left, right, forward and backward directions. An algorithm for optimizing connected component in gesture recognition is proposed, which makes use of segmentation in two images. Connected component algorithm scans an image and group its pixels into component based on pixel connectivity i.e. all pixels in connected component share similar pixel intensity values and are in some way connected with each other. Once all groups have been determined, each pixel is labeled with a color according to component it was assigned to
Software Controller using Hand Gestures
New technologies emerge in response to the passage of time. Robotic hand gesture control is one of them. Collaboration frameworks based on gestures are becoming increasingly popular in the business and at home. The approach we suggested can greatly reduce the utilization of hardware components such as a keyboard and mouse. The goal of this research is to create a system that can recognize hand gestures and use them as an input command to connect with a computer or laptop. According to a recent study, the use of CNN technology is still lacking in Hand Gesture Recognition. Our research aims to leverage CNN technology to recognize gestures in both static and dynamic modes, and then deploy the trained model in real-time applications
Hand gesture recognition system based in computer vision and machine learning: Applications on human-machine interaction
Tese de Doutoramento em Engenharia de Eletrónica e de ComputadoresSendo uma forma natural de interação homem-máquina, o reconhecimento de gestos
implica uma forte componente de investigação em áreas como a visão por
computador e a aprendizagem computacional. O reconhecimento gestual é uma área
com aplicações muito diversas, fornecendo aos utilizadores uma forma mais natural e
mais simples de comunicar com sistemas baseados em computador, sem a
necessidade de utilização de dispositivos extras. Assim, o objectivo principal da
investigação na área de reconhecimento de gestos aplicada à interacção homemmáquina
é o da criação de sistemas, que possam identificar gestos específicos e usálos
para transmitir informações ou para controlar dispositivos. Para isso as interfaces
baseados em visão para o reconhecimento de gestos, necessitam de detectar a mão de
forma rápida e robusta e de serem capazes de efetuar o reconhecimento de gestos em
tempo real. Hoje em dia, os sistemas de reconhecimento de gestos baseados em visão
são capazes de trabalhar com soluções específicas, construídos para resolver um
determinado problema e configurados para trabalhar de uma forma particular. Este
projeto de investigação estudou e implementou soluções, suficientemente genéricas,
com o recurso a algoritmos de aprendizagem computacional, permitindo a sua
aplicação num conjunto alargado de sistemas de interface homem-máquina, para
reconhecimento de gestos em tempo real. A solução proposta, Gesture Learning
Module Architecture (GeLMA), permite de forma simples definir um conjunto de
comandos que pode ser baseado em gestos estáticos e dinâmicos e que pode ser
facilmente integrado e configurado para ser utilizado numa série de aplicações. É um
sistema de baixo custo e fácil de treinar e usar, e uma vez que é construído
unicamente com bibliotecas de código. As experiências realizadas permitiram
mostrar que o sistema atingiu uma precisão de 99,2% em termos de reconhecimento
de gestos estáticos e uma precisão média de 93,7% em termos de reconhecimento de
gestos dinâmicos. Para validar a solução proposta, foram implementados dois
sistemas completos. O primeiro é um sistema em tempo real capaz de ajudar um
árbitro a arbitrar um jogo de futebol robótico. A solução proposta combina um
sistema de reconhecimento de gestos baseada em visão com a definição de uma linguagem formal, o CommLang Referee, à qual demos a designação de Referee
Command Language Interface System (ReCLIS). O sistema identifica os comandos
baseados num conjunto de gestos estáticos e dinâmicos executados pelo árbitro,
sendo este posteriormente enviado para um interface de computador que transmite a
respectiva informação para os robôs. O segundo é um sistema em tempo real capaz
de interpretar um subconjunto da Linguagem Gestual Portuguesa. As experiências
demonstraram que o sistema foi capaz de reconhecer as vogais em tempo real de
forma fiável. Embora a solução implementada apenas tenha sido treinada para
reconhecer as cinco vogais, o sistema é facilmente extensível para reconhecer o resto
do alfabeto. As experiências também permitiram mostrar que a base dos sistemas de
interação baseados em visão pode ser a mesma para todas as aplicações e, deste
modo facilitar a sua implementação. A solução proposta tem ainda a vantagem de ser
suficientemente genérica e uma base sólida para o desenvolvimento de sistemas
baseados em reconhecimento gestual que podem ser facilmente integrados com
qualquer aplicação de interface homem-máquina. A linguagem formal de definição
da interface pode ser redefinida e o sistema pode ser facilmente configurado e
treinado com um conjunto de gestos diferentes de forma a serem integrados na
solução final.Hand gesture recognition is a natural way of human computer interaction and an area
of very active research in computer vision and machine learning. This is an area with
many different possible applications, giving users a simpler and more natural way to
communicate with robots/systems interfaces, without the need for extra devices. So,
the primary goal of gesture recognition research applied to Human-Computer
Interaction (HCI) is to create systems, which can identify specific human gestures
and use them to convey information or controlling devices. For that, vision-based
hand gesture interfaces require fast and extremely robust hand detection, and gesture
recognition in real time.
Nowadays, vision-based gesture recognition systems are able to work with specific
solutions, built to solve one particular problem and configured to work in a particular
manner. This research project studied and implemented solutions, generic enough,
with the help of machine learning algorithms, allowing its application in a wide
range of human-computer interfaces, for real-time gesture recognition.
The proposed solution, Gesture Learning Module Architecture (GeLMA), allows the
definition in a simple way of a set of commands that can be based on static and
dynamic gestures and that can be easily integrated and configured to be used in a
number of applications. It is easy to train and use, and since it is mainly built with
open source libraries it is also an inexpensive solution. Experiments carried out
showed that the system achieved an accuracy of 99.2% in terms of hand posture
recognition and an average accuracy of 93,72% in terms of dynamic gesture
recognition. To validate the proposed framework, two systems were implemented.
The first one is an online system able to help a robotic soccer game referee judge a
game in real time. The proposed solution combines a vision-based hand gesture
recognition system with a formal language definition, the Referee CommLang, into
what is called the Referee Command Language Interface System (ReCLIS). The
system builds a command based on system-interpreted static and dynamic referee
gestures, and is able to send it to a computer interface which can then transmit the
proper commands to the robots. The second one is an online system able to interpret
the Portuguese Sign Language. The experiments showed that the system was able to reliably recognize the vowels in real-time. Although the implemented solution was
only trained to recognize the five vowels, it is easily extended to recognize the rest of
the alphabet. These experiments also showed that the core of vision-based interaction
systems can be the same for all applications and thus facilitate its implementation.
The proposed framework has the advantage of being generic enough and a solid
foundation for the development of hand gesture recognition systems that can be
integrated in any human-computer interface application. The interface language can
be redefined and the system can be easily configured to train different sets of
gestures that can be easily integrated into the final solution
- …