As expressões faciais são alvos constante de estudos desde Charles Darwin, em 1872. Pesquisas
na área de psicologia e, em destaque, os trabalhos de Paul Ekman afirmam que
existem expressões faciais universais básicas e elas são manifestadas em todos os seres humanos
independente de fatores como gênero, idade, cultura e ambiente social. Ainda pode-se
criar novas expressões mais complexas combinando as expressões fundamentais de alegria,
tristeza, medo, nojo, raiva, surpresa e desprezo, além da face neutra. O assunto ainda é
atual, uma vez que há uma grande necessidade de implementar interfaces homem-máquinas
(IHM) capazes de identificar a expressão de um indivíduo e atribuir uma saída condizente
com a situação observada. Pode-se citar como exemplos iterações homem-robô, sistemas
de vigilância e animações gráficas. Nesse trabalho é proposto um sistema automático para
identificar expressões faciais. O sistema é dividido em três etapas: localização de face, extração
de características e identificação da expressão facial. O banco de dados Japanese
Facial Expression Database - JAFFE foi utilizado para treinamentos e testes . A localização
da face é realizada de maneira automática através do framework proposto por Viola-Jones e
é estimado o centro da face. Na sequência, utiliza-se o algoritmo Active Appearance Model -
AAM para descrever estatisticamente um modelo de forma e textura para o banco de dados.
Com esse descritor é possível gerar um vetor de aparência capaz de representar, com redução
de dimensão, uma face e, consequentemente, a expressão facial contida nela através de um
algoritmo iterativo de busca a partir de um modelo médio. Esse vetor é utilizado na etapa
de reconhecimento das expressões faciais, onde são testados os classificadores baseados no
vizinho mais próximo k-NN e a máquina de vetores de suporte - SVM com kernel RBF
para tratar o problema de forma não linear. É proposto um mecanismo de busca na saída
do bloco de detecção de faces para diminuir o erro do modelo, pois o sucesso do algoritmo
é altamente dependente do ponto inicial de busca. Também é proposto uma mudança no
algoritmo AAM para redução do erro de convergência entre a imagem real e o modelo sintético
que a representa, abordando o problema de forma não linear. Testes foram realizados
utilizando a validação cruzada leave one out para todas as expressões faciais e o classificador
SVM-RBF. O sistema apresentou um taxa de acerto de 55,4%, com sensibilidade 60,25% e
especificidade 93,95%