2 research outputs found

    Modelação de diálogos com o Midiki: um gestor de diálogo do tipo Information State Update

    Get PDF
    Nesta dissertação investigamos a problemática da criação de sistemas e interfaces que permitam a interacção entre pessoas e máquinas através de linguagem natural(LN), recorrendo a Gestores de Diálogo (GD). Esse tipo de interacção concretiza-se através do estabelecimento de diálogos entre uma pessoa (cliente ou utilizador de um serviço) e a máquina, por exemplo, e em particular, através da fala. Quando disponibilizado da forma tradicional, o acesso ao serviço exige um intermediário Humano ou a adaptação da Pessoa a interfaces menos naturais, tais como linhas de comandos num computador, digitadas através de teclado ou o recurso (usual) a janelas, cliques de rato e preenchimento de formulários. Os sistemas que possibilitam a intermediação com esses serviços através de LN chamam-se Sistemas de Diálogo (SD), no núcleo dos quais se encontram os chamados Gestores de Diálogo. A implementação de SDs robustos ainda constitui um desafio, dada a complexidade, problemas e dificuldades que apresenta. Um SD, e em particular um GD, tem de ser configurado para levar a cabo um diálogo em linguagem natural com um Humano, por mais restrito ou mais genérico que seja o domínio (ou tarefa) considerado. Infelizmente, existem poucas metodologias e ferramentas de autoria que possibilitem a modelação fácil e intuitiva de tais diálogos (sobre os GDs). Nesta dissertação apresentamos uma metodologia [Quintal & Sampaio, 2007] e uma ferramenta para a autoria de diálogos com base no Gestor de Diálogo MIDIKI [Burke, 2005b]. A ferramenta de autoria automatiza as partes mais importantes da geração de código com vista à execução de um diálogo nesse GD.Orientador: Paulo N.M. Sampai

    Multimodal Interfaces - A Generic Design Approach

    No full text
    The original publication is available at www.springerlink.comIntegrating new input-output modalities, such as speech, gaze, gestures, haptics, etc., in user interfaces is currently considered as a significant potential contribution to implementing the concept of Universal Access (UA) in the Information Society. UA in this context means providing everybody, including handicapped users, with easy human-computer interaction in any context of use, especially mobility. However, the cost of developing an appropriate specific multimodal user interface for each interactive software is prohibitive. A generic design methodology and generic reusable components are needed to master the complexity of the design and development of interfaces that allow flexible use of alternative modalities and meaningful combinations of modalities, and to take account of constraints in the interaction environment or the user's motor and perceptual capabilities. We present a design approach meant to facilitate the development of generic multimodal user interfaces, and based on best practice in software and user interface design and architecture
    corecore