6 research outputs found

    Interfaz natural de usuario para el control de robot m贸vil con gestos faciales y movimientos del rostro usando c谩mara RGB

    Get PDF
    Actualmente existen muchos esfuerzos por parte de grupos de investigaci贸n en acelerar el desarrollo de algoritmos y t茅cnicas que faciliten la cotidianidad de las personas a trav茅s de una interacci贸n m谩s natural con los dispositivos. La disciplina que busca mejorar la experiencia del usuario en el manejo de computadoras se la conoce como Interacci贸n Humano Computadora (HCI - Human Computer Interaction), y en algunos de sus campos se pueden encontrar las Interfaces Cerebro Computadora (BCI - Brain Computer Interface) que permiten una interacci贸n mediante nuestro pensamiento, realizando la adquisici贸n de las ondas cerebrales, que luego son procesadas para generar las acciones en el entorno. Tambi茅n se encuentran las Interfaces Naturales de Usuario (NUI - Natural User Interface) con las cuales se ofrece la posibilidad de control a trav茅s de gestos, posturas y movimientos con el cuerpo. La utilizaci贸n de recursos de visi贸n artificial para reconocer los movimientos y gestos del rostro de las personas constituye un tema de inter茅s para el desarrollo de las Interfaces Naturales de Usuario. El objetivo de este proyecto, adem谩s de contribuir con el avance de t茅cnicas para el reconocimiento de gestos del rostro, es dise帽ar una interfaz de usuario compuesta por una pantalla de visualizaci贸n y una c谩mara RGB est谩ndar que permita controlar dispositivos a trav茅s de los movimientos de la cabeza y los gestos faciales, emulando gr谩ficamente en la pantalla un conjunto de botones de control para facilitar al usuario reconocer con exactitud el comando que se est谩 realizando. Este trabajo tambi茅n hace hincapi茅 en la Interacci贸n Humano Robot (HRI - Human RobotInteraction) para implementar las t茅cnicas de visi贸n artificial en el control del desplazamiento de un robot m贸vil.Eje: Computaci贸n Gr谩fica, Im谩genes y Visualizaci贸n.Red de Universidades con Carreras en Inform谩tica (RedUNCI

    Interfaz natural de usuario para el control de robot m贸vil con gestos faciales y movimientos del rostro usando c谩mara RGB

    Get PDF
    Actualmente existen muchos esfuerzos por parte de grupos de investigaci贸n en acelerar el desarrollo de algoritmos y t茅cnicas que faciliten la cotidianidad de las personas a trav茅s de una interacci贸n m谩s natural con los dispositivos. La disciplina que busca mejorar la experiencia del usuario en el manejo de computadoras se la conoce como Interacci贸n Humano Computadora (HCI - Human Computer Interaction), y en algunos de sus campos se pueden encontrar las Interfaces Cerebro Computadora (BCI - Brain Computer Interface) que permiten una interacci贸n mediante nuestro pensamiento, realizando la adquisici贸n de las ondas cerebrales, que luego son procesadas para generar las acciones en el entorno. Tambi茅n se encuentran las Interfaces Naturales de Usuario (NUI - Natural User Interface) con las cuales se ofrece la posibilidad de control a trav茅s de gestos, posturas y movimientos con el cuerpo. La utilizaci贸n de recursos de visi贸n artificial para reconocer los movimientos y gestos del rostro de las personas constituye un tema de inter茅s para el desarrollo de las Interfaces Naturales de Usuario. El objetivo de este proyecto, adem谩s de contribuir con el avance de t茅cnicas para el reconocimiento de gestos del rostro, es dise帽ar una interfaz de usuario compuesta por una pantalla de visualizaci贸n y una c谩mara RGB est谩ndar que permita controlar dispositivos a trav茅s de los movimientos de la cabeza y los gestos faciales, emulando gr谩ficamente en la pantalla un conjunto de botones de control para facilitar al usuario reconocer con exactitud el comando que se est谩 realizando. Este trabajo tambi茅n hace hincapi茅 en la Interacci贸n Humano Robot (HRI - Human RobotInteraction) para implementar las t茅cnicas de visi贸n artificial en el control del desplazamiento de un robot m贸vil.Eje: Computaci贸n Gr谩fica, Im谩genes y Visualizaci贸n.Red de Universidades con Carreras en Inform谩tica (RedUNCI

    Interfaz natural de usuario para el control de robot m贸vil con gestos faciales y movimientos del rostro usando c谩mara RGB

    Get PDF
    Actualmente existen muchos esfuerzos por parte de grupos de investigaci贸n en acelerar el desarrollo de algoritmos y t茅cnicas que faciliten la cotidianidad de las personas a trav茅s de una interacci贸n m谩s natural con los dispositivos. La disciplina que busca mejorar la experiencia del usuario en el manejo de computadoras se la conoce como Interacci贸n Humano Computadora (HCI - Human Computer Interaction), y en algunos de sus campos se pueden encontrar las Interfaces Cerebro Computadora (BCI - Brain Computer Interface) que permiten una interacci贸n mediante nuestro pensamiento, realizando la adquisici贸n de las ondas cerebrales, que luego son procesadas para generar las acciones en el entorno. Tambi茅n se encuentran las Interfaces Naturales de Usuario (NUI - Natural User Interface) con las cuales se ofrece la posibilidad de control a trav茅s de gestos, posturas y movimientos con el cuerpo. La utilizaci贸n de recursos de visi贸n artificial para reconocer los movimientos y gestos del rostro de las personas constituye un tema de inter茅s para el desarrollo de las Interfaces Naturales de Usuario. El objetivo de este proyecto, adem谩s de contribuir con el avance de t茅cnicas para el reconocimiento de gestos del rostro, es dise帽ar una interfaz de usuario compuesta por una pantalla de visualizaci贸n y una c谩mara RGB est谩ndar que permita controlar dispositivos a trav茅s de los movimientos de la cabeza y los gestos faciales, emulando gr谩ficamente en la pantalla un conjunto de botones de control para facilitar al usuario reconocer con exactitud el comando que se est谩 realizando. Este trabajo tambi茅n hace hincapi茅 en la Interacci贸n Humano Robot (HRI - Human RobotInteraction) para implementar las t茅cnicas de visi贸n artificial en el control del desplazamiento de un robot m贸vil.Eje: Computaci贸n Gr谩fica, Im谩genes y Visualizaci贸n.Red de Universidades con Carreras en Inform谩tica (RedUNCI

    Aplicaciones de la rob贸tica en la integraci贸n de contenidos en carreras t茅cnicas

    Get PDF
    Durante 2011 y 2012 se desarroll贸 y complet贸 con 茅xito desde la Universidad Blas Pascal (UBP) el proyecto Tecnolog铆a Educativa para Docentes y Alumnos del Nivel Medio (Proyecto GoGo) (Universidad Blas Pascal, 2012) Su objetivo era proponer aplicaciones de la rob贸tica elemental en el 谩mbito de la escuela media, tomando como base el Proyecto GoGo Board de la Universidad de Stanford (GoGo Board - Stanford University, 2011). El proyecto que se presenta con este nuevo escrito, es la segunda parte de aquel proyecto. Se enmarca en las actividades de investigaci贸n y transferencia de las carreras tecnol贸gicas de la UBP, y se designa como Usos y Aplicaciones de la Rob贸tica como Medio para la Integraci贸n de Conocimientos en Carreras de Tecnolog铆a Aplicada (Proyecto GoGo II). Se propone dise帽ar experiencias pr谩cticas orientadas a la inform谩tica y la rob贸tica elemental, que se apliquen en carreras t茅cnicas universitarias, comenzando con aquellas ofrecidas por la propia UBP (Ingenier铆a Inform谩tica e Ingenier铆a en Telecomunicaciones) Durante la etapa de desarrollo, los investigadores de la UBP gu铆an y asesoran a los docentes participantes, y analizan los principales ejes curriculares de los planes de las carreras citadas para identificar 谩reas integradoras que puedan ser complementadas con actividades de rob贸tica introductiva basadas en el uso de GoGo Board.Eje: Tecnolog铆a Inform谩tica Aplicada en Educaci贸nRed de Universidades con Carreras en Inform谩tica (RedUNCI

    Elementos de rob贸tica: transferencia en Tecnolog铆a Educativa al Nivel Medio

    Get PDF
    El Proyecto Tecnolog铆a Educativa para Docentes y Alumnos del Nivel Medio (abreviado internamente como Proyecto GoGo) se desarroll贸 en la UBP durante 2011. Es un proyecto mediante el cual se investigaron posibles aplicaciones de la rob贸tica elemental en el 谩mbito de la escuela media, y la forma en que esa tecnolog铆a pudiera usarse como instrumento de comunicaci贸n, formaci贸n y divulgaci贸n. Se busc贸 el planteo de desarrollos tecnol贸gicos novedosos relacionados con el saber hacer, para lograr mayor creatividad y concentraci贸n en la tarea y mejorar los procesos de aprendizaje y la transferencia de conocimientos de diversas disciplinas cient铆ficas y tecnol贸gicas. Se tom贸 como base el Proyecto GoGo de la Universidad de Stanford y el MIT. El kit GoGo es esencialmente una placa electr贸nica a la que pueden conectarse elementos como sensores, motores y rel茅s. Puede programarse en lenguaje Logo y tanto el dise帽o de circuitos de la placa como el firmware y el software de control son de libre descarga desde el sitio oficial del proyecto de Stanford. Su uso en educaci贸n (escolar y/o universitaria) se ha expandido pr谩cticamente a todo el mundo.Eje: Tecnolog铆a inform谩tica aplicada en educaci贸nRed de Universidades con Carreras en Inform谩tica (RedUNCI

    ESTIMACI脫N DE LA POSTURA DE LAS MANOS PARA INTERACCI脫N SIN MARCADORES CON APLICACIONES DE REALIDAD AUMENTADA.

    No full text
    La Realidad Aumentada es la visualizaci贸n del mundo real combinado con elementos virtuales generados por computadora, cuya fusi贸n da lugar a una realidad mixta. Es importante que estos elementos virtuales sean alineados dentro de la escena de una manera precisa de acuerdo al tipo de aplicaci贸n. Lograrlo puede requerir identificar la orientaci贸n de un marcador de realidad aumentada o estimar la perspectiva del escenario real. Este trabajo presenta un sistema de realidad aumentada que realiza la estimaci贸n de la pose de la c谩mara. Se propone una selecci贸n y detecci贸n de ciertas caracter铆sticas de la mano para estimar su postura en el mundo real con la finalidad de graficar contenido virtual 3D alineado con las manos. Adem谩s, se expone un m茅todo que permite al usuario interactuar con el sistema a trav茅s del movimiento de dos dedos, particularmente juntando los mismos. En este trabajo, esta acci贸n realiza el intercambio del contenido virtual visualizado, elegidos desde un conjunto de objetos 3D disponibles en el sistema. En resumen, los usuarios pueden manipular el contenido virtual con sus manos. Augmented Reality is viewing the real world combined with virtual computer-generated elements, whose fusion leads to a mixed reality. It is important that these elements are aligned within the scene in a precise manner according to the type of application. Achieving this may require the identification of the orientation of a marker augmented reality or estimation of the perspective of the real scenario. This paper presents a markerless system appropriate for camera pose estimation in augmented reality applications. We propose a selection and detection of hand feature points to estimate their pose in the real world with the aim of rendering 3D virtual content aligned with the hand. Also, we expose a method for interacting with the application through movements of two fingers, particularly putting them together. This action exchanges the virtual content displayed, chosen from a set of 3D objects available in the system. To sum up, users can manipulate the virtual contents by using their hands
    corecore