12 research outputs found
Expanding tangible tabletop interfaces beyond the display
L’augment
de
popularitat
de
les
taules
i
superfícies
interactives
està
impulsant
la
recerca
i
la
innovació
en
una
gran
varietat
d’àrees,
incloent-‐hi
maquinari,
programari,
disseny
de
la
interacció
i
noves
tècniques
d’interacció.
Totes,
amb
l’objectiu
de
promoure
noves
interfícies
dotades
d’un
llenguatge
més
ric,
potent
i
natural.
Entre
totes
aquestes
modalitats,
la
interacció
combinada
a
sobre
i
per
damunt
de
la
superfície
de
la
taula
mitjançant
tangibles
i
gestos
és
actualment
una
àrea
molt
prometedora.
Aquest
document
tracta
d’expandir
les
taules
interactives
més
enllà
de
la
superfície
per
mitjà
de
l’exploració
i
el
desenvolupament
d’un
sistema
o
dispositiu
enfocat
des
de
tres
vessants
diferents:
maquinari,
programari
i
disseny
de
la
interacció.
Durant
l’inici
d’aquest
document
s’estudien
i
es
resumeixen
els
diferents
trets
característics
de
les
superfícies
interactives
tangibles
convencionals
o
2D
i
es
presenten
els
treballs
previs
desenvolupats
per
l’autor
en
solucions
de
programari
que
acaben
resultant
en
aplicacions
que
suggereixen
l’ús
de
la
tercera
dimensió
a
les
superfícies
tangibles.
Seguidament,
es
presenta
un
repàs
del
maquinari
existent
en
aquest
tipus
d’interfícies
per
tal
de
concebre
un
dispositiu
capaç
de
detectar
gestos
i
generar
visuals
per
sobre
de
la
superfície,
per
introduir
els
canvis
realitzats
a
un
dispositiu
existent,
desenvolupat
i
cedit
per
Microsoft
Reseach
Cambridge.
Per
tal
d’explotar
tot
el
potencial
d’aquest
nou
dispositiu,
es
desenvolupa
un
nou
sistema
de
visió
per
ordinador
que
estén
el
seguiment
d’objectes
i
mans
en
una
superfície
2D
a
la
detecció
de
mans,
dits
i
etiquetes
amb
sis
graus
de
llibertat
per
sobre
la
superfície
incloent-‐hi
la
interacció
tangible
i
tàctil
convencional
a
la
superfície.
Finalment,
es
presenta
una
eina
de
programari
per
a
generar
aplicacions
per
al
nou
sistema
i
es
presenten
un
seguit
d’aplicacions
per
tal
de
provar
tot
el
desenvolupament
generat
al
llarg
de
la
tesi
que
es
conclou
presentant
un
seguit
de
gestos
tant
a
la
superfície
com
per
sobre
d’aquesta
i
situant-‐los
en
una
nova
classificació
que
alhora
recull
la
interacció
convencional
2D
i
la
interacció
estesa
per
damunt
de
la
superfície
desenvolupada.The
rising
popularity
of
interactive
tabletops
and
surfaces
is
spawning
research
and
innovation
in
a
wide
variety
of
areas,
including
hardware
and
software
technologies,
interaction
design
and
novel
interaction
techniques,
all
of
which
seek
to
promote
richer,
more
powerful
and
more
natural
interaction
modalities.
Among
these
modalities,
combined
interaction
on
and
above
the
surface,
both
with
gestures
and
with
tangible
objects,
is
a
very
promising
area.
This
dissertation
is
about
expanding
tangible
and
tabletops
surfaces
beyond
the
display
by
exploring
and
developing
a
system
from
the
three
different
perspectives:
hardware,
software,
and
interaction
design.
This
dissertation,
studies
and
summarizes
the
distinctive
affordances
of
conventional
2D
tabletop
devices,
with
a
vast
literature
review
and
some
additional
use
cases
developed
by
the
author
for
supporting
these
findings,
and
subsequently
explores
the
novel
and
not
yet
unveiled
potential
affordances
of
3D-‐augmented
tabletops.
It
overviews
the
existing
hardware
solutions
for
conceiving
such
a
device,
and
applies
the
needed
hardware
modifications
to
an
existing
prototype
developed
and
rendered
to
us
by
Microsoft
Research
Cambridge.
For
accomplishing
the
interaction
purposes,
it
is
developed
a
vision
system
for
3D
interaction
that
extends
conventional
2D
tabletop
tracking
for
the
tracking
of
hand
gestures,
6DoF
markers
and
on-‐surface
finger
interaction.
It
finishes
by
conceiving
a
complete
software
framework
solution,
for
the
development
and
implementation
of
such
type
of
applications
that
can
benefit
from
these
novel
3D
interaction
techniques,
and
implements
and
test
several
software
prototypes
as
proof
of
concepts,
using
this
framework.
With
these
findings,
it
concludes
presenting
continuous
tangible
interaction
gestures
and
proposing
a
novel
classification
for
3D
tangible
and
tabletop
gestures
Detection and Identification Techniques for Markers Used in Computer Vision
This paper summarizes and compares techniques for detecting and identifying markers in the context of computer vision. Existing approaches either use correlation, digital or topological methods for marker identification. The comparison points out, that all marker processing algorithms which employ sophisticated digital codes perform more robust and reliable. Existing bit representation schemes for these codes and marker designs are compared with each other. In the overall context it is illustrated, why the marker processing algorithm is the best performer regarding marker occlusion and minimal detectable pattern size
An Abstraction Framework for Tangible Interactive Surfaces
This cumulative dissertation discusses - by the example of four subsequent publications - the various layers of a tangible interaction framework, which has been developed in conjunction with an electronic musical instrument with a tabletop tangible user interface. Based on the experiences that have been collected during the design and implementation of that particular musical application, this research mainly concentrates on the definition of a general-purpose abstraction model for the encapsulation of physical interface components that are commonly employed in the context of an interactive surface environment. Along with a detailed description of the underlying abstraction model, this dissertation also describes an actual implementation in the form of a detailed protocol syntax, which constitutes the common element of a distributed architecture for the construction of surface-based tangible user interfaces. The initial implementation of the presented abstraction model within an actual application toolkit is comprised of the TUIO protocol and the related computer-vision based object and multi-touch tracking software reacTIVision, along with its principal application within the Reactable synthesizer. The dissertation concludes with an evaluation and extension of the initial TUIO model, by presenting TUIO2 - a next generation abstraction model designed for a more comprehensive range of tangible interaction platforms and related application scenarios
Contribuciones a la estimación de la pose de la cámara en aplicaciones industriales de realidad aumentada
Augmented Reality (AR) aims to complement the visual perception of the user environment superimposing virtual elements. The main challenge of this technology is to combine the virtual and real world in a precise and natural way. To carry out this goal, estimating the user position and orientation in both worlds at all times is a crucial task. Currently, there are numerous techniques and algorithms developed for camera pose estimation. However, the use of synthetic square markers has become the fastest, most robust and simplest solution in these cases. In this scope, a big number of marker detection systems have been developed. Nevertheless, most of them presents some limitations, (1) their unattractive and non-customizable visual appearance prevent their use in industrial products and (2) the detection rate is drastically reduced in presence of noise, blurring and occlusions. In this doctoral dissertation the above-mentioned limitations are addressed. In first place, a comparison has been made between the different marker detection systems currently available in the literature, emphasizing the limitations of each. Secondly, a novel approach to design, detect and track customized markers capable of easily adapting to the visual limitations of commercial products has been developed. In third place, a method that combines the detection of black and white square markers with keypoints and contours has been implemented to estimate the camera position in AR applications. The main motivation of this work is to offer a versatile alternative (based on contours and keypoints) in cases where, due to noise, blurring or occlusions, it is not possible to identify markers in the images. Finally, a method for reconstruction and semantic segmentation of 3D objects using square markers in photogrammetry processes has been presented.La Realidad Aumentada (AR) tiene como objetivo complementar la percepción visual del entorno circunstante al usuario mediante la superposición de elementos virtuales. El principal reto de dicha tecnología se basa en fusionar, de forma precisa y natural, el mundo virtual con el mundo real. Para llevar a cabo dicha tarea, es de vital importancia conocer en todo momento tanto la posición, así como la orientación del usuario en ambos mundos. Actualmente, existen un gran número de técnicas de estimación de pose. No obstante, el uso de marcadores sintéticos cuadrados se ha convertido en la solución más rápida, robusta y sencilla utilizada en estos casos. En este ámbito de estudio, existen un gran número de sistemas de detección de marcadores ampliamente extendidos. Sin embargo, su uso presenta ciertas limitaciones, (1) su aspecto visual, poco atractivo y nada customizable impiden su uso en ciertos productos industriales en donde la personalización comercial es un aspecto crucial y (2) la tasa de detección se ve duramente decrementada ante la presencia de ruido, desenfoques y oclusiones Esta tesis doctoral se ocupa de las limitaciones anteriormente mencionadas. En primer lugar, se ha realizado una comparativa entre los diferentes sistemas de detección de marcadores actualmente en uso, enfatizando las limitaciones de cada uno. En segundo lugar, se ha desarrollado un novedoso enfoque para diseñar, detectar y trackear marcadores personalizados capaces de adaptarse fácilmente a las limitaciones visuales de productos comerciales. En tercer lugar, se ha implementado un método que combina la detección de marcadores cuadrados blancos y negros con keypoints y contornos, para estimar de la posición de la cámara en aplicaciones AR. La principal motivación de este trabajo se basa en ofrecer una alternativa versátil (basada en contornos y keypoints) en aquellos casos donde, por motivos de ruido, desenfoques u oclusiones no sea posible identificar marcadores en las imágenes. Por último, se ha desarrollado un método de reconstrucción y segmentación semántica de objetos 3D utilizando marcadores cuadrados en procesos de fotogrametría
The Augmented Reality Systems in a Maintenance of Equipment tutorial context
O desenvolvimento da Realidade Aumentada como um conceito e as técnicas disponíveis relacionadas têm vindo a estabilizar ao longo dos anos, permitindo o aparecimento de uma numerosa quantidade de aplicações de Realidade Aumentada em áreas como a medicina, design, manutenção e reparação, anotação e visualização, planeamento de trajectória de robôs, aviação militar e entretimento que tem recebido mais atenção.Embora muitas dessas áreas tenham demonstrado as vantagens da Realidade Aumentada, ainda existem algumas aberturas por preencher. A montagem e manutenção de equipmento, por exemplo, tem sido um tema de estudo investigado minuciosamente.Várias aplicações têm sido desenvolvidas que demonstram os benefícios da Realidade Aumentada em tarefas de montagem, mas o ponto principal de inovação desta dissertação foca-se em permitir a criação de Tutoriais de montagem utilizando Realidade Aumentada através do mesmo sistema de Realidade Aumentada que permite a execução do tutorial. A criação de tutoriais seria efectuada através da utilização de um digitalizador 3D, de modo a identificar cuidadosamente a localização da próxima peça a ser montada.Augmented Reality's development as a concept and available related techniques have been stabilizing throughout the years, allowing a numerous of AR applications to appear in several areas such as medical, design, maintenance and repair, annotation and visualization, robot path planning, military aircraft and entertainment which has received the most attention.While many of those areas have shown the advantages AR can bring, there are still some loopholes that need to be filled. Assembly and maintenance of equipment, for instance, has been a thoroughly investigated subject of study in AR.Many applications have been developed which demonstrate the benefits of AR in assembly tasks, but this dissertation's main innovative point is to allow the creation of AR assembly tutorials using the same AR system that allows its tutorial execution. The creation of tutorials would be carried out through the use of a manual 3D Digitizer, in order to carefully pinpoint each location of the next assembly component
A comprehensive framework for the rapid prototyping of ubiquitous interaction
In the interaction between humans and computational systems, many advances have
been made in terms of hardware (e.g., smart devices with embedded sensors and
multi-touch surfaces) and software (e.g., algorithms for the detection and tracking of
touches, gestures and full body movements). Now that we have the computational
power and devices to manage interactions between the physical and the digital world,
the question is—what should we do? For the Human-Computer Interaction research
community answering to this question means to materialize Mark Weiser’s vision of
Ubiquitous Computing.
In the desktop computing paradigm, the desktop metaphor is implemented by a graphical
user interface operated via mouse and keyboard. Users are accustomed to employing artificial
control devices whose operation has to be learned and they interact in an environment
that inhibits their faculties. For example the mouse is a device that allows movements
in a two dimensional space, thus limiting the twenty three degrees of freedom of the
human’s hand. The Ubiquitous Computing is an evolution in the history of computation:
it aims at making the interface disappear and integrating the information processing into
everyday objects with computational capabilities. In this way humans would no more
be forced to adapt to machines but, instead, the technology will harmonize with the
surrounding environment. Conversely from the desktop case, ubiquitous systems make
use of heterogeneous Input/Output devices (e.g., motion sensors, cameras and touch
surfaces among others) and interaction techniques such as touchless, multi-touch, and
tangible. By reducing the physical constraints in interaction, ubiquitous technologies
can enable interfaces that endow more expressive power (e.g., free-hand gestures) and,
therefore, such technologies are expected to provide users with better tools to think,
create and communicate.
It appears clear that approaches based on classical user interfaces from the desktop
computing world do not fit with ubiquitous needs, for they were thought for a single user
who is interacting with a single computing systems, seated at his workstation and looking
at a vertical screen. To overcome the inadequacy of the existing paradigm, new models
started to be developed that enable users to employ their skills effortlessly and lower
the cognitive burden of interaction with computational machines. Ubiquitous interfaces
are pervasive and thus invisible to its users, or they become invisible with successive
interactions in which the users feel they are instantly and continuously successful.
All the benefits advocated by ubiquitous interaction, like the invisible interface and a more
natural interaction, come at a price: the design and development of interactive systems
raise new conceptual and practical challenges. Ubiquitous systems communicate with the real world by means of sensors, emitters and actuators. Sensors convert real world
inputs into digital data, while emitters and actuators are mostly used to provide digital or
physical feedback (e.g., a speaker emitting sounds). Employing such variety of hardware
devices in a real application can be difficult because their use requires knowledge of
underneath physics and many hours of programming work. Furthermore, data integration
can be cumbersome, for any device vendor uses different programming interfaces and
communication protocols. All these factors make the rapid prototyping of ubiquitous
systems a challenging task.
Prototyping is a pivoting activity to foster innovation and creativity through the exploration
of a design space. Nevertheless, while there are many prototyping tools and
guidelines for traditional user interfaces, very few solutions have been developed for a
holistic prototyping of ubiquitous systems. The tremendous amount of different input devices,
interaction techniques and physical environments envisioned by researchers produces
a severe challenge from the point of view of general and comprehensive development
tools. All of this makes it difficult to work in a design and development space where
practitioners need to be familiar with different related subjects, involving software and
hardware. Moreover, the technological context is further complicated by the fact that
many of the ubiquitous technologies have recently grown from an embryonic stage and are
still in a process of maturation; thus they lack of stability, reliability and homogeneity. For
these reasons, it is compelling to develop tools support to the programming of ubiquitous
interaction. In this thesis work this particular topic is addressed.
The goal is to develop a general conceptual and software framework that makes use
of hardware abstraction to lighten the prototyping process in the design of ubiquitous
systems. The thesis is that, by abstracting from low-level details, it is possible to provide
unified, coherent and consistent access to interacting devices independently of their
implementation or communication protocols. In this dissertation the existing literature is
revised and is pointed out that there is a need in the art of frameworks that provide such
a comprehensive and integrate support. Moreover, the objectives and the methodology to
fulfill them, together with the major contributions of this work are described. Finally, the
design of the proposed framework, its development in the form of a set of software libraries,
its evaluation with real users and a use case are presented. Through the evaluation and
the use case it has been demonstrated that by encompassing heterogeneous devices into
a unique design it is possible to reduce user efforts to develop interaction in ubiquitous
environments. --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------En la interacción entre personas y sistemas de computación se han realizado muchos
adelantos por lo que concierne el hardware (p.ej., dispositivos inteligentes con sensores
integrados y superficies táctiles) y el software (p.ej., algoritmos para el reconocimiento
y rastreo de puntos de contactos, gestos de manos y movimientos corporales). Ahora que
se dispone del poder computacional y de los dispositivos para proporcionar una interacción
entre el mundo fisico y el mundo digital, la pregunta es—que se debería hacer? Contestar
a esta pregunta, para la comunidad de investigación en la Interacción Persona-Ordenador,
significa hacer realidad la visión de Mark Weiser sobre la Computación Ubicua.
En el paradigma de computación de escritorio, la metáfora del escritorio se implementa
a través de la interfaz gráfica de usuario con la que se interactúa a través de teclado y
ratón. En este paradigma, los usuarios se adaptan a utilizar dispositivos artificiales, cuyas
operaciones deben ser aprendidas, y a interactuar en un entorno que inhibe sus capacidades.
Por ejemplo, el ratón es un dispositivo que permite movimientos en dos dimensiones,
por tanto limita los veintitrés grados de libertad de una mano. La Computación Ubicua
se considera como una evolución en la historia de la computación: su objetivo es hacer
que la interfaz desaparezca e integrar el procesamiento de la información en los objetos
cotidianos, provistos de capacidad de computo. De esta forma, el usuario no se vería
forzado a adaptarse a la maquinas sino que la tecnología se integrarían directamente
con el entorno. A diferencia de los sistemas de sobremesa, los sistemas ubicuos utilizan
dispositivos de entrada/salida heterogéneos (p.ej., sensores de movimiento, cameras y
superficies táctiles entre otros) y técnicas de interacción como la interacción sin tocar,
multitáctil o tangible. Reduciendo las limitaciones físicas en la interacción, las tecnologías
ubicuas permiten la creación de interfaces con un mayor poder de expresión (p.ej.,
gestos con las manos) y, por lo tanto, se espera que proporcionen a los usuarios mejores
herramientas para pensar, crear y comunicar.
Parece claro que las soluciones basadas en las interfaces clásicas no satisfacen las necesidades
de la interacción ubicua, porque están pensadas por un único usuario que interactúa
con un único sistema de computación, sentado a su mesa de trabajo y mirando una
pantalla vertical. Para superar las deficiencias del paradigma de escritorio, se empezaron
a desarrollar nuevos modelos de interacción que permitiesen a los usuarios emplear sin
esfuerzo sus capacidades innatas y adquiridas y reducir la carga cognitiva de las interfaces
clásicas. Las interfaces ubicuas son pervasivas y, por lo tanto, invisibles a sus usuarios, o
devienen invisibles a través de interacciones sucesivas en las que los usuarios siempre se
sienten que están teniendo éxito. Todos los beneficios propugnados por la interacción
ubicua, como la interfaz invisible o una interacción mas natural, tienen un coste: el diseño y el desarrollo de sistemas de interacción ubicua introducen nuevos retos conceptuales
y prácticos. Los sistemas ubicuos comunican con el mundo real a través de sensores y
emisores. Los sensores convierten las entradas del mundo real en datos digitales, mientras
que los emisores se utilizan principalmente para proporcionar una retroalimentación digital
o física (p.ej., unos altavoces que emiten un sonido). Emplear una gran variedad de
dispositivos hardware en una aplicación real puede ser difícil, porque su uso requiere
conocimiento de física y muchas horas de programación. Además, la integración de los
datos puede ser complicada, porque cada proveedor de dispositivos utiliza diferentes
interfaces de programación y protocolos de comunicación. Todos estos factores hacen
que el prototipado rápido de sistemas ubicuos sea una tarea que constituye un difícil reto
en la actualidad.
El prototipado es una actividad central para promover la innovación y la creatividad a
través de la exploración de un espacio de diseño. Sin embargo, a pesar de que existan
muchas herramientas y líneas guías para el prototipado de las interfaces de escritorio, a
día de hoy han sido desarrolladas muy pocas soluciones para un prototipado holístico de la
interacción ubicua. La enorme cantidad de dispositivos de entrada, técnicas de interacción
y entornos físicos concebidos por los investigadores supone un gran desafío desde el punto
de vista de un entorno general e integral. Todo esto hace que sea difícil trabajar en un
espacio de diseño y desarrollo en el que los profesionales necesitan tener conocimiento de
diferentes materias relacionadas con temas de software y hardware. Además, el contexto
tecnológico se complica por el hecho que muchas de estas tecnologías ubicuas acaban
de salir de un estadio embrionario y están todavía en un proceso de desarrollo; por lo
tanto faltan de estabilidad, fiabilidad y homogeneidad. Por estos motivos es fundamental
desarrollar herramientas que soporten el proceso de prototipado de la interacción ubicua.
Este trabajo de tesis doctoral se dedica a este problema.
El objetivo es desarrollar una arquitectura conceptual y software que utilice un nivel de
abstracción del hardware para hacer mas fácil el proceso de prototipado de sistemas de
interacción ubicua. La tesis es que, abstrayendo de los detalles de bajo nivel, es posible
proporcionar un acceso unificado, consistente y coherente a los dispositivos de interacción
independientemente de su implementación y de los protocolos de comunicación. En esta
tesis doctoral se revisa la literatura existente y se pone de manifiesto la necesidad de
herramientas y marcos que proporcionen dicho soporte global e integrado. Además, se
describen los objetivos propuestos, la metodología para alcanzarlos y las contribuciones
principales de este trabajo. Finalmente, se presentan el diseño del marco conceptual,
así como su desarrollo en forma de un conjunto de librerías software, su evaluación con
usuarios reales y un caso de uso. A través de la evaluación y del caso de uso se ha
demostrado que considerando dispositivos heterogéneos en un único diseño es posible
reducir los esfuerzos de los usuarios para desarrollar la interacción en entornos ubicuos