4 research outputs found
Assistance tactile à la localisation de cibles périphériques pour des personnes à vision tubulaire
International audienceLa vision tubulaire est une dĂ©ficience visuelle dans laquelle seul le champ central de la vision est prĂ©servĂ©. Elle gĂ©nĂšre de grandes difficultĂ©s dans la vie quotidienne, notamment lorsquâil sâagit de repĂ©rer un objet dâintĂ©rĂȘt dans lâenvironnement. Des informations tactiles, considĂ©rĂ©es comme discrĂštes, personnelles et peu invasives, peuvent permettre dâamĂ©liorer le comportement de recherche visuelle. Dans cette Ă©tude, nous avons conçu quatre techniques tactiles permettant de localiser un point spĂ©cifique dans lâespace. Les stimulations tactiles Ă©taient soit un seul stimulus soit un train de stimuli transmis dans un systĂšme de coordonnĂ©es cartĂ©sien ou polaire. Les quatre techniques ont Ă©tĂ© comparĂ©es dans une tĂąche dâorientation de la tĂȘte. La plus efficace des techniques a Ă©tĂ© Ă©valuĂ©e avec une tĂąche de recherche visuelle dans un environnement virtuel complexe. LâĂ©valuation impliquait dix sujets avec un champ visuel artificiellement restreint Ă 10°, et un sujet avec une vision tubulaire due Ă un glaucome. Notre dispositif dâassistance a significativement amĂ©liorĂ© lâefficacitĂ© de la recherche visuelle dâun facteur trois. Le dispositif pourrait ĂȘtre facilement intĂ©grĂ© dans des lunettes intelligentes et dĂ©tecter des cibles dâintĂ©rĂȘt, soit sur demande, soit de façon automatique (par ex. les obstacles potentiels), facilitant ainsi, la recherche visuelle et la perception spatiale de lâenvironnement
Tactile Cues for Improving Target Localization in Subjects with Tunnel Vision
International audienceThe loss of peripheral vision is experienced by millions of people with glaucoma or retinitis pigmentosa, and has a major impact in everyday life, specifically to locate visual targets in the environment. In this study, we designed a wearable interface to render the location of specific targets with private and non-intrusive tactile cues. Three experimental studies were completed to design and evaluate the tactile code and the device. In the first study, four different tactile codes (single stimuli or trains of pulses rendered either in a Cartesian or a Polar coordinate system) were evaluated with a head pointing task. In the following studies, the most efficient code, trains of pulses with Cartesian coordinates, was used on a bracelet located on the wrist, and evaluated during a visual search task in a complex virtual environment. The second study included ten subjects with a simulated restrictive field of view (10 âą). The last study consisted of proof of a concept with one visually impaired subject with restricted peripheral vision due to glaucoma. The results show that the device significantly improved the visual search efficiency with a factor of three. Including object recognition algorithm to smart glass, the device could help to detect targets of interest either on demand or suggested by the device itself (e.g., potential obstacles), facilitating visual search, and more generally spatial awareness of the environment
Vision périphérique, caractérisation et suppléance de ses fonctions spatiales
The loss of peripheral vision (tunnel vision) leads to numerous deficits, reducing both independence and quality of life. These deficits reflect spatial cognition impairments, and highlight the close relationship between peripheral vision and spatial representations. This thesis has two main objectives: reaching a better understanding of the nature of these relationships, and using the acquired knowledge in order to propose adaptive, performant and innovative assistive devices able to overcome the peripheral loss. At first, I address the role of peripheral vision in egocentric space coding. I collaborated in a psychophysics experiment, involving detection of visual objects placed in peripheral vision. The visual objects formed similar images on the retina and differed only with respect to their egocentric location: either straight-ahead or eccentric with respect to the head/body midline. We found that straight-ahead objects elicit consistently shorter behavioral responses than eccentric objects. I took in charge a second study evaluating the link between the privileged sensory processing of the straight ahead direction and the dynamic of ocular saccades. Comparison between centripetal and centrifugal pro-saccades and anti-saccades revealed that the superior dynamic of centripetal saccades comes from both sensory and oculomotor factors. These works reveal the early integration of both visual and oculomotor signals in peripheral vision, leading to egocentric representations in which the straight ahead direction is highlighted. Secondly, I investigated the influence of peripheral vision in extracting allocentric spatial representations. In order to assess the role of peripheral vision in allocentric coding, I performed a memory-based pointing task toward previously gazed targets, which were briefly superimposed with visual cues placed at different eccentricities. The results showed that visual cues in peripheral (>10°) vision can contribute to the allocentric coding of a fixated target. A complementary experiment showed that these peripheral allocentric cues play a functional role, notably by facilitating visual searches. These works highlight the importance of peripheral vision in extracting functional spatial relationships between distant elements of the visual environment. Finally, I wanted to promote the development of new assistive devices, able to substitute both egocentric and allocentric spatial functions of the peripheral vision. As a proof of concept, I designed and evaluated a tactile interface mounted on wrist, communicating the spatial location of specific objects and facilitating visual search. Results showed that healthy subjects with artificial tunnel vision (10°) were able to increase by three visual search speeds thank to this tactile interface. Similar results were obtained on a glaucoma subject (field of view 10x15°). My multidisciplinary thesis highlights new roles of peripheral vision in spatial representations and proposes an innovative solution to develop assistive device for tunnel vision.La perte de vision pĂ©riphĂ©rique (vision tubulaire) a pour consĂ©quence de nombreux dĂ©ficits qui rĂ©duisent fortement l'autonomie des personnes qui en sont atteintes et par consĂ©quent leur qualitĂ© de vie. Nombre de ces dĂ©ficits tĂ©moignent d'une cognition spatiale dĂ©gradĂ©e mettant en jeu des relations Ă©troites entre vision pĂ©riphĂ©rique et reprĂ©sentations spatiales. Le double objectif de ce travail de thĂšse consiste Ă mieux comprendre la nature de ces relations et, sur la base de ces connaissances, contribuer Ă l'Ă©mergence de dispositifs d'assistance plus adaptĂ©s et performants, capables de supplĂ©er l'absence de vision pĂ©riphĂ©rique. Dans un premier temps, je me suis intĂ©ressĂ© au rĂŽle de la vision pĂ©riphĂ©rique dans la construction de reprĂ©sentations spatiales Ă©gocentrĂ©es. J'ai d'abord collaborĂ© Ă une expĂ©rience de psychophysique impliquant la dĂ©tection en vision pĂ©riphĂ©rique de cibles visuelles situĂ©es soit droit-devant, soit excentrĂ©es par rapport Ă l'axe du corps. En mesurant les temps de rĂ©action nous avons pu dĂ©montrer que les sujets humains rĂ©pondaient plus rapidement aux cibles prĂ©sentĂ©es droit-devant qu'aux cibles excentrĂ©es. J'ai pris en charge une deuxiĂšme Ă©tude complĂ©mentaire portant sur le lien entre ce traitement sensoriel privilĂ©giĂ© du droit-devant en vision pĂ©riphĂ©rique et la dynamique des saccades oculaires de recentrage. En comparant les dynamiques de pro-saccades et d'anti-saccades de recentrage ou d' " excentrage ", j'ai pu mettre en Ă©vidence que la supĂ©rioritĂ© dynamique des saccades de recentrage guidĂ©es par la vision pĂ©riphĂ©rique reposait Ă la fois sur des facteurs sensoriels et oculomoteurs. Ces travaux rĂ©vĂšlent l'intĂ©gration prĂ©coce de signaux visuels et oculomoteurs en vision pĂ©riphĂ©rique, pouvant servir Ă localiser les Ă©lĂ©ments visuels par rapport Ă soi et Ă privilĂ©gier le traitement des Ă©lĂ©ments situĂ©s dans l'axe droit-devant. Dans un deuxiĂšme temps, mes travaux ont abordĂ© l'influence de la vision pĂ©riphĂ©rique dans les reprĂ©sentations spatiales allocentrĂ©es. Pour Ă©tudier l'implication de la vision pĂ©riphĂ©rique dans le codage allocentrĂ©, j'ai rĂ©alisĂ© une expĂ©rience impliquant une tĂąche de pointage vers des cibles visuelles en vision centrale, accompagnĂ©es ou non d'indices visuels Ă diffĂ©rentes distances en vision pĂ©riphĂ©rique. Les rĂ©sultats obtenus montrent que des indices visuels capturĂ©s par la vision pĂ©riphĂ©rique peuvent effectivement contribuer au codage allocentrĂ© d'une cible fixĂ©e, et ce mĂȘme lorsque ces indices pĂ©riphĂ©riques doivent ĂȘtre extraits de scĂšne visuelles complexes en moins de 200 ms. Dans une Ă©tude complĂ©mentaire, j'ai montrĂ© que l'utilisation de ces indices allocentrĂ©s situĂ©s en pĂ©riphĂ©rie avait un vĂ©ritable rĂŽle fonctionnel, accĂ©lĂ©rant les recherches visuelles. Ainsi, ces travaux rĂ©vĂšlent une implication fonctionnelle forte de la vision pĂ©riphĂ©rique dans l'extraction des relations spatiales entre Ă©lĂ©ments prĂ©sents dans l'environnement visuel. J'ai voulu, durant la derniĂšre partie de ma thĂšse, initier le dĂ©veloppement d'un dispositif d'assistance dont la finalitĂ© est de supplĂ©er les fonctions spatiales, Ă©gocentrĂ©es et allocentrĂ©es, de la vision pĂ©riphĂ©rique. Comme preuve de concept, mon travail a consistĂ© Ă concevoir et dĂ©velopper un dispositif tactile placĂ© sur le poignet et capable de communiquer la position spatiale d'objets d'intĂ©rĂȘt pour en simplifier leurs recherches visuelles. Les rĂ©sultats obtenus chez des sujets sains avec un champ visuel artificiellement rĂ©duit (10°) montrent que l'interface tactile permet d'accĂ©lĂ©rer par trois la vitesse de recherche visuelle. Des rĂ©sultats similaires ont Ă©tĂ© observĂ©s chez une personne atteinte de glaucome (champ visuel de 10x15°). Ma thĂšse pluridisciplinaire permet d'apporter un nouvel Ă©clairage sur l'implication de la vision pĂ©riphĂ©rique dans la construction de reprĂ©sentations spatiales, et elle propose de nouvelles pistes pour le dĂ©veloppement de dispositifs d'assistance adaptĂ©s aux personnes atteintes de vision tubulaire
Tabletop tangible maps and diagrams for visually impaired users
En dépit de leur omniprésence et de leur rÎle essentiel dans nos vies professionnelles et personnelles, les représentations
graphiques, qu'elles soient numériques ou sur papier, ne sont pas accessibles aux personnes déficientes visuelles car elles
ne fournissent pas d'informations tactiles. Par ailleurs, les inégalités d'accÚs à ces représentations ne cessent de
s'accroßtre ; grùce au développement de représentations graphiques dynamiques et disponibles en ligne, les personnes voyantes
peuvent non seulement accéder à de grandes quantités de données, mais aussi interagir avec ces données par le biais de
fonctionnalités avancées (changement d'échelle, sélection des données à afficher, etc.). En revanche, pour les personnes
déficientes visuelles, les techniques actuellement utilisées pour rendre accessibles les cartes et les diagrammes nécessitent
l'intervention de spécialistes et ne permettent pas la création de représentations interactives.
Cependant, les récentes avancées dans le domaine de l'adaptation automatique de contenus laissent entrevoir, dans les
prochaines années, une augmentation de la quantité de contenus adaptés. Cette augmentation doit aller de pair avec le
développement de dispositifs utilisables et abordables en mesure de supporter l'affichage de représentations interactives et
rapidement modifiables, tout en étant accessibles aux personnes déficientes visuelles. Certains prototypes de recherche
s'appuient sur une reprĂ©sentation numĂ©rique seulement : ils peuvent ĂȘtre instantanĂ©ment modifiĂ©s mais ne fournissent que trĂšs
peu de retour tactile, ce qui rend leur exploration complexe d'un point de vue cognitif et impose de fortes contraintes sur
le contenu. D'autres prototypes s'appuient sur une reprĂ©sentation numĂ©rique et physique : bien qu'ils puissent ĂȘtre explorĂ©s
tactilement, ce qui est un rĂ©el avantage, ils nĂ©cessitent un support tactile qui empĂȘche toute modification rapide. Quant aux
dispositifs similaires à des tablettes Braille, mais avec des milliers de picots, leur coût est prohibitif.
L'objectif de cette thÚse est de pallier les limitations de ces approches en étudiant comment développer des cartes et
diagrammes interactifs physiques, modifiables et abordables. Pour cela, nous nous appuyons sur un type d'interface qui a
rarement été étudié pour des utilisateurs déficients visuels : les interfaces tangibles, et plus particuliÚrement les
interfaces tangibles sur table. Dans ces interfaces, des objets physiques représentent des informations numériques et peuvent
ĂȘtre manipulĂ©s par l'utilisateur pour interagir avec le systĂšme, ou par le systĂšme lui-mĂȘme pour reflĂ©ter un changement du
modÚle numérique - on parle alors d'interfaces tangibles sur tables animées, ou actuated. Grùce à la conception, au
développement et à l'évaluation de trois interfaces tangibles sur table (les Tangible Reels, la Tangible Box et BotMap), nous
proposons un ensemble de solutions techniques répondant aux spécificités des interfaces tangibles pour des personnes
déficientes visuelles, ainsi que de nouvelles techniques d'interaction non-visuelles, notamment pour la reconstruction d'une
carte ou d'un diagramme et l'exploration de cartes de type " Pan & Zoom ". D'un point de vue théorique, nous proposons aussi
une nouvelle classification pour les dispositifs interactifs accessibles.Despite their omnipresence and essential role in our everyday lives, online and printed graphical representations are
inaccessible to visually impaired people because they cannot be explored using the sense of touch. The gap between sighted
and visually impaired people's access to graphical representations is constantly growing due to the increasing development
and availability of online and dynamic representations that not only give sighted people the opportunity to access large
amounts of data, but also to interact with them using advanced functionalities such as panning, zooming and filtering. In
contrast, the techniques currently used to make maps and diagrams accessible to visually impaired people require the
intervention of tactile graphics specialists and result in non-interactive tactile representations.
However, based on recent advances in the automatic production of content, we can expect in the coming years a growth in the
availability of adapted content, which must go hand-in-hand with the development of affordable and usable devices. In
particular, these devices should make full use of visually impaired users' perceptual capacities and support the display of
interactive and updatable representations. A number of research prototypes have already been developed. Some rely on digital
representation only, and although they have the great advantage of being instantly updatable, they provide very limited
tactile feedback, which makes their exploration cognitively demanding and imposes heavy restrictions on content. On the other
hand, most prototypes that rely on digital and physical representations allow for a two-handed exploration that is both
natural and efficient at retrieving and encoding spatial information, but they are physically limited by the use of a tactile
overlay, making them impossible to update. Other alternatives are either extremely expensive (e.g. braille tablets) or offer
a slow and limited way to update the representation (e.g. maps that are 3D-printed based on users' inputs).
In this thesis, we propose to bridge the gap between these two approaches by investigating how to develop physical
interactive maps and diagrams that support two-handed exploration, while at the same time being updatable and affordable. To
do so, we build on previous research on Tangible User Interfaces (TUI) and particularly on (actuated) tabletop TUIs, two
fields of research that have surprisingly received very little interest concerning visually impaired users. Based on the
design, implementation and evaluation of three tabletop TUIs (the Tangible Reels, the Tangible Box and BotMap), we propose
innovative non-visual interaction techniques and technical solutions that will hopefully serve as a basis for the design of
future TUIs for visually impaired users, and encourage their development and use. We investigate how tangible maps and
diagrams can support various tasks, ranging from the (re)construction of diagrams to the exploration of maps by panning and
zooming. From a theoretical perspective we contribute to the research on accessible graphical representations by highlighting
how research on maps can feed research on diagrams and vice-versa. We also propose a classification and comparison of
existing prototypes to deliver a structured overview of current research