603 research outputs found
Overcoming barriers and increasing independence: service robots for elderly and disabled people
This paper discusses the potential for service robots to overcome barriers and increase independence of
elderly and disabled people. It includes a brief overview of the existing uses of service robots by disabled and elderly
people and advances in technology which will make new uses possible and provides suggestions for some of these new
applications. The paper also considers the design and other conditions to be met for user acceptance. It also discusses
the complementarity of assistive service robots and personal assistance and considers the types of applications and
users for which service robots are and are not suitable
Towards Early Mobility Independence: An Intelligent Paediatric Wheelchair with Case Studies
Standard powered wheelchairs are still heavily dependent on the cognitive capabilities of users. Unfortunately, this excludes disabled users who lack the required problem-solving and spatial skills, particularly young children. For these children to be denied powered mobility is a crucial set-back; exploration is important for their cognitive, emotional and psychosocial development. In this paper, we present a safer paediatric wheelchair: the Assistive Robot Transport for Youngsters (ARTY). The fundamental goal of this research is to provide a key-enabling technology to young children who would otherwise be unable to navigate independently in their environment. In addition to the technical details of our smart wheelchair, we present user-trials with able-bodied individuals as well as one 5-year-old child with special needs. ARTY promises to provide young children with early access to the path towards mobility independence
SLAM for Visually Impaired People: A Survey
In recent decades, several assistive technologies for visually impaired and
blind (VIB) people have been developed to improve their ability to navigate
independently and safely. At the same time, simultaneous localization and
mapping (SLAM) techniques have become sufficiently robust and efficient to be
adopted in the development of assistive technologies. In this paper, we first
report the results of an anonymous survey conducted with VIB people to
understand their experience and needs; we focus on digital assistive
technologies that help them with indoor and outdoor navigation. Then, we
present a literature review of assistive technologies based on SLAM. We discuss
proposed approaches and indicate their pros and cons. We conclude by presenting
future opportunities and challenges in this domain.Comment: 26 pages, 5 tables, 3 figure
A survey of assistive technologies and applications for blind users on mobile platforms: a review and foundation for research
This paper summarizes recent developments in audio and tactile
feedback based assistive technologies targeting the blind
community. Current technology allows applications to be
efficiently distributed and run on mobile and handheld
devices, even in cases where computational requirements are
significant. As a result, electronic travel aids, navigational
assistance modules, text-to-speech applications, as well as
virtual audio displays which combine audio with haptic
channels are becoming integrated into standard mobile devices.
This trend, combined with the appearance of increasingly user-
friendly interfaces and modes of interaction has opened a
variety of new perspectives for the rehabilitation and
training of users with visual impairments. The goal of this
paper is to provide an overview of these developments based on
recent advances in basic research and application development.
Using this overview as a foundation, an agenda is outlined for
future research in mobile interaction design with respect to
users with special needs, as well as ultimately in relation to
sensor-bridging applications in genera
Exploring the Use of Wearables to develop Assistive Technology for Visually Impaired People
This thesis explores the usage of two prominent wearable devices to develop assistive technology for users who are visually impaired. Specifically, the work in this thesis aims at improving the quality of life of users who are visually impaired by improving their mobility and ability to socially interact with others. We explore the use of a smart watch for creating low-cost spatial haptic applications. This app explores the use of haptic feedback provided using a smartwatch and smartphone to provide navigation instructions that let visually impaired people safely traverse a large open space. This spatial feedback guides them to walk on a straight path from source to destination by avoiding veering. Exploring the paired interaction between a Smartphone and a Smartwatch, helped to overcome the limitation that smart devices have only single haptic actuator.We explore the use of a head-mounted display to enhance social interaction by helping people with visual impairments align their head towards a conversation partner as well as maintain personal space during a conversation. Audio feedback is provided to the users guiding them to achieve effective face-to-face communication. A qualitative study of this method shows the effectiveness of the application and explains how it helps visually impaired people to perceive non-verbal cues and feel more engaged and assertive in social interactions
An Orientation & Mobility Aid for People with Visual Impairments
Orientierung&MobilitaÌt (O&M) umfasst eine Reihe von Techniken fuÌr Menschen mit SehschaÌdigungen, die ihnen helfen, sich im Alltag zurechtzufinden. Dennoch benoÌtigen sie einen umfangreichen und sehr aufwendigen Einzelunterricht mit O&M Lehrern, um diese Techniken in ihre taÌglichen AblaÌufe zu integrieren. WaÌhrend einige dieser Techniken assistive Technologien benutzen, wie zum Beispiel den Blinden-Langstock, Points of Interest Datenbanken oder ein Kompass gestuÌtztes Orientierungssystem, existiert eine unscheinbare KommunikationsluÌcke zwischen verfuÌgbaren Hilfsmitteln und Navigationssystemen.
In den letzten Jahren sind mobile Rechensysteme, insbesondere Smartphones, allgegenwaÌrtig geworden. Dies eroÌffnet modernen Techniken des maschinellen Sehens die MoÌglichkeit, den menschlichen Sehsinn bei Problemen im Alltag zu unterstuÌtzen, die durch ein nicht barrierefreies Design entstanden sind. Dennoch muss mit besonderer Sorgfalt vorgegangen werden, um dabei nicht mit den speziellen persoÌnlichen Kompetenzen und antrainierten Verhaltensweisen zu kollidieren, oder schlimmstenfalls O&M Techniken sogar zu widersprechen.
In dieser Dissertation identifizieren wir eine raÌumliche und systembedingte LuÌcke zwischen Orientierungshilfen und Navigationssystemen fuÌr Menschen mit SehschaÌdigung. Die raÌumliche LuÌcke existiert hauptsaÌchlich, da assistive Orientierungshilfen, wie zum Beispiel der Blinden-Langstock, nur dabei helfen koÌnnen, die Umgebung in einem limitierten Bereich wahrzunehmen, waÌhrend Navigationsinformationen nur sehr weitlaÌufig gehalten sind. ZusaÌtzlich entsteht diese LuÌcke auch systembedingt zwischen diesen beiden Komponenten â der Blinden-Langstock kennt die Route nicht, waÌhrend ein Navigationssystem nahegelegene Hindernisse oder O&M Techniken nicht weiter betrachtet. Daher schlagen wir verschiedene AnsaÌtze zum SchlieĂen dieser LuÌcke vor, um die Verbindung und Kommunikation zwischen Orientierungshilfen und Navigationsinformationen zu verbessern und betrachten das Problem dabei aus beiden Richtungen. Um nuÌtzliche relevante Informationen bereitzustellen, identifizieren wir zuerst die bedeutendsten Anforderungen an assistive Systeme und erstellen einige SchluÌsselkonzepte, die wir bei unseren Algorithmen und Prototypen beachten.
Existierende assistive Systeme zur Orientierung basieren hauptsaÌchlich auf globalen Navigationssatellitensystemen. Wir versuchen, diese zu verbessern, indem wir einen auf Leitlinien basierenden Routing Algorithmus erstellen, der auf individuelle BeduÌrfnisse anpassbar ist und diese beruÌcksichtigt. Generierte Routen sind zwar unmerklich laÌnger, aber auch viel sicherer, gemaÌĂ den in Zusammenarbeit mit O&M Lehrern erstellten objektiven Kriterien. AuĂerdem verbessern wir die VerfuÌgbarkeit von relevanten georeferenzierten Datenbanken, die fuÌr ein derartiges bedarfsgerechtes Routing benoÌtigt werden. Zu diesem Zweck erstellen wir einen maschinellen Lernansatz, mit dem wir Zebrastreifen in Luftbildern erkennen, was auch uÌber LaÌndergrenzen hinweg funktioniert, und verbessern dabei den Stand der Technik.
Um den Nutzen von MobilitaÌtsassistenz durch maschinelles Sehen zu optimieren, erstellen wir O&M Techniken nachempfundene AnsaÌtze, um die raÌumliche Wahrnehmung der unmittelbaren Umgebung zu erhoÌhen. Zuerst betrachten wir dazu die verfuÌgbare FreiflaÌche und informieren auch uÌber moÌgliche Hindernisse. Weiterhin erstellen wir einen neuartigen Ansatz, um die verfuÌgbaren Leitlinien zu erkennen und genau zu lokalisieren, und erzeugen virtuelle Leitlinien, welche Unterbrechungen uÌberbruÌcken und bereits fruÌhzeitig Informationen uÌber die naÌchste Leitlinie bereitstellen. AbschlieĂend verbessern wir die ZugaÌnglichkeit von FuĂgaÌngeruÌbergaÌngen, insbesondere Zebrastreifen und FuĂgaÌngerampeln, mit einem Deep Learning Ansatz.
Um zu analysieren, ob unsere erstellten AnsaÌtze und Algorithmen einen tatsaÌchlichen Mehrwert fuÌr Menschen mit SehschaÌdigung erzeugen, vollziehen wir ein kleines Wizard-of-Oz-Experiment zu unserem bedarfsgerechten Routing â mit einem sehr ermutigendem Ergebnis. Weiterhin fuÌhren wir eine umfangreichere Studie mit verschiedenen Komponenten und dem Fokus auf FuĂgaÌngeruÌbergaÌnge durch. Obwohl unsere statistischen Auswertungen nur eine geringfuÌgige Verbesserung aufzeigen, beeinfluĂt durch technische Probleme mit dem ersten Prototypen und einer zu geringen EingewoÌhnungszeit der Probanden an das System, bekommen wir viel versprechende Kommentare von fast allen Studienteilnehmern. Dies zeigt, daĂ wir bereits einen wichtigen ersten Schritt zum SchlieĂen der identifizierten LuÌcke geleistet haben und Orientierung&MobilitaÌt fuÌr Menschen mit SehschaÌdigung damit verbessern konnten
Augmenting the Spatial Perception Capabilities of Users Who Are Blind
People who are blind face a series of challenges and limitations resulting from their lack of being able to see, forcing them to either seek the assistance of a sighted individual or work around the challenge by way of a inefficient adaptation (e.g. following the walls in a room in order to reach a door rather than walking in a straight line to the door). These challenges are directly related to blind users' lack of the spatial perception capabilities normally provided by the human vision system. In order to overcome these spatial perception related challenges, modern technologies can be used to convey spatial perception data through sensory substitution interfaces. This work is the culmination of several projects which address varying spatial perception problems for blind users. First we consider the development of non-visual natural user interfaces for interacting with large displays. This work explores the haptic interaction space in order to find useful and efficient haptic encodings for the spatial layout of items on large displays. Multiple interaction techniques are presented which build on prior research (Folmer et al. 2012), and the efficiency and usability of the most efficient of these encodings is evaluated with blind children. Next we evaluate the use of wearable technology in aiding navigation of blind individuals through large open spaces lacking tactile landmarks used during traditional white cane navigation. We explore the design of a computer vision application with an unobtrusive aural interface to minimize veering of the user while crossing a large open space. Together, these projects represent an exploration into the use of modern technology in augmenting the spatial perception capabilities of blind users
- âŠ