4 research outputs found

    Designing multimodal interaction for the visually impaired

    Get PDF
    Although multimodal computer input is believed to have advantages over unimodal input, little has been done to understand how to design a multimodal input mechanism to facilitate visually impaired users\u27 information access. This research investigates sighted and visually impaired users\u27 multimodal interaction choices when given an interaction grammar that supports speech and touch input modalities. It investigates whether task type, working memory load, or prevalence of errors in a given modality impact a user\u27s choice. Theories in human memory and attention are used to explain the users\u27 speech and touch input coordination. Among the abundant findings from this research, the following are the most important in guiding system design: (1) Multimodal input is likely to be used when it is available. (2) Users select input modalities based on the type of task undertaken. Users prefer touch input for navigation operations, but speech input for non-navigation operations. (3) When errors occur, users prefer to stay in the failing modality, instead of switching to another modality for error correction. (4) Despite the common multimodal usage patterns, there is still a high degree of individual differences in modality choices. Additional findings include: (I) Modality switching becomes more prevalent when lower working memory and attentional resources are required for the performance of other concurrent tasks. (2) Higher error rates increases modality switching but only under duress. (3) Training order affects modality usage. Teaching a modality first versus second increases the use of this modality in users\u27 task performance. In addition to discovering multimodal interaction patterns above, this research contributes to the field of human computer interaction design by: (1) presenting a design of an eyes-free multimodal information browser, (2) presenting a Wizard of Oz method for working with visually impaired users in order to observe their multimodal interaction. The overall contribution of this work is that of one of the early investigations into how speech and touch might be combined into a non-visual multimodal system that can effectively be used for eyes-free tasks

    Peripheral interaction

    Get PDF
    In our everyday life we carry out a multitude of activities in parallel without focusing our attention explicitly on them. We drink a cup of tea while reading a book, we signal a colleague passing by with a hand gesture, that we are concentrated right now and that he should wait one moment, or we walk a few steps backwards while taking photos. Many of these interactions - like drinking, sending signals via gestures or walking - are rather complex by themselves. By means of learning and training, however, these interactions become part of our routines and habits and therefore only consume little or no attentional resources. In contrast, when interacting with digital devices, we are often asked for our full attention. To carry out - even small and marginal tasks - we are regularly forced to switch windows, do precise interactions (e.g., pointing with the mouse) and thereby these systems trigger context and focus switches, disrupting us in our main focus and task. Peripheral interaction aims at making use of human capabilities and senses like divided attention, spatial memory and proprioception to support interaction with digital devices in the periphery of the attention, consequently quasi-parallel to another primary task. In this thesis we investigate peripheral interaction in the context of a standard desktop computer environment. We explore three interaction styles for peripheral interaction: graspable interaction, touch input and freehand gestures. StaTube investigates graspable interaction in the domain of instant messaging, while the Appointment Projection uses simple wiping gestures to access information about upcoming appointments. These two explorations focus on one interaction style each and offer first insights into the general benefits of peripheral interaction. In the following we carried out two studies comparing all three interaction styles (graspable, touch, freehand) for audio player control and for dealing with notifications. We found that all three interaction styles are generally fit for peripheral interaction but come with different advantages and disadvantages. The last set of explorative studies deals with the ability to recall spatial locations in 2D as well as 3D. The Unadorned Desk makes use of the physical space around the desktop computer and thereby offers an extended interaction space to store and retrieve virtual items such as commands, applications or tools. Finally, evaluation of peripheral interaction is not straightforward as the systems are designed to blend into the environment and not draw attention on them. We propose an additional evaluation method for the lab to complement the current evaluation practice in the field. The main contributions of this thesis are (1) an exhaustive classification and a more detailed look at manual peripheral interaction for tangible, touch and freehand interaction. Based on these exploration with all three interaction styles, we offer (2) implications in terms of overall benefits of peripheral interaction, learnability and habituation, visual and mental attention, feedback and handedness for future peripheral interaction design. Finally, derived from a diverse set of user studies, we assess (3) evaluation strategies enriching the design process for peripheral interaction.In unserem täglichen Leben führen wir eine große Anzahl an Aktivitäten parallel aus ohne uns explizit darauf zu konzentrieren. Wir trinken Tee während wir ein Buch lesen, wir signalisieren einem Kollegen durch eine Handgeste, dass wir gerade konzentriert sind und er einen Moment warten soll oder wir gehen ein paar Schritte rückwärts während wir fotografieren. Viele dieser Aktivitäten - wie beispielsweise Trinken, Gestikulieren und Laufen - sind an sich komplex. Durch Training werden diese Tätigkeiten allerdings Teil unserer Routinen und Gewohnheiten, und beanspruchen daher nur noch wenig oder sogar keine Aufmerksamkeit. Im Gegensatz dazu, verlangen digitale Geräte meist unsere volle Aufmerksamkeit während der Interaktion. Um - oftmals nur kleine - Aufgaben durchzuführen, müssen wir Fenster wechseln, präzise Aktionen durchführen (z.B. mit dem Mauszeiger zielen) und werden dabei durch die Systeme zu einem Kontext- und Fokuswechsel gezwungen. Periphere Interaktion hingegen macht sich menschliche Fähigkeiten wie geteilte Aufmerksamkeit, das räumliche Gedächtnis und Propriozeption zu Nutze um Interaktion mit digitalen Geräten am Rande der Aufmerksamkeit also der Peripherie zu ermöglichen -- quasi-parallel zu einem anderen Primärtask. In dieser Arbeit untersuchen wir Periphere Interaktion am Computerarbeitsplatz. Dabei betrachten wir drei verschiedene Interaktionsstile: Begreifbare Interaktion (graspable), Touch Eingabe und Freiraum Gestik (freehand). StaTube untersucht Begreifbare Interaktion am Beispiel von Instant Messaging, während die Appointment Projection einfache Wischgesten nutzt, um Informationen nahender Termine verfügbar zu machen. Diese beiden Untersuchungen betrachten jeweils einen Interaktionsstil und beleuchten erste Vorteile, die durch Periphere Interaktion erzielt werden können. Aufbauend darauf führen wir zwei vergleichende Studien zwischen allen drei Interaktionsstilen durch. Als Anwendungsszenarien dienen Musiksteuerung und der Umgang mit Benachrichtigungsfenstern. Alle drei Interaktionsstile können erfolgreich für Periphere Interaktion eingesetzt werden, haben aber verschiedene Vor- und Nachteile. Die letzte Gruppe von Studien befasst sich mit dem räumlichen Gedächtnis in 2D und 3D. Das Unadorned Desk nutzt den physikalischen Raum neben dem Desktop Computer um virtuelle Objekte, beispielsweise Funktionen, Anwendungen oder Werkzeuge, zu lagern. Darüber hinaus ist die Evaluation von Peripherer Interaktion anspruchsvoll, da sich die Systeme in die Umwelt integrieren und gerade keine Aufmerksamkeit auf sich ziehen sollen. Wir schlagen eine Evaluationsmethode für das Labor vor, um die derzeitig vorherrschenden Evaluationsmethoden in diesem Forschungsfeld zu ergänzen. Die Kernbeiträge dieser Arbeit sind eine (1) umfassende Klassifizierung und ein detaillierter Blick auf manuelle Periphere Interaktion, namentlich Begreifbare Interaktion, Touch Eingabe und Freiraum Gestik. Basierend auf unseren Untersuchungen ziehen wir (2) Schlussfolgerungen, die den generellen Nutzen von Peripherer Interaktion darlegen und Bereiche wie die Erlernbarkeit und Gewöhnung, visuelle und mentale Aufmerksamkeit, Feedback so wie Händigkeit beleuchten um zukünftige Projekte im Bereich der Peripheren Interaktion zu unterstützen. Aufbauend auf den verschiedenen Nutzerstudien, diskutieren wir Evaluationsstrategien um den Entwicklungsprozess Peripherer Interaktion zu unterstützen

    Angielsko-polski słownik IA, UX, UI & SEO

    Get PDF
    "Angielsko-polski słownik IA, UX, UI & SEO zawiera 4 800 haseł, na które składają się terminy z zakresu: architektury informacji, projektowania wrażeń (doświadczeń) i interfejsów użytkownika oraz optymalizacji stron internetowych jako elementu marketingu internetowego. Anglojęzyczne hasła opatrzono ich polskimi odpowiednikami; do niejednoznacznych lub mniej zrozumiałych tłumaczeń dodano objaśnienia i dopowiedzenia. Krótkie opisy wyjaśniające Czytelnik znajdzie także w tych hasłach, które odnoszą się do angielskich słów lub wyrażeń niemających jeszcze powszechnie przyjętego polskiego ekwiwalentu. W słowniku znalazły się również słowa należące do języka ogólnego, które ściśle wiążą się z tematyką słownika lub tworzą z terminami kolokacje i mogłyby powodować trudności w pracy nad przekładem. Słownik jest adresowany do wszystkich osób zainteresowanych problematyką digital design: projektowaniem, tworzeniem oraz marketingiem internetowym produktów i usług cyfrowych, a także kształtowaniem, organizowaniem i integrowaniem przestrzeni informacyjnych. Podstawę słownika stanowi słownictwo pochodzące z tekstów głównych i indeksów książek, norm, standardów, wytycznych oraz internetowych glosariuszy. Pełny wykaz źródeł materiału leksykalnego został zamieszczony w dalszej części wstępu. Źródła wykorzystane podczas opracowywania słownika umożliwiły zebranie najważniejszej terminologii z zakresu architektury informacji (IA), wrażeń użytkownika (UX), interfejsu użytkownika (UI) i optymalizacji stron internetowych (SEO). Jeśli weźmiemy jednak pod uwagę szybki rozwój tych specjalności, a co za tym idzie terminologii, należy podkreślić, że słownik ma charakter otwarty i będzie wymagał regularnej aktualizacji. W słowniku przy wyrazach hasłowych mających brytyjską wersję pisowni zamieszczono odsyłacze zob. do wersji amerykańskiej. Formy nieregularne liczby mnogiej rzeczowników podano w nawiasach i poprzedzono kwalifikatorem pl." [...] (fragm.

    Computer vision based unistroke keyboard system and mouse for the handicapped

    No full text
    In this paper, a unistroke keyboard based on computer vision is described for the handicapped. The keyboard can be made of paper or fabric containing an image of a keyboard, which has an upside down U-shape. It can even be displayed on a computer screen. Each character is represented by a non-overlapping rectangular region on the keyboard image and the user enters a character by illuminating a character region with a laser pointer. The keyboard image is monitored by a camera and illuminated key locations are recognized. During the text entry process the user neither have to tum the laser light off nor raise the laser light from the keyboard. A disabled person who bas difficulty using hisiher hands may attach the laser pointer to an eyeglass and easily enter text by moving hisher head to point the laser beam on a character location. In addition, a mouse-like device can be developed based on the same principle. The user can move the cursor by moving the laser light on the computer screen which is monitored by a camera
    corecore