2,763 research outputs found
A longitudinal study of text entry by gazing and smiling
Face Interface is a wearable device that combines the use of voluntary gaze direction and facial activations, for pointing and selecting objects on a computer screen, respectively. In this thesis a longitudinal study for entering text using Face Interface is presented. The aim of the study was to investigate entering text with Face Interface within a longer period of time. Twelve voluntary participants took part in an experiment that consisted of ten 15-minutes long sessions. The task of the participant in each session was to write text in fifteen minutes with Face Interface and an onscreen keyboard. Writing was done by pointing at the characters by gaze and selected by smiling. The results showed that the overall mean text entry rate for all sessions was 5.39 words per minute (wpm). In the first session the overall mean text entry rate was 3.88 wpm, and in the tenth session 6.59 wpm. The overall mean minimum string distance (MSD) error rate for all sessions was 0.25. In the first session the overall mean MSD error rate was 0.50 and in the tenth session 0.05. The overall mean keystrokes per character (KSPC) value for all sessions was 1.18. In the first session the overall mean KSPC value was 1.26 and in the tenth session 1.2. Subjective ratings showed that Face Interface was easy to use. The rating of the overall operation of Face Interface was 5.9/7.0 in the tenth session. Subjective ratings were positive in all categories in the tenth session
Excitatory postsynaptic potentials in rat neocortical neurons in vitro. III. Effects of a quinoxalinedione non-NMDA receptor antagonist
1. Intracellular microelectrodes were used to obtain recordings from neurons in layer II/III of rat frontal cortex. A bipolar electrode positioned in layer IV of the neocortex was used to evoke postsynaptic potentials. Graded series of stimulation were employed to selectively activate different classes of postsynaptic responses. The sensitivity of postsynaptic potentials and iontophoretically applied neurotransmitters to the non-N-methyl-D-asparate (NMDA) antagonist 6-cyano-7-nitroquinoxaline-2,3-dione (CNQX) was examined. 2. As reported previously, low-intensity electrical stimulation of cortical layer IV evoked short-latency early excitatory postsynaptic potentials (eEPSPs) in layer II/III neurons. CNQX reversibly antagonized eEPSPs in a dose-dependent manner. Stimulation at intensities just subthreshold for activation of inhibitory postsynaptic potentials (IPSPs) produced long-latency (10 to 40-ms) EPSPs (late EPSPs or 1EPSPs). CNQX was effective in blocking 1EPSPs. 3. With the use of stimulus intensities at or just below threshold for evoking an action potential, complex synaptic potentials consisting of EPSP-IPSP sequences were observed. Both early, Cl(-)-dependent and late, K(+)-dependent IPSPs were reduced by CNQX. This effect was reversible on washing. This disinhibition could lead to enhanced excitability in the presence of CNQX. 4. Iontophoretic application of quisqualate produced a membrane depolarization with superimposed action potentials, whereas NMDA depolarized the membrane potential and evoked bursts of action potentials. At concentrations up to 5 microM, CNQX selectively antagonized quisqualate responses. NMDA responses were reduced by 10 microM CNQX. D-Serine (0.5-2 mM), an agonist at the glycine regulatory site on the NMDA receptor, reversed the CNQX depression of NMDA responses
Fuzzy Mouse Cursor Control System for Computer Users with Spinal Cord Injuries
People with severe motor-impairments due to Spinal Cord Injury (SCI) or Spinal Cord Dysfunction (SCD), often experience difficulty with accurate and efficient control of pointing devices (Keates et al., 02). Usually this leads to their limited integration to society as well as limited unassisted control over the environment. The questions “How can someone with severe motor-impairments perform mouse pointer control as accurately and efficiently as an able-bodied person?” and “How can these interactions be advanced through use of Computational Intelligence (CI)?” are the driving forces behind the research described in this paper. Through this research, a novel fuzzy mouse cursor control system (FMCCS) is developed. The goal of this system is to simplify and improve efficiency of cursor control and its interactions on the computer screen by applying fuzzy logic in its decision-making to make disabled Internet users use the networked computer conveniently and easily. The FMCCS core consists of several fuzzy control functions, which define different user interactions with the system. The development of novel cursor control system is based on utilization of motor functions that are still available to most complete paraplegics, having capability of limited vision and breathing control. One of the biggest obstacles of developing human computer interfaces for disabled people focusing primarily on eyesight and breath control is user’s limited strength, stamina, and reaction time. Within the FMCCS developed in this research, these limitations are minimized through the use of a novel pneumatic input device and intelligent control algorithms for soft data analysis, fuzzy logic and user feedback assistance during operation. The new system is developed using a reliable and cheap sensory system and available computing techniques. Initial experiments with healthy and SCI subjects have clearly demonstrated benefits and promising performance of the new system: the FMCCS is accessible for people with severe SCI; it is adaptable to user specific capabilities and wishes; it is easy to learn and operate; point-to-point movement is responsive, precise and fast. The integrated sophisticated interaction features, good movement control without strain and clinical risks, as well the fact that quadriplegics, whose breathing is assisted by a respirator machine, still possess enough control to use the new system with ease, provide a promising framework for future FMCCS applications. The most motivating leverage for further FMCCS development is however, the positive feedback from persons who tested the first system prototype
Earables: Wearable Computing on the Ears
Kopfhörer haben sich bei Verbrauchern durchgesetzt, da sie private Audiokanäle anbieten, zum Beispiel zum Hören von Musik, zum Anschauen der neuesten Filme während dem Pendeln oder zum freihändigen Telefonieren. Dank diesem eindeutigen primären Einsatzzweck haben sich Kopfhörer im Vergleich zu anderen Wearables, wie zum Beispiel Smartglasses, bereits stärker durchgesetzt. In den letzten Jahren hat sich eine neue Klasse von Wearables herausgebildet, die als "Earables" bezeichnet werden. Diese Geräte sind so konzipiert, dass sie in oder um die Ohren getragen werden können. Sie enthalten verschiedene Sensoren, um die Funktionalität von Kopfhörern zu erweitern. Die räumliche Nähe von Earables zu wichtigen anatomischen Strukturen des menschlichen Körpers bietet eine ausgezeichnete Plattform für die Erfassung einer Vielzahl von Eigenschaften, Prozessen und Aktivitäten.
Auch wenn im Bereich der Earables-Forschung bereits einige Fortschritte erzielt wurden, wird deren Potenzial aktuell nicht vollständig abgeschöpft. Ziel dieser Dissertation ist es daher, neue Einblicke in die Möglichkeiten von Earables zu geben, indem fortschrittliche Sensorikansätze erforscht werden, welche die Erkennung von bisher unzugänglichen Phänomenen ermöglichen. Durch die Einführung von neuartiger Hardware und Algorithmik zielt diese Dissertation darauf ab, die Grenzen des Erreichbaren im Bereich Earables zu verschieben und diese letztlich als vielseitige Sensorplattform zur Erweiterung menschlicher Fähigkeiten zu etablieren.
Um eine fundierte Grundlage für die Dissertation zu schaffen, synthetisiert die vorliegende Arbeit den Stand der Technik im Bereich der ohr-basierten Sensorik und stellt eine einzigartig umfassende Taxonomie auf der Basis von 271 relevanten Publikationen vor. Durch die Verbindung von Low-Level-Sensor-Prinzipien mit Higher-Level-Phänomenen werden in der Dissertation anschließ-end Arbeiten aus verschiedenen Bereichen zusammengefasst, darunter (i) physiologische Überwachung und Gesundheit, (ii) Bewegung und Aktivität, (iii) Interaktion und (iv) Authentifizierung und Identifizierung.
Diese Dissertation baut auf der bestehenden Forschung im Bereich der physiologischen Überwachung und Gesundheit mit Hilfe von Earables auf und stellt fortschrittliche Algorithmen, statistische Auswertungen und empirische Studien vor, um die Machbarkeit der Messung der Atemfrequenz und der Erkennung von Episoden erhöhter Hustenfrequenz durch den Einsatz von In-Ear-Beschleunigungsmessern und Gyroskopen zu demonstrieren. Diese neuartigen Sensorfunktionen unterstreichen das Potenzial von Earables, einen gesünderen Lebensstil zu fördern und eine proaktive Gesundheitsversorgung zu ermöglichen.
Darüber hinaus wird in dieser Dissertation ein innovativer Eye-Tracking-Ansatz namens "earEOG" vorgestellt, welcher Aktivitätserkennung erleichtern soll. Durch die systematische Auswertung von Elektrodenpotentialen, die um die Ohren herum mittels eines modifizierten Kopfhörers gemessen werden, eröffnet diese Dissertation einen neuen Weg zur Messung der Blickrichtung. Dabei ist das Verfahren weniger aufdringlich und komfortabler als bisherige Ansätze. Darüber hinaus wird ein Regressionsmodell eingeführt, um absolute Änderungen des Blickwinkels auf der Grundlage von earEOG vorherzusagen. Diese Entwicklung eröffnet neue Möglichkeiten für Forschung, welche sich nahtlos in das tägliche Leben integrieren lässt und tiefere Einblicke in das menschliche Verhalten ermöglicht. Weiterhin zeigt diese Arbeit, wie sich die einzigarte Bauform von Earables mit Sensorik kombinieren lässt, um neuartige Phänomene zu erkennen.
Um die Interaktionsmöglichkeiten von Earables zu verbessern, wird in dieser Dissertation eine diskrete Eingabetechnik namens "EarRumble" vorgestellt, die auf der freiwilligen Kontrolle des Tensor Tympani Muskels im Mittelohr beruht. Die Dissertation bietet Einblicke in die Verbreitung, die Benutzerfreundlichkeit und den Komfort von EarRumble, zusammen mit praktischen Anwendungen in zwei realen Szenarien. Der EarRumble-Ansatz erweitert das Ohr von einem rein rezeptiven Organ zu einem Organ, das nicht nur Signale empfangen, sondern auch Ausgangssignale erzeugen kann. Im Wesentlichen wird das Ohr als zusätzliches interaktives Medium eingesetzt, welches eine freihändige und augenfreie Kommunikation zwischen Mensch und Maschine ermöglicht. EarRumble stellt eine Interaktionstechnik vor, die von den Nutzern als "magisch und fast telepathisch" beschrieben wird, und zeigt ein erhebliches ungenutztes Potenzial im Bereich der Earables auf.
Aufbauend auf den vorhergehenden Ergebnissen der verschiedenen Anwendungsbereiche und Forschungserkenntnisse mündet die Dissertation in einer offenen Hard- und Software-Plattform für Earables namens "OpenEarable". OpenEarable umfasst eine Reihe fortschrittlicher Sensorfunktionen, die für verschiedene ohrbasierte Forschungsanwendungen geeignet sind, und ist gleichzeitig einfach herzustellen. Hierdurch werden die Einstiegshürden in die ohrbasierte Sensorforschung gesenkt und OpenEarable trägt somit dazu bei, das gesamte Potenzial von Earables auszuschöpfen. Darüber hinaus trägt die Dissertation grundlegenden Designrichtlinien und Referenzarchitekturen für Earables bei. Durch diese Forschung schließt die Dissertation die Lücke zwischen der Grundlagenforschung zu ohrbasierten Sensoren und deren praktischem Einsatz in realen Szenarien.
Zusammenfassend liefert die Dissertation neue Nutzungsszenarien, Algorithmen, Hardware-Prototypen, statistische Auswertungen, empirische Studien und Designrichtlinien, um das Feld des Earable Computing voranzutreiben. Darüber hinaus erweitert diese Dissertation den traditionellen Anwendungsbereich von Kopfhörern, indem sie die auf Audio fokussierten Geräte zu einer Plattform erweitert, welche eine Vielzahl fortschrittlicher Sensorfähigkeiten bietet, um Eigenschaften, Prozesse und Aktivitäten zu erfassen. Diese Neuausrichtung ermöglicht es Earables sich als bedeutende Wearable Kategorie zu etablieren, und die Vision von Earables als eine vielseitige Sensorenplattform zur Erweiterung der menschlichen Fähigkeiten wird somit zunehmend realer
New Solution to the Midas Touch Problem: Identification of Visual Commands Via Extraction of Focal Fixations
AbstractReliable identification of intentional visual commands is a major problem in the development of eye-movements based user interfaces. This work suggests that the presence of focal visual fixations is indicative of visual commands. Two experiments are described which assessed the effectiveness of this approach in a simple gaze-control interface. Identification accuracy was shown to match that of the commonly used dwell time method. Using focal fixations led to less visual fatigue and higher speed of work. Perspectives of using focal fixations for identification of visual commands in various kinds of eye-movements based interfaces are discussed
Recommended from our members
The truth-telling motor cortex: Response competition in M1 discloses deceptive behaviour
Neural circuits associated with response conflict are active during deception. Here we use transcranial magnetic stimulation to examine for the first time whether competing responses in primary motor cortex can be used to detect lies. Participants used their little finger or thumb to respond either truthfully or deceitfully regarding facial familiarity. Motor-evoked-potentials (MEPs) from muscles associated with both digits tracked the development of each motor plan. When preparing to deceive, the MEP of the non-responding digit (i.e. the plan corresponding to the truth) exceeds the MEP of the responding digit (i.e. the lie), whereas a mirror-reversed pattern occurs when telling the truth. This give away response conflict interacts with the time of stimulation during a speeded reaction period. Lies can even activate digit-specific cortical representations when only verbal responses are made. Our findings support neurobiological models which blend cognitive decision-making with motor programming, and suggest a novel index for discriminating between honest and intentionally false facial recognition
Methods and metrics for the improvement of the interaction and the rehabilitation of cerebral palsy through inertial technology
Cerebral palsy (CP) is one of the most limiting disabilities in childhood, with 2.2 cases
per 1000 1-year survivors. It is a disorder of movement and posture due to a defect or
lesion of the immature brain during the pregnancy or the birth. These motor limitations
appear frequently in combination with sensory and cognitive alterations generally result
in great difficulties for some people with CP to manipulate objects, communicate and
interact with their environment, as well as limiting their mobility.
Over the last decades, instruments such as personal computers have become a popular
tool to overcome some of the motor limitations and promote neural plasticity, especially
during childhood. According to some estimations, 65% of youths with CP that present
severely limited manipulation skills cannot use standard mice nor keyboards. Unfortunately,
even when people with CP use assistive technology for computer access, they face
barriers that lead to the use of typical mice, track balls or touch screens for practical
reasons. Nevertheless, with the proper customization, novel developments of alternative
input devices such as head mice or eye trackers can be a valuable solution for these
individuals.
This thesis presents a collection of novel mapping functions and facilitation algorithms
that were proposed and designed to ease the act of pointing to graphical elements on
the screen—the most elemental task in human-computer interaction—to individuals with
CP. These developments were implemented to be used with any head mouse, although
they were all tested with the ENLAZA, an inertial interface. The development of such
techniques required the following approach:
Developing a methodology to evaluate the performance of individuals with CP in
pointing tasks, which are usually described as two sequential subtasks: navigation
and targeting.
Identifying the main motor abnormalities that are present in individuals with CP
as well as assessing the compliance of these people with standard motor behaviour
models such as Fitts’ law.
Designing and validating three novel pointing facilitation techniques to be implemented
in a head mouse. They were conceived for users with CP and muscle
weakness that have great difficulties to maintain their heads in a stable position.
The first two algorithms consist in two novel mapping functions that aim to facilitate
the navigation phase, whereas the third technique is based in gravity wells
and was specially developed to facilitate the selection of elements in the screen.
In parallel with the development of the facilitation techniques for the interaction
process, we evaluated the feasibility of use inertial technology for the control of
serious videogames as a complement to traditional rehabilitation therapies of posture
and balance. The experimental validation here presented confirms that this
concept could be implemented in clinical practice with good results.
In summary, the works here presented prove the suitability of using inertial technology
for the development of an alternative pointing device—and pointing algorithms—based
on movements of the head for individuals with CP and severely limited manipulation
skills and new rehabilitation therapies for the improvement of posture and balance. All
the contributions were validated in collaboration with several centres specialized in CP
and similar disorders and users with disability recruited in those centres.La parálisis cerebral (PC) es una de las deficiencias más limitantes de la infancia, con
un incidencia de 2.2 casos por cada 1000 supervivientes tras un año de vida. La PC
se manifiesta principalmente como una alteración del movimiento y la postura y es
consecuencia de un defecto o lesión en el cerebro inmaduro durante el embarazo o el
parto. Las limitaciones motrices suelen aparecer además en compañía de alteraciones
sensoriales y cognitivas, lo que provoca por lo general grandes dificultades de movilidad,
de manipulación, de relación y de interacción con el entorno.
En las últimas décadas, el ordenador personal se ha extendido como herramienta para la
compensación de parte de estas limitaciones motoras y como medio de promoción de la
neuroplasticidad, especialmente durante la infancia. Desafortunadamente, cerca de un
65% de las personas PC que son diagnosticadas con limitaciones severas de manipulación
son incapaces de utilizar ratones o teclados convencionales. A veces, ni siquiera la
tecnología asistencial les resulta de utilidad ya que se encuentran con impedimentos que
hacen que opten por usar dispositivos tradicionales aun sin dominar su manejo. Para
estas personas, los desarrollos recientes de ratones operados a través de movimientos
residuales con la cabeza o la mirada podrían ser una solución válida, siempre y cuando
se personalice su manejo.
Esta tesis presenta un conjunto de novedosas funciones de mapeo y algoritmos de facilitaci
ón que se han propuesto y diseñado con el ánimo de ayudar a personas con PC
en las tareas de apuntamiento de objetos en la pantalla —las más elementales dentro
de la interacción con el ordenador. Aunque todas las contribuciones se evaluaron con
la interfaz inercial ENLAZA, desarrollada igualmente en nuestro grupo, podrían ser
aplicadas a cualquier ratón basado en movimientos de cabeza. El desarrollo de los
trabajos se resume en las siguientes tareas abordadas:
Desarrollo de una metodología para la evaluación de la habilidad de usuarios con
PC en tareas de apuntamiento, que se contemplan como el encadenamiento de dos
sub-tareas: navegación (alcance) y selección (clic).
Identificación de los tipos de alteraciones motrices presentes en individuos con PC
y el grado de ajuste de éstos a modelos estándares de comportamiento motriz como
puede ser la ley de Fitts.
Propuesta y validación de tres técnicas de facilitación del alcance para ser implementadas
en un ratón basado en movimientos de cabeza. La facilitación se ha centrado
en personas que presentan debilidad muscular y dificultades para mantener
la posición de la cabeza. Mientras que los dos primeros algoritmos se centraron
en facilitar la navegación, el tercero tuvo como objetivo ayudar en la selección a
través de una técnica basada en pozos gravitatorios de proximidad.
En paralelo al desarrollo de estos algoritmos de facilitación de la interacción, evaluamos
la posibilidad de utilizar tecnología inercial para el control de videojuegos en
rehabilitación. Nuestra validación experimental demostró que este concepto puede
implementarse en la práctica clínica como complemento a terapias tradicionales de
rehabilitación de la postura y el equilibrio.
Como conclusión, los trabajos desarrollados en esta tesis vienen a constatar la idoneidad
de utilizar sensores inerciales para el desarrollo de interfaces de accesso alternativo al
ordenador basados en movimientos residuales de la cabeza para personas con limitaciones
severas de manipulación. Esta solución se complementa con algoritmos de facilitación
del alcance. Por otra parte, estas soluciones tecnológicas de interfaz con el ordenador
representan igualmente un complemento de terapias tradicionales de rehabilitación de
la postura y el equilibrio. Todas las contribuciones se validaron en colaboración con
una serie de centros especializados en parálisis cerebral y trastornos afines contando con
usuarios con discapacidad reclutados en dichos centros.This thesis was completed in the Group of Neural and Cognitive Engineering (gNEC) of the CAR UPM-CSIC with the financial support of the FP7 Framework EU Research Project ABC (EU-2012-287774), the IVANPACE Project (funded by Obra Social de Caja Cantabria, 2012-2013), and the Spanish Ministry of Economy and Competitiveness in the framework of two projects: the Interplay Project (RTC-2014-1812-1) and most
recently the InterAAC Project (RTC-2015-4327-1)Programa Oficial de Doctorado en Ingeniería Eléctrica, Electrónica y AutomáticaPresidente: Juan Manuel Belda Lois.- Secretario: María Dolores Blanco Rojas.- Vocal: Luis Fernando Sánchez Sante
- …