104 research outputs found

    Hanshagata hikari sensagun o umekonda sumāto aiwea ni yoru hyƍjƍ shikibetsu

    Get PDF

    Eyewear Computing \u2013 Augmenting the Human with Head-Mounted Wearable Assistants

    Get PDF
    The seminar was composed of workshops and tutorials on head-mounted eye tracking, egocentric vision, optics, and head-mounted displays. The seminar welcomed 30 academic and industry researchers from Europe, the US, and Asia with a diverse background, including wearable and ubiquitous computing, computer vision, developmental psychology, optics, and human-computer interaction. In contrast to several previous Dagstuhl seminars, we used an ignite talk format to reduce the time of talks to one half-day and to leave the rest of the week for hands-on sessions, group work, general discussions, and socialising. The key results of this seminar are 1) the identification of key research challenges and summaries of breakout groups on multimodal eyewear computing, egocentric vision, security and privacy issues, skill augmentation and task guidance, eyewear computing for gaming, as well as prototyping of VR applications, 2) a list of datasets and research tools for eyewear computing, 3) three small-scale datasets recorded during the seminar, 4) an article in ACM Interactions entitled \u201cEyewear Computers for Human-Computer Interaction\u201d, as well as 5) two follow-up workshops on \u201cEgocentric Perception, Interaction, and Computing\u201d at the European Conference on Computer Vision (ECCV) as well as \u201cEyewear Computing\u201d at the ACM International Joint Conference on Pervasive and Ubiquitous Computing (UbiComp)

    InMyFace: Inertial and Mechanomyography-Based Sensor Fusion for Wearable Facial Activity Recognition

    Full text link
    Recognizing facial activity is a well-understood (but non-trivial) computer vision problem. However, reliable solutions require a camera with a good view of the face, which is often unavailable in wearable settings. Furthermore, in wearable applications, where systems accompany users throughout their daily activities, a permanently running camera can be problematic for privacy (and legal) reasons. This work presents an alternative solution based on the fusion of wearable inertial sensors, planar pressure sensors, and acoustic mechanomyography (muscle sounds). The sensors were placed unobtrusively in a sports cap to monitor facial muscle activities related to facial expressions. We present our integrated wearable sensor system, describe data fusion and analysis methods, and evaluate the system in an experiment with thirteen subjects from different cultural backgrounds (eight countries) and both sexes (six women and seven men). In a one-model-per-user scheme and using a late fusion approach, the system yielded an average F1 score of 85.00% for the case where all sensing modalities are combined. With a cross-user validation and a one-model-for-all-user scheme, an F1 score of 79.00% was obtained for thirteen participants (six females and seven males). Moreover, in a hybrid fusion (cross-user) approach and six classes, an average F1 score of 82.00% was obtained for eight users. The results are competitive with state-of-the-art non-camera-based solutions for a cross-user study. In addition, our unique set of participants demonstrates the inclusiveness and generalizability of the approach.Comment: Submitted to Information Fusion, Elsevie

    Systems and Methods for Coupling Low-Bandwidth Imaging Devices to a Wearable Device Using a Reduced Number of Data-Transmission Lanes

    Get PDF
    Systems and methods are provided for recovering image data received from a low-bandwidth imaging device. One example system includes a low-bandwidth imaging device and one or more integrated circuits communicatively coupled with the low-bandwidth imaging device. The low-bandwidth imaging device is coupled to the one or more integrated circuits via at least one active data-transmission lane, and the one or integrated circuits also include another data-transmission lane. The one or more integrated circuits are configured to use the active data-transmission lane to receive first and second image data via the active data-transmission lane. The first and second image data start with an image identifier. The one or more integrated circuits are further configured to align, based on the image identifier, the first image data with the second image data without having received a clock signal over the other data-transmission lane, and generate, based on aligned image data, recovered image data

    Robotic Game Playing Internet of Things Device

    Get PDF
    Generally, the present disclosure is directed to a robotic device that can play certain games with a user, such as, for example, interactive hand-gesture-based games such as rock-paper-scissors, gesture matching, and/or gesture mirroring. In particular, in some implementations, the systems and methods of the present disclosure can include or otherwise leverage an Internet of Things (IoT) system or device to control a robotic hand based on inputs from a camera that are processed by a machine-learned model such as a gesture recognition model

    A Body-and-Mind-Centric Approach to Wearable Personal Assistants

    Get PDF

    Earables: Wearable Computing on the Ears

    Get PDF
    Kopfhörer haben sich bei Verbrauchern durchgesetzt, da sie private AudiokanĂ€le anbieten, zum Beispiel zum Hören von Musik, zum Anschauen der neuesten Filme wĂ€hrend dem Pendeln oder zum freihĂ€ndigen Telefonieren. Dank diesem eindeutigen primĂ€ren Einsatzzweck haben sich Kopfhörer im Vergleich zu anderen Wearables, wie zum Beispiel Smartglasses, bereits stĂ€rker durchgesetzt. In den letzten Jahren hat sich eine neue Klasse von Wearables herausgebildet, die als "Earables" bezeichnet werden. Diese GerĂ€te sind so konzipiert, dass sie in oder um die Ohren getragen werden können. Sie enthalten verschiedene Sensoren, um die FunktionalitĂ€t von Kopfhörern zu erweitern. Die rĂ€umliche NĂ€he von Earables zu wichtigen anatomischen Strukturen des menschlichen Körpers bietet eine ausgezeichnete Plattform fĂŒr die Erfassung einer Vielzahl von Eigenschaften, Prozessen und AktivitĂ€ten. Auch wenn im Bereich der Earables-Forschung bereits einige Fortschritte erzielt wurden, wird deren Potenzial aktuell nicht vollstĂ€ndig abgeschöpft. Ziel dieser Dissertation ist es daher, neue Einblicke in die Möglichkeiten von Earables zu geben, indem fortschrittliche SensorikansĂ€tze erforscht werden, welche die Erkennung von bisher unzugĂ€nglichen PhĂ€nomenen ermöglichen. Durch die EinfĂŒhrung von neuartiger Hardware und Algorithmik zielt diese Dissertation darauf ab, die Grenzen des Erreichbaren im Bereich Earables zu verschieben und diese letztlich als vielseitige Sensorplattform zur Erweiterung menschlicher FĂ€higkeiten zu etablieren. Um eine fundierte Grundlage fĂŒr die Dissertation zu schaffen, synthetisiert die vorliegende Arbeit den Stand der Technik im Bereich der ohr-basierten Sensorik und stellt eine einzigartig umfassende Taxonomie auf der Basis von 271 relevanten Publikationen vor. Durch die Verbindung von Low-Level-Sensor-Prinzipien mit Higher-Level-PhĂ€nomenen werden in der Dissertation anschließ-end Arbeiten aus verschiedenen Bereichen zusammengefasst, darunter (i) physiologische Überwachung und Gesundheit, (ii) Bewegung und AktivitĂ€t, (iii) Interaktion und (iv) Authentifizierung und Identifizierung. Diese Dissertation baut auf der bestehenden Forschung im Bereich der physiologischen Überwachung und Gesundheit mit Hilfe von Earables auf und stellt fortschrittliche Algorithmen, statistische Auswertungen und empirische Studien vor, um die Machbarkeit der Messung der Atemfrequenz und der Erkennung von Episoden erhöhter Hustenfrequenz durch den Einsatz von In-Ear-Beschleunigungsmessern und Gyroskopen zu demonstrieren. Diese neuartigen Sensorfunktionen unterstreichen das Potenzial von Earables, einen gesĂŒnderen Lebensstil zu fördern und eine proaktive Gesundheitsversorgung zu ermöglichen. DarĂŒber hinaus wird in dieser Dissertation ein innovativer Eye-Tracking-Ansatz namens "earEOG" vorgestellt, welcher AktivitĂ€tserkennung erleichtern soll. Durch die systematische Auswertung von Elektrodenpotentialen, die um die Ohren herum mittels eines modifizierten Kopfhörers gemessen werden, eröffnet diese Dissertation einen neuen Weg zur Messung der Blickrichtung. Dabei ist das Verfahren weniger aufdringlich und komfortabler als bisherige AnsĂ€tze. DarĂŒber hinaus wird ein Regressionsmodell eingefĂŒhrt, um absolute Änderungen des Blickwinkels auf der Grundlage von earEOG vorherzusagen. Diese Entwicklung eröffnet neue Möglichkeiten fĂŒr Forschung, welche sich nahtlos in das tĂ€gliche Leben integrieren lĂ€sst und tiefere Einblicke in das menschliche Verhalten ermöglicht. Weiterhin zeigt diese Arbeit, wie sich die einzigarte Bauform von Earables mit Sensorik kombinieren lĂ€sst, um neuartige PhĂ€nomene zu erkennen. Um die Interaktionsmöglichkeiten von Earables zu verbessern, wird in dieser Dissertation eine diskrete Eingabetechnik namens "EarRumble" vorgestellt, die auf der freiwilligen Kontrolle des Tensor Tympani Muskels im Mittelohr beruht. Die Dissertation bietet Einblicke in die Verbreitung, die Benutzerfreundlichkeit und den Komfort von EarRumble, zusammen mit praktischen Anwendungen in zwei realen Szenarien. Der EarRumble-Ansatz erweitert das Ohr von einem rein rezeptiven Organ zu einem Organ, das nicht nur Signale empfangen, sondern auch Ausgangssignale erzeugen kann. Im Wesentlichen wird das Ohr als zusĂ€tzliches interaktives Medium eingesetzt, welches eine freihĂ€ndige und augenfreie Kommunikation zwischen Mensch und Maschine ermöglicht. EarRumble stellt eine Interaktionstechnik vor, die von den Nutzern als "magisch und fast telepathisch" beschrieben wird, und zeigt ein erhebliches ungenutztes Potenzial im Bereich der Earables auf. Aufbauend auf den vorhergehenden Ergebnissen der verschiedenen Anwendungsbereiche und Forschungserkenntnisse mĂŒndet die Dissertation in einer offenen Hard- und Software-Plattform fĂŒr Earables namens "OpenEarable". OpenEarable umfasst eine Reihe fortschrittlicher Sensorfunktionen, die fĂŒr verschiedene ohrbasierte Forschungsanwendungen geeignet sind, und ist gleichzeitig einfach herzustellen. Hierdurch werden die EinstiegshĂŒrden in die ohrbasierte Sensorforschung gesenkt und OpenEarable trĂ€gt somit dazu bei, das gesamte Potenzial von Earables auszuschöpfen. DarĂŒber hinaus trĂ€gt die Dissertation grundlegenden Designrichtlinien und Referenzarchitekturen fĂŒr Earables bei. Durch diese Forschung schließt die Dissertation die LĂŒcke zwischen der Grundlagenforschung zu ohrbasierten Sensoren und deren praktischem Einsatz in realen Szenarien. Zusammenfassend liefert die Dissertation neue Nutzungsszenarien, Algorithmen, Hardware-Prototypen, statistische Auswertungen, empirische Studien und Designrichtlinien, um das Feld des Earable Computing voranzutreiben. DarĂŒber hinaus erweitert diese Dissertation den traditionellen Anwendungsbereich von Kopfhörern, indem sie die auf Audio fokussierten GerĂ€te zu einer Plattform erweitert, welche eine Vielzahl fortschrittlicher SensorfĂ€higkeiten bietet, um Eigenschaften, Prozesse und AktivitĂ€ten zu erfassen. Diese Neuausrichtung ermöglicht es Earables sich als bedeutende Wearable Kategorie zu etablieren, und die Vision von Earables als eine vielseitige Sensorenplattform zur Erweiterung der menschlichen FĂ€higkeiten wird somit zunehmend realer
    • 

    corecore