49 research outputs found

    Pay Per Click: Keyword Advertising and the Search for Limitations of Online Trademark Infringement Liability

    Get PDF
    International audienceL’omniprĂ©sence de l’iconicitĂ© dans les Langues des Signes (LS) (Cuxac 2000, Taub 2001, Schlenker 2014, Ortega et al 2016) n’a d’égale que l’abondance des approches dĂ©fendues (Cuxac 1996 [modĂšle sĂ©miologique], Taub 2001 [Analogue Building Model], Schlenker 2013 [formal iconicity], Padden et al 2013 [patterned iconicity]). La portĂ©e de leur impact, Ă©minemment mesurable en France, est durablement marquĂ©e par l’image au point qu’il semble difficile de sĂ©parer l’iconicitĂ© de l’imagerie (McNeill 1992, Kendon 2004, Sallandre & Cuxac 2001).Or aucune de ces Ă©tudes n’interroge l’image et les consĂ©quences de plusieurs millĂ©naires de reprĂ©sentation figĂ©e des gestes. N’a-t-on pas octroyĂ© trop de place Ă  une conception seconde parce que filtrĂ©e par l’image, rĂ©duisant l’encours des gestes et des signes Ă  un ensemble de postures ?Par-delĂ  l’image, la prise en compte de la gestuelle praxique a montrĂ© que les gestes et les signes peuvent ĂȘtre vus selon un cadre d’actions simulĂ©es (Hostetter & Alibali 2008). La prĂ©dominance spatio-motrice sur l’image est patente (Hostetter & Alibali 2010, Hostetter et al 2011) en particulier lorsque, dans les inputs, les objets sont manipulables (Pine et al 2010), peu manipulables (Hostetter 2014) ou non reprĂ©sentĂ©s physiquement (Cook & Tannenhaus 2009). L’iconicitĂ© d’image n’est donc pas la stratĂ©gie prĂ©fĂ©rĂ©e, y compris lorsqu’elle est initiĂ©e par des mots (Ortega & ÖzyĂŒrek 2016), au profit de la manipulation.En deçà des stratĂ©gies sĂ©mantiques, l’influence de la gestuelle praxique — forme corporalisĂ©e d’iconicitĂ© — peut ĂȘtre mesurĂ©e sur les configurations de LS. Suivant Napier (1956), la diffĂ©rence entre saisie de force et de prĂ©cision relĂšve de positions relatives de la main et des doigts dues aux poids de l’objet saisi. A partir d’un corpus de LSF, enregistrĂ© en vidĂ©o et en motion capture, nous montrerons l’influence qu’exerce cet habitus, y compris pour des signes renvoyant Ă  des Ă©vĂ©nements. Nous verrons que l’iconicitĂ© issue de simulations d’action infiltre jusqu’aux configurations et emplacements des signes : une iconicitĂ© d’origine praxique exerce donc une influence Ă  un niveau phonologique sur une LS

    Toward a typeface for the transcription of facial actions in sign languages

    Get PDF
    International audienceNon-manual actions, and more specifically facial actions (FA) can be found in all Sign Languages (SL). Those actions involve all the different facial parts and can have various and intricate linguistic relations with manual signs. Unlike in vocal languages, FA in SL provide more meaning than simple expressions of feelings and emotions. Yet non-manual parameters are among the most unknown formal features in SL studies. During the past 30 years, some studies have started questioning the meanings and linguistic values and the relations between manual and non-manual signs (Crashborn et al. 2008; Crashborn & Bank 2014); more recently, SL corpora have been analysed, segmented, and transcribed to help study FA (Vogst-Svenden 2008; Bergman et al. 2008; Sutton-Spence & Day 2008).Moreover, to fill the lack of an annotation system for FA, a few manual annotation systems have integrated facial glyphs, such as HamNoSys (Prillwitz et al. 1989) and SignWriting (Sutton 1995). On one hand, HamNoSys has been developed to describe all existing SLs at a phonetic level; it allows a formal, linear, highly detailed and searchable description of manual parameters. As for non-manual parameters, HamNoSys offers the replacement of hands by another articulators. Non-manual parameters can be written as “eyes” or “mouth” and described by the same symbols developed for hands (Hanke 2004). Unfortunately only a limited number of manual symbols can be translated into FA and the annotation system remains incomplete. On the other hand, SignWriting describes SL with iconic symbols placed in a 2D space representing the signer’s body. Facial expressions are divided into mouth, eyes, nose, eyebrows, etc., and are drawn in a circular “head” much like emoticons. SignWriting offers a detailed description of posture and actions of non-manual parameters, but does not ensure compatibility with the most common annotation software used by SL linguists (e.g., ELAN).Typannot, a interdisciplinary project led by linguists, designers, and developers, which aims to set up a complete transcription system for SL that includes every SL parameter (handshape, localisation, movement, FA), has developed a different methodologie. As mentioned earlier, FA have various linguistic values (mouthings, adverbial mouth gestures, semantically empty, enacting, whole face) and also include prosody and emotional meanings. In this regard, they can be more variable and signer-related than manual parameters. To offer the best annotation tool, Typannot’s approach has been to define facial parameters and all their possible tangible configurations. The goal is to set up the most efficient, simple, yet complete and universal formula to describe all possible FA.This formula is based on a 3 dimensional grid. Indeed all the different configurations of FA can be described by its X, Y, Z axis position. As a result, all FA can be described and encoded using a restricted list of 39 qualifiers. Based on this model and to help reduce the annotation process, a set of generic glyphs has been developed. Each qualifier has its own symbolic “generic” glyph. This methodical decomposition of all facial components enables a precise and accurate transcription of a complex FA using only a few glyphs.This formula and its generic glyphs have gone through a series of tests and revisions. Recently, an 18m20s long FA corpus of two deaf signers has been recorded using two different cameras. The first one, RGB HQ, is used to capture a high quality image and the second, infrared Kinect, is used to captured the depth. The latter was linked with Brekel Proface 2 (Leong et al. 2015), a 3D animation software that enables an automatic recognition of FA. This corpus has been fully annotated using Typannot’s generic glyphs. These annotations have enabled the validation of the general structure of Typannot FAformula and to identify some minor corrections to be made. For instance, it has been shown that the description of the air used to puff out or suck in cheeks is too restrictive and the description of the opening and closure of the eyelids is too unnecessarily precise.When those changes are implemented, our next task will be to develop a morphological glyphic system that will combine the different generic glyphs used for each facial parameter into one unique morphological glyph. This means that for any given FA, all the information contained in Typannot descriptive formula will be contained within one legible glyph. Some early research and work has already begun on this topic, but needs further development before providing a statement on its typographic structure. When this system is completed, it will be released with its own virtual keyboard (Typannot Keyboard, currently in development for handshapes) to help transcription and improve annotation processes.Bibliography :-ChĂ©telat-PelĂ©, E. (2010). Les Gestes Non Manuels en Langue des Signes Française ; Annotation, analyse et formalisation : application aux mouvements des sourcils et aux clignements des yeux. UniversitĂ© de Provence - Aix-Marseille I.-Crasborn, O., Van Der Kooij, E., Waters, D., Woll, B., & Mesch, J. (2008). Frequency distribution and spreading behavior of different types of mouth actions in three sign languages. Sign Language & Linguistics, 11(1), 45–67.-Crasborn, O. A., & Bank, R. (2014). An annotation scheme for the linguistic study of mouth actions in sign languages. http://repository.ubn.ru.nl/handle/2066/132960-Fontana, S. (2008). Mouth actions as gesture in sign language. Gesture, 8(1), 104‑123.-Hanke, T. (2004). HamNoSys—Representing sign language data in language resources and language processing contexts. In Workshop on the Representation and Processing of Sign Languages on the occasion of the Fourth International Conference on Language Resources and Evaluation (p. 1‑6).-Leong, C. W., Chen, L., Feng, G., Lee, C. M., & Mulholland, M. (2015). Utilizing depth sensors for analyzing multimodal presentations: Hardware, software and toolkits (p. 547‑556).Presented at Proceedings of the 2015 ACM on International Conference on Multimodal Interaction, ACM.-Prillwitz, S., Leven, R., Zienert, H., Hanke, T., & Henning, J. (1989). Hamburg notation system for sign languages: An introductory guide. Signum Press, Hamburg.-Sandler, W. (2009). Symbiotic symbolization by hand and mouth in sign language. Semiotica, 2009(174), 241‑275. http://doi.org/10.1515/semi.2009.035-Sutton, V. (1995). Lessons in Sign Writing: Textbook. DAC, La Jolla (CA).-Sutton-Spence, R., & Boyes-Braem, P. (2001). The hands are the head of the mouth: The mouth as articulator in sign languages. Signum Press, Hamburg

    Transcription formelle et capture de mouvement : vers une modélisation de la forme des signes.

    No full text
    International audienceLes Langues des Signes (LS) répertoriées aujourd’hui sont au nombre de 142 [1] et concernent plusieurs dizaines de millions de locuteurs dans le monde. À la fin du XXe siècle William Stokoe [2] met en exergue la double articulation des LS permettant de les intégrer dans le champ de la linguistique. Malgré cela, une forte dissymétrie persiste au sein des études scientifiques des LS face à celles des langues vocales (LV). Ce manque de ressources est en partie dû à une absence de système de transcription standardisé : l’annotation de corpus se fait principalement par « ID-gloses » [3], procédé s’apparentant plus à de l’identification par traduction qu’à de la transcription proprement dite. Pour parvenir à une modélisation des LS stable, il est fondamental d’accéder au préalable à une segmentation automatique des signes, d’une part, et, d’autre part, à recourir à une transcription standardisée. Or, la segmentation se confronte à la fluence du mouvement, omniprésente au sein d’une locution en LS. Mon projet de thèse propose d’aborder cette problématique en précisant les rapports de couplage moteur qu’entretiennent les deux paramètres de l’emplacement et du mouvement. Les retombées attendues relèvent, d’un point de vue théorique, d’une modélisation formelle de la langue et, d’un point de vue plus appliqué, de la mise en place d’algorithmes de suivi des mouvements des signes. Afin de traiter efficacement ces questions de structuration profonde des LS, un corpus de locuteurs en LSF est enregistré par une caméra vidéo ainsi que par un système de captation 3D modulaire offrant la possibilité d’étudier la cinématique du mouvement. L’exploitation de ce corpus se fait en deux phases successives : tout d’abord la vidéo est annotée avec la police de caractères Typannot, correspondant à une transcription orthographique ; ensuite, les résultats sont comparés avec les données physiologiques du corpus en MoCap — données de type phonétique —, afin d’établir formellement les liens qu’entretiennent les deux paramètres étudiés. Cette opportunité, celle de nous tourner vers ces nouvelles technologies en linguistique des LS, soulève de nouvelles questions sur la nature des informations qui nous parviennent. Il est impossible d’accéder aux données brutes d’un enregistrement en MoCap avec autant de facilité qu’avec celles enregistrées en vidéo. Le Neuron enregistre 60 fois par seconde des valeurs sous la forme de positions relatives, et ce, selon les trois axes X Y et Z de chaque segment du corps. Les informations fournies s’apparentent à une longue suite de nombres, pour laquelle on ne peut faire abstraction d’un temps de traitement qui précède leur exploitation. Or, si la définition des données primaires tient à leur transparence, à l’immédiateté de leur accès, nous sommes peut-être confrontés à une redéfinition des frontières distinguant les données brutes des données secondaires

    Motion capture for a linguistic study of French sign language

    No full text
    International audienc

    Motion capture for a linguistic study of French sign language

    No full text
    International audienc

    Transcription formelle et capture de mouvement : vers une modélisation des constituants gestuels de la forme des signes.

    No full text
    International audienceLes Langues des Signes (LS) répertoriées aujourd’hui sont au nombre de 142 [1] et concernent plusieurs dizaines de millions de locuteurs dans le monde. À la fin du XXe siècle William Stokoe [2] met en exergue la double articulation des LS permettant de les intégrer dans le champ de la linguistique. Malgré cela, une forte dissymétrie persiste au sein des études scientifiques des LS face à celles des langues vocales (LV). Ce manque de ressources est en partie dû à une absence de système de transcription standardisé : l’annotation de corpus se fait principalement par « ID-gloses » [3], procédé s’apparentant plus à de l’identification par traduction qu’à de la transcription proprement dite. Pour parvenir à une modélisation des LS stable, il est fondamental d’accéder au préalable à une segmentation automatique des signes, d’une part, et, d’autre part, à recourir à une transcription standardisée. Or, la segmentation se confronte à la fluence du mouvement, omniprésente au sein d’une locution en LS. Mon projet de thèse propose d’aborder cette problématique en précisant les rapports de couplage moteur qu’entretiennent les deux paramètres de l’emplacement et du mouvement. Les retombées attendues relèvent, d’un point de vue théorique, d’une modélisation formelle de la langue et, d’un point de vue plus appliqué, de la mise en place d’algorithmes de suivi des mouvements des signes. Afin de traiter efficacement ces questions de structuration profonde des LS, un corpus de locuteurs en LSF est enregistré par une caméra vidéo ainsi que par un système de captation 3D modulaire offrant la possibilité d’étudier la cinématique du mouvement. L’exploitation de ce corpus se fait en deux phases successives : tout d’abord la vidéo est annotée avec la police de caractères Typannot, correspondant à une transcription orthographique ; ensuite, les résultats sont comparés avec les données physiologiques du corpus en MoCap — données de type phonétique —, afin d’établir formellement les liens qu’entretiennent les deux paramètres étudiés. Cette opportunité, celle de nous tourner vers ces nouvelles technologies en linguistique des LS, soulève de nouvelles questions sur la nature des informations qui nous parviennent. Il est impossible d’accéder aux données brutes d’un enregistrement en MoCap avec autant de facilité qu’avec celles enregistrées en vidéo. Le Neuron enregistre 60 fois par seconde des valeurs sous la forme de positions relatives, et ce, selon les trois axes X Y et Z de chaque segment du corps. Les informations fournies s’apparentent à une longue suite de nombres, pour laquelle on ne peut faire abstraction d’un temps de traitement qui précède leur exploitation. Or, si la définition des données primaires tient à leur transparence, à l’immédiateté de leur accès, nous sommes peut-être confrontés à une redéfinition des frontières distinguant les données brutes des données secondaires
    corecore