49 research outputs found
Pay Per Click: Keyword Advertising and the Search for Limitations of Online Trademark Infringement Liability
International audienceLâomniprĂ©sence de lâiconicitĂ© dans les Langues des Signes (LS) (Cuxac 2000, Taub 2001, Schlenker 2014, Ortega et al 2016) nâa dâĂ©gale que lâabondance des approches dĂ©fendues (Cuxac 1996 [modĂšle sĂ©miologique], Taub 2001 [Analogue Building Model], Schlenker 2013 [formal iconicity], Padden et al 2013 [patterned iconicity]). La portĂ©e de leur impact, Ă©minemment mesurable en France, est durablement marquĂ©e par lâimage au point quâil semble difficile de sĂ©parer lâiconicitĂ© de lâimagerie (McNeill 1992, Kendon 2004, Sallandre & Cuxac 2001).Or aucune de ces Ă©tudes nâinterroge lâimage et les consĂ©quences de plusieurs millĂ©naires de reprĂ©sentation figĂ©e des gestes. Nâa-t-on pas octroyĂ© trop de place Ă une conception seconde parce que filtrĂ©e par lâimage, rĂ©duisant lâencours des gestes et des signes Ă un ensemble de postures ?Par-delĂ lâimage, la prise en compte de la gestuelle praxique a montrĂ© que les gestes et les signes peuvent ĂȘtre vus selon un cadre dâactions simulĂ©es (Hostetter & Alibali 2008). La prĂ©dominance spatio-motrice sur lâimage est patente (Hostetter & Alibali 2010, Hostetter et al 2011) en particulier lorsque, dans les inputs, les objets sont manipulables (Pine et al 2010), peu manipulables (Hostetter 2014) ou non reprĂ©sentĂ©s physiquement (Cook & Tannenhaus 2009). LâiconicitĂ© dâimage nâest donc pas la stratĂ©gie prĂ©fĂ©rĂ©e, y compris lorsquâelle est initiĂ©e par des mots (Ortega & ĂzyĂŒrek 2016), au profit de la manipulation.En deçà des stratĂ©gies sĂ©mantiques, lâinfluence de la gestuelle praxique â forme corporalisĂ©e dâiconicitĂ© â peut ĂȘtre mesurĂ©e sur les configurations de LS. Suivant Napier (1956), la diffĂ©rence entre saisie de force et de prĂ©cision relĂšve de positions relatives de la main et des doigts dues aux poids de lâobjet saisi. A partir dâun corpus de LSF, enregistrĂ© en vidĂ©o et en motion capture, nous montrerons lâinfluence quâexerce cet habitus, y compris pour des signes renvoyant Ă des Ă©vĂ©nements. Nous verrons que lâiconicitĂ© issue de simulations dâaction infiltre jusquâaux configurations et emplacements des signes : une iconicitĂ© dâorigine praxique exerce donc une influence Ă un niveau phonologique sur une LS
Structural Correlation between Location and Movement of Signs: Lacking Motion Economy for cospeech gestures
International audienc
Toward a typeface for the transcription of facial actions in sign languages
International audienceNon-manual actions, and more specifically facial actions (FA) can be found in all Sign Languages (SL). Those actions involve all the different facial parts and can have various and intricate linguistic relations with manual signs. Unlike in vocal languages, FA in SL provide more meaning than simple expressions of feelings and emotions. Yet non-manual parameters are among the most unknown formal features in SL studies. During the past 30 years, some studies have started questioning the meanings and linguistic values and the relations between manual and non-manual signs (Crashborn et al. 2008; Crashborn & Bank 2014); more recently, SL corpora have been analysed, segmented, and transcribed to help study FA (Vogst-Svenden 2008; Bergman et al. 2008; Sutton-Spence & Day 2008).Moreover, to fill the lack of an annotation system for FA, a few manual annotation systems have integrated facial glyphs, such as HamNoSys (Prillwitz et al. 1989) and SignWriting (Sutton 1995). On one hand, HamNoSys has been developed to describe all existing SLs at a phonetic level; it allows a formal, linear, highly detailed and searchable description of manual parameters. As for non-manual parameters, HamNoSys offers the replacement of hands by another articulators. Non-manual parameters can be written as âeyesâ or âmouthâ and described by the same symbols developed for hands (Hanke 2004). Unfortunately only a limited number of manual symbols can be translated into FA and the annotation system remains incomplete. On the other hand, SignWriting describes SL with iconic symbols placed in a 2D space representing the signerâs body. Facial expressions are divided into mouth, eyes, nose, eyebrows, etc., and are drawn in a circular âheadâ much like emoticons. SignWriting offers a detailed description of posture and actions of non-manual parameters, but does not ensure compatibility with the most common annotation software used by SL linguists (e.g., ELAN).Typannot, a interdisciplinary project led by linguists, designers, and developers, which aims to set up a complete transcription system for SL that includes every SL parameter (handshape, localisation, movement, FA), has developed a different methodologie. As mentioned earlier, FA have various linguistic values (mouthings, adverbial mouth gestures, semantically empty, enacting, whole face) and also include prosody and emotional meanings. In this regard, they can be more variable and signer-related than manual parameters. To offer the best annotation tool, Typannotâs approach has been to define facial parameters and all their possible tangible configurations. The goal is to set up the most efficient, simple, yet complete and universal formula to describe all possible FA.This formula is based on a 3 dimensional grid. Indeed all the different configurations of FA can be described by its X, Y, Z axis position. As a result, all FA can be described and encoded using a restricted list of 39 qualifiers. Based on this model and to help reduce the annotation process, a set of generic glyphs has been developed. Each qualifier has its own symbolic âgenericâ glyph. This methodical decomposition of all facial components enables a precise and accurate transcription of a complex FA using only a few glyphs.This formula and its generic glyphs have gone through a series of tests and revisions. Recently, an 18m20s long FA corpus of two deaf signers has been recorded using two different cameras. The first one, RGB HQ, is used to capture a high quality image and the second, infrared Kinect, is used to captured the depth. The latter was linked with Brekel Proface 2 (Leong et al. 2015), a 3D animation software that enables an automatic recognition of FA. This corpus has been fully annotated using Typannotâs generic glyphs. These annotations have enabled the validation of the general structure of Typannot FAformula and to identify some minor corrections to be made. For instance, it has been shown that the description of the air used to puff out or suck in cheeks is too restrictive and the description of the opening and closure of the eyelids is too unnecessarily precise.When those changes are implemented, our next task will be to develop a morphological glyphic system that will combine the different generic glyphs used for each facial parameter into one unique morphological glyph. This means that for any given FA, all the information contained in Typannot descriptive formula will be contained within one legible glyph. Some early research and work has already begun on this topic, but needs further development before providing a statement on its typographic structure. When this system is completed, it will be released with its own virtual keyboard (Typannot Keyboard, currently in development for handshapes) to help transcription and improve annotation processes.Bibliography :-ChĂ©telat-PelĂ©, E. (2010). Les Gestes Non Manuels en Langue des Signes Française ; Annotation, analyse et formalisation : application aux mouvements des sourcils et aux clignements des yeux. UniversitĂ© de Provence - Aix-Marseille I.-Crasborn, O., Van Der Kooij, E., Waters, D., Woll, B., & Mesch, J. (2008). Frequency distribution and spreading behavior of different types of mouth actions in three sign languages. Sign Language & Linguistics, 11(1), 45â67.-Crasborn, O. A., & Bank, R. (2014). An annotation scheme for the linguistic study of mouth actions in sign languages. http://repository.ubn.ru.nl/handle/2066/132960-Fontana, S. (2008). Mouth actions as gesture in sign language. Gesture, 8(1), 104â123.-Hanke, T. (2004). HamNoSysâRepresenting sign language data in language resources and language processing contexts. In Workshop on the Representation and Processing of Sign Languages on the occasion of the Fourth International Conference on Language Resources and Evaluation (p. 1â6).-Leong, C. W., Chen, L., Feng, G., Lee, C. M., & Mulholland, M. (2015). Utilizing depth sensors for analyzing multimodal presentations: Hardware, software and toolkits (p. 547â556).Presented at Proceedings of the 2015 ACM on International Conference on Multimodal Interaction, ACM.-Prillwitz, S., Leven, R., Zienert, H., Hanke, T., & Henning, J. (1989). Hamburg notation system for sign languages: An introductory guide. Signum Press, Hamburg.-Sandler, W. (2009). Symbiotic symbolization by hand and mouth in sign language. Semiotica, 2009(174), 241â275. http://doi.org/10.1515/semi.2009.035-Sutton, V. (1995). Lessons in Sign Writing: Textbook. DAC, La Jolla (CA).-Sutton-Spence, R., & Boyes-Braem, P. (2001). The hands are the head of the mouth: The mouth as articulator in sign languages. Signum Press, Hamburg
Transcription formelle et capture de mouvement : vers une modeÌlisation de la forme des signes.
International audienceLes Langues des Signes (LS) reÌpertorieÌes aujourdâhui sont au nombre de 142 [1] et concernent plusieurs dizaines de millions de locuteurs dans le monde. AÌ la fin du XXe sieÌcle William Stokoe [2] met en exergue la double articulation des LS permettant de les inteÌgrer dans le champ de la linguistique. MalgreÌ cela, une forte dissymeÌtrie persiste au sein des eÌtudes scientifiques des LS face aÌ celles des langues vocales (LV). Ce manque de ressources est en partie duÌ aÌ une absence de systeÌme de transcription standardiseÌ : lâannotation de corpus se fait principalement par « ID-gloses » [3], proceÌdeÌ sâapparentant plus aÌ de lâidentification par traduction quâaÌ de la transcription proprement dite. Pour parvenir aÌ une modeÌlisation des LS stable, il est fondamental dâacceÌder au preÌalable aÌ une segmentation automatique des signes, dâune part, et, dâautre part, aÌ recourir aÌ une transcription standardiseÌe. Or, la segmentation se confronte aÌ la fluence du mouvement, omnipreÌsente au sein dâune locution en LS. Mon projet de theÌse propose dâaborder cette probleÌmatique en preÌcisant les rapports de couplage moteur quâentretiennent les deux parameÌtres de lâemplacement et du mouvement. Les retombeÌes attendues releÌvent, dâun point de vue theÌorique, dâune modeÌlisation formelle de la langue et, dâun point de vue plus appliqueÌ, de la mise en place dâalgorithmes de suivi des mouvements des signes. Afin de traiter efficacement ces questions de structuration profonde des LS, un corpus de locuteurs en LSF est enregistreÌ par une cameÌra videÌo ainsi que par un systeÌme de captation 3D modulaire offrant la possibiliteÌ dâeÌtudier la cineÌmatique du mouvement. Lâexploitation de ce corpus se fait en deux phases successives : tout dâabord la videÌo est annoteÌe avec la police de caracteÌres Typannot, correspondant aÌ une transcription orthographique ; ensuite, les reÌsultats sont compareÌs avec les donneÌes physiologiques du corpus en MoCap â donneÌes de type phoneÌtique â, afin dâeÌtablir formellement les liens quâentretiennent les deux parameÌtres eÌtudieÌs. Cette opportuniteÌ, celle de nous tourner vers ces nouvelles technologies en linguistique des LS, souleÌve de nouvelles questions sur la nature des informations qui nous parviennent. Il est impossible dâacceÌder aux donneÌes brutes dâun enregistrement en MoCap avec autant de faciliteÌ quâavec celles enregistreÌes en videÌo. Le Neuron enregistre 60 fois par seconde des valeurs sous la forme de positions relatives, et ce, selon les trois axes X Y et Z de chaque segment du corps. Les informations fournies sâapparentent aÌ une longue suite de nombres, pour laquelle on ne peut faire abstraction dâun temps de traitement qui preÌceÌde leur exploitation. Or, si la deÌfinition des donneÌes primaires tient aÌ leur transparence, aÌ lâimmeÌdiateteÌ de leur acceÌs, nous sommes peut-eÌtre confronteÌs aÌ une redeÌfinition des frontieÌres distinguant les donneÌes brutes des donneÌes secondaires
Transcription formelle et capture de mouvement : vers une modeÌlisation des constituants gestuels de la forme des signes.
International audienceLes Langues des Signes (LS) reÌpertorieÌes aujourdâhui sont au nombre de 142 [1] et concernent plusieurs dizaines de millions de locuteurs dans le monde. AÌ la fin du XXe sieÌcle William Stokoe [2] met en exergue la double articulation des LS permettant de les inteÌgrer dans le champ de la linguistique. MalgreÌ cela, une forte dissymeÌtrie persiste au sein des eÌtudes scientifiques des LS face aÌ celles des langues vocales (LV). Ce manque de ressources est en partie duÌ aÌ une absence de systeÌme de transcription standardiseÌ : lâannotation de corpus se fait principalement par « ID-gloses » [3], proceÌdeÌ sâapparentant plus aÌ de lâidentification par traduction quâaÌ de la transcription proprement dite. Pour parvenir aÌ une modeÌlisation des LS stable, il est fondamental dâacceÌder au preÌalable aÌ une segmentation automatique des signes, dâune part, et, dâautre part, aÌ recourir aÌ une transcription standardiseÌe. Or, la segmentation se confronte aÌ la fluence du mouvement, omnipreÌsente au sein dâune locution en LS. Mon projet de theÌse propose dâaborder cette probleÌmatique en preÌcisant les rapports de couplage moteur quâentretiennent les deux parameÌtres de lâemplacement et du mouvement. Les retombeÌes attendues releÌvent, dâun point de vue theÌorique, dâune modeÌlisation formelle de la langue et, dâun point de vue plus appliqueÌ, de la mise en place dâalgorithmes de suivi des mouvements des signes. Afin de traiter efficacement ces questions de structuration profonde des LS, un corpus de locuteurs en LSF est enregistreÌ par une cameÌra videÌo ainsi que par un systeÌme de captation 3D modulaire offrant la possibiliteÌ dâeÌtudier la cineÌmatique du mouvement. Lâexploitation de ce corpus se fait en deux phases successives : tout dâabord la videÌo est annoteÌe avec la police de caracteÌres Typannot, correspondant aÌ une transcription orthographique ; ensuite, les reÌsultats sont compareÌs avec les donneÌes physiologiques du corpus en MoCap â donneÌes de type phoneÌtique â, afin dâeÌtablir formellement les liens quâentretiennent les deux parameÌtres eÌtudieÌs. Cette opportuniteÌ, celle de nous tourner vers ces nouvelles technologies en linguistique des LS, souleÌve de nouvelles questions sur la nature des informations qui nous parviennent. Il est impossible dâacceÌder aux donneÌes brutes dâun enregistrement en MoCap avec autant de faciliteÌ quâavec celles enregistreÌes en videÌo. Le Neuron enregistre 60 fois par seconde des valeurs sous la forme de positions relatives, et ce, selon les trois axes X Y et Z de chaque segment du corps. Les informations fournies sâapparentent aÌ une longue suite de nombres, pour laquelle on ne peut faire abstraction dâun temps de traitement qui preÌceÌde leur exploitation. Or, si la deÌfinition des donneÌes primaires tient aÌ leur transparence, aÌ lâimmeÌdiateteÌ de leur acceÌs, nous sommes peut-eÌtre confronteÌs aÌ une redeÌfinition des frontieÌres distinguant les donneÌes brutes des donneÌes secondaires
Vers une reconnaissance automatique des signes - Typannot et capture de mouvement
International audienc
Vers une reconnaissance automatique des signes - Typannot et capture de mouvement
International audienc