131 research outputs found

    Nouvelles interactions physiques pour dispositifs mobiles

    Get PDF
    Soixante pour cent de la population mondiale possĂšde aujourd'hui un tĂ©lĂ©phone portable. Les modĂšles rĂ©cents, qui tendent Ă  devenir de petits ordinateurs portables, sont jusqu Ă  10 000 fois plus puissants et 300 000 fois moins lourds que le premier ordinateur, apparu voici 60 ans. MalgrĂ© cette puissance, et les ressources offertes par les Ă©quipements dont ils sont munis (Ă©cran tactile multitouch, accĂ©lĂ©romĂštres et autres capteurs...), les mobiles souffrent de certaines limitations du fait de la disparition de nombreux pĂ©riphĂ©riques d'entrĂ©e classiques tels que le clavier et la souris. Afin d'augmenter la bande passante interactionnelle de ces dispositifs et de tirer partie de ces capteurs, nous nous sommes intĂ©ressĂ© dans cette thĂšse aux possibilitĂ©s offertes par l'interaction gestuelle en considĂ©rant deux axes de recherche : les mouvements sur le mobile et les mouvements du mobile. AprĂšs avoir proposĂ© un espace de classification nous avons conçu et dĂ©veloppĂ© plusieurs techniques d'interaction gestuelle destinĂ©es Ă  enrichir et faciliter l'interaction de l'utilisateur avec ces dispositifs.Concernant les mouvements sur le mobile, nous nous sommes intĂ©ressĂ© Ă  l'amĂ©lioration du Flick, une technique de dĂ©filement largement popularisĂ©e ces derniĂšres annĂ©es. AprĂšs avoir Ă©tudiĂ© son anatomie , nous avons proposĂ© d'exploiter plusieurs ressources interactionnelles jusqu'Ă  prĂ©sent inutilisĂ©es. Ce travail a donnĂ© naissance Ă  trois nouvelles techniques: Flick-and-brake et LongFlick, qui utilisent respectivement la pression sur l'Ă©cran et les caractĂ©ristiques du geste de lancer pour mieux contrĂŽler le dĂ©filement, et 'Semantic Flicking' qui exploite la sĂ©mantique du document pour faciliter la lecture. Dans un second temps nous avons considĂ©rĂ© les possibilitĂ©s offertes par l'interaction 3D, en dĂ©plaçant le dispositif mobile dans l'espace. Cette voie de recherche vise Ă  permettre d'augmenter le vocabulaire d'interaction sans parasiter les interactions tactiles dĂ©jĂ  existantes. Tirant parti des capteurs intĂ©grĂ©s dans les mobiles, en particulier les accĂ©lĂ©romĂštres, nous avons proposĂ© deux nouvelles techniques d'interaction 3D : TimeTilt qui utilise des gestes fluides et impulsifs pour naviguer aisĂ©ment entre diffĂ©rentes vues et JerkTilt qui introduit la notion de gestes 'auto-dĂ©limitĂ©s' pour accĂ©der rapidement Ă  des commandes. Ces gestes auto-dĂ©limitĂ©s ayant Ă©galement la particularitĂ© de pouvoir ĂȘtre facilement combinĂ©s avec des interactions sur l'Ă©cran, nous avons enfin considĂ©rĂ© la combinaison des modalitĂ©s offertes par les gestes bi- et tri-dimensionnels.Sixty percent of the world's population now owns a mobile phone. Recent models, which tend to become small laptops are up to 10 000 times more powerful and 300 000 times less heavy than the first computer, appeared 60 years ago. Despite this power and all the resources provided by modern equipment (touchscreen, accelerometer and other sensors...), mobile phones suffer from certain limitations due to the lack of conventional input such as keyboard and mouse. To increase the interaction bandwidth of these device and take advantage of these sensors, we investigate the potential offered by gestural interaction by considering two lines of research: movements on the mobile and movements of the mobile. After defining a classification space we conceived and developed several gestural interaction techniques to enrich and facilitate interaction between the user and these devices. For the movements on the mobile we have proposed to improve the flick, a scrolling technique widely popularized in recent years. We first studied his anatomy of this technique, then we proposed to exploit multiple interactional resources hitherto unused. This work gave birth to three new techniques: Flick-and-Brake and LongFlick, that respectively use the pressure on the screen and the characteristics of the throwing action to better control scrolling, and Semantic Flicking which leverage on document semantics to facilitate reading. In a second stage we considered the potential of 3D interaction, by moving the mobile device in the space. This line of research aims at expanding the interaction vocabulary while avoiding interferences with existing touch interactions. Leveraging on integrated sensors such as accelerometers, we proposed two new techniques for 3D interaction: TimeTilt, which uses smooth and impulsive gestures to easily navigate between different views, and JerkTilt, which introduced the notion of self-delimited gestures for accessing quickly to commands. An interesting property of these self-defined gestures is their ability to be combined with common interactions on the screen. We thus finally considered the combination of modalities offered by the two and three-dimensional gestures.PARIS-TĂ©lĂ©com ParisTech (751132302) / SudocSudocFranceF

    Technologies de la Simulation Interactive de ModĂšles Physiques Multisensoriels

    Get PDF
    This thesis presents my research activity on multisensory interactive simulation (gesture, sound and image), in technological and conceptual aspects. This interdisciplinary research concerns three fields : 1/ physical modeling for simulation, 2/ hardware and software architectures for real time computation, 3/ interactive gestural interfaces (with force feedback). Work done in these three fields is presented chronologically.Ce mĂ©moire prĂ©sente mon activitĂ© de recherche sur la simulation interactive multisensorielle (geste, son et image), dans ses aspects technologiques et conceptuels. C’est une recherche interdisciplinaire qui concerne trois domaines : 1/ modĂ©lisation physique pour la simulation, 2/ architectures matĂ©rielles et logicielles pour le calcul temps rĂ©el, 3/ interfaces gestuelles interactives (Ă  « retour d’effort »). Les travaux effectuĂ©s dans ces trois domaines sont exposĂ©s de maniĂšre chronologique

    Conception et évaluation de nouvelles techniques d'interaction dans le contexte de la télévision interactive

    Get PDF
    Television has never stopped being popularized and offering new services to the viewers. These interactive services make viewers more engaged in television activities. Unlike the use of a computer, they interact on a remote screen with a remote control from their sofa which is not convenient for using a keyboard and a mouse. The remote control and the current interaction techniques associated with it are struggling to meet viewers’ expectations. To address this problem, the work of this thesis explores the possibilities offered by the gestural modality to design new interaction techniques for interactive television, taking into account its context of use. More specifically, in a first step, we present the specific context of the television usage. Then, we propose a litterature review of research trying to improve the remote control. Finally we focus on gestural interaction. To guide the design of interaction techniques based on gestural modality, we introduce a taxonomy that attempts to unify gesture interaction constrained by a surface and hand-free gesture interaction. Therefore, we propose various techniques for gestural interaction in two scopes of research : gestural instrumented interaction techniques, which improves the traditional remote control expressiveness, and hand-free gestural interaction by exploring the possibility o performing gestures on the surface of the belly to control the television set.La tĂ©lĂ©vision n’a cessĂ© de se populariser et d’évoluer en proposant de nouveaux services. Ces services de plus en plus interactifs rendent les tĂ©lĂ©spectateurs plus engagĂ©s dans l’activitĂ© tĂ©lĂ©visuelle. Contrairement Ă  l’usage d’un ordinateur, ils interagissent sur un Ă©cran distant avec une tĂ©lĂ©commande et des applications depuis leur canapĂ© peu propice Ă  l’usage d’un clavier et d’une souris. Ce dispositif et les techniques d’interaction actuelles qui lui sont associĂ©es peinent Ă  rĂ©pondre correctement Ă  leurs attentes. Afin de rĂ©pondre Ă  cette problĂ©matique, les travaux de cette thĂšse explorent les possibilitĂ©s offertes par la modalitĂ© gestuelle pour concevoir de nouvelles techniques d’interaction pour la tĂ©lĂ©vision interactive en tenant compte de son contexte d’usage. Dans un premier temps, nous prĂ©sentons le contexte singulier de l’activitĂ© tĂ©lĂ©visuelle. Puis, nous proposons un espace de caractĂ©risation des travaux de la littĂ©rature cherchant Ă  amĂ©liorer la tĂ©lĂ©commande pour, finalement, nous focaliser sur l’interaction gestuelle. Nous introduisons un espace de caractĂ©risation qui tente d’unifier l’interaction gestuelle contrainte par une surface, mains libres, et instrumentĂ©e ou non afin de guider la conception de nouvelles techniques. Nous avons conçu et Ă©valuĂ© diverses techniques d’interaction gestuelle selon deux axes de recherche : les techniques d’interaction gestuelle instrumentĂ©es permettant d’amĂ©liorer l’expressivitĂ© interactionnelle de la tĂ©lĂ©commande traditionnelle, et les techniques d’interaction gestuelles mains libres en explorant la possibilitĂ© de rĂ©aliser des gestes sur la surface du ventre pour contrĂŽler sa tĂ©lĂ©vision

    Espace de conception et modÚle d'interaction multi-tactile gestuel : un environnement de développement pour enrichir le modÚle

    Get PDF
    The technical refinement and the recent adoption of multi-touch technologies by both the industry and users made these technologies a major concern for interaction designers. While many studies on human-computer interaction have started to compare this type of interface with traditional WIMP interfaces performance-wise, few have included in their approach the gestural and system mapping specificities of multi-touch interactions. In this study, I defend the idea that such interaction design should follow a specific interaction model taking into account physical, cognitive, sensitive and motor aspects of gestures in the human-computer relation. I define a design space, sort of socio-technical approach, which participates in the definition of a descriptive and generative interaction model. I establish a set of conceptual and technical principles that allow the evaluation and conception of multi-touch interfaces, in a systemic and extensible way. Throughout this study, I emphasize the limits of the « natural user interface » paradigm by having a better understanding of how interaction realism affects system efficiency. Finally, I present a multi-touch framework developed as part of a CIFRE collaboration, which helped this study in the design and the extension of the conceptual model.L’affinage technique et l’adoption rĂ©cente des technologies tactiles multi-points par les industriels et les utilisateurs ont fixĂ© l’attention des designers d’interaction sur ces technologies. Tandis que de nombreuses Ă©tudes en interaction homme-machine se sont intĂ©ressĂ©es Ă  comparer la performance de ces interfaces Ă  celle des interfaces WIMP traditionnelles, peu se sont attachĂ©es Ă  intĂ©grer dans leur approche les spĂ©cificitĂ©s du canal gestuel et les modalitĂ©s d’interactions multi-tactiles. Dans cette Ă©tude, je dĂ©fends l’idĂ©e que le design de telles interactions ne peut ĂȘtre approchĂ© qu’en suivant un modĂšle d’interaction spĂ©cifique intĂ©grant l’ensemble des composantes physiques, cognitives, sensorielles et motrices du geste dans le couplage homme-machine. J’articule ma recherche autour d’un espace de conception, courte analyse sociotechnique de mon objet d’étude, dans lequel je dĂ©finis un modĂšle d’interaction descriptif et gĂ©nĂ©ratif. Je dĂ©termine un ensemble de principes conceptuels et techniques permettant l’évaluation et la conception du design d’interfaces multi-tactiles de maniĂšre systĂ©mique et extensible. Au cours de cette Ă©tude, je prĂ©cise les limites du paradigme d’ « interface naturelle » en nuançant les effets du rĂ©alisme des interactions dans l’efficacitĂ© de tels systĂšmes. Enfin, je prĂ©sente les travaux de conception et de dĂ©veloppement d’un environnement de dĂ©veloppement rĂ©alisĂ© dans le cadre d’un dispositif CIFRE qui a accompagnĂ© cette Ă©tude et permis d’enrichir le modĂšle thĂ©orique

    Techniques d'interaction 'phygitales' pour l'exploration de systĂšmes informationnels complexes

    Get PDF
    Durant cette derniÚre décennie, la quantité de données numériques n'a cessé d'augmenter. Ces données provenant de l'Internet des Objets ou de smartphones permettent aux utilisateurs de comprendre et d'analyser leur santé, leur mode de vie ou encore leur consommation énergétique, et aux différentes institutions (villes, campus, promoteurs immobiliers) de gérer le flux de population, le trafic routier ou les pertes énergétiques dans les bùtiments administrés. Le domaine de la "ville intelligente" en tire particuliÚrement profit. Il est donc capital de mettre à disposition des visualisations interactives de ces données pour pouvoir faire émerger des connaissances et faciliter la prise de décision. Une approche récente propose de représenter ces données proches de l'objet qui les capte ou les produit. Cependant, ce domaine est encore assez récent et il reste de nombreux défis à explorer. Un des défis majeurs identifié par Thomas et collab. (Thomas et al., 2018) est le développement et la conception de techniques d'interaction pour faciliter l'analyse de données situées. L'objectif de nos travaux de thÚse est de concevoir et d'évaluer des solutions interactives tirant profit du référent physique pour interagir avec des données numériques situées en se focalisant sur une tùche interactive fondamentale en IHM : la sélection. Dans ce manuscrit nous abordons cette tùche selon une approche fonctionnelle et une approche conceptuelle.Over the past decade, the amount of digital data has been increasing. This data from the Internet of Things or smartphones allows users to understand and analyse their health, lifestyle or energy consumption, and different institutions (cities, campuses, real estate developers) to manage the flow of people, road traffic or energy losses in the buildings they manage. One particular topic that benefits from this is the "smart city". It is therefore essential to make interactive visualisations of this data available in order to generate knowledge and facilitate decision-making. A recent approach proposes to represent these data close to the object that captures or produces them. However, this field is still quite new and there are still many challenges to explore. One of the major challenges identified by Thomas et al. (Thomas et al., 2018) is the development and design of interaction techniques to facilitate the analysis of situated data. The objective of our thesis work is to design and evaluate interactive solutions leveraging the physical referent to interact with situated digital data by focusing on a fundamental interactive task in HCI: selection. In this manuscript we study this task from both a practical and a conceptual approach

    Applications musicales du traitement de signal : synthĂšse et prospective

    Get PDF
    L'objet de cette communication est de proposer une synthÚse des applications musicales du traitement de signal, des problématiques de recherche qui leur sont liées et des directions prospectives qui se dégagent sur la base de travaux récents dans ce domaine. AprÚs l'exposé de notions préliminaires, relatives au systÚme technique musical et à l'analyse des différentes représentations numériques des informations musicales, cette synthÚse se concentre sur trois types de fonctions principales : la synthÚse et le traitement des sons musicaux, la spatialisation sonore et les technologies d'indexation et d'accÚs

    Jeux pédagogiques collaboratifs situés (conception et mise en oeuvre dirigées par les modÚles)

    Get PDF
    Un jeu pĂ©dagogique constitue une dĂ©clinaison relative Ă  l apprentissage du concept de jeu sĂ©rieux (serious game). Ce type d'outil permet la ludification (gamification) de l'activitĂ© afin d'utiliser des Ă©lĂ©ments de jeu dans un contexte non ludique et conduit Ă  catalyser l attention, faire accroĂźtre l engagement et augmenter la motivation des joueurs-apprenants dans les situations d apprentissage. Les jeux pĂ©dagogiques reposent sur la mise en situation et l immersion des apprenants, utilisant les ressorts ludiques dans des simulations axĂ©es vers la rĂ©solution de problĂšmes. Parmi des recherches antĂ©rieures, certains retours d expĂ©riences font Ă©cho d une trop grande artificialitĂ© de l activitĂ© notamment par manque de contextualisation de l apprentissage dans l environnement d utilisation des connaissances apprises. Nous avons proposĂ© la mise en place un environnement mixte (physique et numĂ©rique) et l utilisation de techniques collaboratives pour raffiner l approche pĂ©dagogique. Ces orientations nous ont menĂ©s Ă  la mise en place de ce que nous appelons des Jeux PĂ©dagogiques Collaboratifs SituĂ©s (JPCS). Les deux questions de recherche qui nous ont Ă©tĂ© posĂ©es dans le cadre du projet SEGAREM et qui sont devenues les nĂŽtres sont : 1/ comment accompagner les jeux sĂ©rieux par l approche RĂ©alitĂ© AugmentĂ©e (RA) et l'approche Interface Tangible (IT)? 2/ comment rendre la conception et la mise en Ɠuvre des JPCS (Jeux PĂ©dagogiques Collaboratifs SituĂ©s) plus explicite et plus systĂ©matique ? Les rĂ©ponses que nous prĂ©sentons dans cette thĂšse sont les suivantes : 1/ la conception et la mise en Ɠuvre des pupitres interactifs supportant des objets rĂ©els augmentĂ©s, associĂ©s Ă  un protocole de communication existant, proposant un support gĂ©nĂ©rique des techniques d interaction dĂ©tectĂ©e et de prise en compte du contexte physique d utilisation ; 2/ une approche de production de JPCS se situant aprĂšs l Ă©tape de scĂ©narisation ludo-pĂ©dagogique qui constitue notre cahier des charges. Nous avons basĂ© notre approche sur des modĂšles pour permettre un support d expression qui prĂ©cise les caractĂ©ristiques des JPCS. Ces modĂšles sont soutenus par des Ă©diteurs contextuels et produisent comme rĂ©sultat des fichiers de descriptions en XML. La projection des descriptions obtenues sur une architecture gĂ©nĂ©rique d exĂ©cution du JPCS permet une spĂ©cialisation pour obtenir une version exĂ©cutable. Dans les six modĂšles, certains sont adaptĂ©s des travaux antĂ©rieurs de l Ă©quipe, d'autres issues de la littĂ©rature et les derniers sont directement proposĂ©s ici. Ces six modĂšles dĂ©crivent l activitĂ© (un modĂšle d orchestration de l activitĂ© et un modĂšle de tĂąches), la structure de diffĂ©rents environnements, l Ă©tat initial de l environnement et les conditions nĂ©cessaires d un Ă©tat final et les interactions possibles entre les joueurs et l environnement. Nos travaux tant sur les pupitres que sur les modĂšles et le support d exĂ©cution ont Ă©tĂ© concrĂ©tisĂ©s dans la mise en place de Lea(r)nIt. Ce JPCS avait pour but de consolider des acquis mĂ©thodologiques en Lean Manufacturing par l utilisation et l optimisation d une chaĂźne de production simulĂ©e sur pupitres (supportant interactions tactiles, interactions tangibles et pouvant ĂȘtre assemblĂ©s) et sur tĂ©lĂ©phones mobiles (permettant la mobilitĂ© des joueurs-apprenants).A Learning game is a declension of the serious game concept dedicated to the learning activity. A Learning game is based on a scenario and immersion of the learners with use of game mechanics on problem based simulation. The gamification concept is the use of game elements in a non-playful activity with as impact attention, motivation and engagement. However, some research feedback explains that too much artificiality on learning activity caused by a lack of contextualization of the activity on the professional environment. We propose to use Mixed Reality and Collaborative Supported Computer Work as technological solution to support situated and collaborative situation in aim to enhance pedagogical strategy and allow a better learning. We call it Situated Collaborative Learning Game (SCLG) as a concept of pedagogical tools to enhance learning of content with use of collaborative learning (when learners interactions is useful to learn), situated learning (when the environment context is meaningful) and human-physical objet interaction (with use of mixed reality, with kinesthetic and tangible interaction in augmented reality) and game based learning (when learner's motivation is improved by the learning activity). In these contexts, our two research questions are: 1 / How to create a serious games support by use of Augmented Reality (AR) approach and Tangible Interface (IT) approach? 2 / How to make design and development of SCLG (situated collaborative learning game) more explicit and systematic? We propose two solutions: 1/ the design and the production of four interactive desks with support of tangible interaction on and above the table. These devices are linked to a communication protocol which allows a generic support of technical interaction. 2/ A generic way to design the CSLG system, with integration of advanced human computer interaction support (as augmented reality and tangible interaction) and ubiquitous computing in Learning Games. For that, we propose, with a user centered oriented and model oriented design, a way to make a CSLG factory. For that, we propose use of six models to determinate the behavior of the CSLG. These six models describe learners activity (with use of three different models to follow the activity theory s), the mixed game environment, deployment of entities on the environment, and human computer interactions. All of these models are linked by an orchestration model and can be project on a multi-agent multi-layers architecture by use of XML description file. We propose tools to help each step of our design and production process. Our work on interactive desks, on the six models and on the runtime support has been realized in the production of Lea(r)nIT. This SCLG consolidate methodological knowledge of Lean Manufacturing by use and optimization of a simulated chain production on four desks (which support touch and tangible interactions and can be assembled) and on mobile phones (to allow movement of learners).LYON-Ecole Centrale (690812301) / SudocSudocFranceF

    Communication kinesthésique des émotions dans un contexte d'interaction homme-machine

    Get PDF
    The communication of emotions use several modalities of expression, as facial expressions or touch. The affective computing field aims to integrate an emotional component in human-computer interactions. Even though touch is an effective vector of emotions, is remains little explored. This thesis aims to investigate the kinesthetic features of the expression and perception of emotions in a human-computer interaction setting. Firstly, this thesis considers the kinesthetic expression and perception of semantically close and acted emotions. Secondly, this thesis proposes a facial-kinesthetic combination of expressions of several close emotions. This aims to investigate the influence of the kinesthetic modality on the multimodal perception of emotions. Finally, this thesis goes beyond acted emotions by focusing on the expression and perception of a spontaneous state of stress. Those different experiments used various devices for kinesthetic interaction, as Geomagic Touch devices and a pressure rendering device developed for this thesis. Results have multiple applications. Firstly, a better integration of the kinesthetic modality in virtual settings, from human-human remote communications to immersion in video games. This thesis also paves the way for an automatic recognition of affective states expressed by the kinesthetic modality.La communication des Ă©motions s'effectue naturellement par le biais de diffĂ©rentes modalitĂ©s, comme par exemple les expressions faciales et le toucher. L'informatique affective cherche Ă  intĂ©grer la composante Ă©motionnelle dans les interactions homme-machine. Cependant, le toucher, qui est un puissant vecteur d'Ă©motions, reste peu exploitĂ©. L'objectif de cette thĂšse est d'Ă©tudier les paramĂštres qui influencent l'expression et la perception des Ă©motions dans la modalitĂ© kinesthĂ©sique dans un contexte d'interaction homme-machine. Dans un premier temps, cette thĂšse considĂšre l'expression kinesthĂ©sique liĂ©e Ă  la perception physique de forces et de mouvements d'un ensemble d'Ă©motions actĂ©es sĂ©mantiquement proches. Sur la base des rĂ©sultats de cette premiĂšre Ă©tude, un couplage des expressions kinesthĂ©siques typiques de diffĂ©rentes Ă©motions avec des expressions faciales exprimĂ©es par un avatar est proposĂ© afin d'Ă©tudier l'influence de la modalitĂ© kinesthĂ©sique dans la perception d'une expression multimodale d’émotion. Enfin, cette thĂšse va au-delĂ  de ces Ă©motions actĂ©es en abordant dans une derniĂšre Ă©tude le cas de l'expression et de la perception d'un Ă©tat affectif de stress spontanĂ©. Ces diffĂ©rentes expĂ©rimentations ont considĂ©rĂ© diffĂ©rents dispositifs matĂ©riels pour la communication kinesthĂ©sique : des dispositifs de type Geomagic Touch ainsi qu'un dispositif de rendu de pression dĂ©veloppĂ© spĂ©cifiquement dans le cadre de cette thĂšse. Les rĂ©sultats de ces travaux ont de multiples applications pratiques. PremiĂšrement, une meilleure intĂ©gration de la modalitĂ© kinesthĂ©sique en contexte virtuel, qu'il s'agisse de communication humain-humain Ă  distance ou d'immersion dans les jeux vidĂ©o. Cette thĂšse ouvre Ă©galement la voie Ă  la dĂ©tection automatique d'Ă©tats affectifs exprimĂ©s spontanĂ©ment par la modalitĂ© kinesthĂ©sique

    Nouvelles techniques d'interaction pour les dispositifs miniaturisés de l'informatique mobile

    Get PDF
    Thanks to the availability of powerful miniaturized electronic coponents, this last decade have seen the popularization of small mobile devices such as smartphones, and even smaller devices for wearable computing. These new devices bring new interaction problems, such as the small size of the screen and the "fat-finger" problem (a relatively large portion of the sreen is occluded and pointing lacks precision). the objective of the work reported here is twofold : 1) to aquire a better understanding of pointing on small devices, thanks to an advanced study of Fitts' law, 2) to design new interaction techniques for increasing the interaction bandwidth between the user and the device.Du fait de la disponibilitĂ© de capteurs Ă©lĂ©ctroniques de plus en plus puissant, la derniĂšre dĂ©cennie a vu la popularisation de nouveaux dispositifs mobiles, comme les tĂ©lĂ©phones intelligents (smartphone), et mĂȘme des dispositifs miniatures comme ceux de l'informatique portĂ©e. Ces nouveaux dispositifs apportent de nouveaux problĂšmes interactionnels, du fait de la petite taille de l'Ă©cran et du problĂšme du "fat-finger" (lors de l'interaction, une large portion de l'Ă©cran se retrouve occultĂ©e par le doigt, et les tĂąches de pointage perdent en prĂ©cision. L'objectif de ce travail est double : 1) d'acquĂ©rir une meilleure comprĂ©hension du pointage sur les petits dispositifs mobiles, grĂące Ă  une Ă©tude poussĂ©e de la loi Fitts, 2) de crĂ©er de nouvelles techniques d'interaction afin d'augmenter la bande passante interactionnelle entre l'utilisateur et le dispositi

    Technologies logicielles de la modélisation, de la simulation et de l'interaction multisensorielles instrumentales pour la création

    Get PDF
    The presented works have firstly questioned the possible inter-relations between physics-based modelling and simulation on the one hand, and creation and creativity on the other. More specifically, the possibility and fundamental interests of rooting creative activities onto physics-based modelling have been considered.This theme was approached from a Computer Sciences perspective, through the invention and the design of a new family of software environments aimed at creation with masses-interactions physics-based networks. In particular: GENESIS for musical creation, and MIMESIS for movement and computer graphics animation.These software environments empower the artist with innovative and complete creation processes, centred on physical modelling activities.Each and all of these environments are characterized by a specific “software environment paradigm”: dedicated features, software architecture specificities, adequate and necessary human-computer interaction means (interfaces and languages), and particular usage protocols (in our case: modelling and creative processes).These elements have been situated in the scientific and technological history of computer creation tools, and in the state of the art of the various concerned scientific domains. This work has in particular led to analysing the properties of masses-interactions physical networks (modularity, generic potential, calculability, usability, 
), in relation with other categories of algorithms, models and formalisms used nowadays to address human sensori-motor skills. It also accompanied the demonstration that the building of physical models by an artist can be deeply relevant. This relevance lies in the qualities of the phenomena that are finally generated, but also, which is more original, and probably more essential, in the modelling/creation processes themselves.Finally, the works have been extended to various other axes: contributions to synchronous real-time simulation architecture and software for multisensory interaction, including force-feedback, sound, and image, by means of physics-based simulation; experimental modelling works; contributions to the evolutions of the formal basis of the physics networks paradigm; contributions to graphical representation of punctual movements, etc.These past works and the achieved results altogether lead to introduce new research perspectives, which we name software technologies of multisensory instrumental interaction, with, as a far end view, the foundation of a new “science of the multisensory computer” and the possibility of a “multisensory art”.Les travaux prĂ©sentĂ©s ont Ă©tĂ© pour l’essentiel traversĂ©s par un questionnement sur les relations liant modĂ©lisation et simulation physiques et crĂ©ation ou, plus spĂ©cifiquement, sur la possibilitĂ© et l’intĂ©rĂȘt fondamental d’appuyer une activitĂ© de crĂ©ation sur la modĂ©lisation. Ce thĂšme a Ă©tĂ© abordĂ© sous l’angle de l’informatique appliquĂ©e (en anglais, les « computer sciences »), au moyen de l’invention et de la rĂ©alisation d’une nouvelle famille d’environnements logiciels pour la crĂ©ation avec les rĂ©seaux physiques masses-interactions, dont en particulier les modeleurs-simulateurs GENESIS pour la crĂ©ation musicale, puis MIMESIS pour la crĂ©ation du mouvement et l’image animĂ©e. Ces environnements permettent Ă  l’artiste d’organiser des processus de crĂ©ation complets et novateurs, fondĂ©s sur l’activitĂ© de modĂ©lisation physique.Ils sont chacun, et dans leur ensemble, caractĂ©risĂ©s par un paradigme d’environnement logiciel nouveau : des fonctionnalitĂ©s, des caractĂ©ristiques en matiĂšre d’architecture logicielle, des ergonomies nĂ©cessaires, adĂ©quates et spĂ©cifiques, ainsi que des protocoles d’utilisation – ici des processus de modĂ©lisation et de crĂ©ation – qui leur sont propres. Ces propriĂ©tĂ©s ont Ă©tĂ© situĂ©es dans l’histoire scientifique et technologique des outils de crĂ©ation et dans les Ă©tats de l’art des communautĂ©s scientifiques concernĂ©es. Ce travail a notamment donnĂ© lieu Ă  une Ă©tude des propriĂ©tĂ©s des rĂ©seaux physiques masses-interactions (gĂ©nĂ©ricitĂ©, modularitĂ©, calculabilitĂ©, utilisabilitĂ©, gĂ©nĂ©ralitĂ©...) en vis-Ă -vis des catĂ©gories d’algorithmes, modĂšles et formalismes utilisĂ©s pour adresser la sensori-motricitĂ© humaine. Il s’est de plus accompagnĂ© d’une analyse du fait que l’activitĂ© de construction de modĂšles physiques peut prĂ©senter une pertinence profonde pour l’artiste – pertinence qui se joue non seulement dans les qualitĂ©s des phĂ©nomĂšnes gĂ©nĂ©rĂ©s, mais encore, de façon plus originale et peut-ĂȘtre plus essentielle, dans le processus de modĂ©lisation/crĂ©ation lui-mĂȘme.Enfin, les travaux se sont Ă©tendus Ă  plusieurs autres axes d’études : contributions aux logiciels de simulation temps rĂ©el pour l’interaction multisensorielle incluant le retour d’effort, le son et l’image, au moyen de la simulation physique ; travaux expĂ©rimentaux en modĂ©lisation ; contributions Ă  l’amĂ©lioration du cadre formel des rĂ©seaux physiques masses-interactions ; contributions aux procĂ©dĂ©s de mise en forme visuelle de mouvements ponctuels ; travaux de positionnement thĂ©orique ; etc.L’expĂ©rience et les rĂ©sultats acquis conduisent Ă  introduire de nouvelles perspectives de recherche, sous le fil conducteur des technologies logicielles de l’interaction multisensorielle instrumentale, avec en ligne de mire la fondation d’une « science de l’ordinateur multisensoriel » et la possibilitĂ© d’un « art multisensoriel »
    • 

    corecore