99 research outputs found

    Interaction à distance en environnement physique augmenté

    Get PDF
    We explore interaction with augmented physical objects within physical environments. Augmented physical objects allow new ways of interaction, including distant interaction. However, the physical world has specificities making difficult the adaptation of interaction techniques already existing in virtual environments. These specificities need to be identified in order to design efficient and enjoyable interaction techniques dedicated to augmented physical environments. In our work, we split up distant interaction into two complementary stages: the selection and the control of augmented physical objects. For each of these stages, our contribution is two-fold. These contributions are both theoretical, with the establishment of design spaces, and practical, with the design, the implementation and the experimental evaluation of interaction techniques:- For the selection stage, we study the disambiguation potentially needed after a distal pointing gesture using a volume selection such as an infrared remote controller. Indeed, although the volume selection can facilitate the aiming action, several objects can fall into the selected volume. Thus, users should disambiguate this coarse pointing selection. We define and use a design space in order to design and experimentally evaluate two disambiguation techniques that maintain the user's focus on the physical objects.- For the control stage, we study the guidance of 3D hand gestures in order to trigger commands at a distance. Such guidance is essential in order to reveal available commands and the associated gestures. We define a design space capturing specificities of a wide range of guiding systems. We also provide an online tool, easing the use of such a large design space. We then explore the impact of several design options on the quality of 3D gestures guidance.Nous nous intéressons à l'interaction dans le contexte d'environnements physiques augmentés, plus précisément avec les objets physiques qui les composent. Bien que l'augmentation de ces objets offre de nouvelles possibilités d'interaction, notamment celle d'interagir à distance, le monde physique possède des caractéristiques propres rendant difficile l'adaptation de techniques d'interaction existantes en environnements virtuels. Il convient alors d'identifier ces caractéristiques afin de concevoir des techniques d'interaction à la fois efficaces et plaisantes dédiées à ces environnements physiques augmentés. Dans nos travaux, nous décomposons cette interaction à distance avec des objets physiques augmentés en deux étapes complémentaires : la sélection et le contrôle. Nous apportons deux contributions à chacun de ces champs de recherche. Ces contributions sont à la fois conceptuelles, avec la création d'espaces de conception, et pratiques, avec la conception, la réalisation logicielle et l'évaluation expérimentale de techniques d'interaction :- Pour l'étape de sélection, nous explorons la désambiguïsation potentielle après un geste de pointage à distance définissant un volume de sélection comme avec une télécommande infrarouge par exemple. En effet, bien que ce type de pointage sollicite moins de précision de la part de l'utilisateur, il peut néanmoins impliquer la sélection de plusieurs objets dans le volume de sélection et donc nécessiter une phase de désambiguïsation. Nous définissons et utilisons un espace de conception afin de concevoir et évaluer expérimentalement deux techniques de désambiguïsation visant à maintenir l'attention visuelle de l'utilisateur sur les objets physiques.- Pour l'étape de contrôle, nous explorons le guidage de gestes 3D lors d'une interaction gestuelle afin de spécifier des commandes à distance. Ce guidage est nécessaire afin d'indiquer à l'utilisateur les commandes disponibles ainsi que les gestes associés. Nous définissons un espace de conception capturant les caractéristiques comportementales d'un large ensemble de guides ainsi qu'un outil en ligne facilitant son utilisation. Nous explorons ensuite plusieurs options de conception afin d'étudier expérimentalement leurs impacts sur la qualité du guidage de gestes 3D

    Représentation visuelle des sources sonores, des forces d'intéraction et intégration d'une représentation 3D de l'environnement dans une interface de téléopération pour robot mobile

    Get PDF
    Ces dernières années, de nombreuses compagnies ont mis sur le marché des robots de téléprésence pour des usages de vidéoconférence mobile. Ces plateformes robotiques transmettent généralement la vidéo, l’audio et les données de capteurs de proximité à l’opérateur distant par l’intermédiaire d’une interface de téléopération s’exécutant sur un ordinateur de bureau standard. De nouvelles modalités d’interaction comme la localisation et le suivi de sources sonores, la capacité de ressentir les forces appliquées et la visualisation d’une représentation 3D de l’environnement sont développées et testées sur des plateformes robotique avancées. Il devient donc nécessaire d’explorer de nouvelles techniques pour intégrer ces informations supplémentaires au sein de l’interface. Ce projet de maîtrise propose une solution pour représenter visuellement les sources sonores et les forces d’interaction du robot à travers une interface de téléopération 3D. Cette interface inclut sous une seule vue les fonctionnalités de base comme la représentation du modèle du robot, la reconstruction 3D du nuage de points transmis par le capteur Kinect, la présentation des données des capteurs de proximité ainsi que la possibilité de passer d’une vue égocentrique à une vue exocentrique. L’affichage des sources sonores est réalisé avec des bulles de bandes dessinées pour la parole et des anneaux bleus pour tous les autres types de sons. L’intensité des forces d’interaction sur les bras du robot est affichée par changement de couleur et de taille du modèle 3D et avec des jauges. La direction des forces exercées est matérialisée par des flèches. Enfin, le champs de vision limité de la caméra est augmenté par l’affichage d’une représentation 3D de l’environnement construit dynamiquement par le robot. La phase de validation a été effectuée avec la plateforme robotique IRL-1 qui dispose des modalités perceptuelles nécessaires. Les performances de 31 participants ont été comparées dans l’exécution de trois sous-tâches réalisées avec et sans l’ajout des modalités supplémentaires. La première épreuve d’écoute visait à connaître l’impact de l’affichage de la position des sources sonores. La tâche de manipulation évaluait l’impact de l’affichage des forces ressenties sur les bras. Enfin, le pilotage du robot à travers un slalom avait pour but de tester l’impact de la représentation 3D de l’environnement. L’étude démontre que l’affichage visuel des modalités d’interaction sonores et de force du robot soulage et améliore les performances des utilisateurs dans la réalisation de certaines tâches précises d’écoute ou de manipulation. Cependant, les tests de pilotage du robot à travers un slalom autour de trois cylindres ne permettent pas d’affirmer que l’ajout d’une représentation 3D de l’environnement déjà visité par le robot améliore les performances de navigation

    Système TAC : Télé-Assistance Collaborative. Réalité augmentée et NTIC au service des opérateurs et des experts dans le cadre d'une tâche de maintenance industrielle supervisée

    Get PDF
    Le système T.A.C. a été conçu avec l'objectif de proposer un nouveau mode de communication distant. Lorsqu'un opérateur a besoin d'être assisté sur une tâche manuelle, les supports techniques classiques comme le téléphone ou la visioconférence montrent rapidement leurs limites en termes d'interaction humaine. En permettant à un expert distant de voir exactement ce que l'opérateur voit, il peut interagir avec lui en temps réel grâce à la réalité augmentée via un paradigme d'interaction adéquat que nous avons nommé « Picking Outlining Adding ». En guidant l'opérateur grâce à des indices virtuels, l'expert lève les ambiguïtés de langage et les difficultés de communication sont évitées. Les opérations sont ainsi plus facilement exécutées. Les expérimentations que nous avons menées vont dans ce sens, montrant l'efficacité de ce nouveau mode de communication. Qui plus est, les principes d'interactions sont suffisamment généraux pour dépasser le cadre original de la maintenance industrielle.T.A.C. system was built in order to propose a new mode of remote communication. When an operator needs to be assisted on a manual task, classical technical support methods as phone or visioconference rapidly show their limits in terms of human interaction. By allowing a distant expert to see exactly what an operator is seeing, he could interact with him in interactive time thanks to augmented reality via an adequate interaction paradigm we named « Picking Outlining Adding ». In guiding the operator through visual guidance information, expert removes the ambiguities of language and communications difficulties are avoided. Operations are then easily performed. The experiments we have conducted go in this direction, showing the effectiveness of this new mode of communication. Moreover, interactions principles are sufficiently general to be applied to other use cases that go beyond the originally planned industrial maintenance

    Interaction en réalité mixte appliquée à l'archéologie sous-marine

    Get PDF
    L intérêt porté par l archéologie à la réalité virtuelle est croissant. La réalité virtuelle est devenue un outil nécessaire pour l exploration et l étude des sites archéologiques, et plus particulièrement, les sites archéologiques sous-marins qui se révèlent parfois difficile d accès. Les études actuelles proposent des solutions en réalité virtuelle ou en réalité augmentée sous forme d environnements virtuels avec une interaction virtuelle et/ou augmentée mais aucune étude n a vraiment essayé de comparer ces deux aspects de l interaction. Nous présentons dans ce mémoire trois environnements en réalité virtuelle et un environnement en réalité augmentée où nous proposons des nouvelles méthodes d interaction. Ainsi, nous évaluons leurs fonctionnalités d un point de vue archéologique, nous étudions l influence du niveau d immersion sur les performances de l interaction et nous réalisons une comparaison entre l interaction en réalité virtuelle et en réalité augmentée.The interest in archeology virtual reality is growing. Virtual reality has become a necessary tool for exploration and study of archaeological sites, and more specifically, the underwater archaeological sites that sometimes prove difficult to access. Current studies suggest solutions in virtual reality or augmented reality in the form of virtual environments with virtual interaction and/or augmented interaction but no studies have really tried to compare these two aspects of interaction. We present in this thesis three environments in virtual reality and an environment in augmented reality when we propose new methods of interaction. Thus, we evaluate their archaeological functionality, we study the influence of level of immersion on performance of the interaction and we make a comparison between interaction in virtual reality and interaction in augmented reality.EVRY-Bib. électronique (912289901) / SudocSudocFranceF

    "On fait ça en public" : engagement, interface, interactivité chez Moment Factory

    Full text link
    La compagnie montréalaise Moment Factory crée des projets multimédia qui ont pour objectif de collectiviser le numérique et de créer des souvenirs mémorables chez leurs usagers finaux. Pour ce faire, ils créent des environnements hybrides, à cheval entre le naturel et le numérique, dans lesquels les usagers évoluent en interagissant avec l’environnement et en suivant un schéma émotionnel prédéfini lors de la conception des projets. Le présent mémoire s’est plongé dans les étapes de conception des projets de Moment Factory, notamment lors d’un processus de recherche dans les bureaux de la compagnie et une expérience usager exploratoire de Foresta Lumina, un exemple concret des environnements hybrides conçus par la compagnie. Qu’est-ce qui suscite l’engagement chez les usagers au sein des projets ? Comment prédéfinir le parcours émotionnel des usagers sans obstruer leur liberté interactive dans l’environnement ? Que sont ces environnements hybrides, et comment influencent-ils l’expérience usager et l’accès à cet état d’engagement recherché par Moment Factory ? Ces questions et plusieurs autres trouvent des pistes de résolution chez des auteurs comme Brenda Laurel, Jonathan Steuer, Thierry Bardini et Jon Anderson, au niveau des concepts d’interfaces, d’usagers, de présence et de présence augmentée, d’affordances, d’agents et d’actants, et finalement de considérations postnaturelles sur les productions de Moment Factory. Les pistes de réflexion ouvertes dans l’analyse pointent en effet vers des conceptions du postnaturel pour aborder les environnements naturels médiés par Moment Factory. Les structures utilisées (forêts, rochers, plaines, ponts, carrés urbains, etc.) sont altérées par leur médiation numérique et artificielle, et le résultat de cette altération est une entité augmentée, non plus structure naturelle ou procédé numérique, mais une adéquation composant une identité propre, augmentée, postnaturelle.Montreal-based company Moment Factory produces multimedia projects that aim at bringing collective experience in the digital sphere, by creating unforgettable memories and emotions for their final users. To achieve that objective, they put together hybrid environments, both natural and digital, to be experienced by the users along a somewhat predefined emotional pattern. The present study delves into the design process of Moment Factory’s projects by way of two distinct experiences: a research phase in the offices of the company, as well as an exploratory user experience of Foresta Lumina, a tangible embodiment of the hybrid environments previously mentioned. What is the source of user engagement in the projects? How can the designers influence the emotional path of the users without interfering with their interactive freedom inside the hybrid environments? What are these hybrid environments, and how do they influence user experience and user engagement? These questions, and several other, have guided this study and found avenues towards further reflection through the work of authors such as Brenda Laurel, Jonathan Steuer, Thierry Bardini and Jon Anderson. Their notions of interface, presence and augmented presence, user, affordances, agent and actant, and finally postnatural outtakes were crucial in acquiring a better understanding of Moment Factory and their projects. The reflective pathways opened in my analysis point towards theories of the postnatural to conceive the mediated natural environments created by Moment Factory. The structures (forests, rocks, plains, bridges, urban squares, etc.) are modified by their digital mediation, and the result of this mutation is an augmented entity, not solely natural or solely digital, but a hybrid construct with an augmented, unique, postnatural identity

    Techniques d'interaction 'phygitales' pour l'exploration de systèmes informationnels complexes

    Get PDF
    Durant cette dernière décennie, la quantité de données numériques n'a cessé d'augmenter. Ces données provenant de l'Internet des Objets ou de smartphones permettent aux utilisateurs de comprendre et d'analyser leur santé, leur mode de vie ou encore leur consommation énergétique, et aux différentes institutions (villes, campus, promoteurs immobiliers) de gérer le flux de population, le trafic routier ou les pertes énergétiques dans les bâtiments administrés. Le domaine de la "ville intelligente" en tire particulièrement profit. Il est donc capital de mettre à disposition des visualisations interactives de ces données pour pouvoir faire émerger des connaissances et faciliter la prise de décision. Une approche récente propose de représenter ces données proches de l'objet qui les capte ou les produit. Cependant, ce domaine est encore assez récent et il reste de nombreux défis à explorer. Un des défis majeurs identifié par Thomas et collab. (Thomas et al., 2018) est le développement et la conception de techniques d'interaction pour faciliter l'analyse de données situées. L'objectif de nos travaux de thèse est de concevoir et d'évaluer des solutions interactives tirant profit du référent physique pour interagir avec des données numériques situées en se focalisant sur une tâche interactive fondamentale en IHM : la sélection. Dans ce manuscrit nous abordons cette tâche selon une approche fonctionnelle et une approche conceptuelle.Over the past decade, the amount of digital data has been increasing. This data from the Internet of Things or smartphones allows users to understand and analyse their health, lifestyle or energy consumption, and different institutions (cities, campuses, real estate developers) to manage the flow of people, road traffic or energy losses in the buildings they manage. One particular topic that benefits from this is the "smart city". It is therefore essential to make interactive visualisations of this data available in order to generate knowledge and facilitate decision-making. A recent approach proposes to represent these data close to the object that captures or produces them. However, this field is still quite new and there are still many challenges to explore. One of the major challenges identified by Thomas et al. (Thomas et al., 2018) is the development and design of interaction techniques to facilitate the analysis of situated data. The objective of our thesis work is to design and evaluate interactive solutions leveraging the physical referent to interact with situated digital data by focusing on a fundamental interactive task in HCI: selection. In this manuscript we study this task from both a practical and a conceptual approach

    Ingénierie de la conception de systèmes de réalité augmentée mobile. Applications de la réalité augmentée mobile au tourisme culturel

    Get PDF
    Le système M.A.R. T.S a été conçu avec l'objectif de proposer un nouveau mode de médiation au musée. Lorsque la visite au musée se déroule sans guide conférencier, les outils de médiation classiques comme l'audio-guide ou les étiquettes montrent rapidement leurs limites en termes d'interaction humaine. Nous proposons donc de permettre au visiteur d'interagir avec un guide humain virtuel appuyé de nos paradigmes d'interaction " Sélection Documentation Reconstruction", puisant leurs principes de la réalité augmentée. L'objectif, par le biais de nos propositions, est de créer les conditions propices à un contact riche avec la collection, et de donner au visiteur les outils nécessaires pour qu'il puisse vivre une expérience d'apprentissage riche au musée. Les expérimentations que nous avons menées vont dans ce sens, montrant l'efficacité de ce nouveau mode de médiation. Qui plus est, les principes d'interactions sont suffisamment généraux pour dépasser le cadre original de la visite guidée au musée et peuvent être exploitée pour une visite guidée à l'extérieur.M.A.R.T.S system was built in order to propose a new mode of museum mediation. When the museum visit take place without a human guide, classical mediation tools such as labels or audio-guide rapidly show their limits in terms of human interaction. We therefore propose to allow visitors to interact with a virtual human guide supported by our interaction paradigms "Selection Documentation Reconstruction", which are based on augmented reality. The aim behind our proposals is to ensure favorable conditions for a rich contact with collections, and provide the visitor with necessary tools enabling him to live a worthwhile learning experience in the museum. The experiments we have conducted go in this direction, showing the effectiveness of this new mode of museum mediation. Moreover, interactions principles are sufficiently general to be applied to other cultural heritage activities such as outdoor guided tours

    Caractérisation des spécificités motrices d'utilisateurs en situation de handicap : application à la conception de systèmes personnalisables pour la pratique musicale instrumentale

    Get PDF
    The users and uses inclusion in product design remains a difficult aspect to be addressed, especially when their characterization is very specific (in the case of disabled people or situations of uses in stressful environments). In this context, the purpose of this work is to contribute to a better consideration of the users and uses by the implementation of tools and methods to characterize them. This characterization integrated into the design process, helped to meet the needs of AE2M Association (Ergonomic Adaptation of Musical Equipments). It aims to provide assistive technologies for people with physical impairments. These systems allow them to play musical instruments with the same level of independence that able-bodied people. In the context of this thesis, we firstly proposed a common conceptualization of "disability situation" in our context and have highlighted the constraints to the success of this thesis. Secondly, we did a bibliography study about design approaches in the disabled context, Human-Machine Interface in the musical context, and means and methods for the analysis of the users' motors specificities. This step allowed us to propose a generic design process approach adapted to the context of the design of assistive technology for people with physical impairments. This CARACTH method is inspired from the User Centered Design methodology to which we propose to insert: (1) a specific users' motor characterization step and (2) a modular architecture product definition step. These proposals permitted (3) to simplifying the iteration phases within the design process to allow a quick and effective personalization of the product (control and operative parts). Next, a set of experiments was conducted in the laboratory and in situ. They allowed offering and validating the modular product architecture pertinence for facilitating the assistive devices design for music practice, but also for proposing a system named KinecLAB to measure and interpret user's gestural capabilities. This KinectLAB system was tested and validated with professional physiotherapists in the Michallon Grenoble Hospital. Finally, our CARACTH process was applied to design a customizable system adapted to the physical capabilities of a disabled user. We confirmed its successful integration into a use situation during musical concert. We also studied the relevance of customization on user performances and workload.La prise en compte des usagers et des usages dans la conception des produits reste un aspect difficile à traiter, en particulier lorsque leur caractérisation est très spécifique (c'est le cas des personnes handicapées ou des situations d'usages dans des environnements contraignants). Dans ce contexte, l'objet de ces travaux est de contribuer à une meilleure prise en compte des usagers et usages par la mise en place d'outils et de méthodes permettant de les caractériser. Cette caractérisation, intégrée dans un processus de conception de produits, a contribué à répondre aux besoins de l'Association AE2M (Adaptation Ergonomique du Matériel Musical). Celle-ci a pour objectif de mettre à disposition de personnes en situation de handicap moteur des aides techniques leur permettant de jouer un ou plusieurs instruments de musique avec le même niveau d'autonomie que les personnes valides. Dans le cadre de ce travail de thèse, nous avons tout d'abord proposé une conceptualisation commune de ce qu'est une situation de handicap et avons mis en avant les conditions de bon déroulement des travaux de recherche. Dans un second temps, nous avons effectué une étude bibliographique centrée sur les approches de conception liée au handicap, les interactions Homme Machine dans le contexte musicale et les moyens et méthodes d'analyse des spécificités motrices des sujets. Cette étape nous a permis de proposé une méthode générique de processus de conception adapté au contexte de la conception d'aides techniques pour personnes en situation de handicap. Cette méthode nommée CARACTH est inspirée de la méthodologie de la Conception Centrée Utilisateur à laquelle nous proposons d'insérer : (1) une étape de caractérisation des spécificités motrices des utilisateurs et (2) une étape pour la définition d'une architecture produit modulaire. Ces évolution permettent notamment (3) de simplifier les phases d'itérations à l'intérieur du processus de conception pour permettre une personnalisation efficace et rapide du produit (partie commande et partie opérative). Nous présentons ensuite un ensemble d'expérimentations menées au laboratoire et sur le terrain. Elles ont permis de proposer et de valider la pertinence de l'architecture produit modulaire pour faciliter la conception d'aides techniques pour la pratique musicale, mais aussi de concevoir un système nommé KinecLAB pour la mesure et l'interprétation des possibilités gestuelles des usagers. Ce système KinectLAB a été testé et validé auprès de professionnel kinésithérapeute du CHU Michallon de Grenoble. Enfin, notre processus CARACTH a été appliqué pour la conception d'un système personnalisable aux capacités motrices d'un utilisateur en situation de handicap. Nous avons pu vérifier sa bonne intégration dans une situation d'usage en concert et aussi d'étudier la pertinence de la personnalisation sur les performances et la charge de travail de l'utilisateur

    Couplage de techniques d'interaction avancées avec des environnements virtuels 3D interactifs

    Get PDF
    The work of this thesis fit on the boundary between two complementary research areas: the field of 3D Virtual Environment (3DVE) from Computer Graphics (CG) and Virtual Reality (RV) and the field of Human-Computer Interaction (HCI). They rely on three assessments. Firstly, we observe that 3DVE takes more importance in our daily life (video games, serious games, e-commerce, museums, through the web and on mobile devices). Secondly, HCI becomes more complex with the emergence of advance forms of interaction like ambient computing, tangible interaction or spatial and gestural interactions. This evolution goes along with a diversification of devices (3D mouse, the Wiimote, the Kinect or the Leap Motion). Thirdly, the design of interaction techniques with 3DVE brings up some different considerations taken into account by the communities in the field of 3DVE and HCI. Therefore, take advantage of the latest considerations of EV3D communities (metaphors, quality of 3D interaction) and HCI (advance forms of interaction) results in the need to develop the coupling between advance forms of interaction techniques and EV3D. In this context, the objective of this thesis work is to contribute to the development of interactive 3D environments in multiple situations, including large audience situations. The approach we developed aimed to create a bridge between 3D and HCI design considerations. We intend to improve the coupling of advance interaction techniques with interactive 3D virtual environment. After analyzing methods for the design of interaction techniques for 3DVE, a first contribution consists in a design framework of 3D interaction. This framework aggregates design issues stem from 3D and HCI and help the designer to identify several elements involve in the coupling of interaction with a 3DVE. This design framework is based on the analysis of the links between user tasks and elements of the 3DVE impacted by these tasks. In order to precisely characterize each link, we have introduced the 3DIM (3D Interaction Modality) notation that describes the characteristics of the different elements constituting a "3D Interaction Modality" for the accomplishment of a user's interaction task in a 3DVE. We have grouped these elements into six blocks: the user, the physical actions, the physical objects, the input devices, the 3D behaviors and the 3D interactive objects. We complete our framework with analytical properties for guiding the designer and provide descriptive, evaluative and generative power at our conceptual model of advanced interaction techniques for 3DVE. Collaborating with the Museum of "Le Pic du Midi" observatory in France, we used our framework to design and implement tangible interaction and technique based on smartphone usage. Museum visitors can use these techniques in a 3DVE of the "Telescope Bernard Lyot" to explore and understand its functioning. We have conducted three users' studies in order to explore the design space of using a smartphone to interact with 3DVE. We used the smartphone in different ways to navigate, select and manipulate a 3D object displayed on a large remote screen. We explored several design solutions with a smartphone as a touch device, as a tangible object or mid-air interaction around the device.Les travaux de cette thèse s'inscrivent à la frontière entre deux domaines de recherche complémentaires : le domaine des Environnements Virtuels 3D (EV3D) issus de l'Informatique Graphique (IG) et de la Réalité Virtuelle (RV) et le domaine de l'Interaction Homme-Machine (IHM). Ils s'appuient sur trois constats. D'une part, on observe une place grandissante des EV3D dans notre quotidien (jeux vidéo, jeux sérieux, e-commerce, dans les musées, à travers le web et sur les dispositifs mobiles). D'autre part, les IHM se complexifient notamment avec l'apparition de formes avancées d'interaction comme l'informatique ambiante, l'interaction tangible, ou encore l'interaction spatiale et gestuelle, et s'accompagne d'une diversification des dispositifs d'interaction (souris 3D, la Wiimote, la Kinect, le Leap Motion). Enfin, la conception de techniques d'interaction avancées avec des EV3D fait apparaitre des considérations différentes prises en compte par les communautés des domaines EV3D et IHM. Par conséquent, tirer profit des considérations les plus récentes des communautés EV3D (métaphores, qualité de l'interaction 3D) et IHM (formes avancées de technique d'interaction) se traduit par un besoin de développer le couplage entre formes avancées de technique d'interaction et EV3D. Dans ce contexte, l'objectif de ces travaux de thèse est de contribuer à l'essor des environnements 3D interactifs dans de multiples situations, et notamment des situations grand public, en adoptant une approche visant à faire converger les approches 3D et IHM pour mieux établir le couplage de Techniques d'Interaction Avancées avec des Environnements Virtuels 3D Interactifs. Après une analyse des méthodes de conception de techniques d'interaction pour les EV3D, une première contribution de nos travaux consiste en un cadre de conception de l'interaction 3D. En y agrégeant les problématiques issues de la 3D et de l'IHM, ce cadre de conception permet d'identifier les différents éléments de couplages impliqués lors d'une interaction avec un EV3D. Il se base sur l'analyse des liens entre les tâches utilisateurs et les éléments de l'EV3D impactés par ces tâches. Afin de caractériser finement chaque lien, nous avons introduit la notation 3DIM (3D Interaction Modality) qui décrit les caractéristiques des différents éléments constituant une " modalité d'interaction 3D " permettant la réalisation d'une tâche d'interaction de l'utilisateur dans un EV3D. Nous avons regroupé ces éléments en 6 blocs : l'utilisateur, les actions physiques, les objets physiques manipulés, les dispositifs utilisés, les comportements 3D et les éléments 3D. Nous complétons ce cadre conceptuel par des propriétés analytiques qui permettent de guider le concepteur et procurent ainsi un caractère descriptif, évaluatif et génératif à notre modèle conceptuel de techniques d'interaction avancées pour des EV3D. Dans la cadre d'une collaboration avec le musée de l'observatoire du Pic du Midi, une mise en œuvre de ce cadre nous a conduit à concevoir et développer des techniques d'interaction tangibles et basées smartphone. Ces techniques sont utilisées par les visiteurs du musée dans un EV3D représentatif du Télescope Bernard Lyot pour l'explorer et comprendre son fonctionnement. Nous avons mené trois évaluations utilisateur afin d'explorer l'usage d'un smartphone utilisé de trois manière différentes : comme dispositif tactile, comme un objet tangible ou comme support pour une interaction gestuelle autour du dispositif pour naviguer, sélectionner ou manipuler un objet 3D dans un EV3D affiché sur un grand écran distant
    • …
    corecore