7 research outputs found

    Using natural versus artificial stimuli to perform calibration for 3D gaze tracking

    No full text
    International audienceThe presented study tests which type of stereoscopic image, natural or artificial, is more adapted to perform efficient and reliable calibration in order to track the gaze of observers in 3D space using classical 2D eye tracker. We measured the horizontal disparities, i.e. the difference between the x coordinates of the two eyes obtained using a 2D eye tracker. This disparity was recorded for each observer and for several target positions he had to fixate. Target positions were equally distributed in the 3D space, some on the screen (with a null disparity), some behind the screen (uncrossed disparity) and others in front of the screen (crossed disparity). We tested different regression models (linear and non linear) to explain either the true disparity or the depth with the measured disparity. Models were tested and compared on their prediction error for new targets at new positions. First of all, we found that we obtained more reliable disparities measures when using natural stereoscopic images rather than artificial. Second, we found that overall a non-linear model was more efficient. Finally, we discuss the fact that our results were observer dependent, with variability's between the observer's behavior when looking at 3D stimuli. Because of this variability, we proposed to compute observer specific model to accurately predict their gaze position when exploring 3D stimuli

    Monocular gaze depth estimation using the vestibulo-ocular reflex

    Get PDF
    Gaze depth estimation presents a challenge for eye tracking in 3D. This work investigates a novel approach to the problem based on eye movement mediated by the vestibulo-ocular reflex (VOR). VOR stabilises gaze on a target during head movement, with eye movement in the opposite direction, and the VOR gain increases the closer the fixated target is to the viewer. We present a theoretical analysis of the relationship between VOR gain and depth which we investigate with empirical data collected in a user study (N=10). We show that VOR gain can be captured using pupil centres, and propose and evaluate a practical method for gaze depth estimation based on a generic function of VOR gain and two-point depth calibration. The results show that VOR gain is comparable with vergence in capturing depth while only requiring one eye, and provide insight into open challenges in harnessing VOR gain as a robust measure

    Blickbasierte Interaktion mit 3D-Displays : Entwicklung eines Prototyps zur Evaluierung blickbasierter Interaktion

    Get PDF
    Maus und Tastatur sind die Eingabegeräte am Computer schlechthin. Doch es gibt noch eine Reihe weiterer Methoden, wie Menschen mit Computern interagieren können. In dieser Arbeit sollen blickbasierte Interaktionsmethoden auf 3D-Bildschirmen untersucht werden. Mithilfe eines Eyetrackers und eines 3D-Bildschirms sollen von einer Beispielapplikation bereitgestellte Aufgaben gelöst und die Performanz der unterschiedlichen Lösungsansätze gemessen und diskutiert werden. Das Konzept, die Entwicklung der Applikation, die durchgeführte Studie und die dazugehörige Evaluierung werden in dieser Arbeit besprochen. Zuletzt werden Ansätze vorgestellt, welche in Zukunft die Leistung solcher Systeme möglicherweise noch erhöhen könnten.The mouse and the keyboard are traditionally used as input devices. However, there are more methods how people can interact with computers. In this thesis, methods for gaze based interaction with 3D displays are investigated. Utilizing an eye tracker and a stereoscopic display, different tasks should be solved and the performance of the interaction methods within a prototypical application is measured. The concept, the development of the prototyp, and the evaluation are part of this thesis. Finally, some approaches are discussed that could improve the performace of such systems in the future

    Toward Simulation-Based Training Validation Protocols: Exploring 3d Stereo with Incremental Rehearsal and Partial Occlusion to Instigate and Modulate Smooth Pursuit and Saccade Responses in Baseball Batting

    Get PDF
    “Keeping your eye on the ball” is a long-standing tenet in baseball batting. And yet, there are no protocols for objectively conditioning, measuring, and/or evaluating eye-on-ball coordination performance relative to baseball-pitch trajectories. Although video games and other virtual simulation technologies offer alternatives for training and obtaining objective measures, baseball batting instruction has relied on traditional eye-pitch coordination exercises with qualitative “face validation”, statistics of whole-task batting performance, and/or subjective batter-interrogation methods, rather than on direct, quantitative eye-movement performance evaluations. Further, protocols for validating transfer-of-training (ToT) for video games and other simulation-based training have not been established in general ― or for eye-movement training, specifically. An exploratory research study was conducted to consider the ecological and ToT validity of a part-task, virtual-fastball simulator implemented in 3D stereo along with a rotary pitching machine standing as proxy for the live-pitch referent. The virtual-fastball and live-pitch simulation couple was designed to facilitate objective eye-movement response measures to live and virtual stimuli. The objective measures 1) served to assess the ecological validity of virtual fastballs, 2) informed the characterization and comparison of eye-movement strategies employed by expert and novice batters, 3) enabled a treatment protocol relying on repurposed incremental-rehearsal and partial-occlusion methods intended to instigate and modulate strategic eye movements, and 4) revealed whether the simulation-based treatment resulted in positive (or negative) ToT in the real task. Results indicated that live fastballs consistently elicited different saccade onset time responses than virtual fastballs. Saccade onset times for live fastballs were consistent with catch-up saccades that follow the smooth-pursuit maximum velocity threshold of approximately 40-70˚/sec while saccade onset times for virtual fastballs lagged in the order of 13%. More experienced batters employed more deliberate and timely combinations of smooth pursuit and catch-up saccades than less experienced batters, enabling them to position their eye to meet the ball near the front edge of home plate. Smooth pursuit and saccade modulation from treatment was inconclusive from virtual-pitch pre- and post-treatment comparisons, but comparisons of live-pitch pre- and post-treatment indicate ToT improvements. Lagging saccade onset times from virtual-pitch suggest possible accommodative-vergence impairment due to accommodation-vergence conflict inherent to 3D stereo displays

    Entwicklung einer Methode zur Identifikation dreidimensionaler Blickbewegungen in realer und virtueller Umgebung

    Get PDF
    Das Verständnis über visuelle Aufmerksamkeitsprozesse ist nicht nur für die Kognitionsforschung von großem Interesse. Auch in alltäglichen Bereichen des Lebens stellt sich die Frage, wie wir unsere Umwelt in unterschiedlichen Situationen visuell wahrnehmen. Entsprechende Untersuchungen können in realen Szenarien und aufgrund neuer innovativer 3D-Verfahren auch in Umgebungen der virtuellen Realität (VR) durchgeführt werden. Zur Erforschung von Aufmerksamkeitsprozessen wird unter anderem die Methode der Blickbewegungsmessung (Eyetracking) angewandt, da das Sehen für uns Menschen die wichtigste Sinnesmodalität darstellt. Herkömmliche Blickbewegungsmessungen beziehen sich allerdings überwiegend auf zweidimensionale Messebenen, wie Bildschirm, Leinwand oder Szenevideo. Die vorliegende Arbeit stellt eine Methode vor, mit der dreidimensionale Blickorte und Blickbewegungen sowohl in einer realen als auch in einer stereoskopisch projizierten VR-Umgebung anhand moderner Eyetracking-Technologien bestimmt werden können. Dafür wurde zunächst in Studie I geprüft, ob die Blickbewegungsmessung durch die für eine stereoskopische Bildtrennung notwendigen 3D-Brillen hindurch möglich ist und inwieweit durch diesen Versuchsaufbau die Qualität der erhobenen Eyetracking-Daten beeinflusst wird. Im nächsten Schritt wurde zur Berechnung dreidimensionaler Blickorte das Anforderungsprofil an einen universellen Algorithmus erstellt und mit einem vektorbasierten Ansatz umgesetzt. Die Besonderheit hierbei besteht in der Berechnung der Blickvektoren anhand der Augen- bzw. Foveaposition und binokularen Eyetracking-Daten. Wie genau dreidimensionale Blickorte anhand dieses Algorithmus berechnet werden können, wurde nachfolgend in realer (Studie II) als auch stereoskopisch projizierter VR-Umgebung (Studie III) untersucht. Anschließend erfolgte die Bestimmung dreidimensionaler Blickbewegungen aus den berechneten 3D-Blickorten. Dazu wurde ein ellipsoider Fixationserkennungsalgorithmus konzipiert und implementiert. Für die dispersionsbasierte Blickbewegungserkennung waren sowohl ein zeitlicher als auch örtlicher Parameter für die Identifikation einer Fixation erforderlich. Da es noch keinerlei Erkenntnisse im dreidimensionalen Bereich gab, wurden die in Studie II und III ermittelten 3D-Blickorte der ellipsoiden Fixationserkennung übergeben und die daraus berechneten Fixationsparameter analysiert. Die entwickelte Methode der räumlichen Blickbewegungsmessung eröffnet die Möglichkeit, bislang in zwei Dimensionen untersuchte Blickmuster nunmehr räumlich zu bestimmen und grundlegende Zusammenhänge zwischen Blickbewegungen und kognitiven Prozessen dreidimensional sowohl in einer realen als auch virtuellen Umgebung zu analysieren

    SMART WEARABLES: ADVANCING MYOPIA RESEARCH THROUGH QUANTIFICATION OF THE VISUAL ENVIRONMENT

    Full text link
    Myopia development has been attributed to eyeball elongation, but its driving force is not fully understood. Previous research suggests lack of time spent outdoors with exposure to high light levels or time spent on near-work as potential environmental risk factors. Although light levels are quantifiable with wearables, near-work relies solely on questionnaires for data collection and there remains a risk of subjective bias. Studies spanning decades identified that eye growth is optically guided. This proposal received further support from recent findings of larger changes in the thickness of the eye’s choroidal layer after short-term optical interventions compared with daily eye-length changes attributed to myopia. Most of these studies used a monocular optical appliance to manipulate potential myogenic factors, which may introduce confounders by disrupting the natural functionality of the visual system. This thesis reports on improvements in systems for characterising the visual dioptric space and its application to myopia studies. Understanding the driving forces of myopia will prevent related vision loss. Study I: An eye-tracker was developed and validated that incorporated time-of-flight (ToF) technology to obtain spatial information of the wearer’s field of view. By matching gaze data with point cloud data, the distance to the point of regard (DtPoR) is determined. Result: DtPoR can be measured continuously with clinically relevant accuracy to estimate near-work objectively. Study II: Near-work was measured with diary entries and compared with DtPoR estimations. Diversity of the dioptric landscape presented to the retina was assessed during near-work. Results: Objective and subjective measures of near-work were not found to highly correlate. Ecologically valid dioptric landscape during near-work decreases by up to -1.5 D towards the periphery of a 50˚ visual field. Study III: Choroid thickness changes were evaluated after exposure (approximately 30min) to a controlled, dioptrically diverse landscape with a global, sensitivity enhanced model. Result: No choroid thickness changes were found within the measuring field of approximately 45˚. Discussion The developed device could support future research to resolve disagreement between objective and subjective data of near-work and contribute to a better understanding of the ecological valid dioptric landscape. Proposed choroid layer thickness model might support short-term myopia-control research

    Ajustement d'affichage stéréoscopique par évaluation du point de regard 3D dans un environnement virtuel

    Get PDF
    RÉSUMÉ Ce projet de recherche se déroule au sein d'une voûte immersive de réalité virtuelle. Un tel environnement plonge l'observateur au cœur d'un monde généré par ordinateur et projeté sur 4 faces d'un cube d'environ 3 m de côté au milieu duquel il se tient. Néanmoins, l'affichage stéréoscopique provoque généralement de l'inconfort oculaire, voire de la fatigue visuelle. Le but poursuivi était d'améliorer l'expérience immersive en tâchant de diminuer la gêne visuelle ressentie, tout en rendant le monde plus réaliste et en renforçant le sentiment de présence. L'objectif fut donc défini de la manière suivante : concevoir et évaluer une méthode d'ajustement des paramètres de configuration du système de caméras, afin de trouver des valeurs optimales et vraisemblablement personnalisées pour chaque individu. Nos hypothèses soutenaient qu'ajuster ces valeurs en fonction de la position du point de regard permettrait de rendre la configuration plus performante. Des lunettes intégrant des caméras dirigées vers les yeux ont été utilisées comme système de suivi oculaire afin de calculer en temps réel le point de regard de l'observateur dans la scène. Cette donnée a ensuite servi à ajuster deux paramètres de la configuration du système de caméras : la distance séparant les deux caméras virtuelles utilisées pour obtenir le rendu stéréoscopique de la scène, et une profondeur de champ artificielle générée autour du point de regard. La connaissance de la position de ce dernier, et plus particulièrement des objets qui ont retenu l'attention de l'individu, fournit également des indices sur le traitement cognitif de l'information visuelle, c'est-à-dire la manière dont il a perçu et inspecté la scène. La première étape méthodologique a consisté à développer les outils qui permettent d'intégrer le système de suivi oculaire à la voûte de réalité virtuelle de l'Institut Philippe-Pinel de Montréal, de déterminer le point de regard grâce à une méthode de raycasting couplée à une procédure de calibration, et enfin de modifier les paramètres de la configuration en fonction. Subséquemment, une expérimentation a été conduite auprès de participants pour évaluer notre proposition par comparaison avec cinq autres configurations plus neutres ou classiques, intégrant un aspect éthique au projet. Les 6 configurations testées se différencient par la présence ou non d'un flou de profondeur de champ et la valeur de la distance inter-caméras (DIC) : fixe et choisie par le participant, fixe et correspondant à sa distance interpupillaire anatomique (DIP) ou variable en fonction de la position du point de regard. En dehors des méthodes de comparaison courantes répertoriées au cours de la revue de littérature, nous avons cherché une technique qui fournirait une vraie indication sur le comportement oculaire de l'observateur au cours d'une séance d'immersion. Pour cela, nous avons mis au point un test basé sur la reproduction d'une scène réelle en virtuel. Les 18 participants ont été recrutés sur la base du volontariat. Afin de limiter les risques de fatigue visuelle au cours de l'immersion, ceux-ci devaient être accoutumés à la réalité virtuelle et la stéréoscopie, c'est-à-dire avoir déjà joué à des jeux vidéos et assisté à des projections de films en 3D sans gêne. Ces participants ont dû effectuer différentes tâches, chacune associée à un objectif. Tout d'abord, ils devaient naviguer dans un environnement virtuel riche – un appartement comportant de nombreux objets – successivement avec les différentes configurations, et noter chacune selon le confort ressenti, le réalisme du rendu, le plaisir de navigation, la perception des distances et des profondeurs, et enfin le sentiment de présence dans le monde virtuel. Ils durent par la suite déterminer leurs limites de fusion en approchant ou reculant un objet virtuel. Celles-ci constituent une comparaison objective d'efficacité du rendu entre les différentes configurations, la diplopie générée par des difficultés de fusion des images stéréoscopiques étant l'une des sources principales d'inconfort. Finalement, les participants devaient suivre les déplacements d'un robot à la fois dans une scène réelle et dans sa reproduction la plus fidèle possible en virtuel. Les angles de vergence oculaire et les écarts angulaires à une cible disposée sur le robot constituent les indices de comparaison. La différence de variations de ces angles entre cas virtuels et réel permet de déterminer avec quelle configuration la position de l'objet, en particulier en profondeur, est rendue de la façon la plus réaliste. Les analyses statistiques et quantitatives réalisées sur les résultats de cette expérimentation permettent de mettre en lumière les effets des paramètres testés. Concernant la distance inter-caméras, il apparaît tout d'abord qu'une DIC variable ou correspondant à la DIP est significativement plus performante que la DIC fixe en ce qui concerne les limites de fusion stéréoscopique atteintes et la correspondance des mouvements oculaires entre réel et virtuel. La distance interpupillaire anatomique conduit quant à elle à des notations subjectives plus élevées, bien que la différence avec les autres valeurs pour ce paramètre ne soit pas significative. Enfin, notre proposition de DIC variable en fonction du point de regard conduit à des comportements oculaires plus réalistes en considérant le nombre de participants ayant obtenu le résultat le plus proche du réel avec cette valeur de paramètre. C'est en revanche la DIP qui obtient les meilleures moyennes pour ce test. En ce qui concerne le flou de profondeur de champ, les analyses révèlent que sa présence n'impacte pas significativement la capacité de fusion ou la similitude de comportement oculaire entre réel et virtuel. Elle s'est en revanche révélée significativement négative pour les notes attribuées dans le critère subjectif de perception des distances et des profondeurs, et a également influé sur l'inspection visuelle en augmentant de manière significative la durée moyenne des fixations et saccades. L'étude des résultats établit donc que nos propositions d'ajustement des paramètres n'ont pas amélioré significativement les performances du système de caméras et incite globalement à choisir une configuration dépourvue de flou et utilisant la distance interpupillaire anatomique. Cependant, si cette expérimentation n'a pas permis de valider nos hypothèses, elle ne les a pas non plus infirmées car certaines limitations techniques rencontrées ont plus que probablement eu une influence négative. En effet, des problèmes d'affichage intervenus en cours d'expérimentation ainsi qu'un faible nombre d'images générées par seconde, notamment en présence de flou de profondeur de champ, ont selon nous introduit des biais et conduit à des résultats qui ne sont pas imputables aux seules configurations. Nous suggérons en particulier de résoudre ces problèmes et de s'assurer, en le mesurant, que le temps de latence de mise à jour de l'affichage en fonction du point de regard n'est pas gênant pour le participant. Une seconde expérimentation permettra alors plus sûrement de conclure quant au potentiel des ajustements testés au cours de ce projet. Cette recherche a dans un premier temps consisté à intégrer un système de suivi oculaire à la voûte de réalité virtuelle de l'Institut Philippe-Pinel de Montréal. Les applications à court terme comprennent donc la possibilité pour les cliniciens de cet institut de connaître en temps réel le point de regard de l'observateur, et ainsi l'objet de son attention, avec une bonne précision. Grâce à la procédure de calibration mise en place, la mesure d'imprécision fut réduite à 2,65 cm au cours des tests préliminaires et à 6,47 cm en moyenne sur l'ensemble des participants pour des cibles situées à 2 m, soit 0,76° et 1,85° d'angle visuel. Les outils d'analyse des résultats développés, extrayant des données statistiques ou des représentations graphiques du signal visuel, leur serviront également au moment de l'interprétation des comportements oculaires en matière d'attention. Dans un second temps, nous avons conçu au cours de ce projet un cadre méthodologique novateur de comparaison des configurations stéréoscopiques. En effet, notre test utilisant la reproduction virtuelle d'une scène réelle et l'étude des mouvements de vergence pourra être employé dans d'autres recherches afin de mesurer efficacement la performance du rendu de la géométrie – positions, profondeurs, distances relatives et tailles – d'un environnement réel. Une seconde expérimentation réalisée après avoir effectué certaines corrections au niveau de l'installation de la voûte et de l'implémentation pourrait également révéler le potentiel réel de nos propositions d'ajustement. Enfin, il est important de noter que dans le contexte d'application de la réalité virtuelle à la psychiatrie légale, toute amélioration de la configuration du système de caméras ou du système d'affichage permet d'augmenter ses potentiels de diagnostic et de traitement, en renforçant le sentiment de présence des patients et en rapprochant les comportements exprimés au sein de la voûte de ceux dont ils feraient preuve dans le monde réel. L'intérêt est alors de valider l'utilisation d'environnements et d'avatars virtuels en lieu et place de personnes réelles, ce qui offre la possibilité de mettre en scène des situations davantage personnalisées, contrôlées et éthiquement acceptables. En mettant en lumière la configuration qui parmi les 6 testées et dans l'installation actuelle de la voûte est la plus confortable, la plus immersive et conduit en moyenne à un comportement oculaire plus naturel, notre projet permet aux cliniciens d'exploiter davantage les capacités de la réalité virtuelle.----------ABSTRACT This research project concerned a computer assisted virtual environment (CAVE). Such an environment makes the viewer dive into a computer-generated world, projected onto 4 faces of a room-sized cube in the middle of which he stands. Nevertheless, stereoscopic display often generates visual discomfort, or even visual fatigue. Our goal is to improve the immersive experience by trying to lower this visual discomfort, while making the world more realistic and improving the feeling of presence. The objective was thus defined as follows: design and evaluate an adjustment method for the configuration settings of the cameras system, so as to find the optimal and customized values for each individual. Our assumptions stated that adjusting these values according to the gaze point position would lead to a more efficient configuration. Glasses with cameras pointing towards the eyes were used as an eye tracking system so as to calculate in real time the viewer's gaze point in the scene. This information was then used to adjust two parameters of the cameras system configuration: the distance between the two virtual cameras used for stereoscopic rendering of the scene, and an artificial depth of field generated around the gaze point. The position of the latter, and more particularly the objects that have caught the viewer's attention, also provide clues about the cognitive processing of visual information, i.e. how he perceived and inspected the scene. The first methodological step was to develop tools in order to integrate the gaze tracking system to the CAVE of the Philippe-Pinel Institute of Montreal, to determine the gaze point through a method of raycasting coupled to a calibration procedure, and finally to change the configuration settings accordingly. Subsequently, an experiment was conducted with participants to evaluate our proposal in comparison with five other more neutral and classic configurations, incorporating an ethical dimension to the project. The 6 tested configurations differ in the presence or absence of depth of field blur and the value of the inter-camera distance (ICD): fixed and chosen by the participant, fixed and equal to its anatomical interpupillary distance (IPD), or variable depending on the gaze point. Apart from the common comparison methods listed in the literature review, we sought a technique that would provide a true indication of the viewer's ocular behavior during an immersion session. To this aim, we developed a test based on the virtual reproduction of a real scene. The 18 participants were recruited on a voluntary basis. To reduce the risk of eye strain during the immersion, they had to be familiar with virtual reality and stereoscopic displays, i.e. having played video games and watched 3D movies without experiencing visual discomfort. These participants were asked to perform different tasks, each associated with a goal. First, they had to navigate through a rich virtual environment – an apartment with many objects – successively with each configuration, and give it a rating depending on the felt comfort, rendering realism, fun, distances and depths perception, and finally the feeling of presence in the virtual world. Then, they had to determine their limits of fusion by moving a virtual object closer or further. These provide an objective comparison of rendering effectiveness between the different configurations, the diplopia generated by difficulties to merge stereoscopic images being one of the main sources of visual discomfort. Finally, participants were asked to visually follow a robot in both a real scene and its as accurate as possible virtual reproduction. The angles of ocular vergence and deviations from a target located on top of the robot were used as comparison measures. The difference of angles variations between real and virtual helps determine the configuration with which the position of the object, especially the depth, is rendered in the most realistic way. We carried out statistics and quantitative analysis on the experiment results in order to highlight the effects of the tested parameters. Concerning the inter-camera distance, it first appears that a variable ICD or one corresponding to the IPD is significantly more efficient than the fixed ICD, regarding the limits of stereoscopic fusion and the correspondence between eye movements in real and virtual. Moreover, the anatomical interpupillary distance leads to higher subjective ratings, although the difference with the other values for this parameter is not significant. Finally, our proposal of variable ICD depending on the gaze point leads to more realistic eye behavior when taking into account the number of participants who obtained the result closest to the real scene with this value of parameter. It is instead the IPD who achieves the best average for this test. The presence of depth of field has meanwhile appeared to have no significant impact on the ability to merge stereoscopic images, or on the similarity between ocular behavior in real and virtual. However, it revealed to impact significantly negatively the scores given in the subjective criteria of distances and depths perception, and also influenced visual inspection by significantly increasing the average duration of the fixations and saccades. Our results established that our proposals for adjusting parameters did not significantly improve the performance of the cameras system and encourages overall to select a configuration without blur and using anatomical interpupillary distance. However, if this experiment failed to prove our assumptions, it did not invalidate them because of technical limitations which had more than likely a negative influence. Indeed, display problems that occurred during the experiment as well as a small number of frames generated per second, especially in the presence of depth of field blur, may have introduced bias and led to results that can not be attributed solely to the configuration. We suggest in particular to solve these problems and to ensure, by measuring it, that the lag in updating the display based on the gaze point is not annoying for the participant. A second experiment will then be necessary before drawing a final conclusion on the tested adjustments potential. The first step of this research consisted in integrating an eye tracking system to the Philippe-Pinel Institute of Montreal CAVE. The short term applications therefore include the ability for the clinicians of this institute to know in real time the observer gaze point, and thus the object of his attention, with good accuracy. Thanks to our calibration procedure, measured inaccuracy was reduced to 2.65 cm over the preliminary tests and to 6.47 cm on average across all participants for targets at 2 m, i.e. 0.76° and 1.85° of visual angle. The results analysis tools developed, that extract statistical data or graphical representations from the visual signal, will also be of use to them when interpreting eye behavior in terms of attention. In a second step, we provide an innovative framework for comparing stereoscopic configurations. Indeed, our test using a virtual reproduction of a real scene and the study of vergence movements can be used in further research to effectively measure the performance of rendering the geometry – positions, depths, relative distances and sizes – of a real environment. A second experiment performed after making some corrections in the CAVE installation and in the implementation could also reveal the true potential of the adjustments we proposed. Finally, it is important to note that in the context of virtual reality application in forensic psychiatry, any improvement in the cameras configuration system or display system increases its diagnostic and treatment potentials, by enhancing the patients' feeling of presence and by bringing the behaviors expressed in the CAVE closer to the ones they would show in the real world. The interest is then to validate the use of virtual environments and avatars instead of real people, making possible to stage more specific, controlled and ethically acceptable situations. By highlighting the configuration among the 6 tested which is, in the current CAVE installation, the most comfortable, most immersive and which leads on average to more natural ocular movements, our project enables clinicians to further exploit the virtual reality potency
    corecore