7 research outputs found

    Modèle novateur de conception d’interface humain-ordinateur centrée sur l’utilisateur : le designer en tant que médiateur

    Full text link
    Cette recherche porte sur des questions relatives à la conception des interfaces humain-ordinateur. Elle s’inscrit dans le courant des recherches sur l’utilisabilité et elle s’intéresse particulièrement aux approches centrées sur l’utilisateur. Nous avons été très souvent témoin des difficultés éprouvées par les utilisateurs dans l’usage de certaines interfaces interactives et nous considérons que ces difficultés découlent d’un problème de design. Le design d’interface doit être basé sur les besoins de l’utilisateur dans le cadre de ses activités, dont les caractéristiques devaient être bien comprises et bien prises en considération pour mener à la conception d’interfaces qui respectent les critères d’utilisabilité. De plus, la communauté des chercheurs ainsi que l’industrie admettent maintenant que pour améliorer le design, il est crucial de développer les interfaces humain-ordinateur au sein d’une équipe multidisciplinaire. Malgré les avancées significatives dans le domaine du design centrées sur l’utilisateur, les visées annoncées sont rarement réalisées. La problématique étudiée nous a conduit à poser la question suivante : En tant que designer d’une équipe multidisciplinaire de conception, comment modifier la dynamique de collaboration et créer les conditions d’une conception véritablement centrée sur l’interaction humain-ordinateur ? Notre démarche de recherche a été guidée par l’hypothèse voulant que l’activité de design puisse être le moyen de faciliter la création d’un langage commun, des échanges constructifs entre les disciplines, et une réflexion commune centrée sur l’utilisateur. La formulation de cette hypothèse nous a mené à réfléchir sur le rôle du designer. Pour mener cette recherche, nous avons adopté une méthodologie mixte. Dans un premier temps, nous avons utilisé une approche de recherche par projet (recherche-projet) et notre fonction était celle de designer-chercheur. La recherche-projet est particulièrement appropriée pour les recherches en design. Elle privilégie les méthodes qualitatives et interprétatives ; elle étudie la situation dans sa complexité et de façon engagée. Nous avons effectué trois études de cas successives. L’objectif de la première étude était d’observer notre propre rôle et nos interactions avec les autres membres de l’équipe de projet pendant le processus de design. Dans la seconde étude, notre attention a été portée sur les interactions et la collaboration de l’équipe. Nous avons utilisé le processus de design comme méthode pour la construction d’un langage commun entre les intervenants, pour enrichir les réflexions et pour favoriser leur collaboration menant à redéfinir les objectifs du projet. Les limites de ces deux cas nous ont conduit à une intervention différente que nous avons mise en œuvre dans la troisième étude de cas. Cette intervention est constituée par la mise en place d’un atelier intensif de conception où les intervenants au projet se sont engagés à développer une attitude interdisciplinaire permettant la copratique réflexive pour atteindre les objectifs d’un projet de construction d’un site web complexe centré sur l’utilisateur. L’analyse et l’interprétation des données collectées de ces trois études de cas nous ont conduit à créer un modèle théorique de conception d’interface humain-ordinateur. Ce modèle qui informe et structure le processus de design impliquant une équipe multidisciplinaire a pour objectif d’améliorer l’approche centrée sur l’utilisateur. Dans le cadre de ce modèle, le designer endosse le rôle de médiateur en assurant l’efficacité de la collaboration de l’équipe. Dans un deuxième temps, afin de valider le modèle et éventuellement le perfectionner, nous avons utilisé une approche ethnographique comportant des entrevues avec trois experts dans le domaine. Les données des entrevues confirment la validité du modèle ainsi que son potentiel de transférabilité à d’autres contextes. L’application de ce modèle de conception permet d’obtenir des résultats plus performants, plus durables, et dans un délai plus court.In complex design projects, problems typically arise when the design process is undertaken by multi-disciplinary groups of experts as well as non-experts because they do not share a common vision about the user’s needs, do not have identical goals related to the task, and do not have a common language to have productive dialogues as the design process progresses. This research addressed issues related to the human-centered design approach within the context of human-computer interfaces (HCI). It explored ways in which a designer can create conditions whereby various contributors involved in the design process can benefit from the potential that the multi-disciplinary context afford to enrich their personal knowledge and reflection and at the same time work efficiently and collaboratively to design an interface that is user centered. The research used a mixed methodology. In the first instance, a project-grounded research (research through design) was used in three successive case studies with increasing degrees of intervention and control by the researcher. Project-grounded research involves the development of knowledge and theory related to the design activity in an authentic design project. The focus of the first case was for the designer/researcher to observe her role and interaction with others during the design process. In the second case, the focus shifted to the collaborative interactions. The design process was used as a method to foster consensus building and the adoption of a common language to communicate and mutual goals to aim for. Limitations identified in these two cases led to the design of an intervention that was implemented in the third case. This intervention comprised an intensive workshop whereby team members engaged in an interdisciplinary attitude building exercise leading to joint-reflective practice toward achieving the goal which was to create a website. Data generated from these three cases informed the development of a theoretical model that represents steps of “optimal” collaborative design process, focusing on user-centeredness. In this model, the designer is attributed the additional and central role of mediator (designer as mediator) that facilitates the convergence of disparate foci and ways of thinking. In the second instance, the model was presented to three design experts individually for validation purposes. Interview data collected from this process affirmed the validity of the concepts and relations depicted in the model as well as its transferability potential to other complex contexts. The proposed model has the promise of structuring design activities to unfold in a more efficient and timely manner while being sustainable

    Archipel : un framework objet pour une approche ubiquitaire de l'assistance cognitive

    Get PDF
    La cognition humaine est une mécanique fascinante. Mais c'est aussi un ensemble de processus d'une grande fragilité, que le vieillissement pathologique, les troubles acquis ou développementaux viennent endommager, parfois détruire. C'est au jour le jour, dans nos activités de la vie quotidienne, indispensables à notre bien entre physique et moral, que notre cognition est mise à l'épreuve. Pour que celle-ci soit réussie par les personnes atteintes de troubles cognitifs, une aide s'avère souvent nécessaire. Sans cette aide, on ne parle pas d'échec, mais de situation de handicap. Pour les personnes âgées présentant une démence de type Alzheimer, il devient alors difficile d'envisager vieillir au domicile, même si le stade de la maladie n'est pas trop avancé. Or ces populations sont en constante augmentation et l'accueil institutionnel ne suit pas. Pour les jeunes adultes touchés par une déficience intellectuelle, c'est l'accession à une vie autonome qui est remise en cause. Peut-on alors assurer leur épanouissement ? Que le problème soit envisagé sur un plan humain ou économique, nos sociétés doivent trouver des solutions pour favoriser l'autonomie fonctionnelle des personnes souffrant de troubles cognitifs. Parmi les alternatives possibles, la recherche technologique offre déjà des éléments de réponse pertinents. Ce projet de doctorat approfondit cette voie en abordant l'assistance cognitive à la réalisation d'activités domiciliaires complexes. Archipel est le nom du prototype développé au cours de cette recherche. Ce framework offre un cadre pour la mise en place d'applications à forte sensibilité au contexte d'assistance cognitive. Les problèmes abordés concernent la représentation des connaissances, avec une approche par objets alliant la théorie des architectures à métaclasses complètes à la pratique en XML et Java, et offrant grâce à son protocole à métaobjets simple l'opportunité d'une représentation adaptable et adaptée. Le monitorage ou suivi de la réalisation d'activités est le second problème abordé. II vise à s'assurer que les actions réalisées par la personne suivent une démarche appropriée. Une mise en oeuvre basée sur le système conseiller EpiTalk est présentée. La prise en compte des erreurs réalisées et la génération d'actes d'assistance adaptés est la troisième facette de ce framework. Enfin, les interactions homme-machine, permettant perception des actions et diffusion de l'assistance dans un esprit ubiquitaire constituent le dernier point de ce projet. Le bien-fondé de cette approche est justifié par le déploiement d'Archipels dans l'appartement laboratoire DOMUS et la réalisation d'une expérimentation du système par douze adultes présentant une déficience intellectuelle

    Un modèle computationnel d'intelligence culturelle ouvert et extensible

    Get PDF
    Avec le phénomène de la globalisation qui prend de l'ampleur, les différences culturelles, dans les communications interculturelles, amènent leur lot de problèmes inévitables. Geet Hofstede a exprimé de manière représentative ce phénomène : "Culture is more often a source of conflict than of synergy. Cultural differences are a nuisance at best and often a disaster." (Geert Hofstede, Emeritus Professor, Maastricht University.) Dans la revue de la littérature, jusqu'à ce jour, les recherches relatives à l'intelligence culturelle (IC) utilisent les méthodes traditionnelles pour mesurer l'IC et trouver des solutions aux problèmes relatifs à l'IC. Ces méthodes dépendent essentiellement de questionnaires évaluant des aspects distincts, de documents (Ng et Earley, 2006) et d'évaluations variées, guidées par les connaissances spécialisées et des qualités psychologiques d'experts de l'IC. Ces façons de faire réduisent le nombre de solutions possibles. À notre connaissance, aucune recherche au sujet de l'IC n'a été empiriquement informatisée jusqu'à maintenant. En conséquence, l'intégration de l'IC dans le domaine de l'intelligence artificielle (IA) reste absente. L'objectif principal de la recherche est donc de créer un modèle computationnel de l'IC et de l'implémenter dans un système expert. Ce système se nomme Système Expert Neuro-Flou d'Intelligence Culturelle (SENFIC). Il intègre l'expertise d'experts de l'IC en intégrant le fruit des études à propos des quatre dimensions de l'IC comme un tout intégré et s'influençant les unes des autres. Il devrait permettre éventuellement d'atteindre un meilleur niveau de performance que celui des experts de l'IC. Comme un système intelligent efficace, il fournit une recommandation globale au problème et une forme de système de règles permettant l'adaptabilité des individus et des organisations à un environnement interculturel. C'est dans ce contexte que le SENFIC a vu le jour. Nous combinons deux techniques intelligentes dans le cadre du système. La technique d'hybride neuro-floue intégrant la logique floue et le réseau de neurones artificiels, et la technique du système expert. La technique de logique floue est une bonne solution pour exprimer des problèmes originalement en langue imprécise et naturelle, comme ceux soulevés dans les recherches relatives à l'IC. La technique du réseau de neurones artificiels aide le système à atteindre un niveau d'autorégulation, d'auto-adaptation et d'autoapprentissage. Le système expert utilise des connaissances et des procédures d'inférence dans le but de résoudre des problèmes difficiles, requérant normalement une expertise humaine dans le domaine d'IC. Ainsi, le SENFIC exprime des connaissances sous une forme facilement comprise par les utilisateurs, et traite les demandes simples en langage naturel plutôt qu'en langage de programmation. En utilisant une nouvelle approche pour la technique de soft-computing en concevant la technique hybride comme le cœur du système, notre SENFIC devient alors capable de raisonner et d'apprendre dans un environnement culturel incertain et imprécis. Ce SENFIC est ouvert et extensible, autant au niveau interne qu'externe. Au niveau interne, le modèle computationnel de l'IC fournit une interface standard pouvant faciliter le développement secondaire et la mise en pratique du système. Au niveau externe, le SENFIC a la capacité de se présenter comme un agent d'extension permettant l'intégration à n'importe quel système intelligent existant, pour que ce système devienne culturellement intelligent. Le SENFIC est « conscient de l'intelligence culturelle ». Cela représente une percée amenant son lot de contributions dans les domaines de l'IC et de l'IA.\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : intelligence culturelle, logique floue, réseaux de neurones artificiels, soft-computing, hybride neuro-floue, système exper

    Conception et mise en Ĺ“uvre de multichronia, un cadre conceptuel de simulation visuelle interactive

    Get PDF
    Cette thèse présente Multichronia, un cadre conceptuel de simulation interactive fournissant une représentation visuelle du cheminement d'un utilisateur dans l'exploration des simulations d'un système complexe. En complément aux méthodes formelles d'analyse, Multichronia vise à aider ses utilisateurs à comprendre un système sous étude en fournissant quatre boucles interactives. La boucle d'exploration de l'espace des paramètres permet à un utilisateur de modifier des paramètres de simulation afin de tester des hypothèses. La boucle d'exploration de l'espace des simulations lui permet de manipuler les données correspondant à des instances de simulation. Notamment, elle rend disponible des opérations de sélection et d'alignement via une interface graphique. La boucle d'exploration de l'espace des données lui permet de transformer les flots de données. Finalement, la boucle d'exploration de l'espace visuel lui permet d'afficher des données et de manipuler leur aspect visuel. Afin de représenter le cheminement d'un utilisateur dans son exploration de l'espace des paramètres, une interface graphique a été développée. Il s'agit de Varbre multichro-nique, une vue formelle donnant une représentation informative de l'état de l'analyse d'un problème ainsi que la possibilité d'exécuter une foule d'opérations interactives. D'autre part, le cadre conceptuel Multichronia forme un pipeline de données générique allant d'un simulateur jusqu'à un logiciel d'analyse. Un modèle conceptuel peut être extrait de ce pipeline de même que le flux de données correspondant. Dans cette thèse, il a été spécialisé avec la technologie XML. Cette dernière permet entre autres de définir une méthodologie de conception du modèle de données associé à un simulateur. La mise en oeuvre de Multichronia a permis de vérifier la validité des concepts proposés. L'architecture logicielle adoptée est un cadre d'application, de sorte que de nouveaux simulateurs puissent être facilement exploités. Deux applications concrètes ont été implantées, soit la simulation tactique et stratégique de l'attaque de convois militaires. Des modifications mineures aux simulateurs ont été nécessaires afin qu'ils rencontrent certains critères établis dans cette thèse. Somme toute, ces applications ont montré que Multichronia peut être déployé pour des applications quelconques

    Le cerveau au travail : Optimiser la Performance Humaine par la Neuroergonomie

    Get PDF
    Le volume considérable de recherches menées dans le domaine des neurosciences cognitives révèle la profonde volonté d’améliorer notre compréhension du comportement et de ses corrélats cérébraux. Cette révolution cognitive a encouragé la mise en œuvre d’études sur des questions sociétales importantes traitant de thèmes aussi variés que la santé, les troubles psychiatriques, la maturation neuronale, les apprentissages ou encore les maladies neurodégénératives. Aussi, et assez récemment, la nécessité de mieux appréhender l’interaction entre l’humain et la technologie dans les environnements professionnels ou lors d’activités quotidiennes a fait émerger une discipline connue sous le nom de neuroergonomie. Elle est le fruit de l’association des neurosciences et des facteurs humains, la combinaison de l’étude des fonctions cérébrales avec celle de l’adéquation entre la technologie et les capacités humaines. Cette voie prometteuse offre la possibilité de produire des connaissances à la fois pour les neurosciences, en étudiant le cerveau impliqué dans des activités écologiques, et pour l’ergonomie, qui peut ainsi raffermir sa pratique en prenant en compte les contraintes—invisibles à l’œil nu—des mécanismes cérébraux sous-jacents à la cognition. Notre capacité journalière à accomplir correctement des tâches élaborées, structurées et organisées dans le temps, repose bien entendu sur le bon fonctionnement de notre cerveau. Toutefois, le cerveau présente des limites incontournables malgré son extraordinaire complexité (plusieurs milliards de neurones interconnectés). Lorsque les contraintes cognitives liées à la nature de ce système biologique sont connues, elles font de l’erreur humaine la conséquence logique du fonctionnement normal du cerveau placé dans un contexte mal adapté. En d’autres termes, l’erreur humaine devient alors un symptôme des carences du système. Les facteurs humains s’intéressent depuis longtemps au processus mentaux sous-jacents aux activités complexes. La charge mentale ou les effets du stress en sont des thématiques classiques, notamment dans le domaine des transports. Cette pratique a apporté un éclairage indispensable pour comprendre certains accidents. Un exemple tristement célèbre d’analyse facteurs humains des effets du stress est lié à l’accident ferroviaire qui s’est produit en 1988, en gare de Lyon, entre un train SNCF en provenance de Melun, et un train à l'arrêt en partance pour Melun. L’accident fut très meurtrier (56 morts et 57 blessés), et le procès eut un grand retentissement. Alors que tout accusait le conducteur du train, qui avait purgé par erreur le système de freinage, privant ainsi la rame des sept huitièmes de sa capacité à ralentir, l’analyse d’un spécialiste des facteurs humains (François Danielou) mis en évidence les fameuses erreurs « latentes » qui avaient largement favorisé l’accident. Par exemple, à la SNCF les robinets ne correspondaient pas aux stéréotypes normalisés : « …peut-on imaginer un constructeur automobile qui inverserait les pédales de frein et d'accélérateur? Pendant quelques minutes, le chauffeur ferait attention. Mais il est évident qu'en situation de réflexe il appuierait à fond sur l'accélérateur, croyant enfoncer la pédale de frein » (voir article dans le journal L’humanité, L'homme et la machine au procès de la gare de Lyon, Samedi, 18 Septembre, 1993). Sous l’emprise d’un stress délétère, tout s’est passé comme si le conducteur avait eu recours à sa mémoire procédurale, à des automatismes qui ont contribué à l’accident, et nombreux sont ceux qui auraient commis la même erreur. La prise en compte de l’environnement et du contexte de travail sur la performance humaine est également dans les objectifs de la neuroergonomie. S’il est désormais systématique en aéronautique de prendre en compte les données des boites noires, il revient à la neuroergonomie de donner une visibilité sur l’autre boite noire qu’est la cognition humaine. Ainsi comme nous le verrons dans ce manuscrit, les études menées sur les limites attentionnelles humaines montrent que notre capacité à percevoir des alarmes inattendues peut être altérée par une forte charge en mémoire de travail. Grace à l’électroencéphalographie (EEG), nous pouvons éclairer ce phénomène comportemental par l’observation directe de la réaction cérébrale, témoignage objectif d’une incapacité temporaire d’un l’individu à traiter des stimuli se trouvant en dehors de son focus attentionnel. Cette signature cérébrale, montrant nos limites attentionnelles (en fait la nature même de notre fonctionnement cérébral), indique qu’il serait bien souvent injustifié d’accuser de négligence des opérateurs n’ayant pas réagi de façon appropriée à des alarmes critiques. Passionné de nouvelles technologies et d’informatique, certainement par esprit de contradiction, j’ai néanmoins choisi dans ma jeunesse de réaliser un cursus de psychologie. Pendant ces études menées à Nîmes (université « Vauban ») puis à Montpellier (université Paul Valéry), j’ai rapidement nourri un grand intérêt pour les sciences cognitives qui savent intégrer ingénierie informatique et description formelle de l’esprit humain. J’ai réalisé ensuite un « DESS » (master 2 aujourd’hui) de facteurs humains à l’université Jean-Jaurès (anciennement Mirail) de Toulouse. Ce DESS m’a donné l’opportunité de faire un passage par la société Intuilab (Toulouse) en tant qu’ergonome spécialiste des interfaces hommes machines. Au cours de cette expérience professionnelle, j’ai pu appréhender l’importance de la prise en compte de l’humain dans le développement de tout système technologique. J’ai appris aussi qu’il fallait beaucoup d’humilité et d’expérience pour réussir à mettre en pratique des connaissances académiques dans le monde industriel. Etant dans le département R&D d’Intuilab, j’ai vivement senti l’intérêt de la recherche « fondamentale appliquée » pour faire progresser les technologies, et la volonté profonde de mener des recherches en facteurs humains, tout en les enrichissant par des connaissances récentes en neurosciences, m’a conduit à réaliser un second master 2, cette fois ci à l’INSERM U825. Au cours de ce Master 2 de neuropsychologie, mon désir de conjuguer neurosciences et facteurs humains et mon parcours original m’ont mené à positionner une ambition scientifique autour de la neuroergonomie qui s’est traduite par la première thèse en France selon cette approche. Depuis cette thèse soutenue en 2010, avec Frédéric Dehais, nous avons développé notre activité non seulement au sein de l’ISAE, avec un accroissement fulgurant de l’effectif de notre équipe, mais également à l’extérieur, avec une reconnaissance nationale et internationale de nos travaux, tant par les acteurs académiques qu’industriels. Je présente dans ce manuscrit une partie importante de mes travaux en facteurs humains et neuroergonomie de l’aviation menés depuis mon intégration à l’ISAE en 2011. Ils sont réalisés soit en situation contrôlée de laboratoire, soit en situation plus écologique comme la simulation aérienne ou le vol réel en avion léger. Le chapitre 1 traite des effets de la charge mentale sur la performance humaine. Le chapitre 2 s’intéresse aux effets de stresseurs plus émotionnels. Le chapitre 3 décrit les travaux portant sur l’évolution cognitive et cérébrale au cours du vieillissement normal. Finalement, le chapitre 4 présente les perspectives de recherche, portant notamment sur la recherche de solution neuroergonomiques pour optimiser la sécurité et la performance humaine

    Electroencéphalographie et interfaces cerveau-machine : nouvelles méthodes pour étudier les états mentaux

    Get PDF
    Avec les avancées technologiques dans le domaine de l'imagerie cérébrale fonctionnelle et les progrès théoriques dans la connaissance des différents éléments neurophysiologiques liés à la cognition, les deux dernières décennies ont vu l'apparition d'interfaces cerveau-machine (ICM) permettant à une personne d'observer en temps réel, ou avec un décalage qui se limite à quelques secondes, sa propre activité cérébrale. Le domaine clinique en général, et plus particulièrement celui de la neuropsychologie et des pathologies conduisant à un handicap moteur lourd, pour lesquels les applications potentielles sont nombreuses qu'elles soient thérapeutiques ou en vue d'une réhabilitation fonctionnelle, a constitué un moteur important de la recherche sur ce nouveau domaine des neurosciences temps réel. Parmi ces applications, le neurofeedback, ou neurothérapie, qui vise l'acquisition par le sujet du contrôle volontaire de certains aspects de son activité cérébrale en vue de les amplifier ou au contraire les diminuer dans un but thérapeutique, voire d'optimisation cognitive, représente une technique prometteuse, alternative aux thérapies et traitements médicamenteux. Cependant, la validation de ce type d'intervention et la compréhension des mécanismes mis en jeux en sont encore à leurs balbutiements. L'entraînement par neurofeedback est souvent long, pouvant s'étaler sur plusieurs semaines. Il est donc très probable que ce type de rééducation cérébrale sollicite des phénomènes de plasticité qui s'inscrivent dans une dynamique lente, et de ce fait, requiert une durée relativement longue d'entraînement pour atteindre les effets à long terme recherchés. Cependant, à cela peuvent s'ajouter de nombreux éléments perturbateurs qui pourraient être à l'origine de la difficulté de l'apprentissage et des longs entraînements nécessaires pour obtenir les résultats attendus. Parmi eux, les perturbations qui viennent déformer le signal enregistré, ou les éléments artefactuels qui ne font pas partie du signal d'intérêt, sont une première cause potentielle. Le manque de spécificité fonctionnelle du signal retourné au sujet pourrait en constituer une deuxième. Nous avons d'une part développé des outils méthodologiques de traitement du signal en vue d'améliorer la robustesse des analyses des signaux EEG, principalement utilisés jusqu'à maintenant dans le domaine du neurofeedback et des ICM, face aux artefacts et au bruit électromagnétique. D'autre part, si l'on s'intéresse au problème de la spécificité fonctionnelle du signal présenté au sujet, des études utilisant l'IRM fonctionnelle ou des techniques de reconstruction de sources à partir du signal EEG, qui fournissent des signaux ayant une meilleure spécificité spatiale, laissent entrevoir de possibles améliorations de la vitesse d'apprentissage. Afin d'augmenter la spécificité spatiale et la contingence fonctionnelle du feedback présenté au sujet, nous avons étudié la stabilité de la décomposition de l'EEG en différentes sources d'activité électrique cérébrale par Analyse en Composantes Indépendantes à travers différentes séances d'enregistrement effectuées sur un même sujet. Nous montrons que ces décompositions sont stables et pourraient permettre d'augmenter la spécificité fonctionnelle de l'entraînement au contrôle de l'activité cérébrale pour l'utilisation d'une ICM. Nous avons également travaillé à l'implémentation d'un outil logiciel permettant l'optimisation des protocoles expérimentaux basés sur le neurofeedback afin d'utiliser ces composantes indépendantes pour rejeter les artefacts en temps réel ou extraire l'activité cérébrale à entraîner. Ces outils sont utiles dans le cadre de l'analyse et de la caractérisation des signaux EEG enregistrés, ainsi que dans l'exploitation de leurs résultats dans le cadre d'un entraînement de neurofeedback. La deuxième partie de ce travail s'intéresse à la mise en place de protocoles de neurofeedback et à l'impact de l'apprentissage. Nous décrivons tout d'abord des résultats obtenus sur une étude pilote qui cherche à évaluer chez des sujets sains l'impact d'un protocole de neurofeedback basé sur le contrôle du rythme Mu. Les changements comportementaux ont été étudiés à l'aide d'un paradigme de signal stop qui permet d'indexer les capacités attentionnelles et d'inhibition de réponse motrice sur lesquelles on s'attend à ce que l'entraînement ICM ait une influence. Pour clore cette partie, nous présentons un nouvel outil interactif immersif pour l'entraînement cérébral, l'enseignement, l'art et le divertissement pouvant servir à évaluer l'impact de l'immersion sur l'apprentissage au cours d'un protocole de neurofeedback. Enfin, les perspectives de l'apport des méthodes et résultats présentés sont discutées dans le contexte du développement des ICMs de nouvelle génération qui prennent en compte la complexité de l'activité cérébrale. Nous présentons les dernières avancées dans l'étude de certains aspects des corrélats neuronaux liés à deux états mentaux ou classes d'états mentaux que l'on pourrait qualifier d'antagonistes par rapport au contrôle de l'attention : la méditation et la dérive attentionnelle, en vue de leur intégration à plus long terme dans un entraînement ICM par neurofeedback.With new technological advances in functional brain imaging and theoretical progress in the knowledge of the different neurophysiologic processes linked to cognition, the last two decades have seen the emergence of Brain-Machine Interfaces (BCIs) allowing a person to observe in real-time, or with a few seconds delay, his own cerebral activity. Clinical domain in general, and more particularly neuropsychology and pathologies leading to heavy motor handicaps, for which potential applications are numerous, whether therapeutic or for functional rehabilitation, has been a major driver of research on this new field of real-time neurosciences. Among these applications, neurofeedback, or neurotherapy, which aims the subject to voluntary control some aspects of his own cerebral activity in order to amplify or reduce them in a therapeutic goal, or for cognitive optimization, represents a promising technique, and an alternative to drug treatments. However, validation of this type of intervention and understanding of involved mechanisms are still in their infancy. Neurofeedback training is often long, up to several weeks. It is therefore very likely that this type of rehabilitation is seeking brain plasticity phenomena that are part of slow dynamics, and thus require a relatively long drive to achieve the desired long-term effects. However, other disturbing elements that could add up to the cause of the difficulty of learning and long training sessions required to achieve the expected results. Among them, the disturbances that come from recorded signal distortions, or artifactual elements that are not part of the signal of interest, are a first potential cause. The lack of functional specificity of the signal returned to the subject could be a second one. We have developed signal processing methodological tools to improve the robustness to artifacts and electromagnetic noise of EEG signals analysis, the main brain imaging technique used so far in the field of neurofeedback and BCIs. On the other hand, if one looks at the issue of functional specificity of the signal presented to the subject, studies using functional MRI or source reconstruction methods from the EEG signal, which both provide signals having a better spatial specificity, suggest improvements to the speed of learning. Seeing Independent Component Analysis as a potential tool to increase the spatial specificity and functional contingency of the feedback signal presented to the subject, we studied the stability of Independent Component Analysis decomposition of the EEG across different recording sessions conducted on the same subjects. We show that these decompositions are stable and could help to increase the functional specificity of BCI training. We also worked on the implementation of a software tool that allows the optimization of experimental protocols based on neurofeedback to use these independent components to reject artifacts or to extract brain activity in real-time. These tools are useful in the analysis and characterization of EEG signals recorded, and in the exploitation of their results as part of a neurofeedback training. The second part focuses on the development of neurofeedback protocols and the impact of learning. We first describe the results of a pilot study which seeks to evaluate the impact of a neurofeedback protocol based on the Mu rhythm control on healthy subjects. The behavioral changes were studied using a stop signal paradigm that indexes the attentional abilities and inhibition of motor responses on which the BCI training can possibly have influence. To conclude this section, we present a new tool for immersive interactive brain training, education, art and entertainment that can be used to assess the impact of immersion on learning during a neurofeedback protocol. Finally, prospects for methods and results presented are discussed in the context of next-generation BCI development which could take brain activity complexity into account. We present the latest advances in the study of certain aspects of the neural correlates associated with two mental states or classes of mental states that could be described as antagonistic with respect to the control of attention: meditation and mind wandering, for their integration in the longer term in an BCI training using neurofeedback

    Le processus de décision dans les systèmes complexes : une analyse d'une intervention systémique

    Get PDF
    L'objectif de cette thèse est de contribuer à une meilleure compréhension des processus de décision dans les systèmes complexes, en analysant comment les interventions systémiques produisent des changements dans le processus décisionnel mis en oeuvre par les individus. Plus précisément, la recherche consiste à analyser les effets potentiels de l'utilisation d'un modèle systémique par les décideurs, tant sur les activités constitutives du processus de décision, que sur ses dimensions, tout en prenant en considération les déterminants susceptibles d'exercer une influence. Elle s'appuie sur une expérimentation basée sur un cas décisionnel simulé, qui porte sur le système de la propriété intellectuelle des innovations biotechnologiques: les sessions expérimentales consistent en des entretiens menés auprès de décideurs politiques et l'intervention systémique concerne l'utilisation d'un modèle de simulation par la dynamique des systèmes. Les résultats suggèrent: 1) une progression multiple, cumulative, conjonctive et récurrente; 2) une démarche décisionnelle incrémentale, à multiples perspectives et créative; 3) une multiplicité d'acteurs impliqués, ayant des intérêts et des rôles diversifiés 4) des rationalités politique, limitée, contextuelle, voire sociocognitive. De plus, les résultats montrent qu'en situation d'intervention systémique, les décideurs tendent à considérer plus d'éléments d'analyse et de disciplines scientifiques lors de leur analyse décisionnelle, et à impliquer plus d'acteurs tant à l'interne qu'à l'externe
    corecore