4 research outputs found

    Electroencéphalographie et interfaces cerveau-machine : nouvelles méthodes pour étudier les états mentaux

    Get PDF
    Avec les avancées technologiques dans le domaine de l'imagerie cérébrale fonctionnelle et les progrès théoriques dans la connaissance des différents éléments neurophysiologiques liés à la cognition, les deux dernières décennies ont vu l'apparition d'interfaces cerveau-machine (ICM) permettant à une personne d'observer en temps réel, ou avec un décalage qui se limite à quelques secondes, sa propre activité cérébrale. Le domaine clinique en général, et plus particulièrement celui de la neuropsychologie et des pathologies conduisant à un handicap moteur lourd, pour lesquels les applications potentielles sont nombreuses qu'elles soient thérapeutiques ou en vue d'une réhabilitation fonctionnelle, a constitué un moteur important de la recherche sur ce nouveau domaine des neurosciences temps réel. Parmi ces applications, le neurofeedback, ou neurothérapie, qui vise l'acquisition par le sujet du contrôle volontaire de certains aspects de son activité cérébrale en vue de les amplifier ou au contraire les diminuer dans un but thérapeutique, voire d'optimisation cognitive, représente une technique prometteuse, alternative aux thérapies et traitements médicamenteux. Cependant, la validation de ce type d'intervention et la compréhension des mécanismes mis en jeux en sont encore à leurs balbutiements. L'entraînement par neurofeedback est souvent long, pouvant s'étaler sur plusieurs semaines. Il est donc très probable que ce type de rééducation cérébrale sollicite des phénomènes de plasticité qui s'inscrivent dans une dynamique lente, et de ce fait, requiert une durée relativement longue d'entraînement pour atteindre les effets à long terme recherchés. Cependant, à cela peuvent s'ajouter de nombreux éléments perturbateurs qui pourraient être à l'origine de la difficulté de l'apprentissage et des longs entraînements nécessaires pour obtenir les résultats attendus. Parmi eux, les perturbations qui viennent déformer le signal enregistré, ou les éléments artefactuels qui ne font pas partie du signal d'intérêt, sont une première cause potentielle. Le manque de spécificité fonctionnelle du signal retourné au sujet pourrait en constituer une deuxième. Nous avons d'une part développé des outils méthodologiques de traitement du signal en vue d'améliorer la robustesse des analyses des signaux EEG, principalement utilisés jusqu'à maintenant dans le domaine du neurofeedback et des ICM, face aux artefacts et au bruit électromagnétique. D'autre part, si l'on s'intéresse au problème de la spécificité fonctionnelle du signal présenté au sujet, des études utilisant l'IRM fonctionnelle ou des techniques de reconstruction de sources à partir du signal EEG, qui fournissent des signaux ayant une meilleure spécificité spatiale, laissent entrevoir de possibles améliorations de la vitesse d'apprentissage. Afin d'augmenter la spécificité spatiale et la contingence fonctionnelle du feedback présenté au sujet, nous avons étudié la stabilité de la décomposition de l'EEG en différentes sources d'activité électrique cérébrale par Analyse en Composantes Indépendantes à travers différentes séances d'enregistrement effectuées sur un même sujet. Nous montrons que ces décompositions sont stables et pourraient permettre d'augmenter la spécificité fonctionnelle de l'entraînement au contrôle de l'activité cérébrale pour l'utilisation d'une ICM. Nous avons également travaillé à l'implémentation d'un outil logiciel permettant l'optimisation des protocoles expérimentaux basés sur le neurofeedback afin d'utiliser ces composantes indépendantes pour rejeter les artefacts en temps réel ou extraire l'activité cérébrale à entraîner. Ces outils sont utiles dans le cadre de l'analyse et de la caractérisation des signaux EEG enregistrés, ainsi que dans l'exploitation de leurs résultats dans le cadre d'un entraînement de neurofeedback. La deuxième partie de ce travail s'intéresse à la mise en place de protocoles de neurofeedback et à l'impact de l'apprentissage. Nous décrivons tout d'abord des résultats obtenus sur une étude pilote qui cherche à évaluer chez des sujets sains l'impact d'un protocole de neurofeedback basé sur le contrôle du rythme Mu. Les changements comportementaux ont été étudiés à l'aide d'un paradigme de signal stop qui permet d'indexer les capacités attentionnelles et d'inhibition de réponse motrice sur lesquelles on s'attend à ce que l'entraînement ICM ait une influence. Pour clore cette partie, nous présentons un nouvel outil interactif immersif pour l'entraînement cérébral, l'enseignement, l'art et le divertissement pouvant servir à évaluer l'impact de l'immersion sur l'apprentissage au cours d'un protocole de neurofeedback. Enfin, les perspectives de l'apport des méthodes et résultats présentés sont discutées dans le contexte du développement des ICMs de nouvelle génération qui prennent en compte la complexité de l'activité cérébrale. Nous présentons les dernières avancées dans l'étude de certains aspects des corrélats neuronaux liés à deux états mentaux ou classes d'états mentaux que l'on pourrait qualifier d'antagonistes par rapport au contrôle de l'attention : la méditation et la dérive attentionnelle, en vue de leur intégration à plus long terme dans un entraînement ICM par neurofeedback.With new technological advances in functional brain imaging and theoretical progress in the knowledge of the different neurophysiologic processes linked to cognition, the last two decades have seen the emergence of Brain-Machine Interfaces (BCIs) allowing a person to observe in real-time, or with a few seconds delay, his own cerebral activity. Clinical domain in general, and more particularly neuropsychology and pathologies leading to heavy motor handicaps, for which potential applications are numerous, whether therapeutic or for functional rehabilitation, has been a major driver of research on this new field of real-time neurosciences. Among these applications, neurofeedback, or neurotherapy, which aims the subject to voluntary control some aspects of his own cerebral activity in order to amplify or reduce them in a therapeutic goal, or for cognitive optimization, represents a promising technique, and an alternative to drug treatments. However, validation of this type of intervention and understanding of involved mechanisms are still in their infancy. Neurofeedback training is often long, up to several weeks. It is therefore very likely that this type of rehabilitation is seeking brain plasticity phenomena that are part of slow dynamics, and thus require a relatively long drive to achieve the desired long-term effects. However, other disturbing elements that could add up to the cause of the difficulty of learning and long training sessions required to achieve the expected results. Among them, the disturbances that come from recorded signal distortions, or artifactual elements that are not part of the signal of interest, are a first potential cause. The lack of functional specificity of the signal returned to the subject could be a second one. We have developed signal processing methodological tools to improve the robustness to artifacts and electromagnetic noise of EEG signals analysis, the main brain imaging technique used so far in the field of neurofeedback and BCIs. On the other hand, if one looks at the issue of functional specificity of the signal presented to the subject, studies using functional MRI or source reconstruction methods from the EEG signal, which both provide signals having a better spatial specificity, suggest improvements to the speed of learning. Seeing Independent Component Analysis as a potential tool to increase the spatial specificity and functional contingency of the feedback signal presented to the subject, we studied the stability of Independent Component Analysis decomposition of the EEG across different recording sessions conducted on the same subjects. We show that these decompositions are stable and could help to increase the functional specificity of BCI training. We also worked on the implementation of a software tool that allows the optimization of experimental protocols based on neurofeedback to use these independent components to reject artifacts or to extract brain activity in real-time. These tools are useful in the analysis and characterization of EEG signals recorded, and in the exploitation of their results as part of a neurofeedback training. The second part focuses on the development of neurofeedback protocols and the impact of learning. We first describe the results of a pilot study which seeks to evaluate the impact of a neurofeedback protocol based on the Mu rhythm control on healthy subjects. The behavioral changes were studied using a stop signal paradigm that indexes the attentional abilities and inhibition of motor responses on which the BCI training can possibly have influence. To conclude this section, we present a new tool for immersive interactive brain training, education, art and entertainment that can be used to assess the impact of immersion on learning during a neurofeedback protocol. Finally, prospects for methods and results presented are discussed in the context of next-generation BCI development which could take brain activity complexity into account. We present the latest advances in the study of certain aspects of the neural correlates associated with two mental states or classes of mental states that could be described as antagonistic with respect to the control of attention: meditation and mind wandering, for their integration in the longer term in an BCI training using neurofeedback

    La mise à disposition des œuvres et des informations sur les réseaux : régulation juridique et régulation technique

    Get PDF
    Technological developments lead to an exponential increase of the spread of works and information on the networks. Regulatory models from the analogical era based on physical medium scarcity and exclusivity are questioned by digital technology paradigms of copying, remixing and sharing. Copyright has been developed and adaptated at the same time than reproduction and dissemination technologies innovation, as an artificial corrective granting a limited monopoly of exploitation. But copyright can also lead to commons. We analyse how law and technology were conceptualised independently. Technical standards production process and the extension of exclusive rights are creating tensions between cultural industries and the public. This conception led to an intrication between regulation by law and technical protection measures, for the benefit of regulation by technology. Following research on lex informatica, we thus introduce a model based on the mutual influence between regulation by law and regulation by technology, toward legal categorisation redesign and an improved technical rights expression. The development of applications, ontologies and legal metadata allow to automate information and works exchanges management. Integrating regulation by law and regulation by technology, this model was built on the systematic analysis of various licensing models emerging on the networks, between access control and the constitution of Commons.Les développements techniques entraînent une croissance exponentielle de la circulation des œuvres et informations sur les réseaux. Les modèles de régulation de l'ère analogique élaborés sur la rareté du support sont remis en question par le numérique, fondé sur les paradigmes de la copie, de la réappropriation et du partage. Le droit d'auteur a été développé et adapté au rythme des innovations techniques de reproduction et de diffusion des œuvres, comme un correctif artificiel accordant une exclusivité temporaire d'exploitation. Il peut aussi conduire aux biens communs. Nous analysons comment droit et technique ont d'abord été pensés de manière indépendante. Les processus d'élaboration des normes et standards techniques et l'extension des droits exclusifs entraînent des tensions entre les industries culturelles et le public. Cette conception conduit à un enchevêtrement de lois et mesures techniques de protection au profit de la régulation technique. Nous proposons donc, dans la lignée de la lex informatica, un modèle fondé sur l'influence réciproque entre les disciplines, vers la reconception des catégories juridiques du droit d'auteur et vers une meilleure expression technique des droits. Le développement d'applications, d'ontologies et de métadonnées juridiques permet une automatisation de la régulation des échanges d'œuvres et d'informations. Mettant en œuvre une intégration plus équilibrée du droit et de la technique, ce modèle est notamment fondé sur l'analyse de licences et modèles contractuels qui se développent sur Internet, entre contrôle d'accès et biens communs

    La construction des Business Models des fournisseurs de services d'infrastructure Cloud Computing (IaaS)

    Get PDF
    The emergence of cloud computing is changing the landscape of the infrastructure supporting IT systems. The originality of cloud computing lies primarily in the offer of a new consumption mode available to consumers: IT resources as a service provided on demand. IT providers that have based their income from products sales (hardware and software licenses) faced a change in their revenue models, and thus have to consider new business models. This research reveals that IaaS provider is defined as cloud operators. They are service aggregator and offer functional infrastructure available on demand available over the network. IaaS providers are building a supplier-partners and product-partners ecosystems to increase the overall value. When consumers sign contract, they declaim all technical issues by transferring them to providers. Service Level Agreement (SLA) becomes the object of transaction between providers and consumers. For the pricing process, rate of use is the basis of cost assessment. We suggest three leverage to IaaS providers in order to increase their share of value added: (1) lower costs through technological innovation, (2) ability to attract and retain customers to have high rate of use, and (3) development of services ecosystem.L’émergence du Cloud Computing change le paysage des infrastructures qui soutiennent les systèmes informatiques. L’originalité du Cloud Computing réside avant tout dans l’offre d’un nouveau mode de consommation proposé aux clients: les ressources informatiques en tant que service à la demande. Les fournisseurs de "hardware" et de "software" qui ont historiquement fondé leurs revenus sur la vente de produits matériels et de licences logiciels ont fait face à un changement de leurs modèles de revenus, et donc à considérer de nouveau Business Models. Ce travail révèle que les fournisseurs de services d’infrastructure Cloud Computing se définissent comme étant des opérateurs Cloud. Ils ont un rôle d’agrégateur de service et proposent des services d’infrastructures fonctionnelles, disponible à la demande et accessible à distance. Ces fournisseurs construisent un écosystème de partenaires-fournisseurs et un écosystème de partenaires-produits pour accroitre la valeur ajoutée globale. La garantie de niveau de service (SLA) devient l’objet de la transaction entre le fournisseur et le client. Ce dernier se décharge de toutes les problématiques techniques, et les transfère au fournisseur lors de la signature du contrat. Lors de la fixation des prix, une hypothèse de taux d’usage est prise en compte et sera à la base des calculs des coûts. Nous proposons alors trois leviers d’actions aux fournisseurs d’infrastructure Cloud Computing pour accroître leur part de valeur ajoutée : (1) la baisse des coûts par l’innovation technologique, (2) la capacité d’attirer et de garder les clients pour avoir un taux d’usage élevé, et (3) le développement d’un écosystème de services
    corecore