52 research outputs found

    Étude de la variabilité des contributions de nutriments à un réseau métabolique (modélisation, optimisation et application en nutrition)

    Get PDF
    Nous développons une approche générique pour comprendre comment différents régimes alimentaires peuvent influencer la qualité et la composition du lait. Cette question s'intègre dans le cadre du Flux Balance Analysis (FBA), qui consiste à analyser un réseau métabolique en optimisant un système de contraintes linéaires. Nous avons proposé une extension du FBA pour analyser la transformation des nutriments en intégrant des hypothèses biologiques utilisées par différents modèles numériques dans un modèle générique de la glande mammaire. Notre méthode permet de quantifier les précurseurs qui interviennent dans la composition des sorties du système, en calculant des contributions des entrées dans les sorties [AIO]. A l'aide de cette approche, nous avons montré que la transformation des nutriments du lait ne peut pas être modélisée par l'optimisation d'une combinaison linéaire des flux des réactions sur un modèle du métabolisme mammaire. Pour étudier plus précisément la flexibilité d'un réseau métabolique, nous avons proposé un algorithme efficace de recherche locale pour calculer les valeurs extrémales des coefficients des AIOs. Cette approche permet de discriminer les traitements sans formuler d'hypothèses sur le comportement interne du système.This thesis proposes a generic approach to understanding how different diets affect the quality and composition of milk. This question is addressed in the framework of Flux Balance Analysis (FBA), which considers metabolic network analysis as an optimization issue on a system of linear constraints. In this work, we extended FBA to take into account nutrients transformation by incorporating general assumptions made by various numerical methods in a generic stoichiometric model of the mammary gland. Our method tries to quantify the precursor composition of each system output and to discuss the biological relevance of a set of flux in a given metabolic network. The composition is called contribution of inputs over outputs [AIO]. Using this method on the mammary metabolism, we could show that nutrients transformation cannot be properly modelled by optimizing a linear combination of reactions fluxes in the mammary gland model. In order to further investigate metabolic network flexibility, we have proposed an efficient local search algorithm computing the extremal values of AIO coefficients. This approach enables to discriminate diets without making any assumption on the internal behaviour of the system.RENNES1-Bibl. électronique (352382106) / SudocSudocFranceF

    Electroencéphalographie et interfaces cerveau-machine : nouvelles méthodes pour étudier les états mentaux

    Get PDF
    Avec les avancées technologiques dans le domaine de l'imagerie cérébrale fonctionnelle et les progrès théoriques dans la connaissance des différents éléments neurophysiologiques liés à la cognition, les deux dernières décennies ont vu l'apparition d'interfaces cerveau-machine (ICM) permettant à une personne d'observer en temps réel, ou avec un décalage qui se limite à quelques secondes, sa propre activité cérébrale. Le domaine clinique en général, et plus particulièrement celui de la neuropsychologie et des pathologies conduisant à un handicap moteur lourd, pour lesquels les applications potentielles sont nombreuses qu'elles soient thérapeutiques ou en vue d'une réhabilitation fonctionnelle, a constitué un moteur important de la recherche sur ce nouveau domaine des neurosciences temps réel. Parmi ces applications, le neurofeedback, ou neurothérapie, qui vise l'acquisition par le sujet du contrôle volontaire de certains aspects de son activité cérébrale en vue de les amplifier ou au contraire les diminuer dans un but thérapeutique, voire d'optimisation cognitive, représente une technique prometteuse, alternative aux thérapies et traitements médicamenteux. Cependant, la validation de ce type d'intervention et la compréhension des mécanismes mis en jeux en sont encore à leurs balbutiements. L'entraînement par neurofeedback est souvent long, pouvant s'étaler sur plusieurs semaines. Il est donc très probable que ce type de rééducation cérébrale sollicite des phénomènes de plasticité qui s'inscrivent dans une dynamique lente, et de ce fait, requiert une durée relativement longue d'entraînement pour atteindre les effets à long terme recherchés. Cependant, à cela peuvent s'ajouter de nombreux éléments perturbateurs qui pourraient être à l'origine de la difficulté de l'apprentissage et des longs entraînements nécessaires pour obtenir les résultats attendus. Parmi eux, les perturbations qui viennent déformer le signal enregistré, ou les éléments artefactuels qui ne font pas partie du signal d'intérêt, sont une première cause potentielle. Le manque de spécificité fonctionnelle du signal retourné au sujet pourrait en constituer une deuxième. Nous avons d'une part développé des outils méthodologiques de traitement du signal en vue d'améliorer la robustesse des analyses des signaux EEG, principalement utilisés jusqu'à maintenant dans le domaine du neurofeedback et des ICM, face aux artefacts et au bruit électromagnétique. D'autre part, si l'on s'intéresse au problème de la spécificité fonctionnelle du signal présenté au sujet, des études utilisant l'IRM fonctionnelle ou des techniques de reconstruction de sources à partir du signal EEG, qui fournissent des signaux ayant une meilleure spécificité spatiale, laissent entrevoir de possibles améliorations de la vitesse d'apprentissage. Afin d'augmenter la spécificité spatiale et la contingence fonctionnelle du feedback présenté au sujet, nous avons étudié la stabilité de la décomposition de l'EEG en différentes sources d'activité électrique cérébrale par Analyse en Composantes Indépendantes à travers différentes séances d'enregistrement effectuées sur un même sujet. Nous montrons que ces décompositions sont stables et pourraient permettre d'augmenter la spécificité fonctionnelle de l'entraînement au contrôle de l'activité cérébrale pour l'utilisation d'une ICM. Nous avons également travaillé à l'implémentation d'un outil logiciel permettant l'optimisation des protocoles expérimentaux basés sur le neurofeedback afin d'utiliser ces composantes indépendantes pour rejeter les artefacts en temps réel ou extraire l'activité cérébrale à entraîner. Ces outils sont utiles dans le cadre de l'analyse et de la caractérisation des signaux EEG enregistrés, ainsi que dans l'exploitation de leurs résultats dans le cadre d'un entraînement de neurofeedback. La deuxième partie de ce travail s'intéresse à la mise en place de protocoles de neurofeedback et à l'impact de l'apprentissage. Nous décrivons tout d'abord des résultats obtenus sur une étude pilote qui cherche à évaluer chez des sujets sains l'impact d'un protocole de neurofeedback basé sur le contrôle du rythme Mu. Les changements comportementaux ont été étudiés à l'aide d'un paradigme de signal stop qui permet d'indexer les capacités attentionnelles et d'inhibition de réponse motrice sur lesquelles on s'attend à ce que l'entraînement ICM ait une influence. Pour clore cette partie, nous présentons un nouvel outil interactif immersif pour l'entraînement cérébral, l'enseignement, l'art et le divertissement pouvant servir à évaluer l'impact de l'immersion sur l'apprentissage au cours d'un protocole de neurofeedback. Enfin, les perspectives de l'apport des méthodes et résultats présentés sont discutées dans le contexte du développement des ICMs de nouvelle génération qui prennent en compte la complexité de l'activité cérébrale. Nous présentons les dernières avancées dans l'étude de certains aspects des corrélats neuronaux liés à deux états mentaux ou classes d'états mentaux que l'on pourrait qualifier d'antagonistes par rapport au contrôle de l'attention : la méditation et la dérive attentionnelle, en vue de leur intégration à plus long terme dans un entraînement ICM par neurofeedback.With new technological advances in functional brain imaging and theoretical progress in the knowledge of the different neurophysiologic processes linked to cognition, the last two decades have seen the emergence of Brain-Machine Interfaces (BCIs) allowing a person to observe in real-time, or with a few seconds delay, his own cerebral activity. Clinical domain in general, and more particularly neuropsychology and pathologies leading to heavy motor handicaps, for which potential applications are numerous, whether therapeutic or for functional rehabilitation, has been a major driver of research on this new field of real-time neurosciences. Among these applications, neurofeedback, or neurotherapy, which aims the subject to voluntary control some aspects of his own cerebral activity in order to amplify or reduce them in a therapeutic goal, or for cognitive optimization, represents a promising technique, and an alternative to drug treatments. However, validation of this type of intervention and understanding of involved mechanisms are still in their infancy. Neurofeedback training is often long, up to several weeks. It is therefore very likely that this type of rehabilitation is seeking brain plasticity phenomena that are part of slow dynamics, and thus require a relatively long drive to achieve the desired long-term effects. However, other disturbing elements that could add up to the cause of the difficulty of learning and long training sessions required to achieve the expected results. Among them, the disturbances that come from recorded signal distortions, or artifactual elements that are not part of the signal of interest, are a first potential cause. The lack of functional specificity of the signal returned to the subject could be a second one. We have developed signal processing methodological tools to improve the robustness to artifacts and electromagnetic noise of EEG signals analysis, the main brain imaging technique used so far in the field of neurofeedback and BCIs. On the other hand, if one looks at the issue of functional specificity of the signal presented to the subject, studies using functional MRI or source reconstruction methods from the EEG signal, which both provide signals having a better spatial specificity, suggest improvements to the speed of learning. Seeing Independent Component Analysis as a potential tool to increase the spatial specificity and functional contingency of the feedback signal presented to the subject, we studied the stability of Independent Component Analysis decomposition of the EEG across different recording sessions conducted on the same subjects. We show that these decompositions are stable and could help to increase the functional specificity of BCI training. We also worked on the implementation of a software tool that allows the optimization of experimental protocols based on neurofeedback to use these independent components to reject artifacts or to extract brain activity in real-time. These tools are useful in the analysis and characterization of EEG signals recorded, and in the exploitation of their results as part of a neurofeedback training. The second part focuses on the development of neurofeedback protocols and the impact of learning. We first describe the results of a pilot study which seeks to evaluate the impact of a neurofeedback protocol based on the Mu rhythm control on healthy subjects. The behavioral changes were studied using a stop signal paradigm that indexes the attentional abilities and inhibition of motor responses on which the BCI training can possibly have influence. To conclude this section, we present a new tool for immersive interactive brain training, education, art and entertainment that can be used to assess the impact of immersion on learning during a neurofeedback protocol. Finally, prospects for methods and results presented are discussed in the context of next-generation BCI development which could take brain activity complexity into account. We present the latest advances in the study of certain aspects of the neural correlates associated with two mental states or classes of mental states that could be described as antagonistic with respect to the control of attention: meditation and mind wandering, for their integration in the longer term in an BCI training using neurofeedback

    Méthodes systémiques d'analyse des données de simulation de modèles de voies de signalisation cellulaire

    Get PDF
    Les réseaux de pétri, un outil de modélisation polyvalent -- Une approche systémique en biologie moléculaire : le génie à la rencontre de la biologie -- Démarche de l'ensemble du travail de recherche et organisation générale du document -- Functional abstraction and spectral representation to visualize the system dynamics and the information flux in a biochemical model -- Petri net-based visualization of signal transduction pathway simulations -- Petri net-based method for the analysis of the dynamics of signal propagation in signaling pathways

    Proposition et vérification formelle de protocoles de communications temps-réel pour les réseaux de capteurs sans fil

    Get PDF
    Les RCsF sont des réseaux ad hoc, sans fil, large échelle déployés pour mesurer des paramètres de l'environnement et remonter les informations à un ou plusieurs emplacements (nommés puits). Les éléments qui composent le réseau sont de petits équipements électroniques qui ont de faibles capacités en termes de mémoire et de calcul ; et fonctionnent sur batterie. Ces caractéristiques font que les protocoles développés, dans la littérature scientifique de ces dernières années, visent principalement à auto-organiser le réseau et à réduire la consommation d'énergie. Avec l'apparition d'applications critiques pour les réseaux de capteurs sans fil, de nouveau besoins émergent, comme le respect de bornes temporelles et de fiabilité. En effet, les applications critiques sont des applications dont dépendent des vies humaines ou l'environnement, un mauvais fonctionnement peut donc avoir des conséquences catastrophiques. Nous nous intéressons spécifiquement aux applications de détection d'événements et à la remontée d'alarmes (détection de feu de forêt, d'intrusion, etc), ces applications ont des contraintes temporelles strictes. D'une part, dans la littérature, on trouve peu de protocoles qui permettent d'assurer des délais de bout en bout bornés. Parmi les propositions, on trouve des protocoles qui permettent effectivement de respecter des contraintes temporelles mais qui ne prennent pas en compte les spécificités des RCsF (énergie, large échelle, etc). D'autres propositions prennent en compte ces aspects, mais ne permettent pas de garantir des bornes temporelles. D'autre part, les applications critiques nécessitent un niveau de confiance très élevé, dans ce contexte les tests et simulations ne suffisent pas, il faut être capable de fournir des preuves formelles du respect des spécifications. A notre connaissance cet aspect est très peu étudié pour les RcsF. Nos contributions sont donc de deux types : * Nous proposons un protocole de remontée d'alarmes, en temps borné, X-layer (MAC/routage, nommé RTXP) basé sur un système de coordonnées virtuelles originales permettant de discriminer le 2-voisinage. L'exploitation de ces coordonnées permet d'introduire du déterminisme et de construire un gradient visant à contraindre le nombre maximum de sauts depuis toute source vers le puits. Nous proposons par ailleurs un mécanisme d'agrégation temps-réel des alarmes remontées pour lutter contre les tempêtes de détection qui entraînent congestion et collision, et donc limitent la fiabilité du système. * Nous proposons une méthodologie de vérification formelle basée sur les techniques de Model Checking. Cette méthodologie se déroule en trois points, qui visent à modéliser de manière efficace la nature diffusante des réseaux sans fil, vérifier les RCsF en prenant en compte la non-fiabilité du lien radio et permettre le passage à l'échelle de la vérification en mixant Network Calculus et Model Checking. Nous appliquons ensuite cette méthodologie pour vérifier RTXP.Wireless Sensor Networks (WSNs) are ad hoc wireless large scale networks deployed in order to monitor physical parameters of the environment and report the measurements to one or more nodes of the network (called sinks). The small electronic devices which compose the network have low computing and memory capacities and run on batteries, researches in this field have thus focused mostly on self-organization and energy consumption reduction aspects. Nevertheless, critical applications for WSNs are emerging and require more than those aspects, they have real-time and reliability requirements. Critical applications are applications on which depend human lives and the environment, a failure of a critical application can thus have dramatic consequences. We are especially interested in anomaly detection applications (forest fire detection, landslide detection, intrusion detection, etc), which require bounded end to end delays and high delivery ratio. Few WSNs protocols of the literature allow to bound end to end delays. Among the proposed solutions, some allow to effectively bound the end to end delays, but do not take into account the characteristics of WSNs (limited energy, large scale, etc). Others, take into account those aspects, but do not give strict guaranties on the end to end delays. Moreover, critical applications require a very high confidence level, simulations and tests are not sufficient in this context, formal proofs of compliance with the specifications of the application have to be provided. The application of formal methods to WSNs is still an open problem. Our contributions are thus twofold : * We propose a real-time cross-layer protocol for WSNs (named RTXP) based on a virtual coordinate system which allows to discriminate nodes in a 2-hop neighborhood. Thanks to these coordinates it is possible to introduce determinism in the accesses to the medium and to bound the hop-count, this allows to bound the end to end delay. Besides, we propose a real-time aggregation scheme to mitigate the alarm storm problem which causes collisions and congestion and thus limit the network lifetime. * We propose a formal verification methodology based on the Model Checking technique. This methodology is composed of three elements, (1) an efficient modeling of the broadcast nature of wireless networks, (2) a verification technique which takes into account the unreliability of the wireless link and (3) a verification technique which mixes Network Calculus and Model Checking in order to be both scalable and exhaustive. We apply this methodology in order to formally verify our proposition, RTXP.VILLEURBANNE-DOC'INSA-Bib. elec. (692669901) / SudocSudocFranceF

    Détection automatique multi-échelle et de grande envergure d'oscillations intracérébrales pathologiques dans l'épilepsie par réseaux de neurones artificiels

    Get PDF
    Environ un tiers des patients épileptiques sont résistants aux médicaments. La seule solution pour les guérir est de retirer la zone cérébrale à l'origine des crises, appelée zone épileptogène (ZE). Pour localiser cette zone, il est parfois nécessaire des mener des explorations par stéréo-électroencéphalographie (SEEG). L'analyse du signal EEG par les neurologues est une étape déterminante du diagnostic, mais la quantité de données générée est colossale. Ainsi, seule une petite partie des enregistrements peut être analysée par les équipes médicales qui se concentrent principalement sur l'activité durant les crises et celle juste autour. Pour caractériser l'étendue et la dynamique du réseau épileptogène, les neurologues étudient aussi des marqueurs intercritiques. Mais certains de ces biomarqueurs sont strictement invisibles à l'œil nu. Le premier objectif de ce travail de thèse interdisciplinaire consistait à établir de nouvelles méthodes pour détecter efficacement et automatiquement les marqueurs intercritiques, à savoir les pointes épileptiques intercritiques (PEIs) et en particulier les fast ripples (FRs). Le second objectif visait à définir et décrire l'intérêt d'enregistrements des marqueurs physiopathologiques de l'épilepsie par l'intermédiaire de micro-électrodes, alors que la plupart des études jusqu'à présent utilisaient des macro-électrodes classiques. Enfin, le troisième objectif était focalisé sur les FRs, avec pour idée de mieux comprendre leur origine, leur émergence et leur implication dans la pathologie. Nos équipes utilisent des électrodes hybrides permettant un enregistrement multi échelle du signal cérébral des patients. Ces électrodes sont constituées de macro-canaux permettant d'enregistrer l'activité de larges populations neuronales et de micro-canaux capables de capturer des signaux plus focaux, pouvant aller jusqu'à l'échelle du neurone unitaire. Nous avons construit un détecteur automatique de PEIs basé sur une nouvelle méthode de traitement du signal que nous avons baptisée Convolutional Kernel Density Estimation (CKDE). Nous avons également élaboré un détecteur automatique de FRs basé sur une approche écologique en trois étapes, imitant le travail du neurologue. Tous ces outils ont été incorporés à des interfaces graphiques utilisateurs (GUI) combinant les différentes fonctionnalités pour en permettre l'utilisation facile et efficiente. La détection des PEIs par CKDE offre la preuve de concept qu'une analyse orientée pixels de l'activité EEG peut être utilisée comme stratégie pour détecter des marqueurs intercritiques. Nous avons évalué cette méthode sur 10 minutes d'enregistrements chez un patient. Quinze PEIs ont été détectées automatiquement parmi lesquelles 13 vrais positifs et 2 faux positifs. Nos résultats principaux concernent toutefois la détection des FRs qui auraient à ce jour le plus grand potentiel dans le diagnostic des épilepsies pharmacorésistantes. Pour entraîner le CNN qui est une pièce maîtresse de notre détecteur, nous avons constitué une base de données de 4 954 FRs détectés manuellement chez 13 patients. Ce détecteur de FRs a été incorporé au logiciel que nous avons imaginé et créé, baptisé Ladybird, utilisé chez 29 patients pour détecter et traiter plusieurs milliers de FRs. Les avancées techniques et théoriques réalisées au cours de ce travail de thèse nous permettent d'envisager une utilisation à grande échelle de nos outils. Notre objectif est que les équipes médicales puissent en bénéficier directement, dans leur routine diagnostic. Un brevet a été déposé en vue d'un processus d'industrialisation.Almost a third of epileptic patients are resistant to medication. The only way to cure them is to remove the area of the brain that causes the seizures, called the epileptogenic zone (EZ). To locate this area, it is sometimes necessary to carry out stereo-electroencephalography (SEEG) investigations. SEEG consists of implanting intracerebral electrodes in the patient, who remains in hospital for about ten to fifteen days. During this period, the patient's intracerebral activity is continuously recorded on more than a hundred recording channels distributed in the brain structures suspected of being involved in the epileptogenic network. The analysis of the EEG signal by neurologists is a crucial step in the diagnosis, but the amount of data generated is tremendous. As a result, only a small fraction of the recordings can be analyzed by medical teams, who focus mainly on activity during and immediately surrounding seizures. To characterise the extent and dynamics of the epileptogenic network, neurologists also study interictal markers. But some of these biomarkers are impossible to detect manually. The first objective of this interdisciplinary thesis work was to establish new methods to efficiently and automatically detect intercritical markers, namely interictal epileptic discharges (IEDs) and in particular fast ripples (FRs). The second objective was to define and describe the interest of recording pathophysiological markers of epilepsy using micro-electrodes, whereas most studies until now used classical macro-electrodes. Finally, the third objective was focused on FRs, with the idea to better understand their origin, emergence and involvement in the pathology. Our teams use hybrid electrodes that allow for a multi-scale recording of the brain signal of patients. These electrodes are made up of macro-channels allowing the recording of the activity of large neuronal populations and micro-channels capable of capturing much more focal signals, down to the scale of single neuron activity. We have built an automatic IED detector based on a new method of processing the image-transformed signal using a technique we call Convolutional Kernel Density Estimation (CKDE). We also developed an automatic FR detector based on a three-step, CNN-based, ecological approach, mimicking the work of the neurologist. All these tools have been incorporated into graphical user interfaces (GUIs) that combine the different functionalities for easy and efficient use. The detection of IEDs by CKDE offers proof of concept that a pixel-oriented analysis of EEG activity can be used as a strategy to detect interictal markers. We evaluated this method on 10 minutes of recordings in a patient. Fifteen IEDs were automatically detected, of which 13 were true positives and 2 false positives. However, our main results concern the detection of FRs, which would have the greatest potential in the diagnosis of drug-resistant epilepsies. To train the CNN, which is a key component of our detector, we built a database of 4,954 manually detected FRs in 13 patients at both the EEG-macro and the EEG-micro scales. This multi-scale FR detector was incorporated into the software we designed, called Ladybird, which was used in 29 patients to detect and treat several thousand FRs. The technical and theoretical advances made during this thesis allow us to consider a large-scale use of our tools. Our objective is that medical teams can benefit directly from them, in their diagnostic routine. A patent has been filed in view of an industrialization process

    La mise à disposition des œuvres et des informations sur les réseaux : régulation juridique et régulation technique

    Get PDF
    Technological developments lead to an exponential increase of the spread of works and information on the networks. Regulatory models from the analogical era based on physical medium scarcity and exclusivity are questioned by digital technology paradigms of copying, remixing and sharing. Copyright has been developed and adaptated at the same time than reproduction and dissemination technologies innovation, as an artificial corrective granting a limited monopoly of exploitation. But copyright can also lead to commons. We analyse how law and technology were conceptualised independently. Technical standards production process and the extension of exclusive rights are creating tensions between cultural industries and the public. This conception led to an intrication between regulation by law and technical protection measures, for the benefit of regulation by technology. Following research on lex informatica, we thus introduce a model based on the mutual influence between regulation by law and regulation by technology, toward legal categorisation redesign and an improved technical rights expression. The development of applications, ontologies and legal metadata allow to automate information and works exchanges management. Integrating regulation by law and regulation by technology, this model was built on the systematic analysis of various licensing models emerging on the networks, between access control and the constitution of Commons.Les développements techniques entraînent une croissance exponentielle de la circulation des œuvres et informations sur les réseaux. Les modèles de régulation de l'ère analogique élaborés sur la rareté du support sont remis en question par le numérique, fondé sur les paradigmes de la copie, de la réappropriation et du partage. Le droit d'auteur a été développé et adapté au rythme des innovations techniques de reproduction et de diffusion des œuvres, comme un correctif artificiel accordant une exclusivité temporaire d'exploitation. Il peut aussi conduire aux biens communs. Nous analysons comment droit et technique ont d'abord été pensés de manière indépendante. Les processus d'élaboration des normes et standards techniques et l'extension des droits exclusifs entraînent des tensions entre les industries culturelles et le public. Cette conception conduit à un enchevêtrement de lois et mesures techniques de protection au profit de la régulation technique. Nous proposons donc, dans la lignée de la lex informatica, un modèle fondé sur l'influence réciproque entre les disciplines, vers la reconception des catégories juridiques du droit d'auteur et vers une meilleure expression technique des droits. Le développement d'applications, d'ontologies et de métadonnées juridiques permet une automatisation de la régulation des échanges d'œuvres et d'informations. Mettant en œuvre une intégration plus équilibrée du droit et de la technique, ce modèle est notamment fondé sur l'analyse de licences et modèles contractuels qui se développent sur Internet, entre contrôle d'accès et biens communs

    Liens entre l'identité morale individuelle et l'expression de comportements de citoyenneté organisationnelle considérés comme dimension informelle de l'éthique : étude appliquée aux Forces armées canadiennes

    Get PDF
    Le ministère de la Défense nationale du Canada (MDN) a élaboré un programme d'éthique pour ses employés et les Forces armées canadiennes (FAC) vers la fin des années 1990 afin de remédier à certains problèmes observés dans le milieu de travail et durant des missions outremer dans lesquelles les FAC étaient impliquées. Divers moyens, tels que la formation en éthique et le renforcement du leadership dans le milieu du travail, sont utilisés pour que les militaires canadiens se conforment aux règles éthiques et adhèrent à des normes prescrites dans les codes de conduite. Cependant, malgré l'établissement de ce programme il y a plus de 20 ans, on observe toujours des problèmes éthiques sur le terrain, allant du refus de rapporter des actes non éthiques à la négligence professionnelle grave (Bradley & Tymchuk 2013; Coulthard, 2013; 2013; Deschamps, 2015; Statistique Canada, 2014; Ivey, Blanc, Therrien, &. McCuaig-Edge, 2009). Ainsi, la formalisation éthique par des codes de conduite et sa promotion par la formation n'a permis ni d'éliminer les comportements inappropriés à ce chapitre ni de comprendre comment les individus s'approprient l'éthique au sein d'une organisation. Cette thèse a pour objectif d'apporter un éclairage sur cette appropriation en cherchant à comprendre les liens entre l'identité morale et les comportements de citoyenneté organisationnelle au sein des FAC, cet apport pouvant à son tour permettre à ces dernières de considérer le rôle des comportements extra-rôles et pro-sociaux dans l'établissement et le renforcement des comportements éthiques de ses militaires. Plus spécifiquement, cette thèse vise à vérifier un modèle postulant des relations directes entre l'identité morale et les comportements de citoyenneté organisationnelle, et une modération de cette relation par trois caractéristiques socio-professionnelles retenues à la suite de la recension des écrits: la formation, le nombre d'années de service dans les FAC et le grade (terme utilisé par les FAC et dans cette thèse pour désigner l'échelon hiérarchique ou la séniorité). Le devis de recherche est de nature transversale (synchronique) et quantitative; il se justifie par le fait que les données issues de la littérature montrent qu'il est possible de mesurer et d'analyser les variables prises en compte de façon adéquate. Pour les trois raisons suivantes, cette recherche est réalisée à partir de données secondaires provenant de l'Enquête éthique de la Défense-mesurer le risque éthique au sein du MDN / CAF, 2014-2015:1. le nombre de répondants qui permet des analyses statistiques performantes; 2. les qualités métriques des instruments utilisés; 3. la possibilité d'effectuer des analyses originales sur l'information collectée. Un total de 1028 militaires de la Force Régulière des FAC ont rempli le questionnaire de l'enquête, soit en version papier ou par voie électronique. La stratégie d'analyse des résultats a reposé sur une combinaison de tests statistiques. Certains, tels que les analyses factorielles confirmatoires et les alphas de cronbach, visaient à vérifier les qualités métriques des instruments utilisés. Les autres (tests univariés d'analyse de variance à l'aide de SPSS, tests multivariés par équation structurelle, à l'aide d'AMOS) avaient pour objectif de vérifier si les données collectées permettaient de trouver des liens allant dans le sens des hypothèses. Les principaux résultats ressortant des analyses se résument ainsi. Premièrement, il y a un lien significatif et positif, chez le personnel militaire consulté, entre la manifestation de traits relatifs à l'identité morale et l'expression perçue de comportements de citoyenneté organisationnelle. Plus spécifiquement, les militaires qui manifestent plus de traits relatifs à l'identité morale sont plus susceptibles d'aider leur organisation et leurs collègues au travail. Deuxièmement, bien qu'elle n'exerce qu'un effet modérateur partiel sur la relation entre l'identité morale du soldat et sa capacité d'expression de comportements de citoyenneté organisationnelle, la formation en éthique contribue à renforcer le lien entre l'identité morale du soldat et sa volonté d'aider son organisation et ses collègues de travail. Troisièmement, le nombre d'années de service n'agit comme facteur modérateur que sur la relation entre l'identité morale et la conscience (conscience sociale à l'égard des FAC et importance accordée à son travail et aux valeurs de FAC) que chez les militaires comptant moins d'années de service. Quatrièmement, le grade ou séniorité n'exerce pas d'effet modérateur sur la relation entre l'identité morale du soldat et sa capacité d'expression des comportements de citoyenneté organisationnelle. Les apports théoriques (liens entre l'identité morale et les comportements de citoyenneté organisationnelle vus comme manifestation de l'éthique informelle) et pratiques (développement, par les FAC, de l'identité morale, prise en compte de l'éthique informelle, formation à l'éthique informelle) de cette recherche sont analysés. Les limites méthodologiques, notamment celles qui ont trait à l'objet de recherche, au devis de recherche et aux instruments utilisés, sont discutées. Enfin, des pistes de recherche sont suggérées, que ce soit pour compléter ou améliorer l'information étudiée dans le cadre de cette recherche.The Canadian Department of National Defense (DND) developed an ethics program for its employees, including for the Canadian Armed Forces (CAF), in the late 1990s to address some of the problems observed in the workplace and during overseas missions in which the CAF was involved. Various ways, such as training and strengthening leadership in the workplace, are used to ensure that Canadian military members comply with ethical rules and adhere to standards prescribed in codes of conduct. However, despite the implementation of this program over 20 years ago, there are still ethical issues in the field, ranging from refusal to report unethical acts to gross professional negligence (Bradley & Tymchuk 2013; Coulthard, 2013; 2013; Deschamps, 2015; Statistics Canada, 2014; Ivey, Blanc, Therrien, &. McCuaig-Edge, 2009). Thus, the formalization of ethics through codes of conduct and its promotion through training has not made it possible to eliminate inappropriate behaviour in this area or to understand how individuals engage with ethics within an organization. This thesis aims to shed light on this engagement by seeking to understand the relationship between moral identity and organizational citizenship behaviours within the CAF. This contribution may in turn enable the CAF to consider the role of extra-roles and pro-social behaviours in establishing and strengthening its soldiers' ethical behaviour. More specifically, this thesis aims to verify a model postulating direct relationships between moral identity and organizational citizenship behaviours, and a moderation of this relationship by three socio-professional characteristics retained following the literature review: training, number of years of service in the CAF and rank (term used by the CAF and in this thesis to designate the hierarchical level or seniority). The research design is transversal (synchronic) and quantitative in nature; it is justified by the fact that the data from the literature show that it is possible to measure and analyze the variables taken into account adequately. For the following three reasons, this research is carried out using secondary data from the Defense Ethics Survey -measuring ethical risk within DND / CAF, 2014-2015: 1. the number of respondents which allows to perform efficient statistical analyzes; 2. The metric qualities of the instruments used; 3. the possibility of carrying out original analyzes on the information collected. A total of 1,028 CAF Regular Force members completed the survey questionnaire, either in hard copy or electronically. The results analysis strategy was based on a combination of statistical tests. Some, such as confirmatory factor analyzes and cronbach's alphas were aimed at verifying the metric qualities of the instruments used. The others (univariate analysis of variance tests using SPSS, multivariate tests by structural equation, using AMOS) aimed to verify whether the data collected made it possible to find links going in the direction of the hypotheses. The main results emerging from the analysis can be summarized as follows . First, there is a significant and positive association, among the military members consulted, between the manifestation of traits relating to moral identity and the perceived expression of organizational citizenship behaviours. More specifically, military members who exhibit more traits relating to moral identity are more likely to help their organization and colleagues at work. Second, although it exerts only a partial moderating effect on the relationship between a soldier's moral identity and their capacity to express organizational citizenship behaviours, ethics training helps to strengthen the relationship between the soldier's morale identity and his willingness to help his organization and co-workers. Third, the number of years of service acts as a moderating factor on the relationship between moral identity and conscientiousness (social conscience towards the CAF and the importance given to one's work and CAF values) only for military members with fewer years of service. Fourth, rank or seniority does not have a moderating effect on the relationship between the soldier's moral identity and his capacity to express organizational citizenship behaviours. Theoretical contributions (relationship between moral identity and organizational citizenship behaviours seen as a manifestation of informal ethics) and practical contributions (development, by the CAF, of moral identity, taking into account of informal ethics, informal ethics training) of this research are analyzed. The methodological limits, in particular those relating to the research objective, the research design and the instruments used, are discussed. Finally, avenues of research are suggested, whether to supplement or improve the information studied in the context of this research

    Actes de l'Ecole d'Eté Temps Réel 2005 - ETR'2005

    Get PDF
    Pdf des actes disponible à l'URL http://etr05.loria.fr/Le programme de l'Ecole d'été Temps Réel 2005 est construit autour d'exposés de synthèse donnés par des spécialistes du monde industriel et universitaire qui permettront aux participants de l'ETR, et notamment aux doctorants, de se forger une culture scientifique dans le domaine. Cette quatrième édition est centrée autour des grands thèmes d'importance dans la conception des systèmes temps réel : Langages et techniques de description d'architectures, Validation, test et preuve par des approches déterministes et stochastiques, Ordonnancement et systèmes d'exploitation temps réel, Répartition, réseaux temps réel et qualité de service

    Modèle comportemental de la dynamique de construction de la structure épigée du nid chez la fourmi Lasius niger : approches expérimentales et théoriques

    Get PDF
    La structure épigée du nid de la fourmi Lasius niger, prise comme un exemple typique des structures alvéolaires construites par les insectes sociaux, résulte de l'accumulation d'actes individuels de prise, de transport et de dépôt de matériau. Nous montrons expérimentalement que ces structures émergent d'une coordination indirecte des actes de prise/dépôt par l'activité précédente : les dépôts sont plus fréquents dans les zones de forte densité, et les prises dans les zones de faible densité. Il s'agit donc d'une dynamique auto-organisée où des boucles de rétroaction amplifient des premiers dépôts aléatoires. Au cours du temps, la surface de la structure devient alvéolaire, et le déplacement des fourmis peut être affecté par ses déclivités et ses courbures. A ce stade, le processus de construction présente donc un double couplage de la structure avec d'une part les décisions comportementales de prise et de dépôt, et d'autre part le déplacement des fourmis. Pour ce dernier, nous proposons le modèle du Marcheur de Boltzmann généralisé qui intègre ces effets d'orientation par la structure. Nous proposons enfin une formulation intégrale des échanges de matériau entre points du système, qui intègre tous ces éléments. Ce formalisme confirme le critère d'émergence obtenu par l'analyse linéaire de stabilité classique sur la phase initiale et permet de comprendre les mécanismes essentiels de cette dynamique, en lien direct avec la représentation du phénomène en termes de comportements individuels.Epigenous part of the nest in the ant Lasius niger is a typical example of sponge-like structures built by social insects. It results from accumulated tiny pellets of material which are picked up, moved and dropped by individuals. We show experimentally that these structured patterns emerge from a coordination of individual decisions mediated by the evolving density of material: they pick up more often in depleted zones and drop preferentially in high-density zones. This self-organized process allows random fluctuations in early material density field to be amplified through time. The building then evolves towards a sponge-like structure, so that the surface displays slopes and curvatures, which might in turn affect motion decisions. In late stage, the coupling between density and behavioral decisions is then intricated with coupling between geometry and motion. For the latter, we designed the Generalized Boltzmann Walker model so as to integrate local geometry with random walk. We demonstrate experimentally its relevance for the effect of slopes. Eventually, we analyze the whole process within an analysis of net exchange of material between pairs of locations. We confirm then some results obtained by classical linear stability analysis, and explain essential properties of those dynamics in terms of measured individual behaviors and cognitive properties
    • …
    corecore