98 research outputs found

    Une approche de modélisation de biologie des systèmes sur la spondylarthrite

    Get PDF
    Spondyloarthritis is a frequent chronic inflammatory rheumatism, with a prevalence of 0.43 % in France. This disease presents axial skeleton injuries, but also on peripheral joints, and can results in a total spinal and sacro-iliac motility loss. Extra-articular features including uveitis, psoriasis and inflammatory bowel disease are frequent. Current SpA treatments are only symptomatic, relieving inflammatory symptoms. SpA etiology is largely multifactorial with a genetic component dominated by the long-known strong association with the HLA-B27 allele. This allele, however, is not sufficient for the disease to occur. This thesis project objective was then to identify other genetic factors in the origin of SpA.My work was mainly divided in two complementary data analyses, in a way to get a systems biology approach. The first one consisted in proceed linking analyses on data from Affymetrix genotyping chips gathered from DNA of 1310 people grouped in 210 families. This study allowed notably to detect a new significantly linked region to SpA : 13q13, with an interval of 1.3 Mb. This part of genome is currently being sequenced to allow a better causal SNP identification.Secondly, an Affymetrix HumanGene 1.0 st transcriptomic chips analysis was performed on MD-DCs extracted from 68 people, stimulated or not by LPS during 6 or 24 hours. This cohort was grouped between 23 patients HLA-B27+, 23 healthy controls HLA-B27+ and 21 healthy controls HLA-B27-. I could notice that HLA-B27 allele is farly enough to considerably affect cell transcriptomic profiles, which encourages to include HLA-B27+ healthy controls. Otherwise, a gene network analysis allowed me to highlight on an inhibition of early steps of cholesterol biosyntthesis.La Spondyloarthrite (SpA) est un rhumatisme inflammatoire chronique fréquent, avec une prévalence de 0,43 % en France. Elle consiste en une atteinte prédominante du squelette axial, mais aussi des articulations périphériques, et peut conduire à une immobilité du rachis et des articulations sacro-iliaques. Des atteintes extra-articulaires sont fréquentes, telles qu'une uvéite, un psoriasis ou une maladie inflammatoire chronique de l'intestin. Les traitements actuels ne sont que symptomatiques, ciblant principalement les manifestations inflammatoires. L'étiologie de la SpA est multifactorielle avec une composante génétique dominée par l'association forte et bien connue avec l'allèle HLA-B27. Cependant, ce facteur génétique n'est clairement pas suffisant pour induire le développement de la maladie. L'objectif de ce projet de thèse était donc d'identifier d'autres facteurs génétiques à l'origine du développement de la SpA.Mon travail a porté sur l'analyse de deux jeux de données complémentaires, dans une perspective de biologie des systèmes. Dans une première partie, j'ai conduit une analyse de liaison dans 210 familles atteintes de la maladie représentant 1310 personnes génotypées avec des puces Affymetrix 250k. Une nouvelle région significativement liée à la SpA a été détectée en 13q13, avec un intervalle de 1,3 Mb défini par des haplotypes recombinants chez les patients.Ensuite, une analyse transcriptomique des cellules dendritiques dérivées des monocytes de 23 patients HLA-B27+, 23 témoins sains HLA-B27+ et 21 témoins sains HLA-B27-, et stimulées ou non par du LPS, a tenté de distinguer les gènes dont l'expression est modifiée par la maladie de ceux influencés par l'allèle HLA-B27 seul. L'annotation fonctionnelle et une analyse par réseau de gènes ont mis en évidence l'inhibition chez les patients des étapes précoces de la biosynthèse du cholestérol

    Forêts aléatoires et sélection de variables : analyse des données des enregistreurs de vol pour la sécurité aérienne

    Get PDF
    New recommendations require airlines to establish a safety management strategy to keep reducing the number of accidents. The flight data recorders have to be systematically analysed in order to identify, measure and monitor the risk evolution. The aim of this thesis is to propose methodological tools to answer the issue of flight data analysis. Our work revolves around two statistical topics: variable selection in supervised learning and functional data analysis. The random forests are used as they implement importance measures which can be embedded in selection procedures. First, we study the permutation importance measure when the variables are correlated. This criterion is extended for groups of variables and a new selection algorithm for functional variables is introduced. These methods are applied to the risks of long landing and hard landing which are two important questions for airlines. Finally, we present the integration of the proposed methods in the software FlightScanner implemented by Safety Line. This new solution in the air transport helps safety managers to monitor the risks and identify the contributed factors.De nouvelles réglementations imposent désormais aux compagnies aériennes d'établir une stratégie de gestion des risques pour réduire encore davantage le nombre d'accidents. Les données des enregistreurs de vol, très peu exploitées à ce jour, doivent être analysées de façon systématique pour identifier, mesurer et suivre l'évolution des risques. L'objectif de cette thèse est de proposer un ensemble d'outils méthodologiques pour répondre à la problématique de l'analyse des données de vol. Les travaux présentés dans ce manuscrit s'articulent autour de deux thèmes statistiques : la sélection de variables en apprentissage supervisé d'une part et l'analyse des données fonctionnelles d'autre part. Nous utilisons l'algorithme des forêts aléatoires car il intègre des mesures d'importance pouvant être employées dans des procédures de sélection de variables. Dans un premier temps, la mesure d'importance par permutation est étudiée dans le cas où les variables sont corrélées. Nous étendons ensuite ce critère pour des groupes de variables et proposons une nouvelle procédure de sélection de variables fonctionnelles. Ces méthodes sont appliquées aux risques d'atterrissage long et d'atterrissage dur, deux questions importantes pour les compagnies aériennes. Nous présentons enfin l'intégration des méthodes proposées dans le produit FlightScanner développé par Safety Line. Cette solution innovante dans le transport aérien permet à la fois le monitoring des risques et le suivi des facteurs qui les influencent

    Contribution à l'analyse des tolérances géométriques d'un système mécanique par des polytopes

    Get PDF
    L'analyse des tolérances géométriques d'un système mécanique consiste à simuler la vérification de la conformité d'un système mécanique au regard des exigences fonctionnelles caractérisant le fonctionnement attendu du système. Cette vérification impose de prendre en compte les spécifications géométriques des pièces constitutives et les spécifications entre les pièces potentiellement en contact.Je me suis plus particulièrement focalisé sur la simulation de l'analyse des tolérances géométriques par une approche variationnelle (collaboration laboratoire MAP5, Université Paris Descartes). Une approche variationnelle consiste à ne manipuler que des contraintes caractérisant les variations géométriques entre des surfaces d'une même pièce et entre des surfaces de pièces potentiellement en contact. Cela permet de modéliser la variabilité des défauts géométriques inhérents à tout procédé de fabrication de pièces, inhérents à tout procédé d’assemblage et aussi inhérent au comportement d’un système mécanique, par exemple son comportement thermomécanique (thèse Laurent Pierre). La conformité d'un système mécanique doit être assurée pour plusieurs exigences fonctionnelles. D'autre part, une démarche d'analyse de tolérances réalisées à un stade très avancé du cycle de conception peut constater des non conformités sans pour autant influencer les différents choix d'architectures d'un système, ainsi que les formes et dimensions des pièces constitutives. Ce problème est souvent la cause de l'augmentation des délais et des coûts de développement d'un produit.Cela m'a conduit à m'orienter vers la structuration des données pour le tolérancement dans un modèle produit pour identifier les données manipulées en analyse de tolérances (thèse Jérôme Dufaure). La formalisation d'une activité de transfert de spécifications géométriques a mis en évidence la nécessité d'assurer la traçabilité des spécifications géométriques pour : couvrir le cycle de conception (aspect multi niveaux du cycle de conception d'un produit) partager les données manipulées avec d'autres expertises métiers (aspect multi vues du cycle de conception d'un produit). Le transfert d'une exigence fonctionnelle doit donc être réalisé à travers différents niveaux de détails du produit (transfert interniveaux) et également entre différentes expertises métiers liés à la fabrication, l'assemblage et la métrologie (transfert intervues). Une tentative d'extension des concepts de transfert de spécifications techniques liées au produit sur des spécifications organisationnelles inhérentes à l'entreprise assurant la conception du produit a été réalisée (thèse manuel Gonçalves). Enfin, une opportunité industrielle fortement stimulée par le contexte aquitain incitant les acteurs du pôle Aerospace Valley à développer des compétences liées aux matériaux composites, m'a conduit à aborder la problématique d'analyse de tolérances pour la fabrication liée au procédé Resin Transfer Molding (RTM) (thèse Serge Mouton). Dans un procédé impliquant des phénomènes physiques extrêmement complexes, les spécifications fonctionnelles d'une pièce de structure aéronautique ont été corrélés à des spécifications de fabrication (spécifications d'outillages, spécifications de pression d'injection et de température ...). Dans ce type travail, il n'est plus possible de travailler avec des modèles de solides infiniment rigides comme souvent en tolérancement de fabrication restreint aux procédés d'usinage. Mon activité de recherche peut donc se résumer par le développement d'une approche variationnelle de l'analyse des tolérances géométriques de systèmes de solides infiniment rigides et de systèmes dont les variations d'origine thermomécanique sont prises en comptes.Cette approche variationnelle m'a amené à considérer la problématique de structuration des données pour le tolérancement en se focalisant sur la traçabilité des spécifications d'un point de vue interniveaux et intervues. Enfin, le transfert de spécifications fonctionnelles d'une pièce élaborée par le procédé RTM a été considéré pour aborder la corrélation de spécifications fonctionnelles avec les spécifications inhérentes au procédé RTM

    Impact du ratio d’ouverture des murs de façade sur la performance lumineuse, thermique et énergétique d’un bâtiment. Cas des régions chaudes et arides

    Get PDF
    Dans les bâtiments scolaires, en particulier les salles de classe, il est impératif d’assurer un confort à la fois lumineux et thermique pour promouvoir le processus éducatif. En effet, si les conditions de confort sont insatisfaisantes, cela peut réduire considérablement les performances physiques et intellectuelles des enseignants et des apprenants. La fenêtre est un élément de l’enveloppe qui joue un rôle majeur dans le transfert de chaleur entre l’extérieur et l’intérieur ; le ratio d’ouverture des fenêtres de la façade, en particulier, a un impact significatif sur la consommation énergétique du bâtiment et la qualité des ambiances intérieures. Le maintien d'un environnement intérieur confortable et sain avec un minimum de consommation d'énergie est un défi pour les architectes surtout dans les régions où prédomine un climat chaud et sec. Dans ces régions en effet, concevoir des bâtiments naturellement éclairés, thermiquement confortables tout en consommant le moins d’énergie possible relève presque du paradoxe. Or, la conception de la façade et surtout le choix approprié de la surface transparente semble être décisif pour relever un tel défi. Le problème est encore plus complexe dans les bâtiments scolaires où il est impératif d’assurer le juste équilibre entre la lumière naturelle, le confort thermique et la consommation d'énergie, ce qui est particulièrement difficile pour les climats chauds et secs. Résoudre ce problème nécessite le développement d’une approche multicritère qui intègre les données climatiques, formelles et fonctionnelles. L'objectif principal de cette étude est d'initier une telle approche qui mettre en exergue l'impact du ratio d’ouverture des fenêtres de la façade sur la performance lumineuse, thermique, et énergétique dans les salles de classe, en prenant comme cas d’étude la ville de Biskra. La méthode proposée repose sur trois approches: conceptuelle, empirique et numérique/paramétrique. L’approche conceptuelle a permis de construire les connaissances théoriques sur le sujet, et de positionner l'étude par rapport à la littérature existante. Pour sa part, l'approche empirique a été basée sur une étude in situ dans laquelle des mesures de niveaux d’éclairement et des températures intérieures ont été effectuées pendant la période la plus froide et la période la plus chaude de l'année scolaire. Le but était d'évaluer les performances lumineuses et les conditions de confort thermiques réalisées dans les salles de classe avec des ratios d'ouvertures différents. Enfin, l’approche numérique basée sur la simulation par le logiciel évolutionnaire Rhino/Grasshopper a permis d’entreprendre une étude paramétrique visant à optimiser les paramètres de conception des fenêtres des salles de classe relativement aux conditions climatiques chaudes et arides. Le processus a commencé d’abord par la II validation du modèle numérique. Ensuite, les premiers tests de simulation consistaient à analyser l'impact combiné du ratio d’ouverture des fenêtres de la salle de classe considérant quatre paramètres clés susceptibles de l’affecter à savoir : orientation, type de vitrage, dispositif d'ombrage, composant des parois. L’évaluation de la performance du modèle s’est faite en termes de niveau d’éclairement, conditions de confort thermique, et consommation énergétique annuelle. Finalement, une méthode d’optimisation a été appliquée à l'aide d'une approche paramétrique et d'un calcul multi-objectifs évolutif via le plug-in Octopus pour Grasshopper. En variant l’orientation de la salle de classe, divers rapports fenêtres/mur, types de verre et dispositifs d'ombrage ont été combinés, pour dériver des solutions potentielles qui permettraient d'obtenir un bon équilibre entre la lumière du jour et le confort thermique, tout en assurant une faible consommation d'énergie. Les résultats donnent un aperçu de l'interaction entre les différents paramètres de l'enveloppe du bâtiment dans les climats chauds et secs, ainsi que des indications pour explorer différentes combinaisons et choix possibles en vue d’optimiser la conception de la façade et choisir les caractéristiques de la surface transparente les plus appropriées pour le contexte climatique considéré. Lorsqu'ils sont intégrés à une simulation plus détaillée ou à d'autres objectifs de performance qui font généralement partie des bonnes pratiques de conception, ces paramètres peuvent être un outil utile pour réussir une conception climatique et améliorer les performances du bâtiment. Dans le cadre de la présente recherche, des solutions potentielles pour différentes orientations ont été explorées, fournissant des recommandations pour les ratios fenêtre/mur dans les bâtiments scolaires dans un climat chaud et sec. Les résultats montrent, également, comment une méthodologie d'optimisation peut être utilisée dans les premières étapes du processus de conception du bâtiment pour déterminer les paramètres architecturaux propres à l'enveloppe pouvant assurer la performance environnementale du bâtiment, à la fois en termes de confort et d’efficacité énergétiqu

    Efficience de la recherche dans les écoles de gestion au Canada : modélisation par des approches paramétriques et non-paramétriques

    Get PDF
    La production des connaissances revêt une grande valeur pour les gouvernements, les universités et les chercheurs. Pour ces derniers, aujourd’hui plus que jamais, la recherche prend de plus en plus d’importance dans leurs portefeuilles d’activités. Plusieurs facteurs motivent cette nouvelle tendance, notamment l’adoption, dans plusieurs pays, de systèmes de financement de la recherche axée sur la productivité, la concurrence en matière de recherche qui est devenue mondiale, la prolifération des outils uniformisés de mesure de l’excellence scientifique, et l’importance de la performance et de la productivité en recherche dans la réussite de la trajectoire de carrière des chercheurs. Cependant, la performance des chercheurs universitaires est très variable, tant entre les disciplines qu’au sein d’une même discipline. Ces constats renforcent la pertinence de questionner l’allocation et la gestion des ressources dans le domaine de la recherche universitaire. La présente étude s’attaque à cette problématique dans le cadre spécifique de la recherche dans les Écoles de gestion au Canada. Son objectif général est, d’une part, de dresser un portrait détaillé de l’avancement des connaissances sur le concept de l’efficience de la recherche académique et d’identifier les principaux jalons qui ont marqué son évolution au cours des deux dernières décennies et, d’autre part, d’évaluer l’efficience en matière de publications et de citations des chercheurs dans les Écoles de gestion au Canada et d’identifier les déterminants susceptibles d’expliquer les écarts d’efficience entre eux. La thèse est structurée en trois articles. Le premier article a préconisé la méthode de la revue systématique de la littérature et celle du « vote counting » pour édifier un cadre conceptuel intégrateur des intrants, des extrants et des déterminants de l’efficience de la recherche académique. Il a également permis d’identifier plusieurs opportunités de recherche pour contribuer à l’avancement des connaissances dans ce champ d’étude. Le deuxième article a utilisé une nouvelle méthode, « The Reference Publication Year Spectroscopy » pour étudier en profondeur le concept de l’efficience de la recherche académique en identifiant ses racines historiques ainsi que les contributions qui ont conditionné son évolution. Ces deux premiers articles ont permis de satisfaire à la première partie de l’objectif général de cette recherche : « dresser un portrait détaillé de l’avancement des connaissances sur le concept de l’efficience de la recherche académique et d’identifier les principaux jalons qui ont marqué son évolution au cours des deux dernières décennies ». Tirant profit des constats et des contributions potentielles à l’avancement des connaissances identifiés dans les deux premiers articles, le troisième article de la thèse a estimé des frontières paramétriques et nonparamétriques de l’efficience en matière de publications et de citations des chercheurs dans huit disciplines de recherche dans les Écoles de gestion au Canada. Il a également identifié plusieurs déterminants des écarts d’efficience entre les chercheurs affiliés à ces Écoles. Entre autres, les résultats de ce troisième article ont montré que les niveaux d’efficience diffèrent d’une manière significative d’un champ disciplinaire à un autre, et au sein même des champs disciplinaires, et que l'accréditation AACSB, l'affiliation à des universités prestigieuses, la taille de l'institution, les sources de financement et la séniorité sont positivement associées à des niveaux d’efficience élevés. Les résultats des trois articles ont permis de suggérer quelques pistes de réflexion et d’intervention pouvant améliorer l’efficience de la recherche académique des chercheurs en général, et de ceux affiliés aux Écoles de gestion au Canada, en particulier.The production of knowledge is of great importance to governments, universities and researchers. For the latter, today more than ever, research is becoming more and more important in their portfolios of activities. A number of factors are driving this new trend, including the introduction of productivity-driven research funding systems in a number of countries, global competition for research, the proliferation of standardized tools for assessing scientific excellence, and the importance of research performance and productivity in researchers’ career path success. However, the performance of university researchers varies greatly between disciplines and within the same discipline. These findings reinforce the relevance of questioning the allocation and management of resources in the field of university research. This study addresses this issue in the specific context of research in Canadian Business Schools. Its aims, on the one hand, to draw a detailed portrait of the advancement of knowledge on the concept of the efficiency of academic research and to identify the main milestones that have marked its evolution over the last two decades and, on the other hand, to evaluate the efficiency of academic research of Canadian Business Schools’ scholars and to identify the determinants that may explain the differences in efficiency between them. The thesis allowed the production of three articles. The first one used the systematic review of the literature and the method of vote counting to build an integrative conceptual framework of inputs, outputs, and determinants of the efficiency of academic research. It has also identified several research opportunities to contribute to the advancement of knowledge in this field of study. The second article used a new method, The Reference Publication Year Spectroscopy, to study in depth the concept of the efficiency of academic research by identifying its historical roots as well as the contributions that marked its evolution. These first two articles made it possible to satisfy the first part of the general objective of this research: “to draw a detailed portrait of the advancement of knowledge on the concept of the efficiency of academic research and to identify the main milestones that have marked its evolution over the last two decades”. Taking advantage of the findings and potential contributions to the advancement of knowledge identified in the first two articles, the third article estimated parametric and non-parametric frontiers of efficiency of scholars’ publications and citations in eight research disciplines in Canadian Business schools. It also allowed to identify several levers of efficiency gaps among researchers affiliated with these schools. Among other things, the results of this third article showed that efficiency scores differ significantly from one disciplinary field to another, and even within disciplinary fields, and that AACSB accreditation, affiliation to prestigious universities, size of institution, sources of funding and seniority are positively associated with high levels of efficiency. The findings of the three articles devised some lines of action that might improve the efficiency of academic research for researchers in general and those affiliated with Canadian Business schools, in particular

    Analyse statistique de populations pour l'interprétation d'images histologiques

    Get PDF
    During the last decade, digital pathology has been improved thanks to the advance of image analysis algorithms and calculus power. However, the diagnosis from histopathology images by an expert remains the gold standard in a considerable number of diseases especially cancer. This type of images preserves the tissue structures as close as possible to their living state. Thus, it allows to quantify the biological objects and to describe their spatial organization in order to provide a more specific characterization of diseased tissues. The automated analysis of histopathological images can have three objectives: computer-aided diagnosis, disease grading, and the study and interpretation of the underlying disease mechanisms and their impact on biological objects. The main goal of this dissertation is first to understand and address the challenges associated with the automated analysis of histology images. Then it aims at describing the populations of biological objects present in histology images and their relationships using spatial statistics and also at assessing the significance of their differences according to the disease through statistical tests. After a color-based separation of the biological object populations, an automated extraction of their locations is performed according to their types, which can be point or areal data. Distance-based spatial statistics for point data are reviewed and an original function to measure the interactions between point and areal data is proposed. Since it has been shown that the tissue texture is altered by the presence of a disease, local binary patterns methods are discussed and an approach based on a modification of the image resolution to enhance their description is introduced. Finally, descriptive and inferential statistics are applied in order to interpret the extracted features and to study their discriminative power in the application context of animal models of colorectal cancer. This work advocates the measure of associations between different types of biological objects to better understand and compare the underlying mechanisms of diseases and their impact on the tissue structure. Besides, our experiments confirm that the texture information plays an important part in the differentiation of two implemented models of the same disease.Au cours de la dernière décennie, la pathologie numérique a été améliorée grâce aux avancées des algorithmes d'analyse d'images et de la puissance de calcul. Néanmoins, le diagnostic par un expert à partir d'images histopathologiques reste le gold standard pour un nombre considérable de maladies notamment le cancer. Ce type d'images préserve la structure des tissus aussi proches que possible de leur état vivant. Ainsi, cela permet de quantifier les objets biologiques et de décrire leur organisation spatiale afin de fournir une description plus précise des tissus malades. L'analyse automatique des images histopathologiques peut avoir trois objectifs: le diagnostic assisté par ordinateur, l'évaluation de la sévérité des maladies et enfin l'étude et l'interprétation des mécanismes sous-jacents des maladies et leurs impacts sur les objets biologiques. L'objectif principal de cette thèse est en premier lieu de comprendre et relever les défis associés à l'analyse automatisée des images histologiques. Ensuite, ces travaux visent à décrire les populations d'objets biologiques présents dans les images et leurs relations et interactions à l'aide des statistiques spatiales et également à évaluer la significativité de leurs différences en fonction de la maladie par des tests statistiques. Après une étape de séparation des populations d'objets biologiques basée sur la couleur des marqueurs, une extraction automatique de leurs emplacements est effectuée en fonction de leur type, qui peut être ponctuel ou surfacique. Les statistiques spatiales, basées sur la distance pour les données ponctuelles, sont étudiées et une fonction originale afin de mesurer les interactions entre deux types de données est proposée. Puisqu'il a été montré dans la littérature que la texture d'un tissu est altérée par la présence d'une maladie, les méthodes fondées sur les motifs binaires locaux sont discutées et une approche basée sur une modification de la résolution de l'image afin d'améliorer leur description est introduite. Enfin, les statistiques descriptives et déductives sont appliquées afin d'interpréter les caractéristiques extraites et d'étudier leur pouvoir discriminant dans le cadre de l'étude des modèles animaux de cancer colorectal. Ce travail préconise la mesure des associations entre différents types d'objets biologiques pour mieux comprendre et comparer les mécanismes sous-jacents des maladies et leurs impacts sur la structure des tissus. En outre, nos expériences confirment que l'information de texture joue un rôle important dans la différenciation des deux modèles d'implantation d'une même maladie

    Évolution fonctionnelle et clinique d'individus ayant une amputation du membre inférieur

    Get PDF
    L’utilisation d’une nouvelle prothèse à la suite d’une amputation d’un membre inférieur (MI) demande une ré acquisition de la capacité de marcher, ce qui peut mener à différentes stratégies de mouvement. Malgré les connaissances actuelles des stratégies de mouvement employées chez la population des individus ayant une amputation du MI (IA), aucune étude n’a évalué leur évolution lors d’un exercice de marche prolongée et à la suite d’un retour en milieu écologique. Pourtant, une diminution des performances à la marche pourrait être observée suivant l’apparition de la fatigue et/ou suivant une diminution du temps alloué aux activités physiques quotidiennes. C’est pourquoi l’objectif de cette étude est de quantifier les paramètres de marche des IA 1) lors d’un test de marche de six minutes (TM6) à la fin de leur réadaptation et 2) lors d’un TM6 six semaines suivant la fin de leur réadaptation. Nous posons l’hypothèse que l’ajout de centrales inertielles lors de l’évaluation de la marche des IA en milieu clinique permettra de caractériser les stratégies adoptées. Nous nous attendons à une dégradation de ces paramètres sur une période de six minutes de marche en continu ainsi que sur une période de six semaines suivant la fin des traitements de réadaptation. Pour ce faire, des centrales inertielles ont été utilisées, puisqu’elles permettent de quantifier les paramètres spatio-temporels et cinématiques de la marche dans différents environnements et populations, permettant l’acquisition de données « sur le terrain ». Au total, 17 IA on fait le TM6 à T1 et T2 avec des centrales inertielles posées sur chacun de leur pied pour enregistrer leurs paramètres de marche (c.-à-d. dégagement minimal des orteils (minTC), phase de chargement (LDr), phase de pied plat (FFr), largeur de pas en phase oscillante, longueur de foulée, vitesse et cadence). Une analyse ANOVA non paramétrique a comparé 1) l’évolution des paramètres de marche sur une période de six minutes et 2) l’évolution des paramètres de marche entre T1 et T2. Un test de Wilcoxon des rangs signés a été exécuté lorsqu’une interaction était détectée dans l’ANOVA (P < 0.05). Contrairement à l’hypothèse posée en début de projet, une amélioration des performances au membre prothétique (AL) entre T1 et T2 a été observée (largeur de pas en phase d’oscillation, vitesse et cadence augmentées, et la phase d’appui diminuée). Cependant, le minTC n’a pas évolué proportionnellement à la vitesse de marche. Finalement, les capacités physiques et à la marche se sont améliorées entre T1 et T2 dans la population des IA malgré une incapacité d’adapter leur minTC (c.-à-d.., d’augmenter le minTC proportionnellement à la vitesse de marche) à l’augmentation de leur vitesse de marche. Ce phénomène pourrait être expliqué par un patron de marche déficient utilisant la stratégie de « hip hiking » caractérisé par un large minTC et petite largeur de pas à T1 qui s’est amélioré à T2. Toutefois, un petit minTC est aussi relié à un plus grand risque de chute. Ainsi, l’évaluation des paramètres de marche des IA en milieu clinique de même qu’un programme de réadaptation à distance ciblant l’amélioration des paramètres de marche en lien avec la réduction du risque de chute est primordial pour assurer un retour sécuritaire en communauté.The use of a new prosthetic limb following a lower limb amputation demands a reacquisition of the ability to walk, leading to different gait strategies. Although those strategies have been identified in the lower limb amputee (LLA) population, no studies have assessed their evolution following a return in the ecological environment. Indeed, decreased gait performances could be observed following the onset of fatigue and/or a decline of the daily active time. Therefore, the aim of this study was to quantify the gait parameters of the LLA 1. Along a six-minute walk test (6MWT) following their rehabilitation and 2. Along a 6MWT six weeks following the end of the rehabilitation. It is hypothesized that the use of inertial sensors during the assessment of the IA’s gait parameters will allow the characterisation of their adopted gait strategies. We are expecting a deterioration of the gait parameters along a six-minute continuous walk and six weeks following the end of the rehabilitation treatments. To do so, inertial measurement units (IMU) have been used, as they are effective to quantify gait in different environments and populations, allowing data acquisition in “real-life”. Seventeen LLA performed a six-minute walk test (6MWT) at T1 and T2 with inertial sensors fixed on both feet to register their gait parameters (i.e. minimum toe clearance (minTC), loading ratio (LDr), flat foot ratio (FFr), swing width, step length, speed and cadence). A non-parametric ANOVA compared 1) the evolution of the gait parameters over a 6MWT and 2) the evolution of the gait parameters over T1 and T2. Post-hoc Wilcoxon signed-rank tests were performed if a main effect was detected (P < 0.05). A performance improvement on the amputated limb (AL) between T1 and T2 has been observed (swing width, speed and cadence increased, added to a decreased stance phase). However, the minTC did not evolve proportionally to the speed. Physical capacity and walking abilities have increased between T1 and T2 in LLA population despite the inability to adapt their minTC (i.e. to increase the minTC proportionally to the gait speed) to an increased speed. It could be explained by a poor walking pattern using a hip hiking strategy including a high minTC and a small step width at T1 that improved (lower minTC than at T1) at T2. However, a small minTC is related to higher risks of fall. Therefore, the evaluation of the LLA’s gait parameters in clinical settings added to a home rehabilitation programme focused on the reduction of the risks of fall is primordial to ensure a secure return in the community

    Etude en IRM des modifications des connectivités cérébrales anatomique et fonctionnelle en fonction de l'âge chez le sujet sain

    Get PDF
    Notre travail a consisté à analyser les modifications au cours de l'âge des connectivités cérébrales anatomique et fonctionnelle. Pour chaque participant, 47 hommes sains (20-65 ans), plusieurs séquences IRM ont été acquises (IRM Philips 3T) : une image anatomique T1 (calcul de l'épaisseur corticale et évaluation de l'atrophie cérébrale), une image de diffusion 32 directions (extraction de la fraction d'anisotropie et la diffusivité moyenne et réalisation de la tractographie) et trois imageries fonctionnelles, au repos, durant une tâche motrice et une attentionnelle, (permettent l'analyse de la connectivité fonctionnelle grâce à des méthodes d'Analyse en Composantes Indépendantes et des méthodes basées sur l'étude statistique des réseaux : Network Based Statistics). Nous avons utilisé les logiciels SPM8 (Statistical Parametric Mapping), MATLAB (The MathWorks, Inc), FSL (FMRIB Software Library), et Statistica (Statsoft). L'imagerie fonctionnelle a permis de mettre en évidence le rôle joué par le Gyrus Angulaire (dont de nombreuses connexions se modifient), et des modifications intervenant dans le réseau du Default-Mode et celui de la Mémoire de Travail (diminutions dans le lobe frontal). Nous avons également observé une diminution de l'orientation des fibres dans la partie antérieure du Corps Calleux et dans le cervelet. L'étude de la connectivité anatomique a montré un ensemble de sous-réseaux d'aires structurellement liées qui résistent au cours de l'âge. Les retombées de ce projet se trouvent dans les potentialités d'application à diverses maladies neurodégénératives puisqu'il permet une meilleure caractérisation du vieillissement physiologique.Our study was focused on the changes of anatomical and functional brain connectivity during aging. We acquired for each participant (47 male subjects, healthy, aged from 20 to 65) several MRI imaging (Philips 3T MRI): an anatomical sequence (T1 weighted image), a sequence of diffusion imaging in 32 directions and three sequences of functional imaging (at rest, during a motor task and an attentional). The anatomical image allows us to assess the brain atrophy and calculate the cortical thickness. With the diffusion tensor imaging (DTI) we have extracted fractional anisotropy and mean diffusivity and we have realized tractography. We used different software as SPM8 (Statistical Parametric Mapping), MATLAB (The MathWorks, Inc.) and Statistica (Statsoft). We have analyzed the functional connectivity with the 3 sequences of fMRI using methods of Independent Component Analysis, and methods based on statistical analysis of networks (Network Based Statistics). Functional imaging has showed the role played by the Angular Gyrus (including many modifications on connections), and changes occurring in the Default-Mode Network and the Working Memory (decreases in the frontal lobe). Furthermore, we have demonstrated a decrease in fiber orientation in the anterior part of the Corpus Callosum, and in the cerebellum. Due to the study of anatomical connectivity, we have defined a set of sub-networks that resist structurally with age. Our contribution will allow a better characterization of the effect of normal aging on brain connectivity. Besides, benefits of this study may be useful for the comprehension of neurodegenerative diseases such as Alzheimer and Parkinson

    Comparaison des méthodes d'analyse de l'expression différentielle basée sur la dépendance des niveaux d'expression

    Full text link
    La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.Microarrays remain an important tool for the measurement of gene expression, and a myriad of methods for their pre-processing or statistical testing of differential expression has been proposed in the past. However, insufficient and sometimes contradictory evidence has prevented the emergence of a strong consensus over a preferred methodology. This leaves microarray practitioners to somewhat arbitrarily decide which method should be used to analyze their data. Here we present a novel approach to the problem of comparing methods for the identification of differentially expressed genes. Over eight hundred analytic pipelines were applied to more than a hundred independent microarray experiments. The accuracy of each analytic pipeline was assessed by measuring the average level of co-regulation uncovered across all data sets. This analysis thus relies on a varied set of biologically relevant data, does not confound reproducibility for accuracy and can easily be extended to future analytic pipelines. This procedure identified FARMS summarization and the TREAT gene ordering statistic as algorithms significantly more accurate than other alternatives. Most interestingly, our results corroborate recent findings about the importance of taking the magnitude of change into account along with an assessment of statistical significance
    corecore