15 research outputs found

    Aptitude visuelle Ă  la conduite automobile: exemple des candidats au permis de conduire Ă  Libreville

    Get PDF
    L'objectif était d'évaluer l'aptitude visuelle à la conduite automobile des candidats au permis de conduire à Libreville. Il s'agissait d'une étude transversale, descriptive et analytique, qui s'est déroulée à Libreville  pendant la période du 4 avril 2012 au 14 juillet 2012 (soit 4 mois et 10 jours). La population d'étude  concernait les candidats soumis aux épreuves d'obtention du permis de conduire. Nous avons inclus dans notre travail, les candidats, ayant donné leur consentement par écrit et exclus ceux refusant d'adhérer à l'enquête. Les variables étudiées concernaient l'âge, le sexe, la population d'étude, l'activité  professionnelle, l'acuité visuelle de loin et de près, la vision des couleurs, la catégorie du permis de  conduire, et l'aptitude visuelle à la conduite automobile. La saisie et l'analyse des données ont été  collectées au moyen d'une fiche d'enquête standardisée; après vérification et validation, elles ont été  saisies sur le logiciel Excel Windows et analysées sur le logiciel Epi Info version 3.5.1. L'âge moyen des 406 candidats était de 29 ans ± 6,65 ans avec des extrêmes allant de 17 ans à 52 ans. Les hommes  représentaient 283 (69,7%) et les femmes 123 (30,3%), soit un ratio de 2,3. Les fonctionnaires étaient retrouvés dans 39,4 % des cas, suivi des élèves-étudiants dans 33,5%. Dans notre population d'étude, 71 sur 406 candidats avaient une baisse de l'acuité visuelle de loin, soit 17,5%. Dans notre série, nous avons retrouvés 34 candidats âgés de 40 ans et plus, et seulement 14 candidats (41,2%) avaient une baisse de l'acuité visuelle de près. La quasi-totalité des patients avaient une vision de couleurs normale  (99,5%), cependant 2 candidats avaient une vision de couleurs anormale, soit une prévalence de 0,5%. Dans notre échantillon, 403 (99,3%) sollicitaient un permis de conduire de catégorie léger (perms A, A1, B, F) et 3 (0,7%) sollicitaient un permis de conduire de type lourd ( C,D,E). Les candidats pour la  catégorie de permis légers étaient inaptes dans 10 cas soit 2,5% de la population d'étude. Toutefois, tous les candidats à la catégorie de permis lourd étaient aptes à la conduite automobile. Nos résultats  montraient que 2,5% des candidats étaient inaptes à la conduite automobile et que l'examen  ophtalmologique n'avait pas été réalisé pour la quasi- totalité des candidats dans le cadre de l'obtention du permis de conduire. Rappelons toutefois que, l'évaluation de l'aptitude visuelle du futur conducteur  constitue un acte de prévention de sécurité routière et qu'il revient donc à l'ophtalmologiste de délivrer le  certificat d'aptitude visuelle à la conduite, pour s'assurer que le candidat au permis de conduire ne  présente pas d'affection visuelle incompatible avec la conduite automobile.Key words: Aptitude visuelle, permis de conduire, acuité visuelle, vision des couleurs, Libreville

    Ordonnancement des systèmes avec différents niveaux de criticité

    Get PDF
    Real-time safety-critical systems must complete their tasks within a given time limit. Failure to successfully perform their operations, or missing a deadline, can have severe consequences such as destruction of property and/or loss of life. Examples of such systems include automotive systems, drones and avionics among others. Safety guarantees must be provided before these systems can be deemed usable. This is usually done through certification performed by a certification authority.Safety evaluation and certification are complicated and costly even for smaller systems.One answer to these difficulties is the isolation of the critical functionality. Executing tasks of different criticalities on separate platforms prevents non-critical tasks from interfering with critical ones, provides a higher guaranty of safety and simplifies the certification process limiting it to only the critical functions. But this separation, in turn, introduces undesirable results portrayed by an inefficient resource utilization, an increase in the cost, weight, size and energy consumption which can put a system in a competitive disadvantage.To overcome the drawbacks of isolation, Mixed Criticality (MC) systems can be used. These systems allow functionalities with different criticalities to execute on the same platform. In 2007, Vestal proposed a model to represent MC-systems where tasks have multiple Worst Case Execution Times (WCETs), one for each criticality level. In addition, correctness conditions for scheduling policies were formally defined, allowing lower criticality jobs to miss deadlines or be even dropped in cases of failure or emergency situations.The introduction of multiple WCETs and different conditions for correctness increased the difficulty of the scheduling problem for MC-systems. Conventional scheduling policies and schedulability tests proved inadequate and the need for new algorithms arose. Since then, a lot of work has been done in this field.In this thesis, we contribute to the study of schedulability in MC-systems. The workload of a system is represented as a set of jobs that can describe the execution over the hyper-period of tasks or over a duration in time. This model allows us to study the viability of simulation-based correctness tests in MC-systems. We show that simulation tests can still be used in mixed-criticality systems, but in this case, the schedulability of the worst case scenario is no longer sufficient to guarantee the schedulability of the system even for the fixed priority scheduling case. We show that scheduling policies are not predictable in general, and define the concept of weak-predictability for MC-systems. We prove that a specific class of fixed priority policies are weakly predictable and propose two simulation-based correctness tests that work for weakly-predictable policies.We also demonstrate that contrary to what was believed, testing for correctness can not be done only through a linear number of preemptions.The majority of the related work focuses on systems of two criticality levels due to the difficulty of the problem. But for automotive and airborne systems, industrial standards define four or five criticality levels, which motivated us to propose a scheduling algorithm that schedules mixed-criticality systems with theoretically any number of criticality levels. We show experimentally that it has higher success rates compared to the state of the art.We illustrate how our scheduling algorithm, or any algorithm that generates a single time-triggered table for each criticality mode, can be used as a recovery strategy to ensure the safety of the system in case of certain failures.Finally, we propose a high level concurrency language and a model for designing an MC-system with coarse grained multi-core interference.Les systèmes temps-réel critiques doivent exécuter leurs tâches dans les délais impartis. En cas de défaillance, des événements peuvent avoir des catastrophes économiques. Des classifications des défaillances par rapport aux niveaux des risques encourus ont été établies, en particulier dans les domaines des transports aéronautique et automobile. Des niveaux de criticité sont attribués aux différentes fonctions des systèmes suivant les risques encourus lors d'une défaillance et des probabilités d'apparition de celles-ci. Ces différents niveaux de criticité influencent les choix d'architecture logicielle et matérielle ainsi que le type de composants utilisés pour sa réalisation. Les systèmes temps-réels modernes ont tendance à intégrer sur une même plateforme de calcul plusieurs applications avec différents niveaux de criticité. Cette intégration est nécessaire pour des systèmes modernes comme par exemple les drones (UAV) afin de réduire le coût, le poids et la consommation d'énergie. Malheureusement, elle conduit à des difficultés importantes lors de leurs conceptions. En plus, ces systèmes doivent être certifiés en prenant en compte ces différents niveaux de criticités.Il est bien connu que le problème d'ordonnancement des systèmes avec différents niveaux de criticités représente un des plus grand défi dans le domaine de systèmes temps-réel. Les techniques traditionnelles proposent comme solution l’isolation complète entre les niveaux de criticité ou bien une certification globale au plus haut niveau. Malheureusement, une telle solution conduit à une mauvaise des ressources et à la perte de l’avantage de cette intégration. En 2007, Vestal a proposé un modèle pour représenter les systèmes avec différents niveaux de criticité dont les tâches ont plusieurs temps d’exécution, un pour chaque niveau de criticité. En outre, les conditions de validité des stratégies d’ordonnancement ont été définies de manière formelle, permettant ainsi aux tâches les moins critiques d’échapper aux délais, voire d’être abandonnées en cas de défaillance ou de situation d’urgence.Les politiques de planification conventionnelles et les tests d’ordonnoncement se sont révélés inadéquats.Dans cette thèse, nous contribuons à l’étude de l’ordonnancement dans les systèmes avec différents niveaux de criticité. La surcharge d'un système est représentée sous la forme d'un ensemble de tâches pouvant décrire l'exécution sur l'hyper-période de tâches ou sur une durée donnée. Ce modèle nous permet d’étudier la viabilité des tests de correction basés sur la simulation pour les systèmes avec différents niveaux de criticité. Nous montrons que les tests de simulation peuvent toujours être utilisés pour ces systèmes, et la possibilité de l’ordonnancement du pire des scénarios ne suffit plus, même pour le cas de l’ordonnancement avec priorité fixe. Nous montrons que les politiques d'ordonnancement ne sont généralement pas prévisibles. Nous définissons le concept de faible prévisibilité pour les systèmes avec différents niveaux de criticité et nous montrons ensuite qu'une classe spécifique de stratégies à priorité fixe sont faiblement prévisibles. Nous proposons deux tests de correction basés sur la simulation qui fonctionnent pour des stratégies faiblement prévisibles.Nous montrons également que, contrairement à ce que l’on croyait, le contrôle de l’exactitude ne peut se faire que par l’intermédiaire d’un nombre linéaire de préemptions.La majorité des travaux reliés à notre domaine portent sur des systèmes à deux niveaux de criticité en raison de la difficulté du problème. Mais pour les systèmes automobiles et aériens, les normes industrielles définissent quatre ou cinq niveaux de criticité, ce qui nous a motivés à proposer un algorithme de planification qui planifie les systèmes à criticité mixte avec théoriquement un nombre quelconque de niveaux de criticité. Nous montrons expérimentalement que le taux de réussite est supérieur à celui de l’état de la technique

    Sensors data fusion for the absolute localisation of a mobile robot by a possibility theory based method. Comparison with Kalman filter

    Get PDF
    In order to improve autonomous system, it is necessary to determine accurately its position . In this paper, a method based on possibility theory has been developed in the experimental framework of the localisation of a miniature mobile robot from odometry reading and exteroceptive sensors into an environment equipped with beacons . The data are modelled in the setting of the possibility theory which provides interesting tools of representing imprecision and uncertainty . A comparison with a classical method (Kalman filter) taken as a reference is realised . Basically, the fusion procedure by Kalman filtering method can be seen as a weighted average by the information uncertainties . Its principle is to favour the information with low uncertainty (i.e. low variance) and to realise a fusion by "minimisation of variance" . On the other hand, the adaptive combination rule used in the possibilistic method takes into account the level of conflict between the sources and favour the redundancy of the information which are in agreement . Then, it is rather a fusion by "agreement" . In spite of these fundamental discrepancies, the outcomes of simulation and/or of experiences on the real robot, obtained by both methods are satisfactory and quite close .Pour améliorer l'autonomie d'un système mobile, il nécessaire de pouvoir déterminer précisément sa position. Dans cet article, une méthode basée sur la théorie des possibilités a été développée dans le cadre applicatif de la localisation d'un robot mobile miniature à partir de données odométriques et extéroceptives dans un environnement balisé. La modélisation des données est réalisée dans le cadre de la théorie des possibilités qui fournit des outils intéressants de représentation de l'imprécision et de l'incertitude. De plus, les contraintes souples qui régissent cette théorie permettent un choix étendu pour la combinaison des informations issues des différentes sources, allant du mode conjonctif au mode disjonctif en passant par le mode compromis. Nous nous sommes particulièrement intéressés ici à la règle de combinaison adaptative proposée par Dubois et Prade. Une chaîne complète de fusion des données odométriques et extéroceptives sous forme de distributions de possibilité est ainsi proposée et mise en oeuvre pour la localisation aussi bien en simulation que par des expériences réelles. Cette méthode fait l'objet d'une comparaison détaillée avec la méthode du filtrage de Kalman. Alors que la méthode de Kalman réalise une fusion par moyenne pondérée par l'incertitude liée aux informations (fusion par minimisation de la variance) la méthode possibiliste privilégie, elle, la redondance des informations fournies par les sources (fusion par concordance). Malgré ces différences fondamentales, les résultats obtenus par les deux approches sont assez voisines et la méthode possibiliste possède a priori une meilleure robustesse pour traiter des données conflictuelles

    La diphthongue «oi» dans le parler «brayon» d'Edmundston, Nouveau-Brunswick

    Get PDF
    La graphie «oi» représente généralement la prononciation [wa] en français standard, mais nous avons aux niveaux populaire et dialectal tout un éventail de variantes qui vont de [we] jusqu'à [wo]. La manière dont cette diphtongue se réalise est liée dans une large mesure au mot où elle se trouve. D’une part, un grand groupe lexical est caractérisé par l'emploi de la variable (w a), avec, à Edmundston, des réalisations surtout antérieures en [we, wæ, w ae, wa], et peu de réalisations postérieures en [w a]. D'autre part, un petit sous-groupe (pois, poids, bois (substantif), mois, trois, noix) est caractérisé par l'emploi de la variable (w a), avec des réalisations surtout postérieures en [w a, w d , w d ], et peu de réalisations en [wa]. Selon nos données, il y a dans le parler «brayon» d'Edmundston un effet marqué de l'âge sur la réalisation de la variable (w a), l'emploi de la variante traditionnelle acadienne [we] diminuant progressivement avec l'âge des sujets. Par contre, en ce qui concerne la variable (w a), la réalisation plus ferm ée [w d ] est aussi courante chez les jeunes que chez les âgés, trait qui reflète peut-être l'influence du parler québécois avoisinant. La structure syllabique joue aussi un rôle important dans le cas de la variable (w a), la réalisation [we] étant plus fréquente en syllabe ferm ée qu’en syllabe ouverte. Les résultats sont moins décisifs en ce qui concerne les autres facteurs sociolinguistiques considérés, à savoir le sexe, et le contexte stylistique. Unecomparaison avec d’autres variétés d'acadien au sud-est et au nord-est du Nouveau-Brunswick, et en Nouvelle-Écosse, révèle des similitudes et des différences intéressantes

    Structure, variations temporelles et interactions biotiques du microbiote souterrain du canola (B. napus L.) dans les Prairies Canadiennes

    Full text link
    Les plantes, par leurs racines, offrent une myriade de niches écologiques pour les microorganismes du sol, et ceux-ci la protègent contre les attaques parasitaires et les stress abiotiques, et favorisent son approvisionnement en nutriments et en eau. Cependant, dans le sol, la plante joue aussi un rôle important lorsqu’elle émet depuis ses racines des composés qui influencent la composition des communautés microbiennes dudit sol, ce combiné à un changement du pH du sol par la plante et son apport en matière organique ainsi qu’en oxygène. Ces composés influencent les membres du microbiote souterrain de la plante et donc indirectement la plante elle-même. Plus on a une diversité du couvert végétal, plus la diversité des microorganismes du sol va être élevée et inversement, plus un sol sera divers en matière de microbes plus les plantes qui y poussent tendent à être en bonne santé. Pour une plante en particulier, il n’est pas inhabituel de développer des relations spécifiques avec des microorganismes eux aussi spécifiques qui vont améliorer sa survie. Cependant, une plante peut vivre dans différents environnements et les sols sont divers, donc les plantes doivent s’adapter aux microbes qu’elles trouvent à proximité en sélectionnant les microbes les plus bénéfiques pour elles. Du coup, il est possible que quel que soit l’environnement dans lequel la plante pousse, quelques microbes soit si importants pour sa survie et son développement qu’on les retrouve toujours en association avec ladite plante. Ces microbes toujours en association avec une plante donnée constituent une unité théorique nommée core microbiote dans la littérature scientifique. La gestion du microbiote des plantes cultivées pourrait améliorer la résistance au stress et la productivité des plantes cultivées et il est donc important d’en comprendre le fonctionnement. A ce jour, le microbiote souterrain des plantes demeure largement une « boîte noire » en raison de son incroyable complexité due à la diversité faramineuse des microorganismes qui le constituent. Au cours de ma recherche doctorale, j’ai voulu participer à ouvrir encore un peu plus cette « boite noire » pour augmenter la connaissance du fonctionnement et de la structure du microbiote souterrain des plantes. Pour ce faire, j’ai utilisé le canola (B. napus) comme plante modèle. J’ai étudié le microbiote racinaire, tel qu’influencé par le niveau de diversification du système cultural, à l’aide d’un dispositif expérimental établi par Agriculture et Agroalimentaire Canada à cinq emplacements dans la prairie canadienne en 2008. Le canola, B. napus est une Brassicaceae économiquement importante, mais aussi intéressante en tant que plante modèle, car le canola est associé à des communautés microbiennes racinaire moins complexes que bien d’autres plantes, à cause de sa production de composés antimicrobiens. J’ai utilisé le séquençage d’amplicons, des analyses statistiques multivariées et l’analyse de réseau pour approcher cette complexité et: i) vérifier l’impact de la diversification du système de rotation cultural sur les communautés microbiennes souterraines du canola, ii) établir si un core microbiote fongique et bactérien existait bel et bien dans la rhizosphère du canola et le plein sol en culture de canola, iii) identifier de façon claire des espèces clef de voute interagissant intensivement dans les communautés fongiques, bactériennes, et mixtes, et finalement iv) évaluer la persistance des champignons mycorhiziens à arbuscules dans la rhizosphère du canola et le plein sol adjacent cette plante non-hôte, en systèmes culturaux basés sur le canola. Mes résultats confirment que les communautés fongiques de la rhizosphère du canola et de son sol étaient influencées par la diversification des rotations de cultures, mais démontrent que les communautés bactériennes ne l’étaient pas. La rhizosphère du canola avait un core microbiote fongique variant avec les années, tandis que chez les bactéries, seulement des core espèces ont été identifiées. J’ai aussi relevé des interactions potentielles entre microbiote fongique et microbiote bactérien du canola et identifié des espèces clef de voute. Les fluctuations de l’abondance de ces espèces pourraient alors faire varier celles de beaucoup d’autres microbes. Bradyrhizobium a été l’une de ces espèces. Mes résultats montrent aussi un maintien d’une communauté des champignons mycorhiziens à arbuscules chez le canola même après 10 ans de monoculture. En résumé, ma recherche apporte une lumière nouvelle dans l’étude du fonctionnement, de la structure et des dynamiques écologiques au sein du microbiote souterrain du canola et sur l’écologie microbienne théorique des plantes notamment en ce qui a trait à ses composantes invariantes telles que le core microbiote et les taxons clef de voûte. Des études en conditions contrôlées sont nécessaires pour vérifier la capacité des microbes clef de voute rapportés ici à influencer les communautés microbiennes du sol et les plantes qui y vivent.Plants and soil microbes are closely linked. Plants provides myriads of ecological niches in and on its roots for microbes to thrive. In turn, microbes can protect host plants against pathogen attacks, abiotic stresses, and improve nutrient and water availability. In the distant soil, plant produce volatile compounds shaping microbial communities, with feedback on root-associated communities. The more diversity there is in the plant cover, the higher the diversity of soil microorganisms will be and conversely, the more diverse a soil will be in terms of microbes, the more de plants that grow there trend to be in good health. Certain plants can develop specific relationships with certain microbes improving the fitness of the plant. However, a plant can grow in different environments and soils are diverse, thus plant will have to adapt to the different microbes depending on the environment it is growing in while attracting the ones necessary for its growth. Certain microbes could be so important for a plant’s health and development that they are always associated with the plant. Such important microbes form a theoretical group called core microbiota that could be extremely important for plant health and a determinant of the composition of plant-associated microbial communities. The plant subterranean microbiota is often labelled as a “black box” due to the tremendous diversity and interactivity of the microbial communities plants host. In my thesis research I aimed to “crack the black box” a little further to enhance our understanding of plant subterranean microbial community dynamics and structure. To do so, I used a field experiment established in 2008 by Agriculture and Agri-Food Canada (AAFC) at five different sites in the Canadian Prairies under different crop rotations and canola as model plant. Canola (B. napus) is a crop plants of the Brassicaceae family that produces antimicrobial compounds and has “simpler” microbial community in its roots, and rhizosphere. To do so, I used amplicon sequencing, multivariate analysis, and network analysis. My objectives were i) to verify the impacts of plant cover diversification on canola microbial subterranean community, ii) to verify if a core microbiota of fungi and bacteria could exist in canola rhizosphere and bulk soil and if so, to describe this core, iii) to identify keystone bacteria and fungi, i.e. highly interacting components, in the bacterial and fungal communities associated with canola, and finally, iv) to investigate the persistence of arbuscular mycorrhizal fungi in the rhizosphere and bulk soil of canola, a non-host plant, in canola-based cropping systems. I found that the diversification of cropping systems influenced the structure of the fungal communities of canola rhizosphere and bulk soil, but diversification had no significant influence on bacterial community structure. A fungal core microbiota varying through years was found in canola rhizosphere, but no bacterial core-microbiota was found. However, we were able to identify a core-specie. Interactions among the fungal and bacterial microbiota in canola rhizosphere and bulk soil were found and Bradyrhizobium was among several potentially important keystone taxa. My results also show the maintenance of arbuscular mycorrhizal fungi in canola even after 10 years of monoculture despite this plant is not a host for AMF. Overall, my PhD research brings a new level of knowledge on the microbial structure and dynamics of canola subterranean microbiota, and also on the theoretical ecology of plant microbiota, particularly regarding its invariable components such as core microbiota and hub-taxa. Further investigations are needed to better understand how keystone species and core species influence the plants and their microbiome

    Analyse biomécanique de la réductibilité de la scoliose idiopathique par rééducation posturale globale en physiothérapie

    Get PDF
    La scoliose idiopathique (SI) est une déformation tridimensionnelle (3D) du rachis évolutive et complexe sans cause exacte connue. La déformation crée une asymétrie de posture apparente qui peut affecter l’estime et la confiance en soi, limiter ou gêner la pratique de certaines activités et altérer la capacité respiratoire. Des 2-3 % de la population générale diagnostiquée avec une scoliose, 80 % des cas sont de type idiopathique et les cas évolutifs concernent majoritairement les jeunes filles en période de croissance. Le type de traitement prescrit est adapté selon la gravité de la déformation, qui se mesure selon l’angle de Cobb. Pour les scolioses légères (Cobb 45°) la chirurgie est préconisée. La Rééducation posturale globale (RPG) est une approche de physiothérapie développée dans les années 80 en France pour traiter les affectations musculo-squelettiques, et fait partie des exercices spécifiques à la scoliose. Cette approche de traitement est basée sur la pratique de postures actives d’étirement et d’exercices d’intégration sensorimotrice. Les principaux objectifs sont de freiner la progression de la courbure, améliorer la posture et éliminer les douleurs au dos. En RPG l’évaluation posturale qui guidera la suite de la prise en charge se fait par la photographie générale, l’évaluation des rétractions musculaires et la ré-équilibration. L’étape de ré-équilibration vise à déterminer la capacité de correction de la déformation et à évaluer la rigidité du tronc. Les postures de correction manuelle et d’autocorrection pratiquées debout en font partie et permettent d’évaluer le potentiel de réductibilité de la courbure du patient. La correction manuelle permet de vérifier qualitativement la rigidité du tronc et de voir l’impact de cette correction sur la posture générale. L’autocorrection vise à évaluer la capacité du patient à intégrer les corrections en sollicitant la musculature du tronc. Toutefois, la RPG appliquée à la scoliose est peu documentée dans la littérature scientifique. De plus, il n’y a pas d’outil permettant une évaluation quantitative de la rigidité du tronc du patient avec scoliose pendant la séance de traitement de physiothérapie. Un modèle par éléments finis (MEF) représentant les structures anatomiques du tronc humain a été précédemment développé pour simuler la correction immédiate de la scoliose obtenue dans le corset. Ce modèle a le potentiel de pouvoir être adapté et modifié pour simuler d’autres traitements conservateurs comme les manoeuvres de physiothérapie. L’objectif de cette étude était d’évaluer, par le biais de la modélisation par éléments finis, la réductibilité de la correction manuelle et de l’autocorrection selon l’approche RPG en physiothérapie sur la correction de la courbure pour la scoliose idiopathique. Une étude clinique avec 16 patients SI (2 SI juvénile et 14 SI de l’adolescence) a permis de mesurer expérimentalement les postures de ré-équilibration RPG. Pour chaque patient, le MEF a été reconstruit depuis la topographie de surface et les radiographies bi-planaires faibles doses en posture de référence debout. Des gants munis de capteurs de force portés par le thérapeute ont permis de mesurer la force exercée par ce dernier à l’interface main-tronc lors de la posture de correction manuelle. La correction manuelle a été simulée en reproduisant la force mesurée par la main droite par un vecteur force équivalent sur un noeud des côtes du modèle. Un indice de rigidité de la correction manuelle a été défini comme le rapport entre la force appliquée et la réduction de courbure résultante (forceΔ angle de Cobb). L’autocorrection a été mesurée par topographie de surface et radiographies afin d’être comparée avec les acquisitions en posture de référence. Elle a ensuite été simulée en fixant la position de la première vertèbre thoracique (T1) et des vertèbres apicales thoracique et lombaire à leur position autocorrigée telle que mesurée sur les radiographies sagittale et coronale en autocorrection. Un indice de rigidité de l’autocorrection a été défini comme la force de réaction à la vertèbre apicale thoracique divisée par la réduction de courbure en autocorrection (forceΔ angle de Cobb). L’analyse statistique a consisté en une ANOVA avec test post-hoc de Tukey pour comparer les angles de Cobb dans les différentes conditions testées et les corrélations ont été calculées avec le coefficient de Pearson. Lors de la pratique de la correction manuelle, une force de correction moyenne de 31 ± 6 N [23 N – 55 N] a été mesurée sous la main droite du thérapeute. La simulation de cette posture a généré une correction moyenne de 26 % (p < 0.05) de la courbure thoracique avec une augmentation non cliniquement significative de la contre-courbure. La cyphose thoracique a augmenté d’en moyenne 3˚ (p < 0.05) alors que la lordose lombaire est demeurée inchangée. L’indice de rigidité en correction manuelle variait de 2 à 10 N par degré de correction. L’autocorrection réelle a réduit la courbure thoracique en moyenne de 33 % (p < 0.05) sans aggraver la contre-courbure lombaire, alors que les courbures du plan sagittal ont été réduites d’en moyenne 6˚ pour la cyphose et 5˚ pour la lordose (p < 0.05). Une corrélation forte a été obtenue entre l’autocorrection réelle et simulée (r = 0.9), bien que la simulation de l’autocorrection ait tendance à sous-évaluer la correction réelle obtenue d’en moyenne 3˚ (p < 0.05). La force de réaction moyenne à la vertèbre apicale thoracique était de 45 N, résultant en un indice de rigidité allant de 0 à 21 N par degré de correction. Il n’y avait pas de corrélation entre la correction manuelle du thérapeute et l’autocorrection exercée par le patient. Le rapport entre la force appliquée et la réduction de courbure thoracique obtenue en correction manuelle permet de définir un indice de rigidité définissant un classement relatif de la souplesse des troncs des patients. L’indice de rigidité en autocorrection informe sur la capacité du patient à réduire de lui-même sa courbure. L’absence de corrélation entre les corrections des deux postures suggère des mécanismes de correction différents, soit une correction passive (correction manuelle) et active par sollicitation musculaire (autocorrection). Comme pour tout modèle de calcul, le MEF est une simplification de la réalité permettant de tester l’effet de paramètres contrôlés, et présente donc certaines limites. Comme condition limite l’orientation du bassin était fixée dans l’espace et une position prédéterminée de T1 devait être établie dans le plan transverse. La simulation de la correction manuelle n’a pu être vérifiée, car il était éthiquement impossible de prendre une radiographie dans cette posture, mais l’exploitation des topographies de surface permettrait éventuellement une première vérification. La rotation vertébrale n’a pas été mesurée dans cette étude ni implémentée dans la simulation. Cette modélisation présente la force générale permettant de maintenir la posture de correction manuelle et d’autocorrection; les différentes combinaisons de recrutement musculaire pour conserver ces postures ne sont pas représentées explicitement dans le modèle. Finalement, le nombre limité de patients n’a pas permis de distinguer l’effet du traitement prescrit (corset, physiothérapie en cours ou passé) sur les réductions de courbures mesurées et simulées dans l’une ou l’autre des postures. Cette étude est dans les premières à mesurer les forces de correction des mains du physiothérapeute lors d’un traitement RPG de la scoliose et a permis de calculer un indice de rigidité du tronc. Plus de travaux sont nécessaires pour compléter la validation complète du modèle pour simuler la correction manuelle et l’autocorrection. Cela permettrait à terme de quantifier la rigidité du tronc sans l’entremise de tests de flexibilité ionisants. De ce fait, le développement d’un indice de rigidité pour quantifier la résistance du tronc à la correction permettrait de faciliter la planification et le suivi du traitement de physiothérapie. De plus, l'évaluation du potentiel d’autocorrection trouve sa pertinence pour déterminer l'efficacité du traitement au niveau de l'intégration de la posture corrigée. La poursuite des recherches portant sur la biomécanique des mécanismes de correction en RPG permettrait de supporter la contribution de cette approche au traitement. ----------ABSTRACT Idiopathic scoliosis (IS) is a complex and evolutive three-dimensional (SD) deformation of the spine of unknown cause. It leads to a visible postural asymmetry, which may affect self-esteem and self-confidence, limit recreational activities and impact respiratory capacity. Up to 3 % of the general population suffers from a form of scoliosis; 80 % of the scoliosis cases are idiopathic and the evolutive cases affect primarily young girls during their growth period. The severity of the deformation, which is measured using the Cobb angle, is used to adapt the prescribed treatment. Patients diagnosed with mild scoliosis (Cobb 45°). Global postural re-education (GPR) is a physiotherapy approach developed in the 80’s in France to treat musculoskeletal disorders, and is part of the specific exercises for scoliosis. This treatment approach is based on active stretching postures and task-oriented exercises. Main treatment objectives are to decrease curve progression, improve posture and eliminate back pain. The postural evaluation in GPR to orient the choice of exercises is based on three steps: general photography, muscular retraction evaluation and re-equilibration. The goal of re-equilibration is to determine the correction capacity and trunk stiffness. More specifically, stand-up manual correction and self-correction postures aim to evaluate patient curve reducibility potential. Manual correction aims to qualitatively verify trunk stiffness and to evaluate the impact of this correction on the overall posture. Self-correction aims to evaluate patient’s ability to integrate the corrections by soliciting the muscles of the trunk. GPR applied to scoliosis is poorly documented in scientific literature. To our knowledge, there currently is no tool developed to quantitatively measure trunk stiffness during a physiotherapy treatment for scoliosis. A finite element model (FEM) representing the human trunk anatomical structures was previously developed to simulate immediate scoliosis correction in bracing. This model has the potential to be adapted and modified to simulate other conservative treatments such as physiotherapy manoeuvers. The objective of this study was to evaluate, using finite elements modeling, the curve reducibility of manual correction and self-correction of GPR physiotherapy approach in idiopathic scoliosis. A clinical study with 16 patients presenting with IS (2 juvenile IS and 14 adolescent IS) allowed to experimentally measure GPR re-equilibration postures. For each patient, a FEM was built from surface topography and biplanar low-dose radiographs of a standing reference posture. Gloves equipped with force sensors worn by the therapist allowed to measure the force applied at the hand-torso interface during manual correction. The manual correction was then simulated by reproducing the force measured under the right hand with an equivalent force vector on a node of the ribs in the FEM. A stiffness index was defined as the ratio between the force applied at thoracic apex over the thoracic Cobb angle reduction (forceΔ Cobb angle). In order to be compared to the standing reference posture, the self-correction was clinically measured through surface topography and biplannar radiographs. To simulate the self-correction, the positions of the first thoracic vertebra (T1) and the thoracic and lumbar apical vertebrae were imposed as measured on the self-corrected coronal and sagittal radiographs. The self-correction stiffness index was defined as the reaction force computed at thoracic apex over the thoracic curve reduction (forceΔ Cobb angle). The statistical analysis consisted of an ANOVA with Tukey post-hoc test to compare the Cobb angles in different postures. Correlations were evaluated using the Pearson coefficient. During manual correction, an average corrective force of 31 ± 6 N [23 N – 55 N] was measured under the therapist right hand. The simulation of this posture resulted in an average correction of 26 % (p < 0.05) of thoracic curvature with a non-significant clinical increase of the counter curvature. The thoracic kyphosis increased on average by 3˚ (p < 0.05) while the lumbar lordosis remained unchanged. Manual correction stiffness index varied from 2 to 10 N per degree of correction. Self-correction reduced on average by 33 % the thoracic curvature (p < 0.05) without affecting the lumbar counter curvature, while the sagittal curvatures flattened on average by 6˚ for the kyphosis and 5˚ for the lordosis (p < 0.05). Good correlation (r = 0.9) was obtained between the actual and simulated self-correction, despite the fact that the simulation tends to under-estimate the actual correction by 3˚ on average (p < 0.05). Average reaction force computed at thoracic apical vertebra was 45 N, which resulted in a stiffness index ranging between 0 and 21 N per degree of correction. There was no correlation between curve reduction obtained with manual correction and self-correction. The ratio between the force applied and the thoracic curve reduction in self-correction allowed to define a stiffness index for a relative ranking of patient trunk flexibility. Self-correction stiffness index informs on patient’s ability to correct by himself/herself the spine deformation. The lack of correlation between the corrections obtained in the two postures suggests that different correction mechanisms are at work: a passive correction (manual correction) and an active correction through muscular solicitation (self-correction). The FEM computational model is a simplification of reality that allows testing of the effects of controlled parameters. As boundary conditions, the pelvis orientation was fixed in space and a predetermined position of T1 had to be established in the transverse plane. Manual correction could not be verified because it was ethically impossible to take a radiography while maintaining the posture, however the future exploitation of surface topography could eventually lead to a preliminary verification. Vertebral rotation was not measured nor implemented in the simulation. This modeling presents the general force required to maintain the posture of self-correction and manual correction; the different combinations of muscular recruitment to retain these postures are not explicitly represented in the model. The limited number of patients did not allow to establish relationship between the prescribed treatment (bracing, physiotherapy prior to this study or in progress) and the curve reductions measured and simulated in the GPR postures. This study is one of the first to measure corrective force applied by physiotherapist hands during scoliosis GPR treatment and allowed to compute a stiffness index. More studies are required to complete the full validation of the model to simulate manual correction and self-correction. This would ultimately allow to quantify trunk stiffness without the necessity of ionised flexibility test. The definition of a stiffness index to quantify trunk resistance to correction would contribute to treatment planning and physiotherapy follow-up. In addition, the evaluation of self-correction potential finds its relevance in determining the effectiveness of the treatment regarding the integration of the corrected posture. Further research into the biomechanics of GPR correction mechanisms would support the contribution of this approach to treatment
    corecore