104 research outputs found

    Implantation d'imagerie temps réel par ondes guidées pour écran tactile

    Get PDF
    Les techniques d'imagerie développées pour la surveillance embarquée des structures ont maintenant des applications dans d'autres domaines. Par exemple, le domaine de l'écran tactile est en pleine expansion et de nouvelles technologies commencent à apparaître pour des applications spécifiques. Au niveau médical, des surfaces tactiles pouvant fournir des données sur la répartition du poids et la posture seraient une avancée pour le diagnostique des patients et la recherche. L'écran tactile est une technologie utilisée dans un nombre croissant d'appareils. Les écrans tactiles capacitifs et résistifs dominent le marché, mais ils sont connus pour être difficiles à fabriquer, facilement cassables et coûteux pour les grandes dimensions. Par conséquent, de nouvelles technologies sont encore explorées pour les écrans tactiles de grandes tailles et robustes. Les technologies candidates comprennent des approches basées sur les ondes. Parmi eux, des ondes guidées sont de plus en plus utilisés dans la surveillance des structures (SHM) pour de nombreuses applications liées à la caractérisation des propriétés des matériaux. Les techniques d'imagerie utilisées en SHM telles que Embedded Ultrasonic Structural Radar (EUSR) et Excitelet sont fiables, mais elles ont souvent besoin d'être couplées avec du traitement d'image pour donner de bons résultats. Dans le domaine du NDT (essais non destructifs), les ondes guidées permettent d'analyser les structures sans les détériorer. Dans ces applications, les algorithmes d'imagerie doivent pouvoir fonctionner en temps réel. Pour l'écran tactile, une technique d'imagerie de la pression en temps réel doit être développée afin d'être efficace et performante. Il faut obtenir la position et l'amplitude de la pression appliquée en un ou plusieurs points sur une surface. C'est ici que les algorithmes et l'expertise par rapport aux ondes guidées seront mises de l'avant tout pensant à l'optimisation des calculs afin d'obtenir une image en temps réel. Pour la méthodologie, différents algorithmes d'imagerie sont utilisés pour obtenir des images de déformation d'un matériau et leurs performances sont comparées en termes de temps de calcul et de précision. Ensuite, plusieurs techniques de traitement d'images ont été implantées pour comparer le temps de calcul en regard de la précision dans les images. Pour l'écran tactile, un prototype est conçu avec un programme optimisé et les algorithmes offrant les meilleures performances pour un temps de calcul réduit. Pour la sélection des composantes électroniques, ce sont la vitesse d'exécution et la définition d'image voulues qui permettent d'établir le nombre d'opérations par seconde nécessaire

    Analyse des risques : vers une méthodologie adaptée au système de la santé

    Get PDF
    RÉSUMÉ : Depuis 2006, Accréditation Canada a adopté une stratégie reposant sur des pratiques organisationnelles requises (POR) visant à réduire les risques et améliorer la qualité et la sécurité des services de santé. Parmi les méthodes existantes, Accréditation Canada propose en premier lieu l’AMDE et indirectement, l’AMDEC (Analyse des Modes de Défaillances, de leurs Effets et de leur Criticité). Cependant, l’AMDEC soulève des critiques malgré son utilisation par des organisations particulièrement axées sur la performance comme les compagnies aéronautiques ou automobiles. La volonté de rechercher des informations quantitatives, telle la probabilité d’occurrence des différents risques existant est une bonne démarche d’amélioration de la qualité permettant de mettre en perspective différents événements entre eux ou de mesurer le succès d’une action grâce à des indicateurs de performance avant et après son implantation. Cependant, dans le cas des risques issus des processus du milieu de la santé au Québec, ces informations seront très difficiles à obtenir et probablement approximatifs ou ayant besoin d’être mis à jour. Donner une confiance totale en ces chiffres pour une analyse a priori a de très fortes chances de donner une priorisation approximative et donc de rendre non-efficient le temps passé à la priorisation voir à donner une mauvaise représentation de la réalité. Une revue de littérature a été effectuée sur l'AMDEC afin de mieux en comprendre les caractéristiques et les principales faiblesses. Parmi les principales critiques soulevées, l'AMDEC peut induire des erreurs sur les priorités et faire perdre du temps précieux en s'occupant de problèmes non-critiques. Par exemple, des erreurs d'évaluations peuvent se réaliser en ne considérant pas les relations indirectes entre les paramètres de sévérité, d’occurrence et de détection ou lorsque les informations sont dispersées ou peu fiables.De plus, d'autres auteurs indiquaient que l'AMDEC est très fastidieux, prend beaucoup de temps et est sujet à être inachevé ou inconsistant. Sa structure résultant en des informations parfois très condensées rend aussi difficile la production, la lecture et la maintenance de cet outil. Dans ce travail de recherche, un outil d'analyse de risques en 4 modules et nommée « 4A » fut conçu à partir de différentes méthodes existantes et testé sur une équipe de 8 professionnels du secteur de la santé afin de répondre à ces critiques. Les principes ayant guidé la création de cet outil incluent entre autres de minimiser le temps des rencontres pour les participants ainsi que la lourdeur de réflexion du groupe, faciliter la réception des opinions externes et des nouveaux participants, laisser une souplesse par rapport à la profondeur des détails, s'éloigner autant que possible de la priorisation par échelles et approfondir la réflexion uniquement sur les risques jugés prioritaires. Les résultats obtenus semblent démontrer que la méthode proposée par ce travail de recherche donne des meilleurs résultats que l'AMDEC en termes de risques identifiées par heures et propositions formulées par heures tout en ayant obtenu un score élevé de satisfaction de la part des participants ainsi que de l'animateur ayant déjà une expérience avec la méthodologie AMDEC dans le secteur industriel. Ce travail de recherche permet aux établissements de la santé ainsi que toute autre organisation nécessitant des analyses de risques à priori une alternative supplémentaire à la méthode AMDEC. Cette recherche ouvre également la porte à de nouveaux travaux analysant des paramètres importants n'ayant pas pu être mesurés au cours de ce projet dû à des contraintes de temps, tel la comparaison entre 2 méthodes d'analyse de risques sur la qualité des propositions suggérées au cours de leurs séances de travail respectives.----------ABSTRACT : Since 2006, Accreditation Canada has adopted a strategy based on Required Organizational Practices (ROP) to reduce risks and improve the quality and safety of health services. Among the existing methods, Accreditation Canada offers first FMEA and indirectly, the FMECA (Failure Modes, Effects and Criticality Analysis). However, FMEA raises critical despite its use by organizations specifically focused on performance, such as aviation and automotive companies. The willingness to seek quantitative information, such as the probability of occurrence of various risks is a good approach to improving quality by putting into perspective different events or to measure the success of an action through indicators performance before and after implantation. However, in the case of risks arising from the health care processes, this information will be very difficult to obtain and probably approximate or needing to be updated. Giving total confidence in these figures for an analysis is very likely to give a rough prioritization and thus making non- efficient time spent prioritizing view to a misrepresentation of reality. A literature review was performed on FMEA in order to better understand the characteristics and the main weaknesses. Among the main criticisms, FMEA can lead to errors on the priorities and lose valuable time in dealing with non-critical problems. For example, errors of assessments can be achieved by not considering the indirect relationships between the parameters of severity, occurrence and detection or when the information is scattered or unreliable. In addition, other authors indicated that the FMEA is very tedious, time consuming and subject to be incomplete or inconsistent. Structure resulting in very condensed information sometimes makes it difficult to produce, read and maintain this tool. In this research, a risk analysis tool named « 4A » was design using different existing risk analysis methods and tested by a team of 8 professionals in the health sector to respond to these criticisms. The principles that guided the creation of this tool include, among others, to minimize the meeting time for the participants and the heaviness of the analysis, facilitate the receipt of external opinions and new participants, allow flexibility in relation to the depth of details, reduce the use of scales to priories risks, and only deepen the analysis on the risks prioritized. The results obtained seem to demonstrate that the method proposed by this research gives better results than the FMEA in terms of risk identified per hour and ideas per hour while having scored high satisfaction among participants with or without previous experience with the FMEA methodology. This research allows healthcare facilities and any other organization requiring a risk analysis an additional alternative to the FMEA method. This research also opens the door for further work analyzing important parameters that could not be measured during this project due to time constraints, such as the evaluation of the quality of the proposals suggested during the sessions

    Suitability assessment of a continuous process combining thermo-mechano-chemical and bio-catalytic action in a single pilot-scale twin-screw extruder for six different biomass sources

    Get PDF
    A process has been validated for the deconstruction of lignocellulose on a pilot scale installation using six types of biomass selected for their sustainability, accessibility, worldwide availability, and differences of chemical composition and physical structure. The process combines thermo-mechano-chemical and bio-catalytic action in a single twin-screw extruder. Three treatment phases were sequentially performed: an alkaline pretreatment, a neutralization step coupled with an extraction–separation phase and a bioextrusion treatment. Alkaline pretreatment destructured the wall polymers after just a few minutes and allowed the initial extraction of 18–54% of the hemicelluloses and 9–41% of the lignin. The bioextrusion step induced the start of enzymatic hydrolysis and increased the proportion of soluble organic matter. Extension of saccharification for 24 h at high consistency (20%) and without the addition of new enzyme resulted in the production of 39–84% of the potential glucose

    Influence of the HiPIMS voltage on the time resolved platinum ions energy distributions

    Get PDF
    International audienceHigh Power Impulse magnetron sputtering (HiPIMS) is a common way to create a high and dense ionized metallic vapor without the use of an alternative ionizing device, like radio frequency loops. HiPIMS has been used to perform the deposition of platinum thin films in order to control their morphology. This feature known to depend on the energy of the Pt species incoming onto the substrate during the deposition has to be carefully studied. Therefore, it's necessary to study the ions energy distribution during the sputtering pulse and to follow its evolution with the HiPIMS regime. Pictures of this evolution are presented

    Quelle R&D Mener pour le Développement Des Réseaux D'énergie De Demain ? Les Propositions de L'ancre en 2015

    Get PDF
    Feuille de route sur les réseaux électriques et stockage élaborée par le GP10 Réseaux et Stockages de l'Energie de l'ANCRECette feuille de route concerne les réseaux d’énergie électrique, de chaleur et de froid, les réseaux de gaz (hydrogène, gaz naturel), leurs stockages associés, ainsi que leurs couplages à venir dans le cadre de la transition énergétique et des évolutionsqui l’accompagneront, que ce soit sur les modes de production d’énergie ou sur l’évolution des usages.Le focus est porté sur les réseaux électriques qui seront les premiers impactés par cette transition énergétique. Hormisquelques éléments très spécifiques aux réseaux électriques (et qui seront notés dans le texte par une couleur différente)il est à souligner que la quasi-totalité des considérations et axes de R&D évoqués pour les réseauxélectriques et le développement de leur « intelligence » et/ou de leur flexibilité s’appliquentégalement aux autres réseaux d’énergie. Par ailleurs, si le groupe programmatique« Réseaux et Stockage » de l’ANCRE (GP10) s’est largement appuyé sur les nombreuses feuilles de route émises tant au niveau national, dont celles de l’ADEME, qu’européen, il a également souhaité s’en démarquer en insistantlargement et en détaillant les recherches scientifiques et technologiques à mener face aux verrous actuellement identifiés

    A data-driven analysis of workers' earnings on Amazon Mechanical Turk

    Get PDF
    A growing number of people are working as part of on-line crowd work. Crowd work is often thought to be low wage work. However, we know little about the wage distribution in practice and what causes low/high earnings in this setting. We recorded 2,676 workers performing 3.8 million tasks on Amazon Mechanical Turk. Our task-level analysis revealed that workers earned a median hourly wage of only ~2 USD/h, and only 4% earned more than 7.25 USD/h. While the average requester pays more than 11 USD/h, lower-paying requesters post much more work. Our wage calculations are influenced by how unpaid work is accounted for, e.g., time spent searching for tasks, working on tasks that are rejected, and working on tasks that are ultimately not submitted. We further explore the characteristics of tasks and working patterns that yield higher hourly wages. Our analysis informs platform design and worker tools to create a more positive future for crowd work

    West Nile virus and its emergence in the United States of America

    Get PDF
    Zoonotic West Nile virus (WNV) circulates in natural transmission cycles involving certain mosquitoes and birds, horses, humans, and a range of other vertebrates are incidental hosts. Clinical infections in humans can range in severity from uncomplicated WNV fever to fatal meningoencephalitis. Since its introduction to the Western Hemisphere in 1999, WNV had spread across North America, Central and South America and the Caribbean, although the vast majority of severe human cases have occurred in the United States of America (USA) and Canada. By 2002–2003, the WNV outbreaks have involved thousands of patients causing severe neurologic disease (meningoencephalitis and poliomyelitis-like syndrome) and hundreds of associated fatalities in USA. The purpose of this review is to present recent information on the epidemiology and pathogenicity of WNV since its emergence in North America

    Toward a developmental neurobiology of autism

    Full text link

    Nat Genet

    Get PDF
    The function of the majority of genes in the mouse and human genomes remains unknown. The mouse embryonic stem cell knockout resource provides a basis for the characterization of relationships between genes and phenotypes. The EUMODIC consortium developed and validated robust methodologies for the broad-based phenotyping of knockouts through a pipeline comprising 20 disease-oriented platforms. We developed new statistical methods for pipeline design and data analysis aimed at detecting reproducible phenotypes with high power. We acquired phenotype data from 449 mutant alleles, representing 320 unique genes, of which half had no previous functional annotation. We captured data from over 27,000 mice, finding that 83% of the mutant lines are phenodeviant, with 65% demonstrating pleiotropy. Surprisingly, we found significant differences in phenotype annotation according to zygosity. New phenotypes were uncovered for many genes with previously unknown function, providing a powerful basis for hypothesis generation and further investigation in diverse systems.Comment in : Genetic differential calculus. [Nat Genet. 2015] Comment in : Scaling up phenotyping studies. [Nat Biotechnol. 2015
    corecore