2,819 research outputs found

    Quelles activités expérimentales avec les ordinateurs dans l'enseignement des sciences?

    Get PDF
    L'apport de l'informatique à l'enseignement des sciences physiques, de la biologie, et de la géologie en France, est examiné en fonction du renouvellement des approches expérimentales et du niveau des activités intellectuelles qui peuvent être proposées aux élèves. Le travail sur de nouveaux dispositifs d'expérimentation, l'exploration et la construction de modèles, le traitement statistique de banques de données sont analysés, et la complémentarité de ces approches pour l'étude de phénomènes complexes est mise en évidence. L'augmentation du niveau d'initiative des élèves, l'extension des méthodes d'analyse et la place des représentations graphiques sont soulignée

    Apprentissage profond multimodal appliqué à l'usinage

    Get PDF
    Les techniques axées sur les données ont offert à la technologie de fabrication intelligente des opportunités sans précédent pour assurer la transition vers une productivité basée sur l'industrie 4.0. L'apprentissage automatique et l'apprentissage profond occupent une place cruciale dans le développement de systèmes intelligents pour l'analyse descriptive, diagnostique et prédictive des machines-outils et la surveillance d’état des systèmes de fabrication industrielle. De nombreuses techniques d'apprentissage profond ont été testées sur les problèmes de surveillance d’état des machines-outils, de la détection du broutement, du diagnostic de défauts, de la sélection optimale des paramètres de coupe, etc. Une étude bibliométrique est proposée pour à retracer les techniques de détection du broutement, depuis les méthodes de traitement du signal temps-fréquence, la décomposition jusqu'à la combinaison avec des modèles d'apprentissage automatique ou d'apprentissage profond. Une analyse cartographique a été réalisée afin d’identifier les limites de ces différentes techniques et de proposer des axes de recherche pour détecter le broutement dans les processus d'usinage. Les données ont été collectées à partir du web of science (WoS 2022) en exploitant des requêtes particulières sur la détection du broutement. La plupart des documents recueillis présentent la détection du broutement à l'aide de techniques de transformation ou de décomposition. Ce travail a permis de détecter les articles les plus significatifs, les auteurs les plus cités, la collaboration entre auteurs, les pays, continents et revues les plus productifs, le partenariat entre pays, les mots-clés des auteurs et les tendances de la recherche sur la détection du broutement. Cette thèse à pour objective de proposer dans un premier temps, une méthode de prédiction du choix des paramètres de coupe en exploitant l’apprentissage profond multimodal. L'apprentissage profond multimodal a été utilisé pour associer un choix de conditions de coupe (outil, vitesse de coupe, profondeur de coupe et vitesse d'avance par dents) avec un état de surface, en considérant la rugosité arithmétique moyenne (Ra) et une photo de la pièce. Nous avons construit un modèle de fusion multimodale tardive avec deux réseaux de neurones profonds, un réseau de neurones convolutif (CNN) pour traiter les données images et un réseau de neurones récurrent avec des couches de mémoire à long terme (LSTM) pour les données numériques. Cette méthode permet d’intégrer les informations provenant de deux modalités (fusion multimodale) afin à terme d'assurer la qualité de surface dans les processus d'usinage. Les difficultés rencontrées lors de l’élaboration de cette méthode nous ont orientés vers une approche unimodale pour détecter le broutement d’usinage. Par la suite nous présentons une approche basée sur des compétences mécaniques pour d’abord identifier les traitements optimaux des signaux puis l'apprentissage profond (apprentissage par transfert) pour détecter automatiquement le phénomène de broutement en usinage. Ce travail a mis l’accent sur l’utilisation de données collectées dans les conditions industrielles contrairement à la majorité des travaux basés sur les données qui utilisent les données laboratoire. Cette méthode arrive à avoir de bonnes performances malgré le fait qu’elle ne donne aucune indication au réseau de neurones sur l'amplitude du signal, la vitesse de rotation

    Le crowdsourcing scientifique et patrimonial à la croisée de modèles de coordination et de coopération hétérogènes : le cas des herbiers numérisés

    Get PDF
    International audienceNous étudions les dispositifs participatifs développés par les institutions impliquées dans la conservation des herbiers : outre la consultation facilitée des collections numérisées, certains d'entre eux offrent la possibilité de participer à la transcription des informations contenues dans les images issues de la numérisation des herbiers, ou de proposer des corrections aux données déjà saisies. Nous combinons une typologie des dispositifs de médiation et des régimes de l'action collective pour appréhender les spécificités fonctionnelles de ces sites. Nous mettons en évidence la superposition de fonctions relevant de modèles de coordination et de coopération différents, entre organisations anonymes et communautés, qui entrent parfois en contradiction

    Near-Field Ultrasound Mammography

    Get PDF
    We introduce in this note a near-field formulation of the acoustic field scattered by a fluid object supposed to be weakly heterogeneous (Born approximation). This derivation is based on the Huygens-Fresnel principle that describes the scattered field as the result of the interferential scheme of all the secondary spherical waves. This derivation leads us to define a new Fourier transform that we name the Elliptical Fourier transform. The latter provides an elliptical spectrum whose harmonic components, the weighted elementary basis functions, have an elliptical spatial support. Based on these elliptical projections, we define the Elliptical Radon transform that allows us to establish a near-field extension of the Fourier Projection-Slice theorem. Thanks to these spectral and tomographic transforms, we show that it is possible to reconstruct either the impedance or the celerity maps of an acoustical model characterized in terms of impedance and celerity fluctuations.We observe that this formulation is very close to that one developed in the far field domain where the Radon transform pair is derived from an harmonic plane wave decomposition. This formulation allows us to introduce the Ductal Tomography, following the example of the Ductal Echography, that provides a systematic inspection of each mammary lobe, in order to reveal lesions at an early stage. In that aim, we develop 2D anatomic breast computer phantoms corresponding to an axial cross-section of the ductolubular structure in healthy and pathological situations. The goal is also, from the practitioner's point of view, to compare the recognized DE reference with the high potential tomographic approach.Nous introduisons par cette note une formulation originale en champ proche, du champ ultrasonore diffracté par un organe faiblement contrasté – le sein – (Approximation de Born). Cette formulation est fondée sur le principe d'Huygens-Fresnel qui construit ce champ sur la base d'un schéma interférentiel à partir des sources secondaires sphériques. Cette approche nous amène à définir une nouvelle transformée de Fourier dite «elliptique» dont le spectre (du même nom) s'établit sur une famille de fonctions de base – les composantes harmoniques – qui présentent un support spatial ellipsoïdal caractéristique des senseurs actifs multi-statiques. Ces projections elliptiques nous permettent de définir la transformée de Radon Elliptique qui fonde une extension en champ proche du théorème coupe-projection. Grâce à ces transformées spectrale et tomographique, nous montrons qu'il est possible de reconstruire les cartographies de fluctuation d'impédance en réflexion et de célérité en transmission. Nous observons que l'algorithme est très proche de celui universellement utilisé en champ lointain, basé sur une décomposition harmonique de type ondes planes. Cette formulation nous permet, à l'instar de l'échographie, de jeter les bases de la tomographie ductale offrant une inspection systématisée de chaque lobe en vue de la détection précoce du cancer du sein. Dans ce but, des fantômes numériques anatomiques 2D de sein correspondant à une coupe axiale de la structure ductolobulaire dans des situations saines et pathologiques sont développés, afin de valider les modèles précités d'analyse et d'inversion des données en champ proche. Ils permettent aussi une comparaison réaliste des procédés échographique (référence du radiologue) et tomographique, avec, pour cette dernière modalité, un avantage confirmé

    Développement et validation d'un outil basé sur l'acoustique géométrique pour le diagnostic du bruit de nacelle

    Get PDF
    De nos jours, la problématique du bruit généré par les avions est devenue un point de développement important dans le domaine de l'aéronautique. C'est ainsi que de nombreuses études sont faites dans le domaine et une première approche consiste à modéliser de façon numérique ce bruit de manière à réduire de façon conséquente les coûts lors de la conception. C'est dans ce contexte qu'un motoriste a demandé à l'université de Sherbrooke, et plus particulièrement au groupe d'acoustique de l'Université de Sherbrooke (GAUS), de développer un outil de calcul de la propagation des ondes acoustiques dans les nacelles mais aussi pour l'étude des effets d'installation. Cet outil de prédiction leur permet de réaliser des études afin d'optimiser les traitements acoustiques (« liners »), la géométrie de ces nacelles pour des études portant sur l'intérieur de la nacelle et des études de positionnement des moteurs et de design pour les effets d'installation. L'objectif de ce projet de maîtrise était donc de poursuivre le travail réalisé par [gousset, 2011] sur l'utilisation d'une méthode de lancer de rayons pour l'étude des effets d'installation des moteurs d'avion. L'amélioration du code, sa rapidité, sa fiabilité et sa généralité étaient les objectifs principaux. Le code peut être utilisé avec des traitements acoustiques de surfaces («liners») et peut prendre en compte le phénomène de la diffraction par les arêtes et enfin peut être utilisé pour réaliser des études dans des environnements complexes tels que les nacelles d'avion. Le code développé fonctionne en 3D et procéde en 3 étapes : (1) Calcul des faisceaux initiaux (division d'une sphère, demi-sphère, maillage des surfaces de la géométrie) (2) Propagation des faisceaux dans l'environnement d'étude : calcul de toutes les caractéristiques des rayons convergents (amplitude, phase, nombre de réflexions, ...) (3) Reconstruction du champ de pression en un ou plusieurs points de l'espace à partir de rayons convergents (sommation des contributions de chaque rayon) : sommation cohérente. Le code (GA3DP) permet de prendre en compte les traitements de surface des parois, la directivité de la source, l'atténuation atmosphérique et la diffraction d'ordre 1. Le code a été validé en utilisant différentes méthodes telles que la méthode des sources-images, la méthode d'analyse modale ou encore la méthode des éléments finis de frontière. Un module Matlab a été créé spécialement pour l'étude des effets d'installation et intégré au code existant chez Pratt & Whitney Canada

    Navigation d'un véhicule autonome autour d'un astéroïde

    Get PDF
    Les missions d'exploration planétaire utilisent des véhicules spatiaux pour acquérir les données scientifiques qui font avancer notre connaissance du système solaire. Depuis les années 90, ces missions ciblent non seulement les planètes, mais aussi les corps célestes de plus petite taille comme les astéroïdes. Ces astres représentent un défi particulier du point de vue des systèmes de navigation, car leur environnement dynamique est complexe. Une sonde spatiale doit réagir rapidement face aux perturbations gravitationnelles en présence, sans quoi sa sécurité pourrait être compromise. Les délais de communication avec la Terre pouvant souvent atteindre plusieurs dizaines de minutes, il est nécessaire de développer des logiciels permettant une plus grande autonomie d'opération pour ce type de mission. Ce mémoire présente un système de navigation autonome qui détermine la position et la vitesse d'un satellite en orbite autour d'un astéroïde. Il s'agit d'un filtre de Kalman étendu adaptatif à trois degrés de liberté. Le système proposé se base sur l'imagerie optique pour détecter des"points de repères" qui ont été préalablement cartographiés. Il peut s'agir de cratères, de rochers ou de n'importe quel trait physique discernable à la caméra. Les travaux de recherche réalisés se concentrent sur les techniques d'estimation d'état propres à la navigation autonome. Ainsi, on suppose l'existence d'un logiciel approprié qui réalise les fonctions de traitement d'image. La principale contribution de recherche consiste en l'inclusion, à chaque cycle d'estimation, d'une mesure de distance afin d'améliorer les performances de navigation. Un estimateur d'état de type adaptatif est nécessaire pour le traitement de ces mesures, car leur précision varie dans le temps en raison de l'erreur de pointage. Les contributions secondaires de recherche sont liées à l'analyse de l'observabilité du système ainsi qu'à une analyse de sensibilité pour six paramètres principaux de conception. Les résultats de simulation montrent que l'ajout d'une mesure de distance par cycle de mise à jour entraîne une amélioration significative des performances de navigation. Ce procédé réduit l'erreur d'estimation ainsi que les périodes de non-observabilité en plus de contrer la dilution de précision des mesures. Les analyses de sensibilité confirment quant à elles la contribution des mesures de distance à la diminution globale de l'erreur d'estimation et ce pour une large gamme de paramètres de conception. Elles indiquent également que l'erreur de cartographie est un paramètre critique pour les performances du système de navigation développé

    Segmentation de documents administratifs en couches couleur

    Get PDF
    Industrial companies receive huge volumes of documents everyday. Automation, traceability, feeding information systems, reducing costs and processing times, dematerialization has a clear economic impact. In order to respect the industrial constraints, the traditional digitization process simplifies the images by performing a background/foreground separation. However, this binarization can lead to some segmentation and recognition errors. With the improvements of technology, the community of document analysis has shown a growing interest in the integration of color information in the process to enhance its performance. In order to work within the scope provided by our industrial partner in the digitization flow, an unsupervised segmentation approach was chosen. Our goal is to be able to cope with document images, even when they are encountered for the first time, regardless their content, their structure, and their color properties. To this end, the first issue of this project was to identify a reasonable number of main colors which are observable on an image. Then, we aim to group pixels having both close color properties and a logical or semantic unit into consistent color layers. Thus, provided as a set of binary images, these layers may be reinjected into the digitization chain as an alternative to the conventional binarization. Moreover, they also provide extra-information about colors which could be exploited for segmentation purpose, elements spotting, or as a descriptor. Therefore, we have proposed a spatio-colorimetric approach which gives a set of local regions, known as superpixels, which are perceptually meaningful. Their size is adapted to the content of the document images. These regions are then merged into global color layers by means of a multiresolution analysis.Les entreprises doivent traiter quotidiennement de gros volumes de documents papiers de toutes sortes. Automatisation, traçabilité, alimentation de systèmes d’informations, réduction des coûts et des délais de traitement, la dématérialisation a un impact économique évident. Pour respecter les contraintes industrielles, les processus historiques d’analyse simplifient les images grâce à une séparation fond/premier-plan. Cependant, cette binarisation peut être source d’erreurs lors des étapes de segmentation et de reconnaissance. Avec l’amélioration des techniques, la communauté d’analyse de documents a montré un intérêt croissant pour l’intégration d’informations colorimétriques dans les traitements, ceci afin d’améliorer leurs performances. Pour respecter le cadre imposé par notre partenaire privé, l’objectif était de mettre en place des processus non supervisés. Notre but est d’être capable d’analyser des documents même rencontrés pour la première fois quels que soient leurs contenus, leurs structures, et leurs caractéristiques en termes de couleurs. Les problématiques de ces travaux ont été d’une part l’identification d’un nombre raisonnable de couleurs principales sur une image ; et d’autre part, le regroupement en couches couleur cohérentes des pixels ayant à la fois une apparence colorimétrique très proche, et présentant une unité logique ou sémantique. Fournies sous forme d’un ensemble d’images binaires, ces couches peuvent être réinjectées dans la chaîne de dématérialisation en fournissant une alternative à l’étape de binarisation classique. Elles apportent en plus des informations complémentaires qui peuvent être exploitées dans un but de segmentation, de localisation, ou de description. Pour cela, nous avons proposé une segmentation spatio-colorimétrique qui permet d’obtenir un ensemble de régions locales perceptuellement cohérentes appelées superpixels, et dont la taille s’adapte au contenu spécifique des images de documents. Ces régions sont ensuite regroupées en couches couleur globales grâce à une analyse multi-résolution

    Contributions à l'analyse de l'écoulement et du transfert de chaleur dans les échangeurs de chaleur à plaques

    Get PDF
    Le but de la présente étude est d'élargir la base de connaissances sur l'écoulement et le transfert de chaleur dans les échangeurs de chaleur à plaques. Pour cela, une étude expérimentale et des simulations numériques ont été réalisées. Le montage expérimental a servi à valider le modèle numérique et à explorer le régime de convection mixte. Le modèle numérique représente fidèlement l'ECP utilisé dans ce travail, qui contient deux canaux confinés par des plaques de type chevron. La validation a été faite pour le régime laminaire et pour le régime turbulent, dans lequel un modèle de turbulence a été choisi comme le plus adéquat, suite à une étude comparative entre plusieurs modèles. Le modèle numérique a été utilisé pour compléter les données expérimentales et pour explorer des niveaux intangibles expérimentalement. Ainsi, les champs thermique et d'écoulement dans cet ECP ont été étudiés pour deux combinaisons de fluide : eau - eau et eau - huile de moteur. On a mis en évidence la non-uniformité du champ de températures et le fait que pour ce type particulier d'ECP, les fluides suivent préférentiellement deux passages lisses situés le long des bords des canaux. La dépendance du nombre de Reynolds de ces phénomènes a été mise en évidence. Le modèle numérique a pu être modifié pour évaluer l'effet des canaux lisses périphériques sur le transfert de chaleur et les pertes de pression. Ce modèle consiste de la même géométrie, avec ces canaux périphériques obturés. Cette comparaison montre que l'absence des passages lisses provoque l'augmentation du transfert thermique et aussi, des pertes de pression. Une autre modification portant sur la comparaison des configurations verticale et en diagonale a été faite numériquement. Des différences quantitatives insignifiantes concernant les performances thermiques et hydrauliques ont été remarquées. Une investigation sur l'influence de la convection naturelle sur le transfert de chaleur et les pertes de pression a été faite. Dans ce but, le montage expérimental a été muni d'un pivot avec lequel l'ECP pouvait être inversé. On a conclu que la position de l'ECP influence significativement sur les performances thermiques et sur les pertes de pression dans le régime d'écoulement de faible nombre de Reynolds
    • …
    corecore