129 research outputs found

    Paramétrage de formes pour l'optimisation en crash de pièces de structures minces

    Get PDF
    Monografia (graduação)—Universidade de Brasília, Faculdade UnB Gama, Curso de Engenharia Automotiva; École nationale supérieure d'ingénieurs de Caen & Centre de Recherche; Renault Nissan, 2014.Segurança é de grande importância na industria automotiva atualmente. Quando o acidente se torna inevitável, a segurança passiva é responsável por reduzir os efeitos da colisão em ocupantes e pedestres. Para avaliar a resistência a impactos frontais, há alguns testes como BFR do Euro NCAP. Durante o impacto, o elemento de longarina do veículo tem um papel fundamental na absorção de energia. O projeto deve ser tal a orientar adequadamente o impacto e em seguida, dobra-lo, adicionando triggers. Sabendo que a adição apropriada de "imperfeições" (triggers) pode reduzir a força máxima durante o impacto, minimizar a carga transferida para outras estruturas, dissipar mais energia e controlar o modo de colpaso, devemos saber como coloca-la com dimensões características para ter um resultado mais eficiente. Quatro métodos tem sido desenvolvidos para chegar o mais próximo possível para o comportamento real: analítico, vibração, gestão de estampagem e otimização. Com molas para medir o nível de colapso, um modo de controle de esmagamento se tornou possível. Otimizar a posição e dimensão dos triggers é, portanto, essencial para ter um comportamento controlado e eficiente da longarina dianteira em uma colisão frontal. __________________________________________________________________________ ABSTRACTSecurity is of great importance in the automotive industry today. After the accident is inevitable, comes in the passive safety, responsible for reducing the effects of collision pass to the occupants and pedestrians. To evaluate the resistance to frontal crashes, there are some tests like BFR of Euro NCAP. During the impact, the spar member of the vehicle has a key role in the energy absorption. The design must be such to properly guide the crash and then her folding, by adding triggers. Knowing that the appropriate addition of "imperfections" (triggers) can reduce the maximum force during the crash, minimize the load transferred to other structures, dissipate more energy and control the mode of collapse, we must know how to place them with characteristic dimensions in order to have a more efficient outcome. Four methods have been developed to get the closest possible to the real behavior: analytical, vibration, management of stamping and optimization. With springs for measuring the level of collapse, a control mode of crush became possible. And optimize the position and dimensions of triggers are therefore essential to have a controlled and efficient behavior of the front spar in a frontal collision. __________________________________________________________________________ RESUMELa sécurité est une prestation de grande importance dans l’industrie automobile aujourd’hui. Une fois qui l’accident devient inévitable, entre en jeu la sécurité passive, responsable pour réduire les effets de la collision transférées aux occupants et les piétons. Pour évaluer la tenue en crash frontal, il existe quelques tests comme le BFR de l’Euro NCAP. Au cours du choc, le longeron du véhicule a un rôle essentiel dans l’absorption d’énergie. Sa conception doit être de manière à bien guider l’écrasement et puis son plissement, en ajoutant des triggers. Sachant que l’addition « d’imperfections » appropriées (triggers) peut atténuer l’effort maximum pendant l’écrasement, minimiser la charge transférée aux autres structures, dissiper le maximum d’énergie et contrôler le mode d’effondrement, il faut savoir où les placer avec toutes les dimensions caractéristiques afin d’avoir un résultat plus efficient. Quatre méthodes ont été définies pour, conjointement, avoir une compréhension le plus proche possible de la réalité : analytique, vibratoire, gestion de l’emboutissage et optimisation. Avec les springs de mesure du niveau d’effondrement, un mode de contrôle d’écrasement est devenu possible. Et l’optimisation de la position et dimensions des triggers est indispensable pour avoir un comportement contrôlé et plus efficace du longeron avant en cas de collision frontal

    Contributions à l’optimisation fonctionnelle en électronique de puissance

    Get PDF
    Ce mémoire décrit les activités de recherche menées pour le développement, la mise en oeuvre et l’application de méthodes pour l’analyse, la modélisation, la simulation et le pilotage de systèmes mécatroniques. L’objectif recherché était l’optimisation fonctionnelle de ces systèmes, et notamment de l’électronique de puissance. Les études répondaient aux problématiques rencontrées en : — modélisation comportementale ; — pilotage et mesures ; — interactions multiphysiques ; — caractérisations expérimentales. Ces problématiques concernent les systèmes mettant en oeuvre des dispositifs d’électronique de puissance. Le socle méthodologique s’est appuyé sur : — la mise en oeuvre de modèles analytiques ; — la modélisation numérique ; — l’intégration en électronique de puissance ; — les mathématiques et l’automatique appliquées ; — les procédés de mise en oeuvre ; — le développement de bancs expérimentaux de caractérisation. Ainsi les questions de prédiction du comportement, d’optimisation des architectures et des choix technologiques, de validation du comportement lors du vieillissement, ainsi que du pilotage optimal du dispositif ont été abordées

    La santé des écosystèmes logiciels à code source ouvert : une revue de littérature systématique

    Get PDF
    Un logiciel à code source ouvert (LCSO) ou Open Source Software est un logiciel dont le code source est accessible et modifiable par quiconque, et dont la licence assure que ce code demeure dans le domaine public. Le développement des LCSO a connu une montée fulgurante au cours des deux dernières décennies. Étant considérés comme un élément clé de l’écosystème logiciel à code source ouvert (ECLSO), les projets de LCSO abondent et deviennent de plus en plus essentiels et indispensables pour les systèmes utilisés par plusieurs organisations à l’échelle mondiale. L’évolution rapide de la recherche sur les ECLSO a permis de nombreuses contributions significatives. Cependant, cette croissance suscite des interrogations et interpelle la communauté des chercheurs et praticiens en ce qui concerne la santé de ces ECLSO. Qu’adviendrait-il s’ils se dégradaient ou cessaient d'exister ? Dans le but de mieux comprendre comment ce domaine a été abordé dans littérature, nous avons effectué une revue de littérature systématique descriptive afin d’avoir un aperçu des études qui ont été faites dans ce domaine. Au total, 98 articles ont été retenus dans notre échantillon et les résultats de notre analyse de ces articles montrent que la recherche dans ce domaine est encore immature. Il n’existe pas encore de consensus quant à la définition de la santé, ni à celle de l’écosystème logiciel, ni d’outils adéquats pour appuyer l’évaluation de la santé des ELCSO. Notre étude a révélé qu’aucun auteur n’a réellement défini ce que c’est que la « santé d’un ELCSO ». Néanmoins, certains aspects de la santé ont été étudiés pour divers composants d’un ELCSO. Notre revue de littérature permet de souligner que le domaine offre de réelles opportunités pour des recherches futures.Open Source Software (OSS) is software whose source code is accessible and modifiable by anyone, and whose license ensures that this code remains in the public domain. The development of OSSs has skyrocketed over the past two decades. As a key component of the Open Source Software (OSS) ecosystem, OSS projects abound and become increasingly essential and indispensable for various systems used most organizations worldwide. The rapid evolution of OSS ecosystem research has resulted in many significant contributions. However, this growth raises questions and challenges the community of researchers and practitioners as far as health of these OSS ecosystem is concerned. What would happen if they deteriorated or ceased to exist? To better understand how researchers addressed this area, we conducted a descriptive systematic literature review to gain insight into the studies that have been done in this area. In total, 98 articles were selected in our sample and the results of our analysis of these articles show that research in this area is still immature. There is still no consensus on the definition of health, the software ecosystem, nor adequate tools to support the health assessment of the ELCSO. Our study revealed that no author has really defined the "health of an OSS ecosystem". Although some aspects of health have been studied for various components of an OSS ecosystem, our literature review highlights that the field offers real opportunities for future research

    Conception et développement de composants logiciels et matériels pour un dispositif ophtalmique

    Get PDF
    Les recherches menées au cours de cette thèse de Doctorat s'inscrivent dans les activités du laboratoire commun OPERA (OPtique EmbaRquée Active) impliquant ESSILOR-LUXOTTICA et le CNRS. L'objectif est de contribuer au développement des "lunettes du futur" intégrant des fonctions d'obscurcissement, de focalisation ou d'affichage qui s'adaptent en permanence à la scène et au regard de l'utilisateur. Ces nouveaux dispositifs devront être dotés de capacités de perception, de décision et d'action, et devront respecter des contraintes d'encombrement, de poids, de consommation énergétique et de temps de traitement. Ils présentent par conséquent des connexions évidentes avec la robotique. Dans ce contexte, les recherches ont consisté à investiguer la structure et la construction de tels systèmes afin d'identifier leurs enjeux et difficultés. Pour ce faire, la première tâche a été de mettre en place des émulateurs de divers types de lunettes actives, qui permettent de prototyper et d'évaluer efficacement diverses fonctions. Dans cette phase de prototypage et de test, ces émulateurs s'appuient naturellement sur une architecture logicielle modulaire typique de la robotique. La seconde partie de la thèse s'est focalisée sur le prototypage d'un composant clé des lunettes du futur, qui implique une contrainte supplémentaire de basse consommation : le système de suivi du regard, aussi appelé oculomètre. Le principe d'un assemblage de photodiodes et d'un traitement par réseau de neurones a été proposé. Un simulateur a été mis au point, ainsi qu'une étude de l'influence de l'agencement des photodiodes et de l'hyper-paramétrisation du réseau sur les performances de l'oculomètre.The research carried out during this doctoral thesis takes place within the OPERA joint laboratory (OPtique EmbaRquée Active) involving ESSILOR-LUXOTTICA and the CNRS. The aim is to contribute to the development of "glasses of the future", which feature obscuration, focus or display capabilities that continuously adapt to the scene and the user gaze. These new devices will be endowed with perception, decision and action capabilities, and will have to respect constraints of space, weight, energy consumption and processing time. They therefore show obvious connections with robotics. In this context, the structure and building of such systems has been investigated in order to identify their issues and difficulties. To that end, the first task was to set up emulators of various types of active glasses, which enable the prototyping and effective testing of various functions. In this prototyping and testing phase, these emulators naturally rely on a modular software architecture typical of robotics. The second part of the thesis focused on the prototyping of a key component which implies an additional constraint on low consumption, namely the eye tracking system, also known as gaze tracker. The principle of a photodiode assembly and of a neural network processing has been proposed. A simulator has been developed, as well as a study of the influence of the arrangement of photodiodes and the hyper-parametrization of the network on the performance of the oculometer

    Modélisation et mise en œuvre d'environnements informatiques pour la régulation de l'apprentissage, le cas de l'algèbre avec le projet LINGOT

    Get PDF
    200 pagesCe projet a pour objectif de mettre à la disposition des enseignants des outils performants pour un travail plus individualisé avec des élèves dans le domaine de l'algèbre élémentaire. Le travail s'appuie sur des recherches théoriques en Didactique des Mathématiques et en Environnements Informatiques d'Apprentissage Humain. Le projet a produit un logiciel, appelé Pépite, qui construit automatiquement le profil cognitif en algèbre d'un élève du secondaire à partir de ses réponses à un test spécialement élaboré à cet effet

    Réalisations instrumentales pour le contrôle fonctionnel de l'infrastructure et des détecteurs de l'expérience ATLAS

    Get PDF
    The European Organization for Nuclear Research or CERN, Geneva, is about to operate the Large Hadron Collider (LHC). This accelerator ring and its particles detectors have been built to try to answer to the actual questions given by the particle physics theories. One of these detectors, ATLAS, has been designed, for instance, to validate, or invalidate, the theories on the existence of the Higgs Boson. The operation of the detector and the quality of its data depend on the quality of the detection elements but it depends also strongly on the good monitoring of its environment. In this respect, the developments presented in this document are focused on the control of the infrastructure of the ATLAS detector and on the ALFA detector (Absolute Luminosity For ATLAS) which is designed to provide an absolute measurement of the luminosity of the LHC beam at the ATLAS interaction point. Two projects which are integrated in the Detector Control System (DCS) are presented in the first part of the document: FPIAA (Finding Persons Inside ATLAS Areas) has been developed as a tool for people safety in the experimental cavern during the maintenance periods of ATLAS. It consists in an application for people localization and an active tracking of people in the cavern. A second application has been developed to measure the level of ionizing radiations and the particles fluency in the detector during its operation. These data will be used to eval uate the aging of the elements of the detector in respect with the level of integrated radiations. The work done on the ALFA detector is focused on particle detection technologies and control applications. The photo detection devices which will be used have been evaluated, the hardware of the trigger counter have been studied and optimized. Finally, preliminary developments on the DCS of the ALFA detector will be presented. Software components have been implemented to configure remotely the front-end electronics of the detector and to perform automated calibrations. A high level communication scheme has also been implemented for data exchange between the ALFA DCS and the system which controls the movements of the detector on the LHC beam

    Intégration d'un système de Retour d'Expériences à un PLM

    Get PDF
    Les travaux présentés dans cette thèse s’inscrivent dans une problématique d’amélioration continue appliquée aux produits et aux processus industriels, par la mise en place d’un système de Retour d’Expérience (REx) couplé au système PLM (Product Lifecycle Management) de gestion du cycle de vie du produit. Les développements, menés dans le cadre d’un partenarial industriel, ciblent l’établissement d’une solution de valorisation du patrimoine immatériel de l’entreprise, constitué des expériences et des connaissances détenues par les experts métier. L’objectif visé est d’assurer la pérennisation de cette expertise, la prévention et la limitation des erreurs et l’application de bonnes pratiques dans une démarche générale d’amélioration des produits et des processus. La solution est portée par la mise en place d’un système REx appliqué aux connaissances tacites et explicites impliquées dans les activités techniques de l'entreprise et visant à capitaliser au fur et à mesure les informations métier, porteuses de sens. L’intégration du REx au système PLM permet de lever une part des difficultés d’appropriation par les experts métier, utilisateurs du système REx. L’ancrage de ce REx aux méthodes de résolution de problèmes (PSM, Problem Solving Methods) induit une instrumentation tout à fait performante pour l’acquisition des connaissances tacites issues d’événements négatifs. L’extension aux processus d’évolution des Normes Techniques qui formalisent les règles métier de l’entreprise permet leur évolution vers des connaissances explicites. Le caractère non intrusif du système REx dans son utilisation est assuré par un couplage étroit au processus de Gestion des Modifications du PLM, la capitalisation des informations étant naturellement induite par la démarche mise en œuvre dans ce processus. Au final, le système REx proposé et instrumenté dans l’outil PLM permet, en différentes étapes, de capitaliser, de traiter puis d’exploiter dans des formes performantes le patrimoine immatériel mis en exergue au cours des expériences de résolution de problèmes produit ou processus. ABSTRACT : The work presented in this thesis considers continuous improvement issues which are applied to industrial products and processes through the implementation of a Lesson Learned System (LLS) coupled with the Company's Product Lifecycle Management (PLM) system. As an industrial partnership, these developments aim to increase the value of the intangible assets of the business including the business agent’s experiences and knowledge. In order to ensure the sustainability of expertise, to prevent errors and to encourage the application of good practices, all within a general approach of product improvement. The solution relies on the implementation of the LLS process which is applied to tacit and explicit knowledge related to the technical activities of the company. The integration of the LLS and PLM Systems removes some of the difficulties of ownership of business agents. The implementation of LLS and Problem Solving Methods (PSM) infers an efficient instrumentation for the acquisition of tacit knowledge. The extension of the evolution processes of technical documents that formalise the techincal business rules allows its evolution towards explicit knowledge. Using non-intrusive LLS is provided by close coupling with the process of Change Management (CM) where information capitalisation is naturally led by the approach implemented in this processes. Finally, the proposed and instrumented LLS in the PLM tool allows to efficiently capitalise, process, and exploit the intangible capital of the company (information and knowledge) highlighted during the modification experiments of product data

    ScaleSem (model checking et web sémantique)

    Get PDF
    Le développement croissant des réseaux et en particulier l'Internet a considérablement développé l'écart entre les systèmes d'information hétérogènes. En faisant une analyse sur les études de l'interopérabilité des systèmes d'information hétérogènes, nous découvrons que tous les travaux dans ce domaine tendent à la résolution des problèmes de l'hétérogénéité sémantique. Le W3C (World Wide Web Consortium) propose des normes pour représenter la sémantique par l'ontologie. L'ontologie est en train de devenir un support incontournable pour l'interopérabilité des systèmes d'information et en particulier dans la sémantique. La structure de l'ontologie est une combinaison de concepts, propriétés et relations. Cette combinaison est aussi appelée un graphe sémantique. Plusieurs langages ont été développés dans le cadre du Web sémantique et la plupart de ces langages utilisent la syntaxe XML (eXtensible Meta Language). Les langages OWL (Ontology Web Language) et RDF (Resource Description Framework) sont les langages les plus importants du web sémantique, ils sont basés sur XML.Le RDF est la première norme du W3C pour l'enrichissement des ressources sur le Web avec des descriptions détaillées et il augmente la facilité de traitement automatique des ressources Web. Les descriptions peuvent être des caractéristiques des ressources, telles que l'auteur ou le contenu d'un site web. Ces descriptions sont des métadonnées. Enrichir le Web avec des métadonnées permet le développement de ce qu'on appelle le Web Sémantique. Le RDF est aussi utilisé pour représenter les graphes sémantiques correspondant à une modélisation des connaissances spécifiques. Les fichiers RDF sont généralement stockés dans une base de données relationnelle et manipulés en utilisant le langage SQL ou les langages dérivés comme SPARQL. Malheureusement, cette solution, bien adaptée pour les petits graphes RDF n'est pas bien adaptée pour les grands graphes RDF. Ces graphes évoluent rapidement et leur adaptation au changement peut faire apparaître des incohérences. Conduire l application des changements tout en maintenant la cohérence des graphes sémantiques est une tâche cruciale et coûteuse en termes de temps et de complexité. Un processus automatisé est donc essentiel. Pour ces graphes RDF de grande taille, nous suggérons une nouvelle façon en utilisant la vérification formelle Le Model checking .Le Model checking est une technique de vérification qui explore tous les états possibles du système. De cette manière, on peut montrer qu un modèle d un système donné satisfait une propriété donnée. Cette thèse apporte une nouvelle méthode de vérification et d interrogation de graphes sémantiques. Nous proposons une approche nommé ScaleSem qui consiste à transformer les graphes sémantiques en graphes compréhensibles par le model checker (l outil de vérification de la méthode Model checking). Il est nécessaire d avoir des outils logiciels permettant de réaliser la traduction d un graphe décrit dans un formalisme vers le même graphe (ou une adaptation) décrit dans un autre formalismeThe increasing development of networks and especially the Internet has greatly expanded the gap between heterogeneous information systems. In a review of studies of interoperability of heterogeneous information systems, we find that all the work in this area tends to be in solving the problems of semantic heterogeneity. The W3C (World Wide Web Consortium) standards proposed to represent the semantic ontology. Ontology is becoming an indispensable support for interoperability of information systems, and in particular the semantics. The structure of the ontology is a combination of concepts, properties and relations. This combination is also called a semantic graph. Several languages have been developed in the context of the Semantic Web. Most of these languages use syntax XML (eXtensible Meta Language). The OWL (Ontology Web Language) and RDF (Resource Description Framework) are the most important languages of the Semantic Web, and are based on XML.RDF is the first W3C standard for enriching resources on the Web with detailed descriptions, and increases the facility of automatic processing of Web resources. Descriptions may be characteristics of resources, such as the author or the content of a website. These descriptions are metadata. Enriching the Web with metadata allows the development of the so-called Semantic Web. RDF is used to represent semantic graphs corresponding to a specific knowledge modeling. RDF files are typically stored in a relational database and manipulated using SQL, or derived languages such as SPARQL. This solution is well suited for small RDF graphs, but is unfortunately not well suited for large RDF graphs. These graphs are rapidly evolving, and adapting them to change may reveal inconsistencies. Driving the implementation of changes while maintaining the consistency of a semantic graph is a crucial task, and costly in terms of time and complexity. An automated process is essential. For these large RDF graphs, we propose a new way using formal verification entitled "Model Checking".Model Checking is a verification technique that explores all possible states of the system. In this way, we can show that a model of a given system satisfies a given property. This thesis provides a new method for checking and querying semantic graphs. We propose an approach called ScaleSem which transforms semantic graphs into graphs understood by the Model Checker (The verification Tool of the Model Checking method). It is necessary to have software tools to perform the translation of a graph described in a certain formalism into the same graph (or adaptation) described in another formalismDIJON-BU Doc.électronique (212319901) / SudocSudocFranceF

    Contributions au développement d'algorithmes robustes pour l'identification des défauts géométriques de forme à partir d'un nuage de points

    Get PDF
    L’amélioration des analyses issues de l’exploitation de la maquette numérique nécessite le recours à des modèles réalistes qui reflètent les variations induites par les procédés de fabrication. Une modélisation des composants réalistes doit donc tenir compte de ces variations. Plus spécifiquement, nous visons dans le cadre du présent projet, la modélisation des tolérances géométriques de forme, la simulation d’assemblages des pièces avec des défauts de forme et l’évolution de l’effet de l’erreur algorithmique sur l’estimation de la dimension des surfaces ayant des défauts de forme. Les modèles développés présentent un outil d’analyse pour assister l’ingénierie des méthodes lors de la création des gammes de fabrication et d’inspection. Le premier jalon consiste à modéliser les défauts de forme pour diverses géométries primitives en considérant une rigidité infinie, À cette étape, nous développons des algorithmes qui permettent de générer automatiquement des assemblages réalistes. Cette modélisation réaliste permet une analyse de tolérance en prenant compte de l’évolution des contacts entre les composants au cours du fonctionnement du produit. Cette approche a fourni un résultat d'assemblage plus proche de l'assemblage réel du système mécanique. Comme deuxième jalon, une étude sur l’influence de défauts de forme sur l’identification des requis dimensionnels et géométriques simulées à partir d’un nuage de points mesurés. Plus précisément, nous examinons l’usage des nouveaux modificateurs de spécifications des tolérances de taille, telle que définies dans ISO 14405-1:2016, et nous étudions comment les stratégies de mesure des systèmes et les algorithmes influent l'évaluation de ces nouvelles spécifications. Aussi, les systèmes d’inspection assistée par ordinateur sont bien utilisés par les manufacturiers pour vérifier la conformité des pièces qu’ils produisent. Or, les résultats de ces inspections peuvent varier en fonction du logiciel et des paramètres utilisés. C’est ce que les chercheurs appellent « l’erreur algorithmique ». Nous réalisons une étude pour examiner la reproductibilité des logiciels d’inspection assistée par ordinateur dans le cas de l’évaluation des défauts de forme. Finalement, une nouvelle approche est proposée pour l’estimation de la taille des éléments géométriques affectés par une erreur de forme en utilisant l’analyse robuste en composantes principales et la boite englobante orientée. Cette nouvelle approche a été validée par une simulation numérique et sur des études réelles
    • …
    corecore