406 research outputs found

    Caractérisation et modélisation des performances hautes fréquences des réseaux d'interconnexions de circuits avancés 3D (application à la réalisation d'imageurs de nouvelle génération)

    Get PDF
    Le travail de doctorat réalisé s'attache à étudier les nouveaux types d'interconnexions comme les TSV (Through Silicon Via), les lignes de redistribution (RDL) et les piliers de cuivre (Cu-Pillar) présentes dans le domaine de l'intégration 3D en microélectronique avancée, par exemple pour des applications de type imager où une puce capteur optique est empilée sur une puce processeur . Afin de comprendre et quantifier le comportement électrique de ces nouveaux composants d'interconnexion, une première problématique de la thèse s'articulait autour de la caractérisation électrique, sur une très large bande de fréquence (10 MHz - 60 GHz) de ces éléments, enfouis dans leurs environnements complexes d'intégration, en particulier avec l'analyse de l'impact des pertes dans les substrats de silicium dans une gamme de conductivités allant de très faible (0 S/m) à très forte (10 000 S/m). Par la suite, une nouvelle problématique prend alors naissance sur la nécessité de développer des modèles mathématiques permettant de prédire le comportement électrique des interconnexions 3D. Les modèles électriques développés doivent tenir compte des pertes, des couplages ainsi que de certains phénomènes liés à la montée en fréquence (courants de Foucault) en fonction des caractéristiques matériaux, des dimensions et des architectures (haute à faible densité d'intégration). Enfin, à partir des modèles développés, une dernière partie propose une étude sur les stratégies de routage dans les empilements 3D de puces à partir d'une analyse sur l'intégrité de signaux. En opposant différents environnements, débit de signaux binaires ou dimensions des TSV et des RDL des conclusions émergent sur les stratégies à adopter pour améliorer les performances des circuits conçus en intégration 3D.The aim of this doctoral work is to study the new kind of interconnections like TSV (Through Silicon Via), redistribution lines (RDL) and copper pillars used in 3D integration context in advanced microelectronic components. An example of 3D integration application could be an imager designed by staking an optical sensor chip upon a processor chip. In order to understand and quantify the electrical behaviour of these new interconnection components, the first issue was about electrical characterization in a very wide frequency band (10 MHz - 60 GHz) of these elements, buried in their complex environment, in particular with the analysis of the silicon substrate loss impact which can be found in a wide band of conductivities from very low (0 S/m) to very high (10 000 S/m). Subsequently, a second issue appears from the need to develop mathematical models to predict the electrical behavior of 3D interconnects. The developed models have to take into account losses, coupling effects and some phenomena appearing with the rise of frequency (eddy currents) according to material characteristics, dimensions and architecture (from high to low density of integration). Finally, based on developed models, the last part presents a study on routing strategies in the 3D stacking chip from the analysis of signal integrity. By contrasting various environments, binary signals flow or dimensions of TSV and RDL, conclusions emerge on the best strategies to use to improve performances of circuits designed in 3D integration.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF

    : Rapport final du projet ANR 2006-2008 (annexes scientifiques)

    Get PDF
    As a 24 months platform project, Lutin Game Lab was designed for making academic researchers and game companies cooperate in order to reach a new stage in the process of game quality assessment, before and after they are available on the market. The project was organized along 6 WP, all of them having fulfilled their specific goals, although we had to endure some delays due to the time required for settling the technical platform and due to the lack of time available for the companies to collaborate during the year 2008.The project results can be summed up in 4 different aspects:* A platform is now open to companies as well as to academic labs, equipped with all the devices and the softwares needed for conducting evaluation of gamers behaviour, including all game platforms, excepted for on-line games. Two eye-tracking devices and sensorial analysis tools are part of the equipment of the platform. This technical platform is operated by the UMS CNRS Lutin at the Cité des Sciences in Paris.* The methods created for analyzing the existing games and the ones in development phase were scientifically validated and adapted to the requirements of companies (time needed, display of the results, prerequisites and modes of cooperation with developers). These methods have not yet been tested in the developing phase of real games except for one of them (QRC), due to the workload of developers during this period. * The methods are the following:o Artificial expert for the prediction of gamers judgments based on a description framework of game properties. A subjective evaluation database has been designed using the data collected during the tests of 240 gamers (experts and naives) expressing judgments in a 11 items questionnaire, using the data from an objective description of game properties and the data obtained through an "objectivated subjective" description of games qualities retrieved from experts who designed and filled up a framework of 56 items per game genre (126 iterations). This expert allows companies to test their games while they are still in the design phase through the description framework in order to predict the judgments from the gamers and to optimize their various choices in game design using the 15 fuzzy models selected for each game genre.o Usability testing method adapted specifically to videogames (Quick Reality Check, QRC), based on a test protocol involving 10 gamers, on logs tracking the gamer behaviour (implemented by the developers in their prototype), on synthetic visualization tools displaying the results, and on remediation method in cooperation with game designers (game doctor). This method focuses on ergonomics features and acceptability issues.o An eyetracking method dedicated to gamers behaviour analysis. It helps to explore in-depth the areas or phases of concern discovered with the previous method. This allows the game designers to reshape some features in the interfaces and to compare their results with the patterns of each game genre that the research was able to modelize.o A method for tracking emotional states during the game, through sensors placed on the gamers bodies, in order to explore and better understand the reasons of the problems pointed out by the other methods. This is a much more innovative methodology and field of research and this explains the need for focusing on specific features in order to validate the whole framework with the existing scientific state of the art. This is a very promising field and a very attractive one for the game designers, one that would require much more research efforts.o An artificial expert providing diagnosis through the gathering of every piece of data collected during the various tests, with added results from on line questionnaires. The expert software provides an integrative view of the results for a specific game and can refer it to the various models available in the literature.* In the gameplay evaluation field, the project evolves from a review of literature to the design of a wiki open to the community of game designers, which aim is to create de knowledge database about gameplay qualities for each game genre. The wiki includes a list of rules shared by the community and examples of games displaying the uses of these rules, extracted from a corpus of the most famous games. The database can be enriched with new cases, rules can be adapted, through the revision process of the wiki which includes collective validation. Developers can access the wiki as a resource for validation of their choices.In brief, the platform offers a set of devices, a set of methods, available for the game industry, operated by Lutin experts, and a website including the wiki. Lutin Game lab platform represents an European reference center in the field of game evaluation. Lutin plans to design a quality label for games that could be used before the games are placed on the market. LUtin Game Lab requires a new research project devoted to the extension of the methods to on-line games (Lutin Game Lab on line). The next year will be devoted to dissemination and validation on real game being developed.Le projet annonçait ainsi ses objectifs en 2006 : " Lutin Game Lab, projet de plate-forme de 24 mois, se propose de fédérer les forces de recherche académiques et de développement des entreprises pour faire faire un pas significatif aux méthodologies d'évaluation de la qualité d'un jeu vidéo fini ou en cours de développement. " Le travail a comporté 6 sous -projets qui ont tous été menés à bien conformément au programme prévu avec des décalages non négligeables dus notamment au temps nécessaire au montage technique de la plate-forme et à la difficulté des entreprises à dégager du temps pour leur collaboration au moment voulu alors qu'elles sont sous haute pression concurrentielle. Le bilan du projet peut se résumer en 4 points : * il existe désormais en France une plate-forme ouverte aux entreprises et aux laboratoires, équipée de tous les matériels et logiciels nécessaires pour faire l'évaluation des comportements des joueurs de jeux vidéo, toutes plates-formes de jeu confondus, à l'exception des jeux multi joueurs en ligne. Cette plate-forme technique, comportant notamment des dispositifs d'oculométrie opérationnels de divers types, et des dispositifs d'analyse sensorielle, est opérationnelle en permanence dans le cadre des missions de l'UMS CNRS Lutin 2803 à la Cité des Sciences. * Les méthodes élaborées pour l'analyse des jeux existants et des jeux en cours de développement ont été validées scientifiquement et opérationnellement selon les critères des entreprises de jeux vidéo (délais, présentation des résultats, prérequis et formes de coopération). Ces méthodes devront cependant être validées en situation de jeux en cours de développement car les délais de coopération avec les entreprises n'ont permis de mettre en œuvre cette étape que pour une seule de ces méthodes (dite QRC)* Les méthodes comportent 5 volets : o un expert artificiel prédictif qui permet de prédire l'appréciation subjective des joueurs à partir d'une description formalisée des propriétés d'un jeu. Une base de données d'évaluation subjective a été constituée à partir de tests réalisés par 240 joueurs de tous niveaux et de leur appréciation subjective (11 items), à partir de description des propriétés objectives du jeu (106 items) et à partir d'une description subjective objectivée des qualités d'un jeu par genre (56 items par genre de jeu) et de 126 itérations de cette grille réalisée à partir d'une extraction d'expertise auprès de game designers et élèves game designers. Il est proposé aux entreprises de jeux vidéo de tester leur jeu dans une phase amont du développement pour prédire les scores de leurs jeux et ensuite optimiser les choix effectués, en exploitant les 15 modèles en logique floue sélectionnés pour chaque genre de jeu. o Une méthode en usability (Quick Reality Check) qui comporte un protocole de tests auprès de 10 joueurs minimum, des outils de suivi des déplacements par implantation de logs dans le jeu en cours de développement, de modes de visualisation synthétique des résultats et une méthode de correction associant les développeurs (Game Doctor). Cette méthode traite avant tout les questions d'ergonomie et d'acceptabilité. o Une méthode de suivi du regard des joueurs permettant d'affiner les résultats de la méthode précédente, sur des zones ou des phases problématiques pour repositionner le game design et l'ergonomie en fonction des patterns, ou signatures, identifiés par la recherche pour chaque type de jeux. o Une méthode de suivi de l'engagement émotionnel durant le jeu à partir de capteurs d'analyse sensorielle placés sur les joueurs, permettant là aussi d'affiner la recherche éventuelle de problèmes pour des phases plus précises selon les stratégies du game designer. Cette méthode est la plus innovante en termes de recherche et nos résultats restent donc limités à certains points précis qui sont cependant très prometteurs et nécessiteraient des travaux supplémentaires.o Un expert artificiel diagnostic permettant de traiter et de synthétiser toutes les données recueillies lors des tests des autres méthodes, de les compléter par des questionnaires en ligne si nécessaire et de les rapporter à des modèles issus de la littérature pour proposer un diagnostic intégré sur les qualités d'un jeu donné. * Dans le domaine du gameplay, le projet a évolué à partir d'un recensement exhaustif de la littérature sur la mise en place d'un wiki permettant à toute la communauté des développeurs de constituer une base de connaissances partagées sur les qualités du gameplay selon les genres. Ce wiki comporte un énoncé de règles reconnues par la communauté mais aussi leur exemplification à partir d'un corpus de jeux parmi les plus connus dans tous les genres. La base peut être enrichie par d'autres études de cas, les règles peuvent être affinées, et les développeurs peuvent la consulter en tant que de besoin pour valider les choix qu'ils effectuent. La mise en place de la plate-forme comporte ainsi une partie d'équipements localisés à la cité des sciences, une expertise en méthodes, directement opérationnelles et proposées déjà aux entreprises par les différents partenaires membres de Lutin, et un site collaboratif qui rassemble la communauté autour de son expertise propre. Lutin Game Lab peut ainsi prétendre devenir un centre de références européen en termes de méthodes qualité pour les jeux vidéo et nous prévoyons de travailler à proposer un label pour qualifier les jeux vidéo avant leur mise sur le marché, ainsi qu'à une extension de ses compétences pour les jeux vidéo multi joueurs en ligne (Lutin Game Lab on line). Le projet a ainsi atteint son objectif général ainsi que ses objectifs particuliers, à l'exception du temps de validation encore nécessaire auprès des entreprises qui n'a pu être pris en compte durant le projet

    Effets de la stratégie d'enseignement de carte conceptuelle de type hiérarchique sur la compréhension littérale et inférentielle de textes informatifs en langue seconde

    Full text link
    Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

    Estimation des jonctions, du mouvement apparent et du relief en vue d'une reconstruction 3D de la scène

    Get PDF
    La reconstruction 3D d'une scène réelle à partir d'une ou plusieurs images permet de comprendre la relation tridimensionnelle qui existe entre les différents objets. À cet effet, il existe plusieurs indices de profondeur (coins, flou, disparité, mouvement, etc.) permettant la perception 3D. Pour notre part, nous avons étudié, développé et implanté quatre approches dont une pour la détection des jonctions de lignes, une pour la segmentation basée sur le mouvement, une pour l'estimation du flou et enfin une pour l'estimation simultanée du flou et de la disparité. La détection des jonctions et des terminaisons de lignes est basée sur une mesure de courbure locale. Étant donné que ces caractéristiques de l'image sont robustes, elles constituent un intérêt particulier pour la mise en correspondance et la reconstruction 3D. La segmentation en couches des images d'une séquence vidéo consiste à déterminer l'ordre de profondeur relatif des objets (régions) les uns par rapport aux autres à partir d'un critère d'homogénéité du flot optique. L'estimation de la différence de flou entre deux images d'une même scène est fondée sur la transformée d'Hermite. Afin de valider l'estimation résultante, la profondeur des objets de la scène est ensuite calculée à partir de la différence de flou. Finalement, le modèle unifié permet de calculer de manière simultanée et coopérative le flou et la disparité. Il constitue en fait une généralisation de notre approche d'estimation du flou. Les indices ainsi calculés peuvent ensuite servir à la reconstruction 3D de scènes complexes

    Traitement thermique de déchets solides à l'aide d'un réacteur à lit fluidisé circulant interne

    Get PDF
    Revue de la littérature : approches de traitement thermique des déchets solides -- Incinération -- Gazéification -- Pyrolyse, Comparaison des approches et conclusion -- Technologie proposée -- Description de la technologie -- Objectifs techniques du programme de recherche global -- Objectifs et méthodologie de la présente étude -- Unité expérimentale -- Conception de l'unité expérimentale -- Données techniques -- Prises de mesures -- Acquisition de données -- Analyse des variables -- Sables de fonderie -- Problématique industrielle des sables de fonderie -- Pratiques industrielles de régénération des sables de fonderie -- Régénération thermique et les coûts évités : exemples industriels -- Description et caractéristiques des sables utilisés -- Problèmes opératoires, établissement des procédures et quantification du taux de circulation -- Caractérisation du brûleur co-axial dans une enceinte de confinement -- Essais de sélection du brûleur pour l'unité -- Essais comparatifs sans sable -- Essais comparatifs avec sable -- Conclusion sur les brûleurs -- Essais préliminaires avec sables usés -- Planification des expériences à venir

    Impacts environnementaux d'une nouvelle technique de récolte de la tourbe

    Get PDF
    La technique de récolte de tourbe la plus utilisée au Canada est celle de l'aspiration. Cette technique extensive engendre des impacts majeurs sur l'environnement. Depuis 4 ans, une nouvelle technique de récolte est à l'essai. La technique de récolte mécanique par tranchée vise l'extraction de la tourbe par bloc tout en conservant la végétation de surface pour une restauration simultanée à la récolte. Ce projet permettra d'évaluer si cette technique exercera moins de changement sur la chimie de l'eau des cours d'eau récepteurs et sur la restauration du couvert végétal après extraction de la tourbe. Afin d'y parvenir, des inventaires de végétation, des mesures de décomposition de la tourbe et de productivité de l'écosystème ainsi que des analyses d'eau provenant de la tourbière de Pointe-Lebel ont été réalisés avant et après les essais de la technique de récolte mécanique par tranchée. La récolte mécanique par tranchée présente plusieurs avantages face à l'aspiration. Elle permet l'installation d'un couvert végétal typique d'une tourbière ombrotrophe plus rapidement et entraîne moins d'impacts sur la qualité de l'eau issue de la tourbière. Somme toute, la récolte mécanique par tranchée est une technique très prometteuse
    • …
    corecore