30 research outputs found

    Évaluation des performances de l'imagerie thermique par fluorescence pour l'analyse de défaillance des flip chips

    Get PDF
    Imagerie thermique par fluorescence -- Optimisation de la technique -- Mesures absolues de température -- Mesures de températures sur les flip chips

    Emploi du Temps : Problème mathématique ou problème pour Ia Programmation en Logique avec Contraintes ?

    Get PDF
    This technical report is a bibliographic study, an analysis and a synthesis of needs. This work is realized as part of a thesis about the subject"Constraint Logic Programming's application to the Timetable problems", within the department of Constraint Logic Programming (PLA :"Programmation en Logique et Applications") and the CNET's division SLC of Lannion-A. The subsidies come on the one hand from the Brittany's local committee, on the other hand from the national center of telecommunications studies (CNET).The Timetable problem is difficult and can give many days of work to one or two persons. A Timetable is very important due to the fact that it deals with the good management of time for different people who have their own activities. In big institutions (secondary schools, colleges of tlniversity ; CNET ...), many difficulties arise : big volume of data, fuzzy criterion of optimization, combinatorial problem, very varied constraints, inopportune changes. Then, many applications have grown either from mathematic models assisted by graph theory, or from other techniques such as operational research or artificial intelligence.This paper draws the requirements to solve this problem and proposes a model of resolution by the approach of Constraint Logic Programming.Cette note technique est le résultat d'une étude bibliographique, d'une analyse et d'une synthèse des besoins, réalisées dans le cadre d'une thèse dont le sujet est "Application de la Programmation en Logique avec Contraintes aux problèmes d'Emploi du Temps", au sein de l'équipe Programmation en Logique avec Contraintes (PLA) dans la division SLC au CNET-Lannion A. Cette thèse est subventionnée d'une part par le Conseil Régional de Bretagne et d'autre part par le CNET.Le problème d'Emploi du Temps est un problème difficile qui peut donner plusieurs jours de travail à une ou deux personnes. L'importance d'un Emploi du Temps est évidente puisqu'il s'agit de gérer le temps de différentes personnes possédant leurs propres activités et ceci d'une manière satisfaisante pour chacune d'elle. Dans de grands établissements (lycées, grandes écoles ;CNET ; IRET ; ...), on se trouve confronté à de multiples difficultés : volume important d'informations, critère d'optimisation flou, combinatoire, contraintes très diverses, changements intempestifs. De ce fait, plusieurs recherches et essais de résolutions se sont développés, que ce soit par des modélisations mathématiques aidées de la théorie des graphes ou que ce soit par d'autres techniques issues de la Recherche Opérationnelle ou de l’IntelligenceArtificielle.Ce document conclut en dégageant les besoins pour informatiser et résoudre ce problème et propose une modélisation de résolution fondée sur I'approche Programmation en Logique avec Contraintes

    Machine virtuelle universelle pour codage vidéo reconfigurable

    Get PDF
    Cette thèse propose un nouveau paradigme de représentation d applications pour les machines virtuelles, capable d abstraire l architecture des systèmes informatiques. Les machines virtuelles actuelles reposent sur un modèle unique de représentation d application qui abstrait les instructions des machines et sur un modèle d exécution qui traduit le fonctionnement de ces instructions vers les machines cibles. S ils sont capables de rendre les applications portables sur une vaste gamme de systèmes, ces deux modèles ne permettent pas en revanche d exprimer la concurrence sur les instructions. Or, celle-ci est indispensable pour optimiser le traitement des applications selon les ressources disponibles de la plate-forme cible. Nous avons tout d abord développé une représentation universelle d applications pour machine virtuelle fondée sur la modélisation par graphe flux de données. Une application est ainsi modélisée par un graphe orienté dont les sommets sont des unités de calcul (les acteurs) et dont les arcs représentent le flux de données passant au travers de ces sommets. Chaque unité de calcul peut être traitée indépendamment des autres sur des ressources distinctes. La concurrence sur les instructions dans l application est alors explicite. Exploiter ce nouveau formalisme de description d'applications nécessite de modifier les règles de programmation. A cette fin, nous avons introduit et défini le concept de Représentation Canonique et Minimale d acteur. Il se fonde à la fois sur le langage de programmation orienté acteur CAL et sur les modèles d abstraction d instructions des machines virtuelles existantes. Notre contribution majeure qui intègre les deux nouvelles représentations proposées, est le développement d une Machine Virtuelle Universelle (MVU) dont la spécificité est de gérer les mécanismes d adaptation, d optimisation et d ordonnancement à partir de l infrastructure de compilation Low-Level Virtual Machine. La pertinence de cette MVU est démontrée dans le contexte normatif du codage vidéo reconfigurable (RVC). En effet, MPEG RVC fournit des applications de référence de décodeurs conformes à la norme MPEG-4 partie 2 Simple Profile sous la forme de graphe flux de données. L une des applications de cette thèse est la modélisation par graphe flux de données d un décodeur conforme à la norme MPEG-4 partie 10 Constrained Baseline Profile qui est deux fois plus complexe que les applications de référence MPEG RVC. Les résultats expérimentaux montrent un gain en performance en exécution de deux pour des plates-formes dotées de deux cœurs par rapport à une exécution mono-cœur. Les optimisations développées aboutissent à un gain de 25% sur ces performances pour des temps de compilation diminués de moitié. Les travaux effectués démontrent le caractère opérationnel et universel de cette norme dont le cadre d utilisation dépasse le domaine vidéo pour s appliquer à d autres domaine de traitement du signal (3D, son, photo )This thesis proposes a new paradigm that abstracts the architecture of computer systems for representing virtual machines applications. Current applications are based on abstraction of machine s instructions and on an execution model that reflects operations of these instructions on the target machine. While these two models are efficient to make applications portable across a wide range of systems, they do not express concurrency between instructions. Expressing concurrency is yet essential to optimize processing of application as the number of processing units is increasing in computer systems. We first develop a universal representation of applications for virtual machines based on dataflow graph modeling. Thus, an application is modeled by a directed graph where vertices are computation units (the actors) and edges represent the flow of data between vertices. Each processing units can be treated apart independently on separate resources. Concurrency in the instructions is then made explicitly. Exploit this new description formalism of applications requires a change in programming rules. To that purpose, we introduce and define a Minimal and Canonical Representation of actors. It is both based on actor-oriented programming and on instructions abstraction used in existing Virtual Machines. Our major contribution, which incorporates the two new representations proposed, is the development of a Universal Virtual Machine (UVM) for managing specific mechanisms of adaptation, optimization and scheduling based on the Low-Level Virtual Machine (LLVM) infrastructure. The relevance of the MVU is demonstrated on the MPEG Reconfigurable Video Coding standard. In fact, MPEG RVC provides decoder s reference application compliant with the MPEG-4 part 2 Simple Profile in the form of dataflow graph. One application of this thesis is a new dataflow description of a decoder compliant with the MPEG-4 part 10 Constrained Baseline Profile, which is twice as complex as the reference MPEG RVC application. Experimental results show a gain in performance close to double on a two cores compare to a single core execution. Developed optimizations result in a gain on performance of 25% for compile times reduced by half. The work developed demonstrates the operational nature of this standard and offers a universal framework which exceeds the field of video domain (3D, sound, picture...)EVRY-INT (912282302) / SudocSudocFranceF

    Comparaison des méthodes d'analyse de l'expression différentielle basée sur la dépendance des niveaux d'expression

    Full text link
    La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.Microarrays remain an important tool for the measurement of gene expression, and a myriad of methods for their pre-processing or statistical testing of differential expression has been proposed in the past. However, insufficient and sometimes contradictory evidence has prevented the emergence of a strong consensus over a preferred methodology. This leaves microarray practitioners to somewhat arbitrarily decide which method should be used to analyze their data. Here we present a novel approach to the problem of comparing methods for the identification of differentially expressed genes. Over eight hundred analytic pipelines were applied to more than a hundred independent microarray experiments. The accuracy of each analytic pipeline was assessed by measuring the average level of co-regulation uncovered across all data sets. This analysis thus relies on a varied set of biologically relevant data, does not confound reproducibility for accuracy and can easily be extended to future analytic pipelines. This procedure identified FARMS summarization and the TREAT gene ordering statistic as algorithms significantly more accurate than other alternatives. Most interestingly, our results corroborate recent findings about the importance of taking the magnitude of change into account along with an assessment of statistical significance

    Développement d'une méthodologie de codesign matériel/logiciel pour des applications de communications à haute vitesse

    Get PDF
    Définition du codesign -- Application utilisée pour valider la méthodologie -- Les différentes étapes du codesign -- Les différents composants du partitionnement -- Description des estimateurs utilisés -- Estimateurs pour la partie logicielle -- Estimateurs pour la partie matérielle -- Estimation et modèle de communications -- La fonction objectif -- Les algorithmes de partitionnement -- Introduction à la technologie XDSL -- Méthodologie utilisée et résultats -- Spécifiactions du systèmes et défnition des blocs -- Description des blocs pour le logiciel et le matériel -- Développement de la dissipation de puissance pour le logiciel -- Estimation du temps d'exécution logiciel -- Estimation de la surface et du temps d'exécution du matériel -- Estimation de la dissipation de puissance pour la partie matérielle -- Estimation des communications -- Algorithme de partitionnement -- Le meilleur partitionnement pour le Universal ADSL -- Implantation de mécanismes de communications -- Implantation de canaux de communications -- Co-simulation matérielle/logicielle

    Répartition automatique des tâches parallèles : application dans la simulation de réseaux électriques en temps réel

    Get PDF
    Répartition automatique des tâches parallèles pour la simulation en temps réel -- Modélisation et analyse du problème de la répartition des tâches -- Méthode heuristique de répartition des tâches temps réel -- Heuristiques de répartition et performances de la méthode

    Un cadre formel de décision pour la planification multi-niveau de systèmes de production réticulaires

    Get PDF
    La globalisation des marchés et les évolutions des technologies de communication et d'information ont fait émerger des organisations de production réticulaires (réseaux d'entreprises). Basées sur des relations étroites de partenariat, celles-ci nécessitent de gérer la chaîne logistique et d'étendre les outils de Gestion de Production traditionnelle à l'échelle du réseau d'entreprises. La planification de la production, fonction clé, demeurant mal résolue, ce mémoire propose un modèle formel de données cadrant la décision experte en planification/ordonnancement multi-site de la production. Nos développements sont basés sur le concept de conduite généralisée qui traite conjointement et récursivement l'allocation des tâches au fur et à mesure de la désagrégation des plans et des données techniques afférentes (gammes et ressources). Dans cette approche, chaque ressource est pilotée par un centre de conduite générique impliqué dans des relations de partenariat et/ou de supervision, instanciable à tout niveau de la structure de conduite. Pour tout centre de conduite, on initialise la fonction planification par la donnée d'un carnet de commande. Le processus décisionnel d'un centre se décompose alors en deux phases : - dans un premier temps, un calcul besoin/charge permettant d'évaluer quantitativement, qualitativement et sémantiquement la charge de travail du centre de conduite, - dans un second temps, une allocation charge/ressources internes et/ou externes, intégrant les contraintes d'approvisionnement logistique. Un ensemble de règles permet d'attester, d'une part, de la cohérence du scénario d'allocation proposé et, d'autre part, de la cohérence de la désagrégation et de la répartition des données entre centres de conduite impliqués dans des relations hiérarchiques et/ou de coopération.The market globalisation and the evolution of information and communication technology have led to the emergence of networked production organisations. Based on closed relationship, these organisations need to manage the supply chain and to extend production management tools to the scale of enterprises networks. As the planning function is not well-ensured, our works consists in the proposition of a formal model to support the expert decision in the context of multi-site production planning and scheduling. Our development are based on the concept of generalised production control. This concept allows simultaneous and recursive task allocation, according to the plan and incoming technical data desegregation (roots and resources). In this approach, each resource is controlled by a generic decision centre involved in partner and/or supervision relationships, instanciable at each decision level. For each decision centre, the planning function is initialised by an order book. Then the decisional process of a centre can be split up into two phases : - in the first time, a requirement/load calculus that permits to evaluate qualitatively, quantitatively and semantically the amount of works that the decision centre has to perform, - in the second time, a load external and/or internal resource allocation that takes into account the logistic constraints A set of rules that permit to check the coherency of the proposed allocation scenario and the coherency of the desegregation and repartition of data between decision centres involved in hierarchical and cooperation relation is then proposed

    L'informatique juridique : en progression vers un processus d'intelligence artificielle

    Get PDF
    This paper deals primarily with computer-assisted legal research. It attempts to sketch the current state of the art, mainly in the United States and Canada, with special reference to systems oriented towards the processing of legislative data. The author suggests a checklist of the main requirements the systems of the 80's will have to answer to, in order to fulfill the growing needs of the new computer-minded generations of law graduates. Along these lines, this paper deals also with the second generation systems dedicated to automated legal research ; these could be expected to show some form, albeit elementary, of humanlike intelligence. Four prototypes of such systems are considered; they are the American Bar Foundation's and Jeffrey Meldman's systems, as well as the well-known JUDITH and TAXMAN systems. The paper concludes on a glimpse of the Third Wave of computerized legal research, in the belief that the legal profession will meet the challenge of the computer age, will learn to live and work with this new technology, and will master the artificial but sometimes acute intelligence of our new friend, the Robot

    Rapport annuel 1997-1998

    Get PDF

    Évaluation de la performance dans la modélisation SystemC de systèmes multiprocesseur à base de processeur réseau

    Full text link
    Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal
    corecore