110 research outputs found

    Exemples de systèmes temps réel et choix d'implémentation

    Get PDF
    Ce chapitre présente les concepts de base liés aux systèmes temps réel. Après avoir illustré la problématique correspondante au travers d'exemples variés, il introduit les concepts techniques développés dans les chapitres suivants en se focalisant sur l'importance du choix d'implémentation des systèmes

    Introduction à la méthode statistique et probabiliste

    Get PDF
    This manuscript provides an introduction to statistics and probability method. It is structured around three themes developed in five chapters. The first part is an introduction to probability calculations in which we introduce the notions of elementary probability, probabilized spaces, random variables, distribution et density functions. We also review the main probability laws that characterize the common phenomenas of observation. The second part is an introduction to statistical analytical approaches. In this part, we present, one hand, the descriptive and exploratory methods and on other hand the inferential methods. The notions discussed in this section are statistical distributions, links between variables, estimators and hypothesis testing. As for the third part, it provides an introduction to survey techniques centered on the study of sampling protocols and estimations methods for extrapolation

    Introduction à la méthode statistique et probabiliste

    Get PDF
    This manuscript provides an introduction to statistics and probability method. It is structured around three themes developed in five chapters. The first part is an introduction to probability calculations in which we introduce the notions of elementary probability, probabilized spaces, random variables, distribution et density functions. We also review the main probability laws that characterize the common phenomenas of observation. The second part is an introduction to statistical analytical approaches. In this part, we present, one hand, the descriptive and exploratory methods and on other hand the inferential methods. The notions discussed in this section are statistical distributions, links between variables, estimators and hypothesis testing. As for the third part, it provides an introduction to survey techniques centered on the study of sampling protocols and estimations methods for extrapolation

    Introduction à la méthode statistique et probabiliste

    Get PDF
    This manuscript provides an introduction to statistics and probability method. It is structured around three themes developed in five chapters. The first part is an introduction to probability calculations in which we introduce the notions of elementary probability, probabilized spaces, random variables, distribution et density functions. We also review the main probability laws that characterize the common phenomenas of observation. The second part is an introduction to statistical analytical approaches. In this part, we present, one hand, the descriptive and exploratory methods and on other hand the inferential methods. The notions discussed in this section are statistical distributions, links between variables, estimators and hypothesis testing. As for the third part, it provides an introduction to survey techniques centered on the study of sampling protocols and estimations methods for extrapolation

    Technique adaptative pour la méthode de Galerkin sans maillage en mécanique des milieux continus

    Get PDF
    RÉSUMÉ : La Méthode de Galerkin Sans Maillage (MGSM) est une variante de la Méthode des Éléments Finis (MEF) utilisant un nuage de points non connectés par un maillage. Nous utilisons cette technique de l’analyse numérique pour approximer des problèmes d’élasticité linéaire se posant lors de la réalisation d’un simulateur de chirurgie. Ce travail traite d’un module d’adaptation permettant de relocaliser les degrés de liberté pour augmenter l’efficience de la MGSM. Il est composé d’un estimateur d’erreur reposant sur la décomposition polaire du gradient du déplacement. Un second sous-module consiste en un critère d’adaptation permettant de décider quelles parties de l’objet subdiviser ou décimer selon l’estimation de l’erreur. Enfin, on transforme ces parties en ajoutant ou retirant des degrés de liberté en respectant la structure régulière adoptée par le simulateur. Nous comparons ensuite le modèle avec et sans adaptabilité à une solution analytique dans une configuration de poutre encastrée soumise à la gravité. Nous effectuons en outre un test vérifiant que l’adaptation réagit convenablement à des déformations dynamiques. Nos résultats montrent que notre méthode n’est pas gourmande en temps de calcul, mais qu’elle augmente l’erreur contrairement à notre hypothèse de départ. Cela est dû aux discontinuités entre les milieux ayant été adaptés à différents niveaux. Autrement, tous nos objectifs relatifs au fonctionnement de l’adaptation, c’est-à-dire l’estimation de l’erreur, le critère d’adaptation, la subdivision et la décimation sont fonctionnels et validés.----------ABSTRACT : The Element Free Galerkin Method (EFG) is a variant of the Finite Element Method (FEM) using a cloud of points instead of a mesh. We use this numerical analysis technique to solve linear elasticity problems arising during the realization of a surgery simulator. This work deals with an adaptation module allowing to relocate the degrees of freedom to increase the efficiency of EFG. It is composed of an error estimator based on the polar decomposition of the displacement gradient. A second sub-module consists of an adaptation criterion making it possible to decide which parts of the object to refine or decimate according to the estimate of the error. Finally, these parts are transformed by adding or removing degrees of freedom while respecting the regular structure adopted by the simulator. We then compare to an analytical solution the model with and without adaptivity in a fixed beam configuration subjected to gravity. We also carry out a test verifying that the adaptation reacts suitably to dynamic deformations. Our results show that that our method is not greedy in computing time but that it increases the error, contrary to our initial hypothesis. This is due to the discontinuities in the parts of the object having been adapted at different levels. Otherwise, all our objectives relating to the functioning of the adaptation, which are the error estimator, the adaptation criterion, the subdivision and the decimation are functional and validated

    De l'ordonnancement déterministe à l'ordonnancement distribué sous incertitudes

    Get PDF
    Ce travail présente l'étude de deux types de problèmes d'ordonnancement. Le premier concerne la résolution centralisée et exacte d'un problème à une machine, le second, la résolution distribuée et coopérative d'un problème job shop où chaque machine est assimilée à un acteur possédant sa propre autonomie décisionnelle. Pour ces deux problèmes, des conditions de dominance sont utilisées, dans le premier cas, dans le but de limiter la complexité algorithmique liée à la recherche de solutions admissibles ou optimales, dans le deuxième cas, pour accroître la capacité de chaque acteur à résister aux incertitudes liées aux fluctuations de son environnement. Dans un premier temps, un théorème proposé dans les années quatre-vingt est rappelé, qui, considérant le problème à une machine, permet de caractériser un ensemble de solutions dominantes. Sur la base de ce théorème, nous proposons ensuite de nouvelles conditions analytiques et numériques de dominance permettant de restreindre encore davantage l'ensemble des solutions dominantes. En exploitant ces résultats, des formulations mathématiques originales et efficaces sont présentées, sous forme de programmes linéaires en nombres entiers, pour la modélisation et la résolution du problème à une machine en s'intéressant tour à tour au critère de minimisation du plus grand retard algébrique, puis à celui de minimisation du nombre de travaux en retard. Dans un deuxième temps, nous étudions le problème d'ordonnancement job shop dans un environnement multi-acteur, chaque acteur gérant l'activité d'une machine. Tenant compte de l'autonomie de décision et des objectifs propres de chacun, l'ordonnancement est envisagé sous la forme d'une fonction distribuée où la solution globale résulte d'une coopération entre les différents acteurs, cette solution pouvant évoluer dans le temps au fur-et-à-mesure des prises de décision locales. Ainsi, chaque acteur construisant localement sa propre organisation et n'ayant qu'une connaissance partielle et incertaine de l'organisation des autres, nous proposons que les organisations locales soient construites de façon robuste. Pour cela nous montrons comment, à l'aide des résultats de dominance, maintenir au niveau de chaque acteur un ensemble dominant de solutions ayant une performance au pire bornée. Une nouvelle approche d'ordonnancement est ensuite proposée où les acteurs négocient deux à deux, de façon distribuée, de façon à converger progressivement vers des décisions assurant un compromis satisfaisant entre l'optimisation des objectifs locaux et des objectifs globaux.This work presents the study of two scheduling problems. The former concerns the exact and centralised resolution of a single machine problem, and the latter, the distributed and cooperative resolution of a job shop, each machine being viewed as an actor having its own decision autonomy. For both problems, dominance conditions are used, in the first case, in order to reduce the algorithmic complexity for seeking feasible or optimal solutions, and in the second case, to increase the ability of each actor to face uncertainties. In the first part, a theorem, stated in the early eighties, is recalled that allows to characterize a set of dominant solutions, considering a one-machine sequencing problem. On the basis of the theorem, new analytical and numerical dominance conditions are established that allow to tighten the set of dominant sequences. Then original and efficient mathematical formulations, in the form of integer linear programs, are proposed for modelling and solving single machine problems. Two kinds of criterion are considered : the minimization of the maximum lateness and the minimization of the number of tardy jobs. In the second part, the job shop scheduling problem is studied, using a multi-actor framework, assuming that each actor manages one machine. Taking into account the decisional autonomy and the own objectives of each actor, scheduling is seen as a distributed and dynamic function, where the global solution emerges from negotiations among the actors. We assume that each actor builds up its own local organisation in a robust way, having an imprecise and partial knowledge of the other actor's organisation. We particularly show how maintaining on each actor a set of dominant job sequences so that the worst performance can be bounded. Then a new scheduling approach is sketched where actors initiate point-to-point negotiation, in a distributed way, so as to progressively converge toward trade-off decisions that balance local and global objectives

    Spéculation temporelle pour accélérateurs matériels

    Get PDF
    This thesis is focused on the use of timing speculation to improve the performance and energy efficiency of hardware accelerators. Timing speculation is the use of a circuit using a frequency or a voltage at which its operation is no longer guaranteed. It increases the performance of the circuit (computations per second) but also its energy efficiency (computations per joule). As the correct operation of the circuit is no longer guaranteed, it must be accompanied by an error detection mechanism. This mechanism must have the lowest possible additional cost in terms of resources used, energy and impact on performance. These overheads must indeed be low enough to make the approach worthwhile, but also be as low as possible to maximize the gain obtained. We present a new algorithm-level error detection mechanism for convolutions used in convolutional neural networks that meets these conditions. We show that combining this mechanism with timing speculation can improve the performance and energy efficiency of a convolution hardware accelerator.Résumé : Cette thèse porte sur l’utilisation de la spéculation temporelle pour améliorer les performances et l’efficacité énergétique d’accélérateurs matériels. La spéculation temporelle consiste en l’utilisation d’un circuit en utilisant une fréquence ou une tension à laquelle son fonctionnement n’est plus garanti. Elle permet d’augmenter les performances du circuit (calculs par seconde) mais aussi son efficacité énergétique (calculs par joule). Comme le fonctionnement du circuit n’est plus garanti, elle doit être accompagnée d’un mécanisme de détection d’erreur. Celui-ci doit avoir un coût en ressources utilisées, en énergie et un impact sur les performances les plus faibles possibles. Ces surcoûts doivent effectivement être suffisamment faibles pour que l’approche vaille le coup, mais aussi être le plus bas possible pour maximiser les gains obtenus. Nous présentons un nouveau mécanisme de détection d’erreur au niveau algorithmique pour les convolutions utilisées dans les réseaux de neurones convolutifs qui remplit ces conditions. Nous montrons que la combinaison de ce mécanisme avec la spéculation temporelle permet d’améliorer les performances et l’efficacité énergétique d’un accélérateur matériel de convolution
    • …
    corecore