9 research outputs found

    Pages annexes

    Get PDF

    Optimisation de l'ordonnancement par l'approche hybride basée sur les réseaux de neurones

    Get PDF
    Les problèmes d'ordonnancement se posent dans de nombreux domaines tels que la productique et l'informatique. Leur variété vient de la diversité des données, des contraintes et des critères d'optimisation qu'ils impliquent. Ce mémoire traite le problème de l'ordonnancement déterministe dans un atelier à tâches («Job shop» et cellules de production) sur la base d'une utilisation des réseaux de neurones. Ce problème est un problème d'optimisation NP-Complet lorsque le nombre de machines et de tâches est supérieur à deux. Les données sont constituées de l'ensemble des tâches à exécuter, de leurs gammes opératoires, de leurs durées ainsi que de l'ensemble des machines. Les contraintes prises en compte sont les contraintes de partage de ressources et de précédences. Les variables de décision concernent les dates de début et les dates de fin des opérations. Un critère d'optimisation est considéré, le "makespan" qui correspond à la minimisation du temps total de travail. L'utilisation des réseaux de neurones est intéressante car le parallélisme intrinsèque de ces derniers offre, a priori, une possibilité de traiter des problèmes de grandes tailles dans un temps limité. Une étude comparative des différentes approches de réseaux de neurones utilisés dans l'optimisation a été effectuée. Elle nous a permis d'apprécier les potentialités des réseaux de neurones de Hopfield dans le traitement d'une variété de problèmes d'optimisation. Notre travail a consisté ensuite à ajuster les particularités des réseaux de neurones à mettre en oeuvre pour la résolution de notre problème d'ordonnancement. Les propositions de ce mémoire sont articulées autour d'une utilisation combinée des réseaux de neurones avec un algorithme heuristique. Cette combinaison peut apporter, dans la majorité des cas, une amélioration nette de la qualité de solutions. Enfin, une des particularités fondamentales des réseaux de neurones étant la robustesse, il nous a paru intéressant de chercher dans quelle mesure il est possible d'explorer utilement cette propriété. Cette démarche nous a conduit à la proposition d'un réseau récent de Hopfield (Quantized Hopfield), qui nous permet d'obtenir les solutions optimales très fréquemment et beaucoup plus rapidement que d'autres réseaux de Hopfield

    Méthode de modélisation et de raffinement pour les systèmes hétérogènes. Illustration avec le langage System C-AMS

    Get PDF
    Les systèmes sur puces intègrent aujourd hui sur le même substrat des parties analogiques et des unités de traitement numérique. Tandis que la complexité de ces systèmes s accroissait, leur temps de mise sur le marché se réduisait. Une conception descendante globale et coordonnée du système est devenue indispensable de façon à tenir compte des interactions entre les parties analogiques et les partis numériques dès le début du développement. Dans le but de répondre à ce besoin, cette thèse expose un processus de raffinement progressif et méthodique des parties analogiques, comparable à ce qui existe pour le raffinement des parties numériques. L'attention a été plus particulièrement portée sur la définition des niveaux analogiques les plus abstraits et à la mise en correspondance des niveaux d abstraction entre parties analogiques et numériques. La cohérence du raffinement analogique exige de détecter le niveau d abstraction à partir duquel l utilisation d un modèle trop idéalisé conduit à des comportements irréalistes et par conséquent d identifier l étape du raffinement à partir de laquelle les limitations et les non linéarités aux conséquences les plus fortes sur le comportement doivent être introduites. Cette étape peut être d un niveau d'abstraction élevé. Le choix du style de modélisation le mieux adapté à chaque niveau d'abstraction est crucial pour atteindre le meilleur compromis entre vitesse de simulation et précision. Les styles de modélisations possibles à chaque niveau ont été examinés de façon à évaluer leur impact sur la simulation. Les différents modèles de calcul de SystemC-AMS ont été catégorisés dans cet objectif. Les temps de simulation obtenus avec SystemC-AMS ont été comparés avec Matlab Simulink. L'interface entre les modèles issus de l'exploration d'architecture, encore assez abstraits, et les modèles plus fin requis pour l'implémentation, est une question qui reste entière. Une bibliothèque de composants électroniques complexes décrits en SystemC-AMS avec le modèle de calcul le plus précis (modélisation ELN) pourrait être une voie pour réussir une telle interface. Afin d illustrer ce que pourrait être un élément d une telle bibliothèque et ainsi démontrer la faisabilité du concept, un modèle d'amplificateur opérationnel a été élaboré de façon à être suffisamment détaillé pour prendre en compte la saturation de la tension de sortie et la vitesse de balayage finie, tout en gardant un niveau d'abstraction suffisamment élevé pour rester indépendant de toute hypothèse sur la structure interne de l'amplificateur ou la technologie à employer.Systems on Chip (SoC) embed in the same chip analogue parts and digital processing units. While their complexity is ever increasing, their time to market is becoming shorter. A global and coordinated top-down design approach of the whole system is becoming crucial in order to take into account the interactions between the analogue and digital parts since the beginning of the development. This thesis presents a systematic and gradual refinement process for the analogue parts comparable to what exists for the digital parts. A special attention has been paid to the definition of the highest abstracted analogue levels and to the correspondence between the analogue and the digital abstraction levels. The analogue refinement consistency requires to detect the abstraction level where a too idealised model leads to unrealistic behaviours. Then the refinement step consist in introducing for instance the limitations and non-linearities that have a strong impact on the behaviour. Such a step can be done at a relatively high level of abstraction. Correctly choosing a modelling style, that suits well an abstraction level, is crucial to obtain the best trade-off between the simulation speed and the accuracy. The modelling styles at each abstraction level have been examined to understand their impact on the simulation. The SystemC-AMS models of computation have been classified for this purpose. The SystemC-AMS simulation times have been compared to that obtained with Matlab Simulink. The interface between models arisen from the architectural exploration still rather abstracted and the more detailed models that are required for the implementation, is still an open question. A library of complex electronic components described with the most accurate model of computation of SystemC-AMS (ELN modelling) could be a way to achieve such an interface. In order to show what should be an element of such a library, and thus prove the concept, a model of an operational amplifier has been elaborated. It is enough detailed to take into account the output voltage saturation and the finite slew rate of the amplifier. Nevertheless, it remains sufficiently abstracted to stay independent from any architectural or technological assumption.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF

    Intégration de Réseaux de Neurones pour la Télémétrie Laser

    Get PDF
    Grandes lignes : Un réseau de neurones est une architecture paramétrable composée de plusieurs modules appelés neurones. Ils peuvent être utilisés pour compenser des variations non souhaitées de certains phénomènes physiques ou pour effectuer des tâches de discrimination. Un réseau de neurones a été intégré en technologie CMOS basse tension pour être implanté au sein d'un télémètre laser par déphasage. Deux études ont été menées en parallèle. La première consiste à lever l'indétermination sur la mesure de distance déduite de la mesure de déphasage. La seconde étude permet la classification de différents types de surfaces à partir de deux signaux issus du télémètre. Résumé détaillé : Un réseau de neurones a la faculté de pouvoir être entraîné afin d'accomplir une tâche d'approximation de fonction ou de classification à partir d'un nombre limité de données sur un intervalle bien défini. L'objectif de cette thèse est de montrer l'intérêt d'adapter les réseaux de neurones à un type de système optoélectronique de mesure de distance, la télémétrie laser par déphasage. La première partie de ce manuscrit développe de manière succincte leurs diverses propriétés et aptitudes, en particulier leur reconfigurabilité par l'intermédiaire de leurs paramètres et leur capacité à être intégré directement au sein de l'application. La technique de mesure par télémétrie laser par déphasage est développée dans le deuxième chapitre et comparée à d'autres techniques télémétriques. Le troisième chapitre montre qu'un réseau de neurones permet d'améliorer nettement le fonctionnement du télémètre. Une première étude met en valeur sa capacité à accroître la plage de mesure de distance sans modifier la résolution. Elle est réalisée à partir de mesures expérimentales afin de prouver le réel intérêt de la méthode comportementale développée. La deuxième étude ouvre une nouvelle perspective relative à l'utilisation d'un télémètre laser par déphasage, celle d'effectuer la classification de différents types de surfaces sur des plages de distances et d'angles d'incidence variables. Pour valider expérimentalement ces deux études, les cellules de base du neurone de type perceptron multi-couches ont été simulées puis implantées de manière analogique. Les phases de simulation, de conception et de test du neurone analogique sont détaillées dans le quatrième chapitre. Un démonstrateur du réseau de neurones global a été réalisé à partir de neurones élémentaires intégrés mis en parallèle. Une étude de la conception des mêmes cellules en numérique est détaillée succinctement dans le cinquième chapitre afin de justifier les avantages associés à chaque type d'intégration. Le dernier chapitre présente les phases d'entraînement et de validation expérimentales du réseau intégré pour les deux applications souhaitées. Ces phases de calibrage sont effectuées extérieurement à l'ASIC, par l'intermédiaire de l'équation de transfert déterminée après caractérisation expérimentale et qualification du réseau de neurones global. Les résultats expérimentaux issus de la première étude montrent qu'il est possible d'obtenir à partir des signaux de sorties du télémètre et du réseau de neurones, une mesure de distance de précision (50µm) sur un intervalle de mesure 3 fois plus important que celui limité à la mesure du déphasage. Concernant l'application de discrimination de surfaces, le réseau de neurones analogique implanté est capable de classer quatre types de cibles sur l'intervalle [0.5m ; 1.25m] pour un angle d'incidence pouvant varier de - π /6 à + π /6. ABSTRACT : Outline : A neural network is a trainable structure composed by modules called neurons. They may be used in order to compensate adverse variations of physical phenomenon or to achieve discrimination tasks. Two studies were held in order to integrate a neural network in low voltage CMOS technology in a phase-shift laser rangefinder. The first one consists in raising the indecision on distance measurement deduced from the phase-shift measurement. The aim of the second study is to classify different kinds of surfaces using two signals issued from the rangefinder. Detailed abstract : A neural network has the capability to be trained in order to approximate functions or to achieve classification from a limited number of data on a well defined interval. The first part of the manuscript develops succinctly their various properties and aptitudes, particularly their reconfigurability through they parameters and their capability to be integrated directly in the application. The aim of this thesis is to demonstrate the interest of adapting neural networks to a type of distance measurement optoelectronic system, the phase-shift laser rangefinding. This measurement technique is developed in the second chapter and compared to other rangefinding techniques. The third chapter demonstrates that a neural network allows to improve considerably the rangefinder functioning. A first study highlights its capability to increase the distance measurement range without modifying the resolution. It is achieved from experimental measurements, in order to prove the real interest of the developed behavioural method. In a second study, the same neural network structure is used in order to show its capability to discriminate different types of surfaces on variable distance and incidence angle ranges. The main cells of the multi-layer perceptron-type neuron were simulated then implanted in analog. A conception study of the same cells in digital were achieved in order to justify the advantages associated to each type of integration. The simulation, conception and test stages are detailed in the fourth chapter. The whole neural network were achieved from elementary integrated neurons in parallel. The digital version of the neuron is succinctly detailed then compared to the analog structure in the fifth chapter. The last part of the thesis presents the behavioural and test training and validation phases of the integrated network for the two developed applications. These calibrage phases are achieved off-chip through the transfer equation issued from experimental characterisation and qualification of the whole neural network. Thus, by combining the signals provided by the phasemeter and the neural network outputs, it is possible to reach a distance measurement with high resolution (50µm) on a measurement range three times wider than the one limited by the phase-shift measurement. Concerning the surfaces discrimination application, the implanted analog neural network is capable of classifying four types of targets on the interval [0.5m ; 1.25m] for a incidence angle varying between - π /6 and + π /

    L'enseignement de l'analyse à la charnière lycée / université Savoirs, connaissances et conditions relatives à la validation

    Get PDF
    Une étude de l'enseignement de l'analyse au niveau des dernières classes de l'enseignementsecondaire français fait apparaître des variations importantes à chaque réforme depuis 1962,variations qui concernent aussi bien l'objet du savoir que les procédures conseillées par lesprogrammes et les manuels. Les méthodes préconisées conditionnent les connaissancesutilisables par les élèves pour effectuer les tâches prescrites, et l'équilibre connaissances /savoirs caractérise la place dévolue à la validation. Nous étudions les possibilités d'établir à ceniveau un rapport effectif au savoir de l'analyse et de permettre à l'élève de construire desconnaissances appropriées.Par ailleurs l’examen des registres et des ostensifs disponibles pour construire un milieupropre à l’enseignement des notions de fonction et de limite, fait apparaître des potentialitésnon exploitées dans les registres graphique et formel. Ceci conduit à construire et àexpérimenter dans la classe de première Scientifique, une situation pour l’enseignement de lanotion de fonction : la situation « Graphiques et Chemins » , et une situation pour unepremière approche de la notion de limite de suite : la situation du flocon.Les problèmes rencontrés dans la gestion des situations comportant une dimension adidactiqueamènent à s’interroger sur les connaissances que le professeur met en oeuvre pourgérer une situation d’enseignement comportant une telle composante, et sur une modélisationpossible du milieu du professeur.Un questionnaire est construit pour l’étude des connaissances sur l’analyse; son traitementstatistique a pour but de tester l’effectivité de l’apprentissage.Dans l’enseignement supérieur, l’étude de transcriptions de cours et de copies d’élèves permetde s’interroger sur les connaissances nécessaires à ce niveau, et sur l’articulation avecl’enseignement secondaire.En conclusion, nous proposons quelques pistes de réflexion sur l’équilibre connaissances /savoirs dans l’enseignement des débuts d’une théorie mathématique, et sur l’enseignementpossible, au niveau du secondaire, de connaissances requises dans la suite du cursus.The study of maths curriculum in the last grades of secondary schools in France along 30years brings to light important variations that took place since 1962 in the contents of calculusat this level. These evolutions concern the objects of calculus that are taught as well as theprocedures used by students and teachers. The suggested methods affect the knowledge thatstudents are likely to use when doing the given tasks; and we observe that since the 90ths', thetasks given to students do not valorise validation. We study the possibilities of establishing anreal relationship to the knowledge in calculus, at this level of teaching, and to allow thestudents to build appropriate methods.We study the question of validation in teaching analysis through the following directions:- the mathematical theory; its organisation; the methods of proof and the formalization; howthese methods can be introduced in the teaching, in a way that students can understand;- the existence of fundamental situations concerning the concepts of function and limit, andthe possibility of implement such situations in the class.Besides, the study of the different settings of representation that are at stake to build a suitableenvironment for the teaching of function and limit makes new potentialities come to light,particularly in the graphic and formal settings.The experimentation is carried through the building of situations with an a-didacticalcomponent for the teaching of function and limit, and through the observation of theirimplementation in a scientific class of 17 years-old students. This makes us first question theknowledge and professional knowing a teacher uses to manage a teaching situation inanalysis, with an a-didactical component, and then draw a pattern to the teacher’s milieu.We also submit a test to the students and analyse the results with statistic tools so as to testthe main features of the learning.In the last chapter we study lectures at undergraduate level, and student’s papers with lots oferrors about calculus definitions. This leads us to question the knowledge that is compulsoryat University level; we wonder how it is possible to link it with Secondary school's knowledgeand habits.As a conclusion, we shall suggest some remarks about the balance between definitiveknowledge and what students must get as an experience in the teaching of a newmathematical theory; this balance affects the possibilities of validation and finally, the futureprospects of teaching analysis from Secondary Schools to University

    Sujet et représentation : essai sur le transcendantalisme, son sens problématique, topologique et relationnel

    Get PDF
    La philosophie classique va trouver chez Sartre, malgré les prétentions les plus révolutionnaires de ce dernier, son plus grand défenseur. S'il faut parler, à propos de Descartes, d'un centrement "cartésien" du sujet, et ce, en pleine révolution Copernici enne, il importe de comprendre que Sartre va redoubler, par sa théorie de l'intentionnelité, l'effet de centrement opéré par Descartes, lui aussi en pleine époque de décentrements. En effet, à l'instar de Descartes qui assure la primauté ontologique de la conscience contre le malin génie, le Dieu trompeur, la folie et le rêve, Sartre va réassurer la primauté ontologique d'un être qui , dorénavant, n'est que "pour-soi", et ce, contre tout déterminisme, qu'il soit d'ordre psychanalytique, sociologi que, économique ou autre. Par sa théorie du néant, Sartre ne fait au fond qu'infi ni ti ser la substance cartésienne à un degré d'être qui manque justement de tout ce qu'il faut pour "être". Ainsi, cet être ne saurait être déterminé autrement que par une reprise intentionnelle. Par là, et bien qu'il évacue de la conscience toute représentation pour laisser ouvert le vide stratégique qu'est le néant, Sartre n'en garde pas moins toute sa portée à la pensée représentât!ve, dans la mesure justement où le substrat de la Représentation, à savoir le Sujet, est maintenu intact, comme est demeurée intacte la théorie de l'adéquation qui assure que le connaissant "n'ajoute rien à la nature du connu". En ce sens, dans la mesure où l'ordre des valeurs prime sur l'ordre du réel , il nous faut parler, sur le plan épistémologique, du cartésianisme de Sartre. Sartre demeure un penseur pré-critique et ce, jusqu'au tout dernier tome de son étude sur Flaubert. Il faudra attendre le transcendantalisme kantien, la constitution philosophique de la finitude, pour que le sujet cartésien soit véritablement ébranlé et le régime de l'adaequatio bouleversé, par le schématisme notamment. Nous voulons dire par là, et d'une manière plus générale, que la révolution copernicienne opérée par Kant constitue le seuil de notre modernité. l'épistémè structurale y trouve ses premiers fondements, ceux justement que Sartre va chercher à contourner. La philosophie du sujet se voit chez Kant retirer tout privilège. On ne retrouvera donc pas, comme chez le penseur de Koenisberg, d'"assomption du sujet" comme on a trop souvent l'habitude de le répéter, mais bien, comme le diront Lacoue-Labarthe et Nancy, son "exténuation". La subjectivité transcendantale ne doit pas être soumise à une lecture cartésienne. Il nous est apparu que par le transcendantalisme se trouve ouverte une problématique du sens en dehors de la pensée représentative, le sens comme "production de sens”. C'est là, dans ce qui nous semble constituer une "théorie générale des productions" (Deleuze), que la pensée structurale trouve son unité la plus profonde, désinvestissant le sujet libre, conscient et volontaire ainsi que le régime classique de l 'adaequa t i o. Ainsi, sur un même sol, ou si l'on préfère, dans un même espace, vont converger des penseurs aussi différents que Foucault, Deleuze, Lévi-Strauss, Bourdieu, Faye, Althusser... Nous croyons, en effet, que le "recours" au transcendanta l i sme kantien permet d'éclairer, comme le montre J. Petitot, d'un regard nouveau les apories constitutives des sciences de l'homme en leur caractère structural et dynamique, à condition d'admettre que l'anthropologie kantienne qui constitue la première grande représentation de l'homme, fonctionne aussi comme son désinvestissement systématique. Le sujet kantien répondant à l'exigence première de sa philosophie est "problématique". A fortiori, nous ne saurions retrouver chez Kant, après la première Critique, quelque retour en force de la théologie. Celle-ci se verra, comme le sujet, transcendantalisée. seront soumis au règne d'une analysis situs. Di eu et l'homme Dès lors, le sens devra répondre à des exigences topologiques et relationnelles. Kant a ouvert une époque, la nôtre

    La liberté, l'indétermination et la détermination : contribution à la résolution réflexive de leurs rapports antinomiques par l'examen psychologique de l'immatérialité transcendantale, du pouvoir spirituel et de la vérité intellectuelle

    Get PDF
    Dans la perspective psychologique, l'esprit réel en général (humain en particulier) n'est inconditionnellement ni transcendant ni efficace ni révélateur. D'abord, il est matériellement immanent (il ne peut s'affranchir de la matière), bien qu'il soit formellement transcendantal. Ensuite, il est pragmatiquement et historiquement inefficace (il ne crée pas même l'humanité), bien qu'il soit conditionnellement causal. Enfin, il est théorétiquement schématique et algorithmique (il ne comprend pas l'essence intégrale du monde), bien qu'il soit réaliste sous caution. Somme toute, l'organisme vivant en général (humain en particulier) ne s'aperçoit luimême, à travers la mentalité transcendantale, la réflexion pragmatique et la connaissance théorétique, ni pendant ni après ni avant l'action (et l'omission) complète, l'émotion de liberté et la sensation de réalité. L'immanence, la liberté et la réalité bien comprises sont conjointement une condition nécessaire bien qu'insuffisante de la responsabilité axiologique comme mode d'être, laquelle se caractérise ultimement par la bonté, ou la malice, des conduites, des émois et des constats, non par les mauvaises et bonnes, ou les empiriques et intellectuelles, raisons, consciences et intentions qui les accompagnent, suivent et précèdent.Généralement et régulièrement admis en philosophie de l'esprit, l'immatérialité transcendantale, le pouvoir spirituel et la vérité intellectuelle (comme leurs équivalents scientifiques respectifs: la computation fonctionnelle, la causalité psychologique et le réalisme psychologique) génèrent les rapports antinomiques de la liberté, de l'indétermination et de la détermination. L'antinomie de la liberté et de la détermination résume les difficultés auxquelles se heurte la triple affirmation de l'immatérialité transcendantale, du pouvoir spirituel et de la vérité intellectuelle. En effet, dans la mesure où le pouvoir spirituel des réflexions pragmatiques est censée être le truchement de la liberté, il fait de la détermination un problème. Et, dans la mesure où la vérité intellectuelle des connaissances théorétiques est censé être le truchement de la détermination, elle fait de la liberté un problème. La recherche d'une solution à ces antinomies est devenue une possibilité thématique pour la philosophie en opposant l'immatérialité transcendantale à l'immanence psychologique (comme pour la science en opposant la computation fonctionnelle à la mentalité consciente), ou encore en sauvant le pouvoir spirituel par une limitation du réalisme psychologique, ou en faisant l'inverse (sauver la vérité intellectuelle par une limitation de la causalité psychologique). Or, dans la perspective psychologique, l'esprit en général (y compris l'idée, ou le concept) est matériellement immanent (l'esprit ne peut s'affranchir de la matière, bien qu'il soit formellement transcendantal), pragmatiquement et historiquement inefficace (l'esprit ne crée pas l'humanité, bien qu'il soit conditionnellement causal) et théorétiquement schématique ou algorithmique (l'esprit ne comprend pas l'essence intégrale du monde, bien qu'il soit réaliste sous caution). Aussi bien, l'exercice réel, libre et complet de la motricité vivante, de son émotivité et de sa sensitivité ne s'aperçoit, à travers la mentalité transcendantale, la réflexion pragmatique et la connaissance théorétique, ni pendant ni après ni avant l'action (et l'omission), l'émotion et la sensation. L'immanence, la liberté et la réalité bien comprises sont des «propriétés» de la motricité vivante et de la sensibilité, non celles de l'esprit (ou mentalité). Elles sont conjointement une condition nécessaire bien qu'insuffisante de la responsabilité axiologique. La valeur axiologique comme mode d'être se caractérise ultimement par la bonté, ou la malice, des conduites, des émois et des constats, non par les mauvaises et bonnes, ou les empiriques et intellectuelles, raisons, consciences et intentions qui les accompagnent, suivent et précèdent
    corecore