941 research outputs found

    Le programme Mogador en linguistique formelle arabe et ses applications dans le domaine de la recherche et du filtrage sémantique

    No full text
    The MOGADOR project aims at devolopping a new approach to Arabic Natural Langage Processing, by designing software tools based on an original description of Arabic grammar that gives top priority to its tool-words (in a redefined definition). These 'tool-words', that do not derivate from the standard morphological system, trigger off expectations at both syntactic and semantic levels, and thus constrain the sentence either locally or globally. Based on our theoretical and algorithmic work in morphological analysis, electronic dictionaries and proof software in corpora analysis and Information Retrieval, we plan to make available a new generation of filters featuring limited complexity. We propose steps in both theoretical and software fields, with the design of new parsers and software proof tools. These filters could be embedded in search tools boosting them with the results of new linguistic analysis, which have become essential considering the recent boom of the Arabic Web.Développer une approche nouvelle du traitement automatique de larabe fondés sur une modélisation originale de la grammaire arabe donnant la priorité aux mots-outils (redéfinis), est l'ambition du programme MOGADOR. Échappant au système de dérivation, ces mots-outils induisent des attentes syntaxiques voire sémantiques contraignant localement et/ou globalement la phrase. Forts de nos développements algorithmiques et applicatifs en analyse morphologique, en dictionnaires électroniques et en démonstrateurs dans le domaine de l'analyse de corpus et de la recherche d'informations, nous projetons, par des développements théoriques, la construction de nouveaux analyseurs et des mises en oeuvre concrètes, de rendre possibles de nouvelles méthodes de filtrage à complexité maîtrisée. Ces filtres pourront être couplés à des moteurs de recherche, dopant ces derniers par des analyses linguistiques qui sont devenues nécessaires depuis l'explosion du Web en langue arabe

    Une architecture cognitive inspirée des théories des processus duaux pour une interaction fluide des comportements réactifs et délibératifs

    Get PDF
    La présente thèse a pour objectif de développer une architecture cognitive capable de manifester un comportement séquentiel-délibératif et réactif cohérent. Pour réaliser cet objectif, nous avons conçu une architecture cognitive capable de rendre compte de la dualité du comportement humain, où ces deux types de comportement coexistent et contribuent de manière fluide au fonctionnement d'un système unifié. Notre architecture est développée d'après une théorie des processus duaux, le modèle tripartite de Stanovich (2009), qui rend compte des différents biais cognitifs manifestés par les sujets humains ainsi que les différences individuelles entre les humains. L'architecture cognitive est implémentée grâce à un système multi-agents où plusieurs organisations d'agents forment les trois niveaux définis dans le modèle tripartite : réactif, algorithmique et réflexif. Le groupe réactif, une carte conceptuelle d'agents réactifs liés à des capteurs et effecteurs, constitue les mémoires à long terme et de travail du système. Le groupe algorithmique effectue les opérations de contrôle dans le système et agit sur le niveau réactif. Enfin les agents du groupe réflexif contiennent les objectifs à long terme du système et agissent tant sur les niveaux réactifs (activation/inhibition) et algorithmiques (déclenchement d'opérations de découplage). Un comportement hybride (séquentiel-délibératif et réactif) émerge de l'interaction de ces trois groupes d'agents. Nous proposons une validation tant théorique que pratique de l'architecture. La première consistera à évaluer le système proposé en tant qu'architecture cognitive alors que la seconde consistera à évaluer les performances du système sur des tâches exigeant de l'attention, de la flexibilité cognitive, des capacités de raisonnement et des réactions émotionnelles. Cette évaluation a mis en évidence l'aptitude de l'architecture à simuler adéquatement un certain nombre de phénomènes cognitifs ainsi qu'à reproduire différents profils cognitifs humains.\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : architecture cognitive, théories des processus duaux, système multiagents, Framework tripartite de Stanovich, séquentialité, réactivit

    Prédiction de performance d'algorithmes de traitement d'images sur différentes architectures hardwares

    Get PDF
    In computer vision, the choice of a computing architecture is becoming more difficult for image processing experts. Indeed, the number of architectures allowing the computation of image processing algorithms is increasing. Moreover, the number of computer vision applications constrained by computing capacity, power consumption and size is increasing. Furthermore, selecting an hardware architecture, as CPU, GPU or FPGA is also an important issue when considering computer vision applications.The main goal of this study is to predict the system performance in the beginning of a computer vision project. Indeed, for a manufacturer or even a researcher, selecting the computing architecture should be done as soon as possible to minimize the impact on development.A large variety of methods and tools has been developed to predict the performance of computing systems. However, they do not cover a specific area and they cannot predict the performance without analyzing the code or making some benchmarks on architectures. In this works, we specially focus on the prediction of the performance of computer vision algorithms without the need for benchmarking. This allows splitting the image processing algorithms in primitive blocks.In this context, a new paradigm based on splitting every image processing algorithms in primitive blocks has been developed. Furthermore, we propose a method to model the primitive blocks according to the software and hardware parameters. The decomposition in primitive blocks and their modeling was demonstrated to be possible. Herein, the performed experiences, on different architectures, with real data, using algorithms as convolution and wavelets validated the proposed paradigm. This approach is a first step towards the development of a tool allowing to help choosing hardware architecture and optimizing image processing algorithms.Dans le contexte de la vision par ordinateur, le choix d’une architecture de calcul est devenu de plus en plus complexe pour un spécialiste du traitement d’images. Le nombre d’architectures permettant de résoudre des algorithmes de traitement d’images augmente d’année en année. Ces algorithmes s’intègrent dans des cadres eux-mêmes de plus en plus complexes répondant à de multiples contraintes, que ce soit en terme de capacité de calculs, mais aussi en terme de consommation ou d’encombrement. A ces contraintes s’ajoute le nombre grandissant de types d’architectures de calculs pouvant répondre aux besoins d’une application (CPU, GPU, FPGA). L’enjeu principal de l’étude est la prédiction de la performance d’un système, cette prédiction pouvant être réalisée en phase amont d’un projet de développement dans le domaine de la vision. Dans un cadre de développement, industriel ou de recherche, l’impact en termes de réduction des coûts de développement, est d’autant plus important que le choix de l’architecture de calcul est réalisé tôt. De nombreux outils et méthodes d’évaluation de la performance ont été développés mais ceux-ci, se concentrent rarement sur un domaine précis et ne permettent pas d’évaluer la performance sans une étude complète du code ou sans la réalisation de tests sur l’architecture étudiée. Notre but étant de s’affranchir totalement de benchmark, nous nous sommes concentrés sur le domaine du traitement d’images pour pouvoir décomposer les algorithmes du domaine en éléments simples ici nommées briques élémentaires. Dans cette optique, un nouveau paradigme qui repose sur une décomposition de tout algorithme de traitement d’images en ces briques élémentaires a été conçu. Une méthode est proposée pour modéliser ces briques en fonction de paramètres software et hardwares. L’étude démontre que la décomposition en briques élémentaires est réalisable et que ces briques élémentaires peuvent être modélisées. Les premiers tests sur différentes architectures avec des données réelles et des algorithmes comme la convolution et les ondelettes ont permis de valider l'approche. Ce paradigme est un premier pas vers la réalisation d’un outil qui permettra de proposer des architectures pour le traitement d’images et d’aider à l’optimisation d’un programme dans ce domaine

    Quels fondements à l’incomplétude des contrats?*

    Get PDF
    Following the recent controversy on the foundations of incomplete contract theory (Maskin and Tirole, 1999; Hart and Moore, 1999; Tirole, 1999), this survey aims at defining the very nature and origin of the contract incompleteness. Two main results are shown: (i) reasons usually advanced to explain incompleteness, such as the indescribability of future contingencies or the asymmetric information between the contracting parties, are not necessarily relevant; (ii) coupled with the constraint of initial contract renegotiation, the unverifiability constraint, a key notion in incomplete contract theory, allows to derive an endogenous choice of incompleteness. More precisely, incomplete contract theory shows that an incomplete contract can be defined as a limit form of a complete contract. Se situant dans le droit fil de la récente controverse sur les fondements de la théorie des contrats incomplets (Maskin et Tirole, 1999 ; Hart et Moore, 1999 ; Tirole, 1999), cette revue de la littérature cherche à définir la notion d’incomplétude contractuelle et à en comprendre l’origine. Deux résultats importants sont dégagés : (i) les raisons traditionnellement avancées pour expliquer l’incomplétude contractuelle, telles que l’indescriptibilité des contingences futures ou l’asymétrie d’information entre les parties contractantes, ne sont pas forcément pertinentes ; (ii) la contrainte d’invérifiabilité, concept clé de la théorie des contrats incomplets, parvient à rendre compte d’un choix d’incomplétude lorsqu’elle est couplée à la contrainte de renégociation du contrat initial. Cette double contrainte permet à la théorie des contrats incomplets de générer un choix endogène d’incomplétude. Plus précisément, cette théorie montre que l’on peut définir un choix de contrat incomplet comme une forme limite du contrat complet.

    Tolérance aux pannes dans des environnements de calcul parallèle et distribué (optimisation des stratégies de sauvegarde/reprise et ordonnancement)

    Get PDF
    Le passage de l'échelle des nouvelles plates-formes de calcul parallèle et distribué soulève de nombreux défis scientifiques. À terme, il est envisageable de voir apparaître des applications composées d'un milliard de processus exécutés sur des systèmes à un million de coeurs. Cette augmentation fulgurante du nombre de processeurs pose un défi de résilience incontournable, puisque ces applications devraient faire face à plusieurs pannes par jours. Pour assurer une bonne exécution dans ce contexte hautement perturbé par des interruptions, de nombreuses techniques de tolérance aux pannes telle que l'approche de sauvegarde et reprise (checkpoint) ont été imaginées et étudiées. Cependant, l'intégration de ces approches de tolérance aux pannes dans le couple formé par l'application et la plate-forme d'exécution soulève des problématiques d'optimisation pour déterminer le compromis entre le surcoût induit par le mécanisme de tolérance aux pannes d'un coté et l'impact des pannes sur l'exécution d'un autre coté. Dans la première partie de cette thèse nous concevons deux modèles de performance stochastique (minimisation de l'impact des pannes et du surcoût des points de sauvegarde sur l'espérance du temps de complétion de l'exécution en fonction de la distribution d'inter-arrivées des pannes). Dans la première variante l'objectif est la minimisation de l'espérance du temps de complétion en considérant que l'application est de nature préemptive. Nous exhibons dans ce cas de figure tout d'abord une expression analytique de la période de sauvegarde optimale quand le taux de panne et le surcoût des points de sauvegarde sont constants. Par contre dans le cas où le taux de panne ou les surcoûts des points de sauvegarde sont arbitraires nous présentons une approche numérique pour calculer l'ordonnancement optimal des points de sauvegarde. Dans la deuxième variante, l'objectif est la minimisation de l'espérance de la quantité totale de temps perdu avant la première panne en considérant les applications de nature non-préemptive. Dans ce cas de figure, nous démontrons tout d'abord que si les surcoûts des points sauvegarde sont arbitraires alors le problème du meilleur ordonnancement des points de sauvegarde est NP-complet. Ensuite, nous exhibons un schéma de programmation dynamique pour calculer un ordonnancement optimal. Dans la deuxième partie de cette thèse nous nous focalisons sur la conception des stratégies d'ordonnancement tolérant aux pannes qui optimisent à la fois le temps de complétion de la dernière tâche et la probabilité de succès de l'application. Nous mettons en évidence dans ce cas de figure qu'en fonction de la nature de la distribution de pannes, les deux objectifs à optimiser sont tantôt antagonistes, tantôt congruents. Ensuite en fonction de la nature de distribution de pannes nous donnons des approches d'ordonnancement avec des ratios de performance garantis par rapport aux deux objectifs.The parallel computing platforms available today are increasingly larger. Typically the emerging parallel platforms will be composed of several millions of CPU cores running up to a billion of threads. This intensive growth of the number of parallel threads will make the application subject to more and more failures. Consequently it is necessary to develop efficient strategies providing safe and reliable completion for HPC parallel applications. Checkpointing is one of the most popular and efficient technique for developing fault-tolerant applications on such a context. However, checkpoint operations are costly in terms of time, computation and network communications. This will certainly affect the global performance of the application. In the first part of this thesis, we propose a performance model that expresses formally the checkpoint scheduling problem. Two variants of the problem have been considered. In the first variant, the objective is the minimization of the expected completion time. Under this model we prove that when the failure rate and the checkpoint cost are constant the optimal checkpoint strategy is necessarily periodic. For the general problem when the failure rate and the checkpoint cost are arbitrary we provide a numerical solution for the problem. In the second variant if the problem, we exhibit the tradeoff between the impact of the checkpoints operations and the lost computation due to failures. In particular, we prove that the checkpoint scheduling problem is NP-hard even in the simple case of uniform failure distribution. We also present a dynamic programming scheme for determining the optimal checkpointing times in all the variants of the problem. In the second part of this thesis, we design several fault tolerant scheduling algorithms that minimize the application makespan and in the same time maximize the application reliability. Mainly, in this part we point out that the growth rate of the failure distribution determines the relationship between both objectives. More precisely we show that when the failure rate is decreasing the two objectives are antagonist. In the second hand when the failure rate is increasing both objective are congruent. Finally, we provide approximation algorithms for both failure rate cases.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF

    Regression trees for non parametric modeling and time series prediction

    Get PDF
    We present a non-parametric approach to nonlinear modeling and prediction based on adaptive partitioning of the reconstructed phase space associated with the process . The partitioning method is implemented with a recursive tree-structured algorithm which successively refines the partition by binary splitting where the splitting threshold is determined by a penalized maximum entropy criterion. An analysis of the statistical behavior of the splitting rule suggests a criterion for determining the depth of the tree . The effectiveness of this method is illustrated through comparisons with classical approaches for nonlinear system analysis on the basis of reconstruction error and computational complexity . An important relation between our tree-structured model for the process and generalized non-linear thresholded AR model (ART) is established . We illustrate our method for cases where classical linear prediction is known to be rather ineffective : chaotic signals (measured at the output of a Chua-type electronic circuit), and second order ART signal .Nous présentons une approche non linéaire non paramétrique pour la modélisation et la prédiction de signaux, basée sur une méthode de partition récursive de l'espace des phases reconstruit, associé au système sur lequel le signal est prélevé. La partition de l'espace des phases est obtenue par un algorithme récursif de partition binaire. Les seuils de partition sont déterminés à l'aide d'un critère de maximum d'entropie. Une courte analyse statistique du comportement de ces seuils permet de définir un critère simple d'arrêt de la partition récursive. L'intérêt de cette méthode est illustré par la comparaison avec des méthodes classiques dans le cadre de l'analyse de systèmes non linéaires, ainsi que du point de vue du coût de calcul. Nous présentons un lien important entre cette méthode reposant sur une partition hiérarchique (en arbre) et les modèles non linéaires auto-régressifs à seuils (ART). Dans ce contexte, la méthode présentée est appliquée dans des cas pour lesquels les méthodes linéaires échouent en général : les signaux de chaos (séries expérimentales mesurées sur des circuits électroniques de type Chua), ainsi que sur des séries numériques ART d'ordre deux

    Assistance à la gestion et au suivi de projets d'étudiants dans un environnement d'apprentissage coopératif

    No full text
    International audienceThe purpose of this article is to report an experiment of installation of assistance to the control and the management of students projects, in an environment of training, whose pedagogy is project directed. While basing on methods of design and integration of a software, we define a model adapted to the realization of projects with a reduced number of stages. Then we define the role which the assistance suggested will play. The agent-based systems seems to us well adapted to conceive a multi-assistance for this kind of complex systems – each agent representing a level of assistance. A prototype was developed then tested for a set of technical and scientific courses. The return of experiment shows that the students used the assistant and expressed a real interest for this tool. This analysis forms the basis for the definition of the current tool

    Simulation intrusive dynamique d'imagerie Ă  effet tunnel

    Get PDF
    La microscopie à effet tunnel (STM) est une technique d’imagerie très utilisée en nanoscience qui permet d’étudier les états électroniques et la morphologie d’un substrat en exploitant la nature quantique des électrons traversant une barrière de potentiel. Cette méthode, en plus de donner lieu à l’observation d’objets à l’échelle atomique, permet aussi de les manipuler et d’induire des réactions chimiques. Le problème inverse en STM consiste à déterminer la structure atomique d’un échantillon à partir des images expérimentales. La complexité des phénomènes physiques rendent parfois difficile l’interprétation des images obtenues. Des outils permettant de calculer des images STM à partir d’un modèle moléculaire sont donc nécessaires pour comprendre la source des contrastes observés en imagerie expérimentale. Dans sa forme la plus simple, le calcul d’images STM peut être réalisé en utilisant les théories Bardeen ou de Tersoff-Hamann (TH). Ces approches consistent à utiliser la structure électronique des électrodes isolées pour calculer rapidement, par une méthode perturbative, le courant tunnel de manière semi-quantitative. Dans l’état actuel du domaine, cette méthode est utilisée pour obtenir rapidement des images STM calculées. Certaines approches permettent aussi de considérer une modification physique ou chimique (intrusion) de manière interactive, mais dans un cadre statique sans tenir compte de la réorganisation atomique pouvant survenir à la suite de cette modification. L’objectif de ce projet de recherche consiste donc à utiliser la théorie TH pour développer un outil d’imagerie STM qui considère la relaxation moléculaire survenant à la suite d’une intrusion de manière interactive. Pour concrétiser cet objectif, quatre stratégies sont employées. Nous utilisons la théorie de la superposition atomique et de la délocalisation électronique (ASED)à laquelle un terme de van der Waals est ajouté pour calculer l’énergie totale et la structure électronique des systèmes. Pour considérer la relaxation moléculaire, l’algorithme d’optimisation non-linéaire de Broyden-Fletcher-Goldfarb-Shanno (BFGS) est utilisé pour optimiser la géométrie de nos systèmes. La structure électronique des molécules relaxées est par la suite utilisée pour calculer, pixel par pixel, le courant tunnel en utilisant principalement le formalisme de Tersoff-Hamann (TH). Finalement, afin de tirer profit des architectures informatiques modernes, les étapes du calcul de la structure électronique et de l’image STM sont réalisées en parallélisant les problèmes. En particulier, un algorithme hybride utilisant des processeurs graphiques (GPU) permet d’accélérer drastiquement le calcul de l’image.----------Abstract Scanning Tunneling Microscopy (STM) is an imaging technique widely used in nanoscience that allows to study the electronic states and the morphology of a substrate by exploiting the quantum nature of electrons passing through a potential barrier. While this method allows the observation of objects on the atomic scale, it can be used to manipulate them and induce chemical reactions. The inverse problem in STM consists in determining the atomic structure of a sample from the experimental images. Sometimes, the complexity of physical phenomena makes it difficult to interpret the images obtained. Therefore, simulation tools that compute STM images from a molecular model are necessary to understand the source of the contrasts observed in the experimental images. In its simplest form, the calculation of STM images can be performed using the Bardeen or Tersoff-Hamann (TH) theories. These approaches consist in using the electronic structures of the isolated electrodes to calculate the tunneling current in a semi-quantitative manner by a perturbative method. In the current state of the field, this method is used to quickly obtain computed STM images. Some approaches also allows the consideration of a physical or chemical modification (intrusion) interactively, but in a static framework without taking into account the atomic reorganization that can occur as a result of this modification. The objective of this research project is therefore to use the TH theory to develop an STM imaging tool that considers molecular relaxation occurring as a result of an intrusion in an interactive way. To achieve this goal, four strategies are used. To calculate the total energy and electronic structure of the systems while considering weak intermolecular interactions, we use the Atomic Superposition and Electron Delocalization Molecular Theory (ASED) to which a van der Waals term is added. Moreover, the Broyden-Fletcher-Goldfarb-Shanno (BFGS) nonlinear optimization algorithm is used to optimize the geometry of our systems to consider molecular relaxation. The electronic structure of the relaxed molecules is then reused to calculate the tunnel current pixel by pixel using mainly the Tersoff-Hamann formalism (TH). Finally, in order to take advantage of modern computer architectures, the steps of calculating the electronic structure and the STM image are carried out in a parallel way. In particular, a hybrid algorithm using graphical processors (GPU) makes it possible to accelerate drastically the calculation of the image

    Contributions à la définition d'un nouveau langage d'exploitation des bases de données relationnelles

    Get PDF
    Le but du projet DOMINUS est de définir un modèle de SGBD adapté au développement de services de dépôt de données autonomes capables de maintenir un haut standard d'intégrité et de fiabilité dans un contexte applicatif contemporain.Le présent mémoire, réalisé dans le cadre du projet DOMINUS, vise à contribuer à la définition d'un premier langage conforme à ce modèle, Discipulus, et à mettre en oeuvre un premier traducteur expérimental de ce langage. Le modèle DOMINUS demeure basé sur le modèle relationnel de E. F. Codd tout d'abord parce qu'il est simple, facile à appréhender, et repose sur de solides bases théoriques qui permettent notamment de définir de façon formelle les langages de manipulation associés et, en second lieu, parce qu'il est éprouvé, comme le démontrent plus de trente années de prédominance ininterrompue. L'évolution de la gestion d'information a vu apparaître de nouvelles applications (systèmes de gestion intégrée, traitement d'images, vidéo...) nécessitant l'utilisation de bases de données complexes de plus en plus importantes. Ces nouvelles applications ont mis en évidence les insuffisances majeures des systèmes relationnels existants fondés sur le langage SQL: (1) L'inadéquation du modèle relationnel à représenter directement des données complexes, comme des dossiers médicaux structurés, des images radiographiques ou des textes annotés. (2) Les performances insuffisantes dans la manipulation de ces mêmes données. Ces lacunes ont conduit certains à vouloir remplacer le modèle relationnel par le modèle orienté objet. En effet, la notion d'objet (plus exactement de classe) permet de modéliser des éléments complexes et composites du monde réel. En 1990 sont apparus les premiers systèmes de gestion de bases de données à objets, mais, vu les performances et la maturité des systèmes de bases de données relationnelles, les systèmes à objets n'ont pas pris une place significative au sein des organisations. La voie explorée ici est plutôt celle de l'intégration du modèle objet au modèle relationnel, ce dernier demeurant prééminent. L'adoption des deux structures (la relation et la classe) semble donc nécessaire afin de répondre aux besoins et aux exigences des applications complexes tout en gardant la simplicité et la cohésion conceptuelle nécessaire à la vérification et à la validation. Le modèle DOMINUS est donc inspiré des travaux fondamentaux de E. F. Codd et de ses continuateurs, dont C. J. Date et H. Darwen [S1] ainsi que des modèles algorithmiques et de typage de B. Meyer[L13] . Au final, le langage Discipulus retient plusieurs acquis du langage SQL, s'inspire également de langage Tutorial D et emprunte la structure générale et plusieurs mécanismes syntaxiques du langage Eiffel[L13] . Notre proposition comporte également de nombreuses différences sensibles tant sur le fond que sur la forme[L1,L7] . Ces apports sont présentés au fil du mémoire. Le langage Discipulus a été conçu dans le but de permettre l'expression rigoureuse de modèles complexes (intégration complète des classes, des tuples et des relations dans un seul système de typage homogène et cohérent) tout en favorisant la réutilisation (l'utilisation d'un système de paquetage destiné à développer des modules cohérents tout en permettant leur réutilisation simple pour le développement d'autres systèmes), l'évolutivité (l'adoption de l'héritage multiple permet d'éviter la redondance de code et facilite l'extensibilité du logiciel et, par conséquent, l'évolutivité sans compromettre son intégrité et sa fiabilité) et la fiabilité (incorporation des principes de programmation par contrat et leur extension aux opérateurs relationnels, traitement cohérent de l'annulabilité)
    • …
    corecore