704 research outputs found

    Vérification formelle du tri fonctionnel par tas - Etude opérationnelle

    Get PDF
    National audienc

    Filiation de manuscrits sanskrits et arbres phylogénétiques

    Get PDF
    La fabrication d’un stemma codicum est l’une des approches les plus rigoureuses de la critique textuel le. Elle exige la reconstruction de l’histoire du texte en classifiant le corpus pour décider si un groupe de manuscrits est engendré par un intermédiaire perdu. Pour classifier notre corpus, nous employons des méthodes de l’analyse textuelle informatisée et de la reconstruction phylogénétique afin d’établir un arbre de la filiation. Les techniques employées sont dédiées à un corpus de manuscrits sanskrits avec toutes les spécificités de cette langue.The establishment of a stemma codicum is one of the most rigorous approaches of textual criticism. It requires rebuilding the history of the text by classifying the corpus to decide if a group of manuscripts is generated by a lost intermediary. To cluster our corpus, we use the methods of  computerized textual analysis and phylogenetic reconstruction in order to establish the tree of filiation or pedigree. The method employed has been developed in editing sanskrit manuscripts with all specificities of this language

    Variable size block classification for vector quantization image coding

    Get PDF
    This work proposes to divide images in blocks whose size can be changed according to the amount of détails encountered in the processed zone. This division leads to bigger compression ratios thon a regular division . We also present a 4 x 4 pixels block classification using binary vector quantization .Cette étude propose de découper les images en blocs dont la taille est variable en fonction de la quantité de détails rencontrée dans la zone traitée . Ce découpage permet d'obtenir des taux de compression plus importants que pour un découpage fixe . Une méthode de classification des blocs de 4 x 4 pixels basée sur la quantification vectorielle binaire est également présentée

    Aspects algorithmiques et combinatoires des réaliseurs des graphes plans maximaux

    Get PDF
    Les réaliseurs, ou arbres de Schnyder, ont été introduits par Walter Schnyder à la fin des années 80 pour caractériser les graphes planaires, puis pour dessiner ces mêmes graphes sur des grilles (n-2)x(n-2). Dans ce document nous proposons dans un premier temps une extension du théorème de Wagner aux réaliseurs, qui nous permet d'établir une relation entre le nombre de feuilles et le nombre de faces tricolores d'un réaliseur. Ensuite, à l'aide d'une bijection entre les réaliseurs et les paires de chemins de Dyck qui ne se coupent pas, nous énumérons les réaliseurs. Un algorithme de génération aléatoire de p chemins de Dyck ne se coupant pas, est également présenté. Il permet en outre de générer aléatoirement des réaliseurs en temps linéaire. Puis nous montrons que grâce aux réaliseurs, il est possible de dessiner, à l'aide de lignes brisées des graphes planaires sur des grilles de largeur et de surface optimales. Enfin, nous proposons une généralisation des réaliseurs minimaux aux graphes planaires connexes : les arbres recouvrants bien-ordonnés. Grâce à cette généralisation ainsi qu'à une méthode de triangulation adaptée nous proposons un algorithme de codage des graphes planaires à n sommets en 5,007n bits.The realizers, or Schnyder trees, have introduced by Walter Schnyder in the late 80's to give a characterization of planar graphs and to draw them on (n-2)x(n-2) grids. In this document, we first give an extension of Wagner's theorem to realizers. Using this theorem we establish a relationship between the number of leaves and the number of 3-colored faces of a realizer. A bijection between realizers and pairs of non-crossing Dyck path give us an enumeration of realizers. An algorithm generating p non-crossing Dyck paths, is also proposed. It allows us to generate randomly realizers in linear time. Then, we show that thanks to realizers, we can draw plane graphs with polylines on grids of optimal width and area. Finally, we propose a generalization of minimal realizers to connected planar graphs : well-orderly spanning trees. Using this generalization and with a particular triangulation algorithm, we present a new 5.007n bit planar graph encoding

    Quelques contributions en logique mathématique et en théorie des automates

    Get PDF
    This work deals mainly with automata theory, mathematical logic and their applications. In the first part, we use finite automata to prove the automaticity of several logical structures over finite words written in a countable infinite alphabet. These structures involve predicates like ≺, "clone" and "diff", where x ≺ y holds if x is a strict prefix of y, clone(x) holds when the two last letters of x are equal, and diff(x) holds when all letters of x are pairwise distinct. The automaticity results allow to deduce the decidability of logical theories associated with these structures. Other related decidability/undecidability results are obtained by logical interpretation. In the second part, we generalize the concept of Common Follow Sets of a regular expression to homogeneous finite automata. Based on this concept and a particular class of binary trees, we devise an efficient algorithm to reduce/minimize the number of transitions of triangular automata. On the one hand, we prove that the produced reduced automaton is asymptotically minimal, in the sense that for an automaton with n states, the number of transitions in the reduced automaton is equivalent to n(log₂ n)², which corresponds at the same time to the upper and the lower known bounds. On the other hand, experiments reveal that for small values of n, all minimal automata are exactly those obtained by our reduction, which lead us to conjecture that our construction is not only a reduction but a minimization. In the last part, we present an experimental study on the use of special automata on partial words for the approximate pattern matching problem in dictionaries. Despite exponential theoretical time and space upper bounds, our experiments show that, in many practical cases, these automata have a linear size and allow a linear search timeLes problèmes traités et les résultats obtenus dans ce travail s'inscrivent essentiellement dans le domaine de la théorie des automates, la logique mathématique et leurs applications. Dans un premier temps on utilise les automates finis pour démontrer l'automaticité de plusieurs structures logiques sur des mots finis écrits dans un alphabet infini dénombrable. Ceci nous permet de déduire la décidabilité des théories logiques associées à ces structures. On a considéré par exemple la structure S=(Σ∗;≺,clone) où Σ∗ désigne l'ensemble des mots finis sur l'alphabet infini dénombrable Σ, ≺ désigne la relation de préfixe et "clone" désigne le prédicat qui est vrai pour un mot se terminant par deux lettres identiques. On a démontré l'automaticité de la structure S et la décidabilité de sa théorie du premier ordre et de sa théorie monadique du second ordre. On a aussi considéré des extensions de la structure S obtenues en ajoutant des prédicats comme ∼ qui est vrai pour deux mots de même longueur. Nous avons en particulier démontré la M-automaticité de la structure (Σ∗;≺,clone,∼), d'où la décidabilité de sa théorie du premier ordre. On a par ailleurs étudié des structures qui comportent le prédicat "diff" qui est vrai pour un mot dont les lettres sont toutes distinctes. En particulier on a démontré l'automaticité de la structure D=(Σ∗;≺,clone,diff) et la décidabilité de sa théorie du premier ordre et de sa théorie monadique du second ordre. On a également obtenu, par interprétation logique, des résultats de décidabilité et des résultats d'indécidabilité pour plusieurs variantes des structures S et D, ainsi que pour des familles de structures appelées structure d'applications exclusives et structure de décomposition. Dans un deuxième temps on s'est intéressé au problème de la réduction du nombre de transitions dans les automates finis. On a commencé par étendre le concept de Common Follow Sets d'une expression régulière aux automates finis homogènes. On a montré comment établir une liaison assez directe entre des systèmes de CFS spécifiques et les arbres binaires complets. Ce lien est prouvé en utilisant un objet combinatoire appelé triangle d'Ératosthène - Pascal. Cette correspondance permet de transformer la valeur qui nous intéresse (le nombre de transitions) en une valeur assez naturelle associée aux arbres (le poids d'un arbre). En effet, construire un automate ayant un minimum de transitions revient à trouver un arbre de poids minimal. On a montré, d'une part, que ce nombre de transitions est asymptotiquement équivalent à n(log₂ n)² (la borne inférieure). D'autre part, les tests expérimentaux montrent que pour les petites valeurs de n, les automates minimaux en nombre de transitions coïncident (en nombre et en taille) avec ceux obtenus par notre construction. Cela nous mène à suggérer que notre réduction est finalement une minimisation pour les automates triangulaires. Dans un dernier temps on a présenté une étude expérimentale concernant l'application des automates à trous dans le domaine de la recherche approchée de motif dans les dictionnaires de mots. Contrairement aux complexités théoriques, temps de recherche et espace de stockage exponentiels, nos expérimentations montrent la linéarité de l'automate à trou

    Nouvelles méthodes de codage vidéo distribué

    Get PDF
    De nos jours certaines applications vidéo de par des limitations de mémoire et de capacités de calculs requièrent un système où l'encodage d'une séquence vidéo doit être le plus simple possible. Le codage vidéo distribué nouveau paradigme de la compression vidéo semble prometteur pour ce genre de demande. Il permet une compression peu complexe de séquences animées. Son principe repose sur les travaux de D. Slepian et J. K. Wolf [1] ainsi que ceux de A. D. Wyner et J. Ziv [2] menés dans les années 70. La présente thèse énonce trois différentes contributions relatives au codage vidéo conventionnel et distribué. La première est un nouveau procédé de filtrage vidéo basé sur l'utilisation d'arbres de décision. Afin de réduire les artefacts visuels issus d'une trop forte compression, les arbres de décision identifient et appliquent les meilleurs coefficients de filtrage en fonction des données à filtrer. La seconde contribution concerne un schéma de codage vidéo distribué où l'on évite de transmettre au décodeur 1 information relative aux blocs de l'image les moins significatifs. De cette manière, on engendre une diminution importante du débit binaire et une réduction de la complexité de décodage. Ce schéma de codage repose sur une séparation en couche des coefficients de transformée en cosinus discret de l'image. Les coefficients DC sont les premiers à être transmis au décodeur. De là, ils sont analysés par ce dernier afin de trouver les blocs les plus significatifs de l'image. Le décodeur indique alors à l'encodeur, via un canal de retour, quels sont les coefficients AC des blocs à transmettre. Enfin, la dernière contribution consiste en une méthode de représentation binaire adaptative des images dans les procédés de codage vidéo distribué. Cette représentation permet de réduire efficacement le débit binaire et tenant compte uniquement de l'information source la plus pertinente. Ici encore cette méthode repose sur une utilisation plus efficace d 'un canal de retour

    L'algorithme de Pacman pour la construction efficace des codes équilibrés

    Get PDF
    Un bloc de bits est équilibré s’il contient un nombre de bits à 0 égal à celui des bits à 1. Les codes équilibrés (Balanced Codes, BC) sont largement appliqués dans plusieurs domaines. Par exemple, ils sont utilisés pour réduire le bruit dans les systèmes VLSI (Tabor, 1990). Dans le domaine de la télécommunication, ils sont utilisés dans la synchronisation et la transmission des données par fibre optique (Bergmann et al., 1986). Leur utilisation dans le domaine de l’identification par radiofréquence (RFID) permet d’augmenter les taux de transfert de données via les canaux RFID (Durgin, 2015). Étant donnée leur importance, plusieurs travaux de recherche ont été menés pour optimiser leur construction. Knuth fut le premier à trouver une méthode simple et rapide pour l’élaboration des codes équilibrés (Knuth, 1986). Il a introduit un algorithme très simple pour générer les codes équilibrés sans l’utilisation des tables de correspondance. Cependant, cet algorithme ajoute presque le double de la redondance minimale nécessaire pour la création des codes équilibrés. Une partie de cette redondance est due à la multiplicité d’encodage (ME) de cet algorithme. Plusieurs chercheurs ont essayé de réduire la redondance de l’algorithme de Knuth (Immink et Weber, 2009a, 2010; Immink et al., 2011; Al-Rababa’a et al., 2013). Dans les derniers travaux de Al-Rababa’a et al. (2013), les auteurs ont réussi à éliminer la redondance créée par ME et pourtant un écart par rapport au seuil minimal subsiste. Ce travail présente une alternative à l’algorithme de Knuth pour créer les codes équilibrés sans surplus de redondance. Nous proposons un algorithme nommé « Pacman » ¹ basé sur les permutations et les nombres entiers à précision limitée. En effet, le processus de codage de cet algorithme peut être assimilé à un Pacman qui consomme et produit des blocs d’informations d’une façon cyclique. Au cours de ce travail, nous allons montrer analytiquement et expérimentalement que la redondance introduite par notre technique est particulièrement faible, que les résultats sont nettement meilleurs que ceux des travaux antérieurs et que les complexités temporelle et spatiale utilisées sont linéaires. ¹. Inspiré de la marque de commerce PAC-MAN de l’entreprise BANDAI NAMCO.A block of m bits is said to be balanced if it contains an equal number of zeros and ones. Note that m has to be an even number. Balanced codes (BC) have applications in several domains. For example, they are used to reduce noise in VLSI systems (Tabor, 1990). In telecommunication, they are used in synchronization and data transmission by optical fibers (Bergmann et al., 1986). Their use in the field of radio frequency identification (RFID) can help to boost data transfer rate through RFID channels (Durgin, 2015). Given their importance, several research works have been carried out to optimize their construction. Knuth was the first to find a simple and fast method to create balanced codes (Knuth, 1986). He introduced a very simple algorithm to generate balanced codes without using lookup tables. However, Knuth’s balanced codes incur redundancy that is almost twice the one attested by the lower bound. A part of this redundancy is due to the multiplicity of encoding (ME) of this algorithm. Improvements to the Knuth’s algorithm are discussed in several research works (Immink et Weber, 2009a, 2010; Immink et al., 2011; Al-Rababa’a et al., 2013). In the last one (Al-Rababa’a et al., 2013), redundancy created by ME was eliminated and yet there is still some gap that needs to be closed. This work presents an alternative to Knuth’s algorithm for creating balanced codes without unwanted redundancy overhead. We propose an algorithm called "Pacman" ² that is based on permutations and limited-precision integers. Indeed, the coding process of this algorithm can be assimilated to a special Pacman that consumes and produces pills of information in a cyclical manner. In the presented work, we prove analytically and experimentally that our algorithm closes the mentioned redundancy gap while preserving a favorable compromise between calculation speed and memory consumption. ². Inspired by the trademark PAC-MAN of BANDAI NAMCO

    A new model for graphical object description operating in the image space or in the Cosine Discrete space

    Get PDF
    In this article a new shape descriptor – based on minimal graphs – is proposed and its properties are checked through the problem of graphical symbols recognition. Recognition invariance in front shift and multi-oriented noisy object was studied in the context of small and low resolution binary images. The approach seems to have many interesting properties, even if the construction of graphs induces an expensive algorithmic cost. In order to reduce time computing an alternatively solution based on image compression concepts is provided. The recognition is realized in a compact space, namely the Cosine Discrete space. The use of blocks discrete cosine transform is discussed and justified. The experimental results led on the GREC2003 database show that the proposed method is characterized by a good discrimination power, a real robustness to noise with an acceptable time computing.Cet article propose un nouveau modèle de description d’un objet dans une image. Ce modèle s’appui sur la construction d’un arbre minimal, ses propriétés sont étudiées à travers le problème de la reconnaissance de symboles complexes. L’invariance de la reconnaissance – face aux translations et rotations de symboles dégradés – est vérifiée dans un contexte d’images binaires à faible résolution. Si les résultats sont concluant, le coût algorithmique peut être assez élevé. Une alternative consiste à exprimer l’objet cible dans l’espace Cosinus Discret (Transformation en Cosinus Discrète). La technique opère non plus dans l’espace image mais dans un espace compact où les données sont mieux décorrélées. Certains de nos choix font référence à des concepts de compression d’images. Cette piste conduit à une diminution sensible du coût tout en conservant un niveau de discrimination significatif. Ces résultats sont d’abord observés lors d’une expérience élémentaire puis confirmés par un test à moyenne échelle, mettant en jeu 500 symboles issus de la base de données Graphics Recognition – GREC2003
    • …
    corecore