6 research outputs found

    PolynĂ´mes orthogonaux et polynĂ´mes de Macdonald

    Get PDF
    Nous nous proposons d'étudier les polynômes de Macdonald en les mettant en parallèle avec les polynômes orthogonaux classiques. En effet, ces deux types d'objets apparaissent comme fonctions propres d'opérateurs à significations physiques, les polynômes orthogonaux intervenant dans des situations décrites par une seule variable et les polynômes de Macdonald dans d'autres en demandant plusieurs. En développant chacune des deux théories, nous constaterons qu'elles s'élaborent de façon analogue. Notre but est ainsi de faire ressortir ces points communs tout en dégageant les différences entre les deux contextes. En mettant en lumière ce parallèle, nous constaterons toutefois qu'il manque un élément pour qu'il soit complet. En effet, les polynômes orthogonaux satisfont une récurrence à trois termes qui leur est caractéristique. Or rien d'analogue n'est présent dans la théorie des polynômes de Macdonald. Mais nous verrons qu'une conjecture portant sur une famille élargie de polynômes de Macdonald a été formulée qui permettrait de compléter le tableau. \ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : polynômes orthogonaux, fonctions symétriques, polynômes de Macdonald, conjecture n!

    Contribution à l'analyse de la dynamique des écritures anciennes pour l'aide à l'expertise paléographique

    Get PDF
    Mes travaux de thèse s inscrivent dans le cadre du projet ANR GRAPHEM1 (Graphemebased Retrieval and Analysis for PaleograpHic Expertise of Middle Age Manuscripts). Ilsprésentent une contribution méthodologique applicable à l'analyse automatique des écrituresanciennes pour assister les experts en paléographie dans le délicat travail d étude et dedéchiffrage des écritures.L objectif principal est de contribuer à une instrumetation du corpus des manuscritsmédiévaux détenus par l Institut de Recherche en Histoire des Textes (IRHT Paris) en aidantles paléographes spécialisés dans ce domaine dans leur travail de compréhension de l évolutiondes formes de l écriture par la mise en place de méthodes efficaces d accès au contenu desmanuscrits reposant sur une analyse fine des formes décrites sous la formes de petits fragments(les graphèmes). Dans mes travaux de doctorats, j ai choisi d étudier la dynamique del élément le plus basique de l écriture appelé le ductus2 et qui d après les paléographes apportebeaucoup d informations sur le style d écriture et l époque d élaboration du manuscrit.Mes contributions majeures se situent à deux niveaux : une première étape de prétraitementdes images fortement dégradées assurant une décomposition optimale des formes en graphèmescontenant l information du ductus. Pour cette étape de décomposition des manuscrits, nousavons procédé à la mise en place d une méthodologie complète de suivi de traits à partir del extraction d un squelette obtenu à partir de procédures de rehaussement de contraste et dediffusion de gradients. Le suivi complet du tracé a été obtenu à partir de l application des règlesfondamentales d exécution des traits d écriture, enseignées aux copistes du Moyen Age. Il s agitd information de dynamique de formation des traits portant essentiellement sur des indicationsde directions privilégiées.Dans une seconde étape, nous avons cherché à caractériser ces graphèmes par desdescripteurs de formes visuelles compréhensibles à la fois par les paléographes et lesinformaticiens et garantissant une représentation la plus complète possible de l écriture d unpoint de vue géométrique et morphologique. A partir de cette caractérisation, nous avonsproposé une approche de clustering assurant un regroupement des graphèmes en classeshomogènes par l utilisation d un algorithme de classification non-supervisé basée sur lacoloration de graphe. Le résultat du clustering des graphèmes a conduit à la formation dedictionnaires de formes caractérisant de manière individuelle et discriminante chaque manuscrittraité. Nous avons également étudié la puissance discriminatoire de ces descripteurs afin d obtenir la meilleure représentation d un manuscrit en dictionnaire de formes. Cette étude a étéfaite en exploitant les algorithmes génétiques par leur capacité à produire de bonne sélection decaractéristiques.L ensemble de ces contributions a été testé à partir d une application CBIR sur trois bases demanuscrits dont deux médiévales (manuscrits de la base d Oxford et manuscrits de l IRHT, baseprincipale du projet), et une base comprenant de manuscrits contemporains utilisée lors de lacompétition d identification de scripteurs d ICDAR 2011. L exploitation de notre méthode dedescription et de classification a été faite sur une base contemporaine afin de positionner notrecontribution par rapport aux autres travaux relevant du domaine de l identification d écritures etétudier son pouvoir de généralisation à d autres types de documents. Les résultats trèsencourageants que nous avons obtenus sur les bases médiévales et la base contemporaine, ontmontré la robustesse de notre approche aux variations de formes et de styles et son caractèrerésolument généralisable à tout type de documents écrits.My thesis work is part of the ANR GRAPHEM Project (Grapheme based Retrieval andAnalysis for Expertise paleographic Manuscripts of Middle Age). It represents a methodologicalcontribution applicable to the automatic analysis of ancient writings to assist the experts inpaleography in the delicate work of the studying and deciphering the writing.The main objective is to contribute to an instrumentation of the corpus of medievalmanuscripts held by Institut de Recherche en Histoire de Textes (IRHT-Paris), by helping thepaleographers specialized in this field in their work of understanding the evolution of forms inthe writing, with the establishment of effective methods to access the contents of manuscriptsbased on a fine analysis of the forms described in the form of small fragments (graphemes). Inmy PhD work, I chose to study the dynamic of the most basic element of the writing called theductus and which according to the paleographers, brings a lot of information on the style ofwriting and the era of the elaboration of the manuscript.My major contribution is situated at two levels: a first step of preprocessing of severelydegraded images to ensure an optimal decomposition of the forms into graphemes containingthe ductus information. For this decomposition step of manuscripts, we have proceeded to theestablishment of a complete methodology for the tracings of strokes by the extraction of theskeleton obtained from the contrast enhancement and the diffusion of the gradient procedures.The complete tracking of the strokes was obtained from the application of fundamentalexecution rules of the strokes taught to the scribes of the Middle Ages. It is related to thedynamic information of the formation of strokes focusing essentially on indications of theprivileged directions.In a second step, we have tried to characterize the graphemes by visual shape descriptorsunderstandable by both the computer scientists and the paleographers and thus unsuring themost complete possible representation of the wrting from a geometrical and morphological pointof view. From this characterization, we have have proposed a clustering approach insuring agrouping of graphemes into homogeneous classes by using a non-supervised classificationalgorithm based on the graph coloring. The result of the clustering of graphemes led to theformation of a codebook characterizing in an individual and discriminating way each processedmanuscript. We have also studied the discriminating power of the descriptors in order to obtaina better representation of a manuscript into a codebook. This study was done by exploiting thegenetic algorithms by their ability to produce a good feature selection.The set of the contributions was tested from a CBIR application on three databases ofmanuscripts including two medieval databases (manuscripts from the Oxford and IRHTdatabases), and database of containing contemporary manuscripts used in the writersidentification contest of ICDAR 2011. The exploitation of our description and classificationmethod was applied on a cotemporary database in order to position our contribution withrespect to other relevant works in the writrings identification domain and study itsgeneralization power to other types of manuscripts. The very encouraging results that weobtained on the medieval and contemporary databases, showed the robustness of our approachto the variations of the shapes and styles and its resolutely generalized character to all types ofhandwritten documents.PARIS5-Bibliotheque electronique (751069902) / SudocSudocFranceF

    Relations entre le modèle d’image et le nombre de mesures pour une super-résolution fidèle

    Get PDF
    Multi-image super-resolution produces a high resolution image from severallow resolution acquisitions of a scene. This inverse problem can be ill-posed. We then needto use a regularity model on the scene to be able to produce a realistic image. However,modelization errors limit the performance of such methods. Consequently, finding conditionswhere the problem is well-posed is necessary to be able to limit the amount of regularizationwhen possible, and maximize the fidelity of the result. We ask ourselves the followingquestions :For noises with finite energy or ouliers, how many images permit the reconstruction ofa high resolution image close to the real scene ? How to maximize fidelity of regulariedmethods when the number of images is too small ?For measure noises, an asymptotic study of the conditioning guarantees that it is possibleto use an unregularized method if enough images are available. In cases closes to the criticalinversible case, which are not well-posed, we propose and validate a local estimator of theconditioning, which we use to limit the amount of regularization. For outliers, we use theequivalence between the sparse recovery problem and the robustness to outliers to calculatebounds for the robustness of super-resolution. We also study the regularized case and showconditions which increase the robustness of the problem. All these resuts are validated byexperiments.La super-résolution multi-image consiste à produire une image de haute résolution d’une scène à partir de plusieurs acquisitions de basse résolution. Le problème inverse correspondantpeut être mal posé, il faut alors avoir recours à un modèle de régularité sur le contenude la scène pour produire une image de haute résolution réaliste. Seulement, les erreurs demodélisation limitent la performance de telles méthodes. En conséquence, il est importantde déterminer les conditions dans lesquelles le problème est bien posé afin d’éviter derégulariser lorsque cela est possible, et ainsi maximiser la fidélité de la super-résolution. Onse pose donc les questions suivantes :Pour des bruits d’énergie finie ou une contamination par des données aberrantes (desupport fini), combien d’images permettent de produire une image de haute résolution fidèleà la réalité ? Comment maximiser la fidélité du résultat des méthodes régularisées lorsquele nombre d’images est insuffisant ?Dans le cas d’un bruit de mesure, une étude du comportement asymptotique du conditionnementdu système inverse valide la possibilité d’effectuer une super-résolution nonrégularisée lorsque le nombre d’images est suffisant. Par ailleurs, dans les cas prochesdu seuil critique d’inversibilité, qui sont les plus mal posés, nous proposons et validons unestimateur local du conditionnement qui nous permet de restreindre le plus possible le recoursà une régularisation. Dans le cas de données aberrantes, nous utilisons l’équivalenceentre le problème de reconstruction parcimonieuse et la résistance aux données aberrantespour démontrer des bornes de résistance aux données aberrantes du problème de superrésolution.Nous traitons aussi le cas de la régularisation et montrons les conditions souslesquelles celle-ci permet d’améliorer la robustesse du problème. Tous ces résultats sontvalidés par des expériences

    Glossary of statistical terms: English-Lithuanian-French-Russian-German

    Get PDF
    This edition is devoted to standardization of Lithuanian statistical terms adequate to those used, first of all, in English, also in French, Russian and German. It amounts of 8 dictionaries: multilingual table of statistical terms and 7 bilingual dictionaries with Lithuanian language. The dictionaries were based on the corrected multilingual vocabularies of the International Statistical Institute on the web (http:/isi.cbs.nl/glossary/ index.htm).Leidinys skirtas lietuviškų statistikos terminų norminimui pagal atitikmenis anglų, taip pat prancūzų, rusų ir vokiečių kalbomis. Jį sudaro 8 žodynai: daugiakalbė statistikos terminų lentelė ir 7 dvikalbiai lietuvių ir nurodytų svetimų kalbų žodynai. Šie žodynai remiasi pakoreguotu daugiakalbiu Tarptautinio statistikos instituto terminų sąvadu internete (http:/isi.cbs.nl/glossary/index.htm)
    corecore