414 research outputs found

    Chebyshev–Halley methods for analytic functions

    Get PDF
    AbstractTwo modifications of the family of Chebyshev–Halley methods are given. The first is to improve the rate of convergence to a multiple zero of an analytic function. The second is to find simultaneously all distinct zeros of a polynomial

    A new higher-order family of inclusion zero-finding methods

    Get PDF
    AbstractStarting from a suitable fixed point relation, a new one-parameter family of iterative methods for the simultaneous inclusion of complex zeros in circular complex arithmetic is constructed. It is proved that the order of convergence of this family is four. The convergence analysis is performed under computationally verifiable initial conditions. An approach for the construction of accelerated methods with negligible number of additional operations is discussed. To demonstrate convergence properties of the proposed family of methods, two numerical examples results are given

    Opt: A Domain Specific Language for Non-linear Least Squares Optimization in Graphics and Imaging

    Full text link
    Many graphics and vision problems can be expressed as non-linear least squares optimizations of objective functions over visual data, such as images and meshes. The mathematical descriptions of these functions are extremely concise, but their implementation in real code is tedious, especially when optimized for real-time performance on modern GPUs in interactive applications. In this work, we propose a new language, Opt (available under http://optlang.org), for writing these objective functions over image- or graph-structured unknowns concisely and at a high level. Our compiler automatically transforms these specifications into state-of-the-art GPU solvers based on Gauss-Newton or Levenberg-Marquardt methods. Opt can generate different variations of the solver, so users can easily explore tradeoffs in numerical precision, matrix-free methods, and solver approaches. In our results, we implement a variety of real-world graphics and vision applications. Their energy functions are expressible in tens of lines of code, and produce highly-optimized GPU solver implementations. These solver have performance competitive with the best published hand-tuned, application-specific GPU solvers, and orders of magnitude beyond a general-purpose auto-generated solver

    Contributions à l'accélération de la méthode de Newton

    Get PDF
    Dans cette thèse par articles, nous nous intéressons à l'augmentation de l'ordre de convergence de la méthode itérative de Newton. Notre objectif a été d'établir en termes mathématiques, la meilleure façon d'augmenter l'ordre de convergence de cette méthode. À cet effet, cette thèse regroupera cinq articles qui soulignent le cheminement de notre travail de doctorat et la logique de notre recherche. Dans un premier article, qui sert d'introduction et de mise en contexte de cette thèse, nous revisitons les méthodes itératives de point fixe et la méthode de Newton pour le calcul des zéros d'une fonction suffisamment régulière. Nous présentons les conditions nécessaires et suffisantes pour la convergence d'ordre supérieure de celles-ci. À l'aide de ces conditions, nous montrons comment augmenter de façon récursive l'ordre de convergence. Pour la méthode de point fixe, nous présentons une généralisation de la méthode de Schröder de première espèce. Plus spécifiquement, deux autres méthodes sont aussi présentées pour la méthode de Newton. L'une d'entre elles est montrée équivalente à la méthode de Schröder de deuxième espèce. Notons que le début de nos recherches a été inspiré par l'article [8], qui présente deux familles de méthodes itératives d'ordre m pour le calcul de la racine n-ième. Celles-ci sont initialement apparues dans les articles [9] et [25]. Ces méthodes par contre sont spécifiquement adaptées au calcul de la racine n-ième d'un nombre et leur utilisation y est limitée. L'un des objectif de notre premier chapitre a été de les généraliser. Nous voulions avoir deux familles distinctes de méthodes itératives qui pourraient approximer les zéros d'une fonction suffisamment régulière, mais nous voulions aussi, qu'une fois appliquées au problème du calcul de la racine, ces méthodes coïncident avec les méthodes que nous présente cet article. C'est ce que nous avons fait dans le premier chapitre. Le second chapitre est une généralisation du chapitre précèdent, dans le plan complexe. De plus, plusieurs exemples numériques et illustrations de bassins d'attraction sont inclus dans cet article. Dans le chapitre suivant, nous notons que c'est en 1669 , pour le calcul d'un zéro simple d'une fonction analytique f(z), qu'Isaac Newton [57] a introduit sa fameuse méthode itérative d'ordre 2 . Quelques années plus tard, en 1694 , Edmond Halley [20] a lui introduit une autre fonction d'itération d'ordre 3. Depuis, quoique plusieurs mathématiciens aient essayé de trouver des méthodes plus rapides que la méthode de Newton, la méthode de Halley a été redécouverte de nombreuses fois [44]. Pourquoi? Ceci est le sujet de notre troisième chapitre. Nous montrons que la séquence de Halley, une suite de fonctions résultantes de l'augmentation de l'ordre de convergence de la méthode de Newton, est la façon la plus efficace d'augmenter l'ordre de convergence de la méthode de Newton en termes d'utilisation de dérivées d'ordre supérieur. Nous illustrons pourquoi ce fait est probablement la raison pour laquelle la méthode itérative de Halley a été si souvent redécouverte. À des fins illustratives nous présentons aussi un algorithme pour reconnaître la séquence de Halley afin d'éviter d'autres redécouvertes. Nous appliquons cet algorithme à certains exemples. Dans le quatrième chapitre, nous montrons comment le développement de Taylor d'une fonction analytique peut être utilisé pour accoître l'ordre de convergence de méthode itérative. Ceci nous permet d'établir de nouveaux liens entre plusieurs differents processus d'accélération, notamment entre celui de Halley et celui de Chebyshev. Dans le cinquième chapitre, nous montrons que la façon la plus efficace d'augmenter l'ordre de convergence de la méthode de Newton, en termes de fonctions polynomiales, nous donne la méthode de Schröder de première espèce. En particulier nous obtenons la fameuse méthode itérative de Euler-Chebyshev à l'ordre 3. Nous obtenons aussi le fait que les méthodes itératives de Schröder de première et deuxième espèce sont les meilleures façons d'augmenter l'ordre de convergence de la méthode itérative de Newton
    corecore