5 research outputs found

    On the performance of sampling methods for unconstrained minimization

    Get PDF
    Orientadores: Sandra Augusta Santos, Lucas Eduardo Azevedo SimõesDissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação CientíficaResumo: A otimização não suave é um ramo da otimização que trabalha com funções objetivo não diferenciáveis em um subconjunto do domínio. Neste trabalho, apresentamos resultados computacionais para a minimização de problemas nos quais as funções objetivo são não diferenciáveis em um subconjunto de medida nula do domínio, e não apresentam restrições. O algoritmo Gradient Sampling (GS) foi proposto recentemente e minimiza a função objetivo com base no gradiente calculado em amostras de pontos gerados uniformemente em uma vizinhança do ponto corrente. Variações deste método envolvendo diferentes direções e diferentes valores de parâmetros foram exploradas. Problemas conhecidos da literatura foram utilizados para analisar comparativamente o comportamento de algumas variantes do método e sua dependência com relação ao número de pontos amostrados. O número de iterações e o valor ótimo obtido foram as medidas de eficiência utilizadas, e pela natureza randômica do método, cada problema foi resolvido diversas vezes, para garantir a relevância estatística dos resultadosAbstract: Nonsmooth optimization is a branch of optimization that deals with non-differentiable objective functions in a subset of the domain. In this work, we present computational results for the minimization of problems in which the objective functions are non-differentiable in a subset of the domain with null measure, and do not present restrictions. The Gradient Sampling (GS) algorithm was recently proposed and minimizes the objective function based on the computed gradient at sampled points uniformly generated in a neighborhood of the current point. Variations of this method involving different directions and different parameter values have been explored. Problems from the literature were used to comparatively analyze the behavior of some variants of the method and its dependence on the number of sampled points. The number of iterations and the optimum value obtained were the efficiency measures used, and due to the random nature of the method, each problem was solved several times, to guarantee the statistical relevance of the resultsMestradoMatematica AplicadaMestre em Matemática AplicadaCAPE

    On the local convergence analysis of the gradient sampling method for finite max-functions

    No full text
    FAPESP - FUNDAÇÃO DE AMPARO À PESQUISA DO ESTADO DE SÃO PAULOCNPQ - CONSELHO NACIONAL DE DESENVOLVIMENTO CIENTÍFICO E TECNOLÓGICOPRONEX - PROGRAMA DE APOIO A NÚCLEOS DE EXCELÊNCIAThe gradient sampling method is a recently developed tool for solving unconstrained nonsmooth optimization problems. Using just first-order information about the objective function, it generalizes the steepest descent method, one of the most classical methods for minimizing a smooth function. This study aims at determining under which circumstances one can expect the same local convergence result of the Cauchy method for the gradient sampling algorithm under the assumption that the problem is stated by a finite max-function around the optimal point. Additionally, at the end, we show how to practically accomplish the required hypotheses during the execution of the algorithm.1751137157FAPESP - FUNDAÇÃO DE AMPARO À PESQUISA DO ESTADO DE SÃO PAULOCNPQ - CONSELHO NACIONAL DE DESENVOLVIMENTO CIENTÍFICO E TECNOLÓGICOPRONEX - PROGRAMA DE APOIO A NÚCLEOS DE EXCELÊNCIAFAPESP - FUNDAÇÃO DE AMPARO À PESQUISA DO ESTADO DE SÃO PAULOCNPQ - CONSELHO NACIONAL DE DESENVOLVIMENTO CIENTÍFICO E TECNOLÓGICOPRONEX - PROGRAMA DE APOIO A NÚCLEOS DE EXCELÊNCIA2013/07375-02013/05475-72016/22989-22013/14615-7 , 311476/2014-7302915/2016-8sem informaçã
    corecore