441 research outputs found

    Approximation by Multivariate Singular Integrals

    Full text link

    Approximations by Generalized Discrete Singular Operators

    Get PDF
    Here, we give the approximation properties with rates of generalized discrete versions of Picard, Gauss-Weierstrass, and Poisson-Cauchy singular operators. We cover both the unitary and non-unitary cases of the operators above. We present quantitatively the point-wise and uniform convergences of these operators to the unit operator by involving the higher modulus of smoothness of a uniformly continuous function. We also establish our results with respect to L_p norm, 1≤p\u3c∞. Additionally, we state asymptotic Voronovskaya type expansions for these operators. Moreover, we study the fractional generalized smooth discrete singular operators on the real line regarding their convergence to the unit operator with fractional rates in the uniform norm. Then, we give our results for the operators mentioned above over the real line regarding their simultaneous global smoothness preservation property with respect to L_p norm for 1≤p≤∞, by involving higher order moduli of smoothness. Here we also obtain Jackson type inequalities of simultaneous approximation which are almost sharp, containing neat constants, and they reflect the high order of differentiability of involved function. Next, we cover the approximation properties of on the general complex-valued discrete singular operators over the real line regarding their convergence to the unit operator with rates in the L_p norm for 1≤p≤∞. Finally, we establish the approximation properties of multivariate generalized discrete versions of these operators over R^N,N≥1. We give pointwise, uniform, and L_p convergence of the operators to the unit operator by involving the multivariate higher order modulus of smoothness

    Pushing the boundaries for automated data reconciliation in official statistics

    Get PDF
    Jacco Daalmans presenteert een nieuwe wiskundige methode voor het ‘consistent maken’ van gegevens (data reconciliation) in officiële statistieken door statistische bureaus zoals het CBS. Wanneer één statistiek op meerdere plekken gepubliceerd wordt, dan moeten de uitkomsten hetzelfde zijn. Een aantal mag niet in de ene publicatie anders zijn dan in een andere. Een verschil in uitkomsten levert verwarring op. Eén van de oorzaken van verschillende uitkomsten is dat cijfers die een statistisch bureau verzamelt en verwerkt, uit tal van bronnen komen die meestal niet consistent zijn. Statistieken moeten ook aan onderlinge relaties voldoen. Een voorbeeld is dat twaalf maandcijfers op moeten tellen tot één jaarcijfer. Wanneer hier niet aan is voldaan, kan men naast het gegeven jaarcijfer, een alternatief jaarcijfer afleiden door de onderliggende maandcijfers op te tellen. Ook dan geen eenduidigheid over het ‘ware’ cijfer. Dit strookt niet met het doel van statistische bureaus om onbetwistbare statistieken te leveren. Om consistente statistische uitkomsten te maken is het nodig om gegevens aan te passen. De uitkomsten van verschillende statistieken worden een klein beetje gewijzigd, om ze daarmee beter op elkaar af te stemmen, bijvoorbeeld om te zorgen dat twaalf maandcijfers optellen tot een jaarcijfer. In het proefschrift wordt een nieuwe wiskundige methode voor formele data integratie ontwikkeld en toegepast. De nieuwe methode wordt nu op het CBS toegepast voor het samenstellen van Nationale Rekeningen. Dit gaat om zeer grote en gedetailleerde tabellen, die kunnen worden gezien als boekhouding van een land. Het bruto binnenlands product (BBP) is het bekendste cijfer uit de Nationale Rekeningen. Het aanpassen van data uit de Nationale Rekening is lastig omdat het gaat om zeer veel gegevens die onderling een sterke samenhang hebben. Stel bijvoorbeeld dat uit een confrontatie van bronnen blijkt dat de productie van een bepaald product naar boven moet worden bijgesteld. Dit betekent dat ook meer grondstof moet zijn verbruikt en dit betekent dan weer dat er ook meer van die grondstof moet zijn geproduceerd, of geïmporteerd, etc. Vóór de ingebruikneming van de wiskundige methode hingen correcties meer af van informele methoden zoals inschattingen van experts. De introductie van de formele, wiskundige methode vergroot de reproduceerbaarheid en transparantie van de statistiek. De methode die in het proefschrift is voorgesteld is vergeleken met een andere methode, die door een ander statistisch bureau is toegepast. De nieuwe methode heeft een belangrijke eigenschap waaraan de andere methode niet voldoet. Kortgezegd houdt die eigenschap in dat de resultaten hetzelfde moeten blijven als de richting van de tijd zou worden omgekeerd. Het proefschrift onderzoekt verder toepassingen van data integratiemethoden buiten het traditionele toepassingsgebied van de Nationale Rekeningen, zoals bij de volkstelling en bij bedrijfseconomische statistieken. De voorgestelde methoden blijken sommige problemen van de huidig toegepaste methoden te vermijden

    Wavelet methods in statistics: Some recent developments and their applications

    Full text link
    The development of wavelet theory has in recent years spawned applications in signal processing, in fast algorithms for integral transforms, and in image and function representation methods. This last application has stimulated interest in wavelet applications to statistics and to the analysis of experimental data, with many successes in the efficient analysis, processing, and compression of noisy signals and images. This is a selective review article that attempts to synthesize some recent work on ``nonlinear'' wavelet methods in nonparametric curve estimation and their role on a variety of applications. After a short introduction to wavelet theory, we discuss in detail several wavelet shrinkage and wavelet thresholding estimators, scattered in the literature and developed, under more or less standard settings, for density estimation from i.i.d. observations or to denoise data modeled as observations of a signal with additive noise. Most of these methods are fitted into the general concept of regularization with appropriately chosen penalty functions. A narrow range of applications in major areas of statistics is also discussed such as partial linear regression models and functional index models. The usefulness of all these methods are illustrated by means of simulations and practical examples.Comment: Published in at http://dx.doi.org/10.1214/07-SS014 the Statistics Surveys (http://www.i-journals.org/ss/) by the Institute of Mathematical Statistics (http://www.imstat.org

    Geometric methods on low-rank matrix and tensor manifolds

    Get PDF
    In this chapter we present numerical methods for low-rank matrix and tensor problems that explicitly make use of the geometry of rank constrained matrix and tensor spaces. We focus on two types of problems: The first are optimization problems, like matrix and tensor completion, solving linear systems and eigenvalue problems. Such problems can be solved by numerical optimization for manifolds, called Riemannian optimization methods. We will explain the basic elements of differential geometry in order to apply such methods efficiently to rank constrained matrix and tensor spaces. The second type of problem is ordinary differential equations, defined on matrix and tensor spaces. We show how their solution can be approximated by the dynamical low-rank principle, and discuss several numerical integrators that rely in an essential way on geometric properties that are characteristic to sets of low rank matrices and tensors

    Applied Harmonic Analysis and Sparse Approximation

    Get PDF
    Efficiently analyzing functions, in particular multivariate functions, is a key problem in applied mathematics. The area of applied harmonic analysis has a significant impact on this problem by providing methodologies both for theoretical questions and for a wide range of applications in technology and science, such as image processing. Approximation theory, in particular the branch of the theory of sparse approximations, is closely intertwined with this area with a lot of recent exciting developments in the intersection of both. Research topics typically also involve related areas such as convex optimization, probability theory, and Banach space geometry. The workshop was the continuation of a first event in 2012 and intended to bring together world leading experts in these areas, to report on recent developments, and to foster new developments and collaborations

    New Techniques for the Modeling, Processing and Visualization of Surfaces and Volumes

    Get PDF
    With the advent of powerful 3D acquisition technology, there is a growing demand for the modeling, processing, and visualization of surfaces and volumes. The proposed methods must be efficient and robust, and they must be able to extract the essential structure of the data and to easily and quickly convey the most significant information to a human observer. Independent of the specific nature of the data, the following fundamental problems can be identified: shape reconstruction from discrete samples, data analysis, and data compression. This thesis presents several novel solutions to these problems for surfaces (Part I) and volumes (Part II). For surfaces, we adopt the well-known triangle mesh representation and develop new algorithms for discrete curvature estimation,detection of feature lines, and line-art rendering (Chapter 3), for connectivity encoding (Chapter 4), and for topology preserving compression of 2D vector fields (Chapter 5). For volumes, that are often given as discrete samples, we base our approach for reconstruction and visualization on the use of new trivariate spline spaces on a certain tetrahedral partition. We study the properties of the new spline spaces (Chapter 7) and present efficient algorithms for reconstruction and visualization by iso-surface rendering for both, regularly (Chapter 8) and irregularly (Chapter 9) distributed data samples

    Causality, endogeneity and nonparametric estimation

    Get PDF
    Cette thèse porte sur les problèmes de causalité et d'endogénéité avec estimation non-paramétrique de la fonction d’intérêt. On explore ces problèmes dans deux modèles différents. Dans le cas de données en coupe transversale et iid, on considère l'estimation d'un modèle additif séparable, dans lequel la fonction de régression dépend d'une variable endogène. L'endogénéité est définie, dans ce cas, de manière très générale : elle peut être liée à une causalité inverse (la variable dépendante peut aussi intervenir dans la réalisation des régresseurs), ou à la simultanéité (les résidus contiennent de l'information qui peut influencer la variable indépendante). L'identification et l'estimation de la fonction de régression se font par variables instrumentales. Dans le cas de séries temporelles, on étudie les effets de l'hypothèse d'exogénéité dans un modèle de régression en temps continu. Dans un tel modèle, la variable d'état est fonction de son passé, mais aussi du passé d'autres variables et on s'intéresse à l'estimation nonparamétrique de la moyenne et de la variance conditionnelle. Le premier chapitre traite de ce dernier cas. En particulier, on donne des conditions suffisantes pour qu'on puisse faire de l'inférence statistique dans un tel modèle. On montre que la non-causalité est une condition suffisante pour l'exogénéité, quand on ne veut pas faire d'hypothèses sur les dynamiques du processus des covariables. Cependant, si on est prêt à supposer que le processus des covariables suit une simple équation différentielle stochastique, l'hypothèse de non-causalité devient immatérielle. Les chapitres de deux à quatre se concentrent sur le modèle iid simple. Etant donné que la fonction de régression est solution d'un problème mal-posé, on s'intéresse aux méthodes d'estimation par régularisation. Dans le deuxième chapitre, on considère ce modèle dans le cas d'un régularisation sur la norme L2 de la fonction (régularisation de type Tikhonov). On dérive les propriétés d'un critère de validation croisée pour définir le choix du paramètre de régularisation. Dans le chapitre trois, coécrit avec Jean-Pierre Florens, on étend ce modèle au cas où la variable dépendante n'est pas directement observée mais où on observe seulement une transformation binaire de cette dernière. On montre que le modèle peut être identifié en utilisant la décomposition de la variable dépendante dans l'espace des variables instrumentales et en supposant que les résidus de ce modèle réduit ont une distribution connue. On démontre alors, sous ces hypothèses, qu'on préserve les propriétés de convergence de l'estimateur non-paramétrique. Enfin, le chapitre quatre, coécrit avec Frédérique Fève et Jean-Pierre Florens, décrit une étude numérique, qui compare les propriétés de diverses méthodes de régularisation. En particulier, on discute des critères pour le choix adaptatif des paramètres de lissage et de régularisation et on teste la validité du bootstrap sauvage dans le cas des modèles de régression non-paramétrique avec variables instrumentales.This thesis deals with the broad problem of causality and endogeneity in econometrics when the function of interest is estimated nonparametrically. It explores this problem in two separate frameworks. In the cross sectional, iid setting, it considers the estimation of a nonlinear additively separable model, in which the regression function depends on an endogenous explanatory variable. Endogeneity is, in this case, broadly denned. It can relate to reverse causality (the dependent variable can also affects the independent regressor) or to simultaneity (the error term contains information that can be related to the explanatory variable). Identification and estimation of the regression function is performed using the method of instrumental variables. In the time series context, it studies the implications of the assumption of exogeneity in a regression type model in continuous time. In this model, the state variable depends on its past values, but also on some external covariates and the researcher is interested in the nonparametric estimation of both the conditional mean and the conditional variance functions. This first chapter deals with the latter topic. In particular, we give sufficient conditions under which the researcher can make meaningful inference in such a model. It shows that noncausality is a sufficient condition for exogeneity if the researcher is not willing to make any assumption on the dynamics of the covariate process. However, if the researcher is willing to assume that the covariate process follows a simple stochastic differential equation, then the assumption of noncausality becomes irrelevant. Chapters two to four are instead completely devoted to the simple iid model. The function of interest is known to be the solution of an inverse problem. In the second chapter, this estimation problem is considered when the regularization is achieved using a penalization on the L2-norm of the function of interest (so-called Tikhonov regularization). We derive the properties of a leave-one-out cross validation criterion in order to choose the regularization parameter. In the third chapter, coauthored with Jean-Pierre Florens, we extend this model to the case in which the dependent variable is not directly observed, but only a binary transformation of it. We show that identification can be obtained via the decomposition of the dependent variable on the space spanned by the instruments, when the residuals in this reduced form model are taken to have a known distribution. We finally show that, under these assumptions, the consistency properties of the estimator are preserved. Finally, chapter four, coauthored with Frédérique Fève and Jean-Pierre Florens, performs a numerical study, in which the properties of several regularization techniques are investigated. In particular, we gather data-driven techniques for the sequential choice of the smoothing and the regularization parameters and we assess the validity of wild bootstrap in nonparametric instrumental regressions
    • …
    corecore