26 research outputs found

    Combinatorial and Asymptotical Results on the Neighborhood Grid

    Full text link
    In 2009, Joselli et al introduced the Neighborhood Grid data structure for fast computation of neighborhood estimates in point clouds. Even though the data structure has been used in several applications and shown to be practically relevant, it is theoretically not yet well understood. The purpose of this paper is to present a polynomial-time algorithm to build the data structure. Furthermore, it is investigated whether the presented algorithm is optimal. This investigations leads to several combinatorial questions for which partial results are given. Finally, we present several limits and experiments regarding the quality of the obtained neighborhood relation.Comment: 33 pages, 18 Figure

    Experimental visually-guided investigation of sub-structures in three-dimensional Turing-like patterns

    Full text link
    In his 1952 paper "The chemical basis of morphogenesis", Alan M. Turing presented a model for the formation of skin patterns. While it took several decades, the model has been validated by finding corresponding natural phenomena, e.g. in the skin pattern formation of zebrafish. More surprising, seemingly unrelated pattern formations can also be studied via the model, like e.g. the formation of plant patches around termite hills. In 1984, David A. Young proposed a discretization of Turing's model, reducing it to an activator/inhibitor process on a discrete domain. From this model, the concept of three-dimensional Turing-like patterns was derived. In this paper, we consider this generalization to pattern-formation in three-dimensional space. We are particularly interested in classifying the different arising sub-structures of the patterns. By providing examples for the different structures, we prove a conjecture regarding these structures within the setup of three-dimensional Turing-like pattern. Furthermore, we investigate - guided by visual experiments - how these sub-structures are distributed in the parameter space of the discrete model. We found two-fold versions of zero- and one-dimensional sub-structures as well as two-dimensional sub-structures and use our experimental findings to formulate several conjectures for three-dimensional Turing-like patterns and higher-dimensional cases

    Weaving patterns inspired by the pentagon snub subdivision scheme

    Full text link
    Various computer simulations regarding, e.g., the weather or structural mechanics, solve complex problems on a two-dimensional domain. They mostly do so by splitting the input domain into a finite set of smaller and simpler elements on which the simulation can be run fast and efficiently. This process of splitting can be automatized by using subdivision schemes. Given the wide range of simulation problems to be tackled, an equally wide range of subdivision schemes is available. They create subdivisions that are (mainly) comprised of triangles, quadrilaterals, or hexagons. Furthermore, they ensure that (almost) all vertices have the same number of neighboring vertices. This paper illustrates a subdivision scheme that splits the input domain into pentagons. Repeated application of the scheme gives rise to fractal-like structures. Furthermore, the resulting subdivided domain admits to certain weaving patterns. These patterns are subsequently generalized to several other subdivision schemes. As a final contribution, we provide paper models illustrating the weaving patterns induced by the pentagonal subdivision scheme. Furthermore, we present a jigsaw puzzle illustrating both the subdivision process and the induced weaving pattern. These transform the visual and abstract mathematical algorithms into tactile objects that offer exploration possibilities aside from the visual.Comment: Submitted for publication to the Journal of Mathematics and the Arts (2022

    Surface Denoising based on Normal Filtering in a Robust Statistics Framework

    Full text link
    During a surface acquisition process using 3D scanners, noise is inevitable and an important step in geometry processing is to remove these noise components from these surfaces (given as points-set or triangulated mesh). The noise-removal process (denoising) can be performed by filtering the surface normals first and by adjusting the vertex positions according to filtered normals afterwards. Therefore, in many available denoising algorithms, the computation of noise-free normals is a key factor. A variety of filters have been introduced for noise-removal from normals, with different focus points like robustness against outliers or large amplitude of noise. Although these filters are performing well in different aspects, a unified framework is missing to establish the relation between them and to provide a theoretical analysis beyond the performance of each method. In this paper, we introduce such a framework to establish relations between a number of widely-used nonlinear filters for face normals in mesh denoising and vertex normals in point set denoising. We cover robust statistical estimation with M-smoothers and their application to linear and non-linear normal filtering. Although these methods originate in different mathematical theories - which include diffusion-, bilateral-, and directional curvature-based algorithms - we demonstrate that all of them can be cast into a unified framework of robust statistics using robust error norms and their corresponding influence functions. This unification contributes to a better understanding of the individual methods and their relations with each other. Furthermore, the presented framework provides a platform for new techniques to combine the advantages of known filters and to compare them with available methods

    Datenstrukturen für Nachbarschaften, Mannigfaltigkeitseigenschaften, und die Verarbeitung von Punktwolkenoberflächen

    Get PDF
    The thesis covers three topics all centered in the context of point set processing. In the following, we will shortly present each topic with its motivation, explain the performed research, and highlight the contributions. In case the presented results have been published prior to the publication of this thesis, the corresponding reference is given. The first topic concerns notions of neighborhood and corresponding data structures. Many researchers have recognized the importance of high-quality neighborhood relations. For example, the authors Lange and Polthier in their CAGD article from 2005 report that the results of their anisotropic smoothing algorithm heavily depend on the neighborhood structure imposed on the point set. Despite their advantages in storage space and easy acquisition, the missing neighborhood relation is a significant downside to point set representations. The purpose of this first part is to discuss neighborhood concepts as well as a data structure for fast single-core and fast parallelized computation respectively. The second main topic of this thesis deals with manifold structures for point set surfaces. From a significant amount of real-world objects, while 3D-scanning them, only the surface is acquired for further processing in CAD or other applications. When the surface of the underlying real-world geometry has the structure of a manifold, it can be expected that this structure is reflected by any point set acquired from the geometry. Even when the faces of the geometry are smooth manifold patches, there is no theory available in the setting of point sets to reflect their manifold properties. Third and finally, algorithms have to work efficiently and robustly on the point set. While meshed geometries provide an intuitive and natural weighting by the areas of the faces, point sets can at most work with distances between the points. This introduces a new level of difficulty to be overcome by any point set processing algorithm. This final chapter introduces a novel weighting scheme to counteract non-uniformity in point sets, a feature detection algorithm with mathematical guarantees, and an iterative denoising scheme for point sets.Die Arbeit beschäftigt sich mit drei Bereichen, die jeweils im Umfeld der Verarbeitung von Punktwolken verortet sind. Der erste Bereich betrifft Konzepte von Nachbarschaften sowie zugehörige Datenstrukturen. In der Forschung wurde bereits mehrfach auf die Wichtigkeit von qualitativ hochwertigen Nachbarschaftsrelationen auf Punktwolken hingewiesen. Die Autoren Polthier und Lange berichten in ihrer CAGD Publikation von 2005 beispielsweise, dass die Ergebnisse ihres anisotropen Glättungsverfahrens stark von den Nachbarschaften abhängen, die sie für die prozessierte Punktwolke berechnen. Während bereits mehrere kombinatorisch oder metrisch basierte Konzepte für Nachbarschaften auf Punktwolken vorgestellt wurden, berücksichtigt keines dieser Konzepte die Informationen der Normalen, bzw. der Krümmung. Die Doktorarbeit stellt daher ein neues Verfahren für die Bestimmung von Nachbarschaften vor, die sich an der lokalen Form der Geometrie orientieren. Jegliche Nachbarschaftskonzepte sind nur dann von praktischer Relevanz, wenn sie auch schnell in unterschiedlichen Anwendungen berechnet werden können. Hierfür fällt die Wahl häufig auf die Datenstruktur der k-d Bäume von Friedman, Bentley und Finkel. Dies liegt vor allem an der bewiesenen Laufzeit einer Nachbarschaftsabfrage von erwartet O(log(n)) auf n Punkten. Die Doktorarbeit präsentiert eine ausführliche Ausarbeitung dieser Laufzeitberechnung. Schließlich werden solche Datenstrukturen immer wichtiger, die von massiver Parallelisierung - z.B. auf Grafikkarten - profitieren. Eine solche stellt das Nachbarschaftsgitter dar, das von Joselli et al. eingeführt wurde. Die Doktorarbeit beantwortet mehrere offene Fragen zur Kombinatorik und zur Qualität der Nachbarschaften dieser Struktur. Der zweite große Bereich der Arbeit zielt auf Mannigfaltigkeitsstrukturen für durch Punktwolken dargestellte Oberflächen. Immer, wenn die zugrundeliegende Geometrie die Struktur einer glatten Mannigfaltigkeit hat, kann erwartet werden, dass diese Struktur auch durch eine Stichprobe in Form einer Punktwolke abgebildet wird. Jedoch gibt es für Punktwolken bisher keine Konstruktion, die diese Struktur abbildet. Eine Lösung für diese Forschungslücke wird in der Doktorarbeit präsentiert. Außerdem ist das wichtigste Element für die Repräsentation von Mannigfaltigkeiten ein Atlas aus Karten mit entsprechenden Kartenwechselabbildungen. Die Doktorarbeit präsentiert einen Ansatz, bei dem Karten aus möglichst großen flachen Stücken der Punktwolke generiert werden. Diese flachen Stücke können dann einfach in anderen Verfahren genutzt werden. Der abschließende dritte Teil der Arbeit beschäftigt sich mit effizienten und robusten Algorithmen für die Verarbeitung von Punktwolken. Wie oben bereits vermerkt, bieten Punktwolken - im Gegensatz zu Netzen mit ihren Flächenstücken -- keine natürlichen Gewichtungen für ihre Elemente. Hier können nur die paarweisen Distanzen zwischen Punkten genutzt werden. Dies erschwert die Handhabung von Punktwolken mit uneinheitlicher Verteilung. Um diesem Problem entgegenzuwirken präsentiert die Arbeit neuartige Gewichte für die Verwendung in Diskretisierungen - z.B. von Differentialoperatoren - die für eine Verarbeitung wie im Falle einer einheitlichen Stichprobe sorgen. Abseits hiervon spielt in Anwendungen vor allem auch die Identifikation von Merkmalen einer Geometrie - Ecken, Kanten und Flächen - eine Rolle. Die Arbeit präsentiert daher einen auf dem Verfahren der bewegten kleinsten Quadrate basierenden Ansatz für die Erkennung von Geometriemerkmalen. Die Arbeit schließt mit der Vorstellung eines Glättungsalgorithmus für Punktwolken. Dieser entfernt bei der Akquise der Punkte fälschlicherweise erzeugtes Rauschen ohne dabei die oben angesprochenen Merkmale der Geometrie zu verwischen. Die Arbeit schlägt somit einen Bogen von der Erfassung von Punktwolken über theoretische Konstruktionen hin zur praktischen Verarbeitung
    corecore