3,713 research outputs found

    Radial Basis Functions: Biomedical Applications and Parallelization

    Get PDF
    Radial basis function (RBF) is a real-valued function whose values depend only on the distances between an interpolation point and a set of user-specified points called centers. RBF interpolation is one of the primary methods to reconstruct functions from multi-dimensional scattered data. Its abilities to generalize arbitrary space dimensions and to provide spectral accuracy have made it particularly popular in different application areas, including but not limited to: finding numerical solutions of partial differential equations (PDEs), image processing, computer vision and graphics, deep learning and neural networks, etc. The present thesis discusses three applications of RBF interpolation in biomedical engineering areas: (1) Calcium dynamics modeling, in which we numerically solve a set of PDEs by using meshless numerical methods and RBF-based interpolation techniques; (2) Image restoration and transformation, where an image is restored from its triangular mesh representation or transformed under translation, rotation, and scaling, etc. from its original form; (3) Porous structure design, in which the RBF interpolation used to reconstruct a 3D volume containing porous structures from a set of regularly or randomly placed points inside a user-provided surface shape. All these three applications have been investigated and their effectiveness has been supported with numerous experimental results. In particular, we innovatively utilize anisotropic distance metrics to define the distance in RBF interpolation and apply them to the aforementioned second and third applications, which show significant improvement in preserving image features or capturing connected porous structures over the isotropic distance-based RBF method. Beside the algorithm designs and their applications in biomedical areas, we also explore several common parallelization techniques (including OpenMP and CUDA-based GPU programming) to accelerate the performance of the present algorithms. In particular, we analyze how parallel programming can help RBF interpolation to speed up the meshless PDE solver as well as image processing. While RBF has been widely used in various science and engineering fields, the current thesis is expected to trigger some more interest from computational scientists or students into this fast-growing area and specifically apply these techniques to biomedical problems such as the ones investigated in the present work

    Implementation issues in source coding

    Get PDF
    An edge preserving image coding scheme which can be operated in both a lossy and a lossless manner was developed. The technique is an extension of the lossless encoding algorithm developed for the Mars observer spectral data. It can also be viewed as a modification of the DPCM algorithm. A packet video simulator was also developed from an existing modified packet network simulator. The coding scheme for this system is a modification of the mixture block coding (MBC) scheme described in the last report. Coding algorithms for packet video were also investigated

    Multiple 2D self organising map network for surface reconstruction of 3D unstructured data

    Get PDF
    Surface reconstruction is a challenging task in reverse engineering because it must represent the surface which is similar to the original object based on the data obtained. The data obtained are mostly in unstructured type whereby there is not enough information and incorrect surface will be obtained. Therefore, the data should be reorganised by finding the correct topology with minimum surface error. Previous studies showed that Self Organising Map (SOM) model, the conventional surface approximation approach with Non Uniform Rational B-Splines (NURBS) surfaces, and optimisation methods such as Genetic Algorithm (GA), Differential Evolution (DE) and Particle Swarm Optimisation (PSO) methods are widely implemented in solving the surface reconstruction. However, the model, approach and optimisation methods are still suffer from the unstructured data and accuracy problems. Therefore, the aims of this research are to propose Cube SOM (CSOM) model with multiple 2D SOM network in organising the unstructured surface data, and to propose optimised surface approximation approach in generating the NURBS surfaces. GA, DE and PSO methods are implemented to minimise the surface error by adjusting the NURBS control points. In order to test and validate the proposed model and approach, four primitive objects data and one medical image data are used. As to evaluate the performance of the proposed model and approach, three performance measurements have been used: Average Quantisation Error (AQE) and Number Of Vertices (NOV) for the CSOM model while surface error for the proposed optimised surface approximation approach. The accuracy of AQE for CSOM model has been improved to 64% and 66% when compared to 2D and 3D SOM respectively. The NOV for CSOM model has been reduced from 8000 to 2168 as compared to 3D SOM. The accuracy of surface error for the optimised surface approximation approach has been improved to 7% compared to the conventional approach. The proposed CSOM model and optimised surface approximation approach have successfully reconstructed surface of all five data with better performance based on three performance measurements used in the evaluation

    Context-Specific Preference Learning of One Dimensional Quantitative Geospatial Attributes Using a Neuro-Fuzzy Approach

    Get PDF
    Change detection is a topic of great importance for modern geospatial information systems. Digital aerial imagery provides an excellent medium to capture geospatial information. Rapidly evolving environments, and the availability of increasing amounts of diverse, multiresolutional imagery bring forward the need for frequent updates of these datasets. Analysis and query of spatial data using potentially outdated data may yield results that are sometimes invalid. Due to measurement errors (systematic, random) and incomplete knowledge of information (uncertainty) it is ambiguous if a change in a spatial dataset has really occurred. Therefore we need to develop reliable, fast, and automated procedures that will effectively report, based on information from a new image, if a change has actually occurred or this change is simply the result of uncertainty. This thesis introduces a novel methodology for change detection in spatial objects using aerial digital imagery. The uncertainty of the extraction is used as a quality estimate in order to determine whether change has occurred. For this goal, we develop a fuzzy-logic system to estimate uncertainty values fiom the results of automated object extraction using active contour models (a.k.a. snakes). The differential snakes change detection algorithm is an extension of traditional snakes that incorporates previous information (i.e., shape of object and uncertainty of extraction) as energy functionals. This process is followed by a procedure in which we examine the improvement of the uncertainty at the absence of change (versioning). Also, we introduce a post-extraction method for improving the object extraction accuracy. In addition to linear objects, in this thesis we extend differential snakes to track deformations of areal objects (e.g., lake flooding, oil spills). From the polygonal description of a spatial object we can track its trajectory and areal changes. Differential snakes can also be used as the basis for similarity indices for areal objects. These indices are based on areal moments that are invariant under general affine transformation. Experimental results of the differential snakes change detection algorithm demonstrate their performance. More specifically, we show that the differential snakes minimize the false positives in change detection and track reliably object deformations

    Surface representations for 3D face recognition

    Get PDF

    Optimization Strategies for Spatio-temporal Groundwater Dynamics Monitoring

    Get PDF
    Räumlich kontinuierliche Daten sind in der Hydrogeologie für die wissenschaftliche Forschung, die Risikobewertung und wasserwirtschaftliche Entscheidungsprozesse von wesentlicher Bedeutung. Die meisten dieser Informationen werden allerdings nur punktuell durch Messungen an Grundwassermessstellen erhoben und anschließend regionalisiert. Die Vorhersagegenauigkeit dieser räumlich interpolierten Daten, die in der Regel die Grundlage für weitere Berechnungen und Entscheidungen bilden, ist stark abhängig von der Konzipierung des Grundwassermessnetzes, d.h. von der räumlichen Verteilung und Dichte der Grundwassermessstellen, der Beprobungshäufigkeit, dem Interpolationsverfahren sowie dem Wechselspiel zwischen diesen Faktoren. Daraus ergibt sich ein erhebliches Optimierungspotenzial hinsichtlich des Grundwassermessnetzes und der Regionalisierungstechnik. Geeignetes Grundwassermessnetze sind daher wichtige Instrumente für die nachhaltige Bewirtschaftung und für den Schutz der Grundwasserressourcen. Sie bieten Zugangspunkte für die Überwachung von Grundwasserständen und -proben und ermöglichen so einen Einblick in die Grundwasserverhältnisse. Die Kombination aus hohen Erschließungskosten und einer verhältnismäßig geringen räumlichen Repräsentativität der Brunnen aufgrund der hydrogeologischen Heterogenität machen die Konzeption eines geeigneten Überwachungsnetzes zu einer großen Herausforderung. Diese Arbeit beschäftigt sich mit Techniken zum verbesserten Verständnis der Grundwasserdynamik durch (i) räumliche und (ii) räumliche-zeitliche Optimierung von Grundwasserstands Messnetzen und (iii) verbesserter räumlichere Vorhersage der an diesen Überwachungsbrunnen gewonnenen Daten unter Verwendung von Interpolationstechniken. Zu diesem Zweck wurde im ersten Teil dieser Arbeit eine umfassende Untersuchung der meistgenutzten deterministischen und geostatistischen, uni- und multivariaten Interpolationstechniken für die Erstellung von Grundwassergleichenplänen in einem Untersuchungsgebiet durchgeführt, das durch eine komplexe Interaktion zwischen Karst, einem alluvialen Grundwasserleiter und gering durchlässigen Schichten der alpinen Molasse gekennzeichnet ist. Die untersuchten Methoden wurden durch globale Kreuzvalidierung und öko-hydrogeologische Informationen an Karstquellen, Feuchtgebieten, Oberflächengewässern und Profilschnitten bewertet. Der mögliche Effekt der Methodenwahl auf die weitere Berechnung wurde durch Abschätzung der Austauschprozesse zwischen Karst- und Alluvialgrundwasserleiter auf Basis der geschätzten Potentialunterschiede durchgeführt. Die Ergebnisse zeigen, dass die Verfahrenswahl, insbesondere bei unzureichendem Überwachungskonzept, drastische Auswirkungen auf die nachfolgenden Berechnungen haben kann. Die Studie hat ergeben, dass geostatistische oder Kriging Interpolationsmethoden den deterministischen Interpolationsmethoden überlegen sind. Bei dürftiger Grundwasserdatenlage kann das Co-Kriging mit räumlich kreuzkorrelierten Sekundärvariablen (z. B. Höhenlage, Flusspegel), die häufiger erfasst werden, wertvolle Informationen über die Primärvariable bereitstellen und so die Varianz des Schätzfehlers verringern. Im zweiten Teil dieser Arbeit wurden räumliche Monitoringkonzepte mit unterschiedlichen Messdichten an numerisch modellierter Grundwasseroberflächen mit verschiedenen Skalen und Dynamiken untersucht. Ziel war es, Einblicke in geeignete Monitoringansatze für eine verlässliche räumliche Abschätzung des Grundwasserspiegels zu gewinnen und eine Überwachungsdichte abzuleiten, bei der ein angemessenes Information/Kosten-Verhältnis erreicht wird. Die Interpolationsergebnisse wurden mit globaler Kreuzvalidierung und dem tatsächlichen räumlichen Fehler evaluiert, der anhand der numerischen Modellflächen als A-priori-Referenz errechnet wurde. Überwachungsnetze mit einer regelmäßigen Gitteranordnung boten zwar genaueste räumliche Vorhersagen für das betrachtete Dichtespektrum, sind jedoch aufgrund ihrer Nachteile, wie der mangelnden Erweiterungsfähigkeit, tendenziell ungeeignet. Eine vergleichbar gute Leistung wurde erzielt, wenn der maximale Vorhersage-Standardfehler als Auswahlkriterium für zusätzliche Brunnen für bestehende Messnetze verwendet wurde. In dieser Studie wurde außerdem eine neuartige Optimierungsstrategie für Überwachungsnetze angewandt, die auf mathematischen Quasi-Zufallsfolgen basiert. Der Ansatz liefert ebenfalls überzeugende Ergebnisse und bietet mehrere Vorteile. Er bedarf keinerlei Vorkenntnisse über den Grundwasserleiter durch vorhandene Brunnen und es werden unabhängig von den Ausbaustufen reproduzierbare räumliche Anordnungen erzielt. Im dritten Teil wurde ein datengesteuerter Sparse-Sensing-Algorithmus-Ansatz zur Auswahl von spärlichen Sensorpositionen unter Nutzung von Techniken zur Dimensionsreduktion untersucht und für die zeitliche und räumliche Optimierung eines bestehenden Grundwasserstandsmessnetzes im Oberrheingraben adaptiert. Die Optimierung erfolgt mit einem greedy search (QR)-Algorithmus, der die Überwachungsbrunnen nach ihrem Informationsgehalt über Aquifer-Dynamik selektiert und einordnet. Als Eingangsdaten wurden langjährige Ganglinien-Aufzeichnungen verwendet, um repräsentative Messstellen oder Messstellen mit redundantem oder niedrigem Informationsgehalt zu bestimmen. Des Weiteren wurde eine Optimierung auf der Grundlage regionalisierter, wöchentlicher Grundwassergleichenkarten durchgeführt, um mögliche geeignete Standorte für zusätzliche Messstellen zu identifizieren. Die Suche wurde durch eine räumliche Kostenfunktion gelenkt, bei der weniger geeignete Standorte abgewertet wurden. Der untersuchte Ansatz hat sich als potenziell wertvolles Instrument für die Optimierung der Brunnenanzahl und deren Standorte, für die Reduzierung und den Ausbau des Netzes aber auch für eine kombinierte Nutzung beider Möglichkeiten erwiesen
    corecore