6 research outputs found

    Intertemporal Similarity of Economic Time Series

    Get PDF
    This paper adapts the non-parametric Dynamic Time Warping (DTW) technique in an application to examine the temporal alignment and similarity across economic time series. DTW has important advantages over existing measures in economics as it alleviates concerns regarding a pre-defined fixed temporal alignment of series. For example, in contrast to current methods, DTW can capture alternations between leading and lagging relationships of series. We illustrate DTW in a study of US states’ business cycles around the Great Recession, and find considerable evidence that temporal alignments across states dynamic. Trough cluster analysis, we further document state-varying recoveries from the recession

    The ensemble distance on model-based clustering for regions clustering based on rainfall: The case of rainfall in West Java Indonesia

    Get PDF
    Time series data clusters are being researched thoroughly. The distance metric drives the development of the clustering time series. The ARIMA model is one of the models that can be employed in model-based clustering, although differing model selection criteria can lead to uncertainty in the model. In this investigation, we created a technique for ensemble distance-based time series data clustering. To express the distance between two series, five distances based on the five model selection criteria are utilized. The average of the five distances reflects the distance of two time series data. According to the simulation results, the ensemble distance method could boost clustering accuracy by more than 11%. Based on the pattern of rainfall levels, we applied our methods to find clusters of locations in the Province of West Java (Indonesia). The findings indicate that the rainfall pattern in the same cluster is similar. The cluster model is effective and feasible for representing individual models in a cluster

    Time-series representation framework based on multi-instance similarity measures

    Get PDF
    Time series analysis plays an essential role in today’s society due to the ease of access to information. This analysis is present in the majority of applications that involve sensors, but in recent years thanks to technological advancement, this approach has been directed towards the treatment of complex signals that lack periodicity and even that present non-stationary dynamics such as signals of brain activity or magnetic and satellite resonance images. The main challenges at the time of time series analysis are focused on the representation of the same, for which methodologies based on similarity measures have been proposed. However, these approaches are oriented to the measurement of local patterns point-to-point in the signals using metrics based on the form. Besides, the selection of relevant information from the representations is of high importance, in order to eliminate noise and train classifiers with discriminant information for the analysis tasks, however, this selection is usually made at the level of characteristics, leaving aside the Global signal information. In the same way, lately, there have been applications in which it is necessary to analyze time series from different sources of information or multimodal, for which there are methods that generate acceptable performance but lack interpretability. In this regard, we propose a framework based on representations of similarity and multiple-instance learning that allows selecting relevant information for classification tasks in order to improve the performance and interpretability of the modelsResumen: El análisis de series de tiempo juega un papel importante en la sociedad actual debido a la facilidad de acceso a la información. Este análisis está presente en la mayoría de aplicaciones que involucran sensores, pero en los ´últimos años gracias al avance tecnológico, este enfoque se ha encaminado hacia el tratamiento de señales complejas que carecen de periodicidad e incluso que presentan dinámicas no estacionarias como lo son las señales de actividad cerebral o las imágenes de resonancias magnéticas y satelitales. Los principales retos a la hora de realizar en análisis de series de tiempo se centran en la representación de las mismas, para lo cual se han propuesto metodologías basadas en medidas de similitud, sin embargo, estos enfoques están orientados a la medición de patrones locales punto a punto en las señales utilizando métricas basadas en la forma. Además, es de alta importancia la selección de información relevante de las representaciones, con el fin de eliminar el ruido y entrenar clasificadores con información discriminante para las tareas de análisis, sin embargo, esta selección se suele hacer a nivel de características, dejando de lado la información de global de la señal. De la misma manera, ´últimamente han surgido aplicaciones en las cuales es necesario el análisis de series de tiempo provenientes de diferentes fuentes de información o multimodales, para lo cual existen métodos que generan un rendimiento aceptable, pero carecen de interpretabilidad. En este sentido, en nosotros proponemos un marco de trabajo basado en representaciones de similitud y aprendizaje de múltiples instancias que permita seleccionar información relevante para tareas de clasificación con el fin de mejorar el rendimiento y la interpretabilidad de los modelosMaestrí

    Advanced adaptive library for gamma-ray spectrometers

    Get PDF
    The thesis introduces an algorithm to generate customized libraries for automated radio-isotope identifiers using peak searching and library comparison methods. The algorithm has the adaptive feature that could incorporate response curves, such as efficiency-energy curves and full width at half maximum (FWHM)-energy curves, of the detector into the generation process of the library in order to make the generated library to be the best fit for that detector. The suggested algorithm efficiently generates a library that includes centroids and area information of peaks observed in an isotopes’ γ-ray spectrum. The generated centroids are good estimates of the observed peak locations in the γ-ray spectrum and the generated relative area could be taken as reference for the subsequent identification algorithm

    Entwicklung einer populations-basierten Validierungsmethodik für FE-Menschmodelle

    Get PDF
    Virtuelle FE-Menschmodelle finden heutzutage ihren Einsatz vor allem in der frühen Phase im Fahrzeugentwicklungsprozess zur verletzungsmechanischen Bewertung und Untersuchung von Sicherheitsfunktionen, um die existierenden numerischen Crashtest-Dummys zu ergänzen und zukünftig teilweise zu ersetzen. FE-Menschmodelle werden u.a. gegen Bewegungsmessungen mit Freiwilligen oder Versuche mit postmortalen Testobjekten validiert, um ein menschenähnliches Verhalten dieser Modelle, auch Biofidelität genannt, sicherzustellen. FE-Menschmodelle sind, im Gegensatz zu Crashtest-Dummys, grundsätzlich veränderbar. Mit Verwendung von mesh-morphing Algorithmen oder parametrisierten Modellen kann die Geometrie von FE-Menschmodellen variiert werden. Zudem können auch Beschreibungen der Gewebeeigenschaften verändert werden. Die Veränderung von FE-Menschmodellen ermöglicht beispielsweise die Untersuchung von Populationen mit bestimmten Eigenschaften. Dabei muss jedoch beachtet werden, dass die Modelle mit der Veränderung ihren validierten Bereich verlassen. Um zukünftig den Einsatz stochastischer Simulationen mit FE-Menschmodellen zu ermöglichen, muss Vertrauen in numerische Modell¬vorhersagen generiert werden, welche nicht direkt mit den experimentellen Testproben eines Validierungsexperimentes übereinstimmen. Im Rahmen dieser Arbeit wird daher die wissenschaftliche Fragestellung bearbeitet, wie numerische Vorhersagen von Modellen, welche von experimentellen Testproben abweichende charakteristische Eigenschaften aufweisen, validiert werden können. Insbesondere liegt der Fokus auf der Erarbeitung eines Validierungskonzeptes, mit dem die Modellvorhersagen einer gesamten numerischen Population in einem Prozess mit den Ergebnissen eines Validierungsexperimentes verglichen werden können, ohne die einzelnen Kurven detailliert zu untersuchen. Zu Beginn wird ein Validierungsexperiment aus der Literatur auf lokaler Ebene, ein dynamischer 3-Punkt-Biegeversuch des Femurs, als Referenzlastfall ausgewählt und ein numerisches Abbild des experimentellen Versuchsaufbaus entwickelt. Dieses numerische Abbild des Referenzlastfalls wird als Voraussetzung für die folgenden Schritte detailliert validiert und dient im weiteren Verlauf der Arbeit dazu, das populationsbasierte Validierungskonzept zu testen. Da die genaue numerische Abbildung experimenteller Lasten und Randbedingungen bei derartigen Versuchen bis dato eine große Herausforderung darstellt, wird eine umfassende Sensitivitätsanalyse zu den wichtigsten Parametern durchgeführt. Auf dieser Basis kann das numerische Abbild des Referenzlastfalls für die nachfolgenden Schritte qualifiziert werden. Die Sensitivitätsanalysen fokussieren sich auf die Parameter zur Geometrie- und Massendefinition der Auflager, Parameter zur Materialcharakterisierung des Schaumes um den Impaktor, der Knochenpositionierung, sowie der Positionierung der Auflager relativ zum Knochen und zu dem Impaktor. Die Masse der Auflager hat den größten Einfluss auf die Kurvenform des experimentellen Ergebnisses. Daneben kann im Rahmen der detaillierten Analyse des Experiments auch eine Ausgangsbasis für die Verwendung von Femora-Modellen geschaffen werden. Danach folgt eine Eignungsprüfung von mathematischen Clusteranalyseverfahren und internen Validierungsindizes für den vergleichenden Bewertungsprozess numerischer und experimenteller Ergebnisse. Untersucht werden dabei die Möglichkeiten der objektiven Bestimmung einer geeigneten Clusteranzahl nach der Clusteranalyse für die Anwendung an biomechanischen Datensätzen. Diese Eignungsprüfung wird an vereinfachten Testdatensätzen mit einer geringen Kurvenanzahl durchgeführt, welche charakteristische Eigenschaften verletzungsmechanischer Datensätze beinhalten. Es werden nur hierarchische Fusionierungsalgorithmen der Eignungsprüfung unterzogen. Die geeigneten Kombinationen aus Clusteranalyseverfahren und internen Validierungsindizes werden in dem populationsbasierten Validierungskonzept verwendet, um die kombinierten Populations-ergebnisse, bestehend aus der numerischen und der experimentellen Kurvenschar, zu vergleichen. Das populationsbasierte Validierungskonzept verwendet das Ergebnis der Clusteranalyse, um die Güte der numerischen Modellvorhersagen quantitativ zu bewerten. Im letzten Schritt wird das populationsbasierte Validierungskonzept an dem numerischen Abbild des Referenzlastfalls getestet. Es wird eine numerische Testpopulation an Femora erstellt. Für diese Population werden die Modellvorhersagen mit dem validierten numerischen Versuchsaufbau des Referenzlastfalls generiert. Die Geometrie der numerischen Femora basiert auf postmortaler Bildgebung (CT) und die Gewebeeigenschaften basieren auf veröffentlichten Werten aus der Literatur. Die numerischen Modellvorhersagen und die publizierten experimentellen Ergebnisse des Referenzlastfalls werden in einen Datensatz zusammengeführt. Durch die Verringerung der Kurvenanzahl dieses Datensatzes wird ein zweiter Datensatz artifiziell generiert, welcher eine abweichende Struktur mit natürlichen Gruppierungen aufweist. An diesen beiden Testdatensätzen wird die populationsbasierte Validierungsmethode abschließend getestet. Mit der Hilfe von Clusteranalyseverfahren können komplexe Datensätze in eine überschaubare Anzahl an Gruppen aufgeteilt werden. Kurven aus einer Gruppe weisen nur leichte Unterschiede in den Kurvenformen und weiterer knochenspezifischer Parameter, wie z.B. der Biegeresistenz des Knochens, auf. Die resultierenden Gruppen aus einer Clusteranalyse werden in der populationsbasierten Validierungsmethode einzeln analysiert und gegeneinander verglichen. Damit das Ergebnis einer Clusteranalyse an einem biomechanischen Datensatz erfolgreich in der populationsbasierten Validierungsmethode verwendet werden kann, muss sichergestellt werden, dass die numerischen Kurvenformen detailliert mit den experimentellen Kurvenformen übereinstimmen. Wenn signifikante Unterschiede zwischen den experimentellen und den numerischen Kurvenformen existieren würden, würde ein Clusteranalyseprozess die experimentellen und die numerischen Kurven voneinander trennen. In diesem Fall ist keine Bestimmung der Validierungsgüte mit dem populationsbasierten Validierungsprozess möglich. Größere Unterschiede in den Kurvenformen, wie z.B. auftretende Schwingungen, können daher zur Beeinträchtigung der Anwendbarkeit eines solchen Ansatzes führen. Das Validierungskonzept wird in dieser Arbeit mit Testdatensätzen, die eine geringe Kurvenanzahl enthalten, getestet. Diese geringe Kurvenanzahl in den Testdatensätzen ist bewusst gewählt, damit der Validierungsprozess visuell überprüft werden kann. Abschließend wird empfohlen, zukünftige Anstrengungen auf die Automatisierung des populationsbasierten Validierungsprozesses zu legen, um die Analyse von komplexeren und undurchsichtigen Datensätzen zu ermöglichen.Nowadays, numerical FE human body models are mainly used to biomechanically assess and investigate safety features during the early stage in a vehicle development process, complementing or in future partly replacing the existing numerical crash test dummies. FE human body models are validated against experimental test results from biomechanical experiments, performed with volunteers or postmortem human subjects, to create and ensure a human-like behavior of these models, which is also called biofidelity. In contrast to crash test dummies, FE human body models can in principle be modified. The geometry of FE human body models can be modified by using mesh-morphing algorithms or parametrized models. Additionally, the material characterization of tissues can be modified. The modification of FE human body models enables for instance the investigation of populations with certain characteristics. However, one has to keep in mind that the models leave with their modification the validated area where they were intended to be used. To enable the usage of stochastic numerical simulations with FE human body models in the future, one has to create trust in numerical model predictions, which are not directly comparable to the experimental test objects of a validation experiment. In the scope of this thesis, the investigated scientific research question is therefore, how the predictions of numerical models, with differing characteristic properties to the experimental test objects can be validated. In particular, the focus lies on the elaboration of a validation concept by which the model predictions of a whole numerical population can be compared to the results of a validation experiment in one process, without investigating the single curves in detail. First, a validation experiment on a local level, a dynamic 3-point bending test of a femur, is selected as the reference load case from literature. A numerical replicate is then created of the experimental test setup. This numerical replicate of the reference load case is the basis to test the population based validation concept in the further course of this thesis and is therefore thoroughly validated. Up to now, one major challenge in the numerical replication of such experimental tests is the exact numerical replication of the experimental loads and boundary conditions. Therefore, a comprehensive sensitivity analysis regarding the most important parameters is performed. This establishes the basis for qualifying the numerical replicate of the reference load case to be used in following steps. The sensitivity analyses focuses on parameters to characterize the geometry and mass definition of the roller supports, the parameters to characterize the foam material around the impactor, the positioning of the bone, as well as the positioning of the roller supports relative to the bone and the impactor. The mass of the roller support has the biggest influence on the curve form of the experimental test result. Besides, in the context of the detailed analysis of the experiments a starting point for the usage of femora models is created. Then, a qualifying examination of mathematical cluster analysis methods and internal validation indices for the comparative evaluation process of numerical and experimental results is performed. The possibilities of objective determination of a suitable number of clusters after the cluster analysis for the application to biomechanical data sets are examined. This qualifying examination is performed on simplified test datasets containing a small amount of curves and representing characteristic properties of biomechanical datasets. Furthermore, only hierarchical fusion algorithms are subjected to the qualifying examination. The suitable combinations of cluster analysis method and internal validation indices are used in the population based validation concept to compare the combined population results, consisting of the numerical and the experimental set of curves. The population based validation concept uses the result of the cluster analysis to examine the quality of the numerical model predictions quantita-tively. In the last step, the population based validation concept is tested on the numerical replication of the reference load case. A numerical test population of femora is created. The numerical model predictions are created for this test population with the validated numerical test setup of the ref-erence load case. The geometry of the numerical femora is based on postmortem imaging (CT) and the tissue properties are based on published values from literature. The numerical model predic-tions and the published experimental test results of the reference load case are combined to one dataset. A second dataset is artificially created by reducing the amount of curves of the combined dataset, which shows a differing structure incorporating natural grouping of curves. Finally, the population based validation method is tested on both test datasets. Complex datasets can be split up in a manageable number of groups by using cluster analysis methods. Curves within one group only differ slightly regarding their curve forms and further bone specific parameters, as for instance the bending resistance of the bone. In the population based validation method, the resulting groups from a cluster analysis are analyzed on their own and compared to each other. In order to successfully use the result of a cluster analysis of a biomechanical dataset in the population based validation method, it has to be ensured that the numerical curve forms match detailed to the experimental ones. If significant differences between the experimental and the numerical curve forms were present, the cluster analysis process would separate the experimental curves from the numerical ones. In this case, it would not be possible to determine the quality of the validation with the population based validation process. Significant differences in curve forms, as e.g. occurring vibrations, can impair the applicability of such an approach. The validation concept is tested with test datasets incorporating a small amount of curves. This small amount of curves is chosen on purpose to enable a visual verification of the validation process. In conclusion, it is recommended to put future effort in the automation of the population based validation process to enable the analysis of complex and obscure datasets
    corecore