572 research outputs found

    Testing Homogeneity of Time-Continuous Rating Transitions

    Get PDF
    Banks could achieve substantial improvements of their portfolio credit risk assessment by estimating rating transition matrices within a time-continuous Markov model, thereby using continuous-time rating transitions provided by internal rating systems instead of discrete-time rating information. A non-parametric test for the hypothesis of time-homogeneity is developed. The alternative hypothesis is multiple structural change of transition intensities, i.e. time-varying transition probabilities. The partial-likelihood ratio for the multivariate counting process of rating transitions is shown to be asymptotically c2 -distributed. A Monte Carlo simulation finds both size and power to be adequate for our example. We analyze transitions in credit-ratings in a rating system with 8 rating states and 2743 transitions for 3699 obligors observed over seven years. The test rejects the homogeneity hypothesis at all conventional levels of significance. --Portfolio credit risk,Rating transitions,Markov model,time-homogeneity,partial likelihood

    The advanced-maximum-linkage clustering-algorithm

    Get PDF
    The advanced maximum-linkage-algorithm (AMLA) is a derivative of the maximum-linkage-algorithm (MLA) given by Zerbst (2001). AMLA produces clusterings which have a good separation between the built classes. To reach the separation, centroids were calculated, which are the basis for classification. The separation between the classes is considered large, if this is also true for the so far calculated centroids. The selection of centroids having a large distance to each other is also guaranteed using the MLA. AMLA is improved in this way that the underlying frequency structure of the data can be adapted individually to the problem under consideration. Therefore an additional parameter p∈[0,1] is introduced. The parameter gives the degree to which the frequency structure is regarded

    The Concentration centroid Minimum Distance Clustering Criterion

    Get PDF
    Building homogenous classes is one of the main goals in clustering. Homogeneity can be measured by the intra-class variance (Bock, 1998). Especially in erosion projects but in other applications as well the separation between the built classes is as important as the homogeneity of the classes. Special clustering methods can be used to reach this aim, for instance the Maximum Linkage Algorithm (Zerbst, 2001) or the Advanced Maximum Linkage Algorithm (Tschiersch, 2002). To judge the separation quality of such clusterings, the shortest distances between all centroids is considered. Zerbst (2001) shows that the arithmetic mean over all distances isn’t good enough for judging selectivity. Therefore the concentration centroid minimum distance criterion is proposed in this paper. This criterion is based on the ratio of weighted symmetric mean over the minimal distances and the Gini coefficient over the minimal distances. It also judges the class separation independent of the underlying data situation

    Strategie zur Lösung von Erosionsproblemen unter Verwendung von Luft- und Bodendaten

    Get PDF
    Erosion ist ein zentrales Problem für die Menschen. Nicht nur in südlichen Ländern, sondern auch bei uns in Mitteleuropa weitet sich die Erosion aus. Mit dieser Arbeit soll ein Beitrag dazu geleistet werden, die Erosionsausbreitung besser zu verstehen und zukünftig diese be-grenzen zu können. Im Rahmen einer SFB-Studie über 'Adapted farming' (SFB 308) wurde in der Zeit zwischen 1992 und 1994 in Sadoré, Niger, die Bodenveränderung durch Windero-sion gemessen. Die dort gesammelten Daten und die getätigten Luftaufnahmen sind die Grundlage für diese Arbeit. Wie in vielen Erosionsstudien ist die Datenqualität und -quantität im statistischen Sinne als nicht gut zu bewerten. Von daher soll anhand von simulierten Daten die Lösungsstrategie verdeutlicht werden.Die Clusterungsalgorithmen sind so konzipiert, daß sie die Bildpunkte eines im RGB-Farb-format vorliegenden Bildes clustern. Als Clusterung bezeichnet man die Einteilung einer Menge von Werten in homogene Klassen (Cluster). Die Clusterungen werden zu einem mit dem Maximum-Linkage-Algorithmus vorgenommen sowie mit der Neuentwicklung des er-weiterten Maximum Linkages. Diese beiden Verfahren werden mit neuronalen Netzen ver-glichen, die bei Clusterung ebenfalls häufig zum Einsatz kommen. Mit dem Maximum-Linkage-Algorithmus werden einzelne Farbwerte des Luftbildes aus der Menge aller Farb-werte (des Bildes) ausgewählt. Diese gewonnenen Farbwerte werden als Zentroide bezeich-net. Dabei sind die Zentroide so konzipiert, daß der euklidische Abstand zwischen ihnen möglichst groß ist. Zu diesen Zentroiden werden die verbliebenen Farbwerte klassifiziert. Das Maximum-Linkage-Verfahren zeichnet sich durch seine hohe Trennschärfe zwischen den Clustern aus. Zudem ist die Rechenzeit im Vergleich zu herkömmlichen Clusteralgorithmen die auf dem k-Mittelwert-Verfahren beruhen deutlich reduziert. Das erweiterte Maximum Linkage berücksichtigt zudem noch die Häufigkeitsverteilung der Farbwerte. Mittels eines vom Anwender zu spezifizierenden Parameters kann die Häufigkeit mehr oder weniger stark einfließen. Die Berücksichtigung der Häufigkeit dient dazu, die Farben die oft vorkommen auch ein größeres Gewicht im Bezug auf die Zentroidberechnung zu verleihen. Gleichzeitig werden aber die in der Erosionsforschung wichtigen seltenen Elemente nicht außer Acht ge-lassen. So kann beispielsweise eine Mauer in der Wüste oder aber ein großer Ast die Aus-breitung der Erosion deutlich verlangsamen. Diese seltenen Elemente werden von der her-kömmlichen Verfahren (k-Mittelwert-Verfahren) zu großen Clustern klassifiziert, so daß sie für eine spätere Interpretation nicht mehr zur Verfügung stehen. Da diese neuen Algorithmen von keinem bekannten Programm unterstützt werden, ist ein Computerprogramm entwickelt worden. Das als Picana bezeichnete Programm vereint nicht nur die Maximum-Linkage-Algo-rithmen, sondern auch neuronale Netze. Ein neuronales Netz besteht aus verschiedenen Schichten die jeweils eine vorgegebene Anzahl an Elementen (Neuronen) enthält. Diese Neu-ronen sind miteinander verbunden. Die Verbindung zwischen den Neuronen wird über ver-änderbare Gewichte gesteuert. In einer sogenannten Lernphase werden die Gewichte in Ab-hängigkeit von der Netzeingabe verändert. Dabei wird die Netzstruktur an die Daten ange-paßt. Man spricht in diesem Zusammenhang von Lernen. Die Gewichte der Netzes dienen nach Abschluß der Lernphase als Zentroide. Die in Picana implementierten Netze sind aus-schließlich neuronale Netze die unüberwacht lernen. Insbesondere sind da die selbstorganisie-renden Karten nach Teuvo Kohonen zu nennen. Neben den klassischen Varianten dieser Netze, sind zudem selbstangepaßte neuronale Netze implementiert worden, die die Laufzeit im Bezug auf die Standardumsetzung deutlich reduzieren. Dazu wurden spezielle Lernraten und Nachbarschaftsfunktionen verwendet worden. Die Clusterungen die mit neuronalen Netzen gewonnen werden, haben allerdings eine nicht ganz so gute Trennschärfe zwischen den Clustern wie die Linkage-Verfahren. Sind die verschiedenen Clusterungen berechnet worden, muß die Güte bestimmt werden. Wie erwähnt sind die Cluster so gebildet, daß sie möglichst homogen sind. Die Homogenität kann mit einem Kriterium überprüft werden. Hier bietet sich die Intra-Class-Varianz an. Ein kleiner Wert für die Intra-Class-Varianz deutet auf einen gute Clusterung im Sinne des Kriteriums hin. Für den vorliegenden Kontext der Erosionsuntersuchung ist dieses Kriterium nicht hin-reichend. Hier werden viel mehr Cluster benötigt, die sich deutlich voneinander trennen lassen. Dazu werden zwei weitere Kriterien vorgestellt, die die Trennschärfe zwischen den Clustern beurteilen. Diese Kriterien sind das neu entwickelte Kriterium der mittleren Mini-maldistanz sowie eine gewichtete Variante davon.Zu den Clusterungen der Luftbilder kommt die Auswertung von bodenkundlichen Beobach-tungen. Die Messungen der Bodenveränderung werden in einem Zustandsraummodell modelliert. Dazu wurden die Daten mittels des bekannten statistsichen Programmpaktes SAS ausgewertet. In dieses Modell sollen auch die Ergebnisse der Clusterung mit einfließen, um das Modell zu verbessern. Die schlußendlliche Zusammenführung steht dabei noch aus. Die hier vorgestellten Ergebnisse der Modellierung sollen vielmehr nur den Weg aufzeigen, wie eine Kombination von Luft- und Bodendaten vorgenommen werden kann.Das erwähnte Programm Picana ist ein wesentlicher Bestandteil der Arbeit. Das in C++ und Java verfaßte Programm wird bereits anderweitig im Rahmen von Erossionsuntersuchungen benutzt. Neben dem Remote Sensing Laboratory des Institut des Regions Arides, Medenine/Tunesien, wird es vor allem vom Fachbereich für Landwirtschaft, internationale Agrarentwicklung und ökologische Umweltsicherung an der Universität Gesamthochschule Kassel eingesetzt. Dort wird anhand dieses Programms bisher schwer interpretierbares Bild-material untersucht. Einige Vorschläge zur Verbesserung sind bereits in die aktuelle Version des Programms eingeflossen. Bei einer gerade begonnen Studie in China werden die Daten jetzt speziell für die verwendeten Clusterverfahren erhoben. Im Zuge dessen, soll die Studie auch so angelegt werden, daß die Datenqualität sich grundlegend verbessert.Im Rahmen dieser Arbeit sind zwei Diplomarbeitsthemen entstanden. Eine Arbeit am Fachbe-reich Statistik beschäftigt sich mit dem Einfluß der Gewichtungsparameters beim erweiterten Maximum-Linkage-Verfahren. Die andere Arbeit am Fachbereich Informatik setzt sich mit der weiteren Verbesserung der Implementierung der Algorithmen auseinander. Es soll unter-sucht werden, ob und wie sich die Laufzeit erneut reduzieren läßt und ob ggf. eine Paral-lelisierung des Maximum-Linkage-Algorithmus möglich ist

    Clustering algorithms for aerial photographs and high resolution satellite images

    Get PDF
    This work, and specially, the use of clustering algorithms was motivated by the need to perform a field-study with erosion data from arid areas. Using data obtained from analyzing erosion, land degradation and desertification phenomena will show some limitations. If only terrestrial observations are considered. Specially, if we are interested in, for instance, forecasting problems of erosion spread. An improvement of the data is possible, if aerial photographs and recent high resolution satellite images are additionally taken into account. The uprising problem with such images is that they contain a huge amount of information, and standard processing algorithms are, in most cases, unable to answer the analyst needs. In order to solve these problems, a compression and suitable selection of the underlying information is needed. Although the development of computer has reached a stage that enables the handling with huge data-sets, considerations concering time complexity are still relevant. In this paper, we present the developed algorithms and discuss possible improvements to attein our aim in performing a classification within a suitable computational time. In section 2, we describe algorithms, such as ISODATA and PHASE, that are based on the classical k-means algorithm. Section 3 describes two ways of finding a set of good starting seeds (centroids) for classification with an adapted method from the known single linkage and the Kohonen networks, as well. Section 4 presents the application of the methods from section 3 to aerial photographs and high resolution satellite images
    corecore