9 research outputs found
Ein verbandstheoretisches Modell zu Kreditausfallwahrscheinlichkeiten
Die Quantifizierung der Kreditrisiken und daraus resultierend die Mindesteigenkapitalanforderungen stellen im Bankenbereich eine zentrale Aufgabe dar. Aus Sicht von Basel II lassen sich durch adäquate Risikomessverfahren verringerte Eigenkapitalanforderungen erzielen. Wir stellen in der vorliegenden Arbeit ein Modell zur Ermittlung von Kreditausfallwahrscheinlichkeiten und zur Klassifikation von Darlehen vor. Die Modellierung basiert auf einem verbandstheoretischen Ansatz, der die Struktur in den verschiedenen Ausgangsklassen analysiert und es ermöglicht, aus diesen Strukturen ein interpretierbares Regelwerk zu erstellen. Diese Vorgehensweise liefert zudem eine natürliche Zerlegung des Darlehensbestandes in verschiedene Bonitätsklassen, wie sie bei Verwendung von internen Ratingverfahren aufsichtlich gefordert wird. Anhand von empirischen Wahrscheinlichkeiten, die aus realen Kollektivdaten ermittelt wurden, können die entstandenen Bonitätsklassen bewertet werden. Zur Validierung des Gesamtmodells wird die Problemstellung mit bekannten Klassifikationsverfahren bearbeitet und die Ergebnisse mit denen des verbandstheoretischen Implikationenmodells verglichen. Zudem wird die Generalisierungsfähigkeit aller untersuchten Modelle überprüft, indem die Ergebnisse auf ein zusätzliches reales Darlehenskollektiv übertragen werden. In einem letzten Schritt wird das verbandstheoretische Implikationenmodell auf weitere bauspartechnische Fragestellungen angewendet
Ein verbandstheoretisches Modell zu Kreditausfallwahrscheinlichkeiten
Die Quantifizierung der Kreditrisiken und daraus resultierend die Mindesteigenkapitalanforderungen stellen im Bankenbereich eine zentrale Aufgabe dar. Aus Sicht von Basel II lassen sich durch adäquate Risikomessverfahren verringerte Eigenkapitalanforderungen erzielen. Wir stellen in der vorliegenden Arbeit ein Modell zur Ermittlung von Kreditausfallwahrscheinlichkeiten und zur Klassifikation von Darlehen vor. Die Modellierung basiert auf einem verbandstheoretischen Ansatz, der die Struktur in den verschiedenen Ausgangsklassen analysiert und es ermöglicht, aus diesen Strukturen ein interpretierbares Regelwerk zu erstellen. Diese Vorgehensweise liefert zudem eine natürliche Zerlegung des Darlehensbestandes in verschiedene Bonitätsklassen, wie sie bei Verwendung von internen Ratingverfahren aufsichtlich gefordert wird. Anhand von empirischen Wahrscheinlichkeiten, die aus realen Kollektivdaten ermittelt wurden, können die entstandenen Bonitätsklassen bewertet werden. Zur Validierung des Gesamtmodells wird die Problemstellung mit bekannten Klassifikationsverfahren bearbeitet und die Ergebnisse mit denen des verbandstheoretischen Implikationenmodells verglichen. Zudem wird die Generalisierungsfähigkeit aller untersuchten Modelle überprüft, indem die Ergebnisse auf ein zusätzliches reales Darlehenskollektiv übertragen werden. In einem letzten Schritt wird das verbandstheoretische Implikationenmodell auf weitere bauspartechnische Fragestellungen angewendet
Algorithmen zur Begriffsanalyse und ihre Anwendung bei Softwarebibliotheken
Formale Begriffsanalyse ist eine algebraische Theorie über binäre Relationen und zu ihnen in enger Verbindung stehende vollständige Verbände. Diese Arbeit präsentiert Algorithmen und Datenstrukturen zur Berechnung von Begriffen und ihrer Verbandsstruktur. Da die Anzahl der Begriffe im ungünstigsten Fall exponentiell mit der Größe der Relation ansteigen kann, wurde der Komplexität der Algorithmen besondere Aufmerksamkeit geschenkt. Sowohl die Laufzeit der Algorithmen, als auch die tatsächliche Größe von Begriffsverbänden wurde durch eine Vielzahl von Experimenten untersucht. Sie zeigen, daß für praktische Anwendungen die Laufzeit der Algorithmen und die Größe der Verbände nur quadratisch von der Größe der Relation abhängt. Als Anwendung der Begriffsanalyse wird die Organisation einer Bibliothek wiederverwendbarer Software-Komponenten vorgeschlagen. Softwarewiederverwendung zielt auf eine Steigerung der Software-Qualität und der Produktivität bei ihrer Erstellung. Die vorgeschlagene Methode vereinigt eine leichte Wartbarkeit der Komponentensammlung mit einer starken Unterstützung für den Anwender bei der Suche nach Komponenten. Das Werkzeug zur Suche verwendet als Datenstruktur den Begriffsverband, der einmalig für eine Sammlung berechnet wird. Der Verband enthält im Wesentlichen alle Entscheidungsmöglichkeiten eines Anwenders bei der Suche nach Komponenten und unterstützt die effiziente Bearbeitung einer Anfrage. Zusätzlich kann mit Hilfe des Verbandes die Qualität der Indexierung von Softwarekomponenten beurteilt werden.Formal concept analysis is an algebraic theory concerning binary relations and closely related complete lattices of so-called concepts. This thesis presents algorithms and data structures to compute concepts and their lattice structure. Since, in the worst case, the number of concepts can grow exponentially with the size of a relation, the complexity of algorithms was given special attention. The speed of algorithms as well as the actual size of concept lattices was tested with a large number of test cases. They show that for practical applications the performance of algorithms and the number of concepts depends only quadratically on the size of the relation. As an application for concept analysis the organization of a library of re-usable software components is proposed. Component based software reuse aims to raise software quality and development productivity by re-using already successfully developed components. The proposed method combines good maintainability of the component library with strong navigation support for the user. The search tool uses the concept lattice as a data structure that is computed once for the library. The lattice essentially contains all decisions a user can take while searching for a component and thus supports efficient searching. Additionally the lattice permits reasoning about the quality of the indexing method used on the components
Ein verbandstheoretisches Modell zur Prognose von Kreditausfallwahrscheinlichkeiten
Die Quantifzierung der Kreditrisiken und daraus resultierend die Mindesteigenkapitalanforderungen stellen im Bankenbereich eine zentrale Aufgabe dar. Aus Sicht von Basel II lassen sich durch adaequate Risikomessverfahren verringerte Eigenkapitalanforderungen erzielen. Wir stellen in der vorliegenden Arbeit ein Modell zur Ermittlung von Kreditausfallwahrscheinlichkeiten und zur Klassifikation von Darlehen vor. Die Modellierung basiert auf einem verbandstheoretischen Ansatz, der die Struktur in den verschiedenen Ausgangsklassen analysiert und es ermoeglicht, aus diesen Strukturen ein interpretierbares Regelwerk zu erstellen. Diese Vorgehensweise liefert zudem eine natuerliche Zerlegung des Darlehensbestandes in verschiedene Bonitaetsklassen, wie sie bei Verwendung von internen Ratingverfahren aufsichtlich gefordert wird. Anhand von empirischen Wahrscheinlichkeiten, die aus realen Kollektivdaten ermittelt wurden, koennen die entstandenen Bonitaetsklassen bewertet werden. Zur Validierung des Gesamtmodells wird die Problemstellung mit bekannten Klassifikationsverfahren bearbeitet und die Ergebnisse mit denen des verbandstheoretischen Implikationenmodells verglichen. Zudem wird die Generalisierungsfaehigkeit aller untersuchten Modelle ueberprueft, indem die Ergebnisse auf ein zusaetzliches reales Darlehenskollektiv uebertragen werden. In einem letzten Schritt wird das verbandstheoretische Implikationenmodell auf weitere bauspartechnische Fragestellungen angewendet
KABA - ein System für Refactoring von Java-Programmen
Refactoring is a well known technique to enhance various aspects of an object-oriented program. It has become very popular during recent years, as it allows to overcome deficits present in many programs. Doing refactoring by hand is almost impossible due to the size and complexity of modern software systems. Automated tools provide support for the application of refactorings, but do not give hints, which refactorings to apply and why. The Snelting/Tip analysis is a program analysis, which creates a refactoring proposal for a class hierarchy by analyzing how class members are used inside a program. KABA is an adaption and extension of the Snelting/Tip analysis for Java. It has been implemented and expanded to become a semantic preserving, interactive refactoring system. Case studies of real world programs will show the usefulness of the system and its practical value
Document management and retrieval for specialised domains : an evolutionary user-based approach
Browsing marked-up documents by traversing hyperlinks has become probably the most
important means by which documents are accessed, both via the World Wide Web (WWW) and
organisational Intranets. However, there is a pressing demand for document management and
retrieval systems to deal appropriately with the massive number of documents available. There
are two classes of solution: general search engines, whether for the WWW or an Intranet, which
make little use of specific domain knowledge or hand-crafted specialised systems which are
costly to build and maintain.
The aim of this thesis was to develop a document management and retrieval system suitable for
small communities as well as individuals in specialised domains on the Web. The aim was to
allow users to easily create and maintain their own organisation of documents while ensuring
continual improvement in the retrieval performance of the system as it evolves. The system
developed is based on the free annotation of documents by users and is browsed using the
concept lattice of Formal Concept Analysis (FCA). A number of annotation support tools were
developed to aid the annotation process so that a suitable system evolved. Experiments were
conducted in using the system to assist in finding staff and student home pages at the School of
Computer Science and Engineering, University of New South Wales.
Results indicated that the annotation tools provided a good level of assistance so that documents
were easily organised and a lattice-based browsing structure that evolves in an ad hoc fashion
provided good efficiency in retrieval performance. An interesting result suggested that although
an established external taxonomy can be useful in proposing annotation terms, users appear to
be very selective in their use of terms proposed. Results also supported the hypothesis that the
concept lattice of FCA helped take users beyond a narrow search to find other useful
documents. In general, lattice-based browsing was considered as a more helpful method than
Boolean queries or hierarchical browsing for searching a specialised domain.
We conclude that the concept lattice of Formal Concept Analysis, supported by annotation
techniques is a useful way of supporting the flexible open management of documents required
by individuals, small communities and in specialised domains. It seems likely that this approach
can be readily integrated with other developments such as further improvements in search
engines and the use of semantically marked-up documents, and provide a unique advantage in
supporting autonomous management of documents by individuals and groups - in a way that is
closely aligned with the autonomy of the WWW