2 research outputs found

    Wissensgewinnung aus grossen Datenbasen. Seminar im Wintersemester 95/96

    Get PDF
    In den vergangenen zehn Jahren hat die Flut von Daten, die in kommerziellen Datenbanken verwaltet wird, immer staerker zugenommen. Gleichzeitig werden Datenbanken zur Unterstuetzung immer komplexerer Anwendungen eingesetzt, bei denen oft nur ein geringes Wissen ueber die Zusammenhaenge der Daten vorhanden ist. Trotz der grossen Informationsmenge ist der daraus resultierende Nutzen relativ gering und es stellt sich daher die Frage, wie weiteres nuetzliches, aber verborgenes Wissen effizient aus den existierenden Daten gewonnen werden kann. Mit diesen Fragestellungen befasst sich die Forschungsrichtung KDD (Knowledge Discovery in Databases). Fuer diesen internen Bericht wurden im Rahmen eines Seminars von den teilnehmenden Studenten verschiedene Ansaetze fuer und Einsatzmoeglichkeiten von KDD vorgestellt. Die jeweiligen Ausarbeitungen sind in diesem Bericht kapitelweise zusammengestellt. Beginnend mit einer Uebersicht ueber und Einfuehrung in KDD werden spezifische Verfahren und Ansaetze zur Wissensgewinnung vorgestellt. Abgerundet werden diese Grundlagenkapitel durch die Vorstellung zweier Anwendungen von KDD in der Praxis

    Gewinnung, Verwaltung und Anwendung von Performance-Daten zur Unterstützung des autonomen Datenbank-Tuning

    Get PDF
    In den letzten Jahrzehnten ist die Komplexität und Heterogenität von Informationssystemen rapide gestiegen. Die Folge ist, dass viele moderne IT-Systeme aufgrund ihrer heterogenen Architektur- und Applikationsvielfalt sehr kostenintensiv in der Entwicklung, fehleranfällig in der Nutzung und schwierig durch Administratoren kontrollier- bzw. konfigurierbar sind. Initiativen wie das Autonomic Computing helfen, der steigenden Komplexität Herr zu werden, indem sie den „Problemfaktor Mensch“ entlasten und Technik nutzen, um Technik zu verwalten. Durch die Anpassung bzw. Erweiterung der System-Umgebung versuchen derartige Ansätze neben derzeitiger manueller, reaktiver Performance-Optimierung, eine automatisierte reaktive und proaktive Performance-Kontrolle zu gewährleisten. Zentrale Grundvoraussetzung für eine autonome Infrastruktur ist eine verlässliche, globale Daten- bzw. Wissensbasis. Wir erarbeiten, wie Performance-Daten über das Verhalten und den Zustand des Systems mit aus dem Data-Warehousing bekannten Techniken gesammelt, konsolidiert, verwaltet und zur Laufzeit ausgewertet werden können. Neben der Architektur und den funktionalen Komponenten eines solchen Performance Data Warehouse wird zudem dessen Datenmodell erläutert und die Anbindung an das vorausgehende Monitoring sowie die nachfolgende Analyse spezifiziert. Mit dem Ziel, die menschliche Vorgehensweise „nachzuahmen“ und somit die Administratoren bei ihren Routine-Tätigkeiten zu entlasten, widmen wir uns der Konzipierung und Beschreibung einer möglichen Infrastruktur zur Automatisierung typischer Tuning-Aufgaben. Wir erarbeiten allgemein und anhand von Beispielen, wie Tuning-Wissen und bewährte Praktiken von DBAs abgebildet, in Form von Workflows formalisiert und zur Laufzeit für die Problemlösung angewendet werden können
    corecore