65 research outputs found
Das Phänomen des zyklischen Siebens nichtkreuzender Partitionen
Es wird das Phänomen des zyklischen Siebens erklärt und es wird bewiesen, dass W-nichtkreuzende Partitionen dieses erfüllen
Kodierung von Gaußmaßen
Es sei ein Gaußmaß auf der Borelschen -Algebra des separablen Banachraums . Für gelte . Wir untersuchen den mittleren Fehler, der bei Kodierung von respektive mit Punkten entsteht, und bestimmen untere und obere Abschätzungen für die Asymptotik () dieses Fehlers. Hierbei betrachten wir zu Gütekriterien wie folgt: Deterministische Kodierung Zufällige Kodierung Die seien hierbei i.i.d., unabhängig von , und nach verteilt. Das Infimum wird über alle Wahrscheinlichkeitsmaße gebildet. Für das Gütekriterium wird ausgehend von der Definition von nicht optimal, sondern gewählt. Das Gütekriterium ergibt sich aus der Quellkodierungstheorie nach Shannon. Es gilt Wir stellen folgenden Zusammenhang zwischen der Asymptotik von und den logarithmischen kleinen Abweichungen von her: Es gebe und mit psi(varepsilon) := -log P{X1.Let be a Gaussian measure on the Borel -algebra of the separable Banach space . Let with . We investigate the average error in coding resp. with points and obtain lower and upper bounds for the error asymptotics (). We consider, given , fidelity criterions as follows: Deterministic Coding Random Coding The above are i.i.d., independent of , and distributed according to . The infimum is taken with respect to all probability measures . For the fidelity criterion , starting from the definition of , is not chosen optimal, but as . The fidelity criterion is given according to the source coding theory of Shannon. The fidelity criterions are connected through We obtain the following connection between the asymptotics of and the den logarithmic small deviations of : Let and with psi(varepsilon) := -log P{X1
Klassifikation mittels adaptiver Partitionierung
Diese Arbeit behandelt maschinelles Lernen und führt dabei von theoretischen Überlegungen zu Implementierungen, sowie deren Vergleich mit typischen Verfahren aus der Praxis. Nach einer kurzen Einführung in das Thema maschinelles Lernen wird der Hauptaugenmerk auf die binäre Klassifikation gelenkt. Dabei werden aufbauend auf der Wahrscheinlichkeitstheorie wichtige Begriffe wie Regressionsfunktion, Klassifikator, Bayes’scher Klassifikator, Risiko und zusätzliches Risiko eingeführt und auf deren Wechselwirkungen eingegangen. Das Ziel ist dann bei unbekannter Verteilung, anhand eines durch diese Verteilung entstanden Beobachtungsdatensatzes, einen Klassifikator zu finden, der das zusätzliche Risiko minimiert. Da die Verteilung unbekannt ist, kann man das zusätzliche Risiko nicht direkt berechnen und versucht es durch Aufspaltung in Schätz- und Näherungsfehler nach oben abzuschätzen. Das führt zur VC Dimension und einem Objekt, welches als Modulus bezeichnet wird. Unter gewissen Zusatzannahmen an die Verteilung, wie Randbedingungen und Zugehörigkeit zu einer Approximationsklasse, lässt sich dann die Abschätzung der Fehler bewerkstelligen. Jedoch sind die Parameter in diesen Bedingungen nicht bekannt und es stellt sich die Frage, wie man trotzdem eine möglichst günstige Abschätzung erhält. Das führt zu einer speziellen Modellwahl, die für den ausgewählten Klassifikator eine ebenso gute Schranke liefert, wie wenn man die Wahl unter Kenntnis der unbekannten Parameter treffen würde. Dieses Wissen wird dann auf dyadische Bäume und deren Partitionierungen angewendet. Darauf aufbauend wird ein Baumalgorithmus implementiert, der diese Modellauswahl benutzt und zusätzlich ein Vergleichsalgorithmus der ebenfalls dyadische Bäume gebraucht. Anschließend folgt eine Einführung in typische praxisrelevante Methoden zur Klassifizierung und der Vergleich mit den implementierten Verfahren mittels der Programmiersprache und Softwareumgebung für statistische Berechnungen R. Dabei liefern meist mehrere der gewöhnlicherweise verwendeten Verfahren sehr gute Ergebnisse. Außerdem zeigt sich, dass die dyadischen Bäume für niedrigdimensionale Probleme gute Ergebnisse erzielen und für hochdimensionale Problemstellungen sehr rechenintensiv und damit zeitintensiv werden. Insgesamt liefert die Diplomarbeit damit einen praxisnahen und theoretisch fundierten Einstieg in das Thema des maschinellen Lernens mit anwendungsorientierten Beispielen in der Programmiersprache R
Aufbereitung von Shapeanalyseausgaben zur Visualisierung der abstrakten Programmausführung
Diese Arbeit behandelt einen Ansatz zur Algorithmenvisualisierung von zeigerbasierten Programmen. Während traditionell die Programmausführung für konkrete Daten visualisiert wird, stützt sich dieser Ansatz auf die abstrakte Programmausführung. Dazu wird vorab mittels Shapeanalyse, einer auf Logik basierenden parametrischen statischen Programmanalysetechnik, eine Beschreibung der an den Programmpunkten auftretenden abstrakten Heapstrukturen berechnet. Diese Shapegraphenmengen sind jedoch in der Regel für eine direkte Visualisierung zu groß. Ein zentrales Thema dieser Arbeit ist die Entwicklung von Methoden, die Analyseausgabe vor der eigentlichen Visualisierung aufzubereiten. Sie führen sowohl zu einer Reduktion der Komplexität als auch zu einer gesteigerten Wirksamkeit der Visualisierung. Im Vordergrund stehen Methoden zur Strukturierung der Analyseausgabe. Ein Ähnlichkeitskonzept gestattet es, bezüglich verschiedener parametrischer Ähnlichkeitsbegriffe zu abstrahieren. Auf diese Weise werden ähnliche Heapstrukturen und ähnliche Programmausführungen identiziert und zusammengefasst. Mit gleicher Absicht wird ein Konzept zur Ausnutzung von Symmetrie eingeführt. Ergänzend werden Methoden vorgestellt, welche die in einer Menge von Shapegraphen enthaltenen Informationen verdichten. Zu den darüber hinaus behandelten Themen gehören Methoden, die Hilfestellungen bei der Traversierung durch die abstrakte Programmausführung bieten.This work presents an approach to algorithm visualisation of pointer based programs. While traditionally the execution of a program is visualised for concrete data, our approach is based on abstract program execution. Using shape analysis, which is a logic based parametric static program analysis technique, a description of the abstract heap situations that can occur at each program point is computed in advance. However, the resulting sets of shape graphs are generally too large to be visualised directly. A central topic of this work is the development of methods for preparing the analysis output before the actual visualisation. This results in complexity reduction as well as in increased efficiency with respect to visualisation. The focus lies on methods for structuring the analysis output. A similarity concept allows abstraction with respect to various parametric similarity notions. This way similar heap structures and similar execution paths are identied and summarised. With the same purpose in mind, a concept of taking advantage of symmetry is introduced. Additionally, methods are presented that condense the information contained in sets of shape graphs. Further topics include methods that assist in the traversal of the abstract program execution
- …