91 research outputs found
On -ary parts of maximal clones
The main problem of clone theory is to describe the clone lattice for a given
basic set. For a two-element basic set this was resolved by E.L. Post, but for
at least three-element basic set the full structure of the lattice is still
unknown, and the complete description in general is considered to be hopeless.
Therefore, it is studied by its substructures and its approximations. One of
the possible directions is to examine -ary parts of the clones and their
mutual inclusions. In this paper we study -ary parts of maximal clones, for
, building on the already known results for their unary parts. It turns
out that the poset of -ary parts of maximal clones defined by central
relations contains long chains.Comment: 13 page
О КОНЕЧНОЙ ПОРОЖДЕННОСТИ ЗАМКНУТЫХ КЛАССОВ МОНОТОННЫХ ФУНКЦИЙ В P // Ученые записки КФУ. Физико-математические науки 2009 N2
Рассматривается задача о конечной порожденности классов монотонных
функций k-значной логики. Найдены условия конечной
порожденности классов функций, монотонных относительно частично
упорядоченных множеств специального вида
Multivariate GRBF-Netzwerke und Systeme lokaler Experten
Solange der Mensch seit Beginn der modernen Wissenschaft versucht, seine kognitiven
Fähigkeiten durch anatomische, physiologische und psychologische Untersuchungen zu
verstehen, werden diese Forschungen auch von der Entwicklung mathematischer Modelle
begleitet. Dies geschieht in der Hoffnung, zu einem tieferen Verständnis der Gehirnfunktionen
zu gelangen und in jüngster Zeit mit dem Ziel, neuartige mathematische Verfahren,
z.B. zur Mustererkennung und Funktionenapproximation, zu erhalten. Im Rahmen dieses
Ansatzes wurde vor etwa 10 Jahren das radiale Basisfunktionen (RBF)-Netzwerk eingeführt,
welches bestimmte Strukturen im cerebellaren Cortex modelliert.
In früheren Arbeiten wurden tiefgehende Beziehungen zwischen diesem dreischichtigen
Netzwerkmodell und der maximum likelihood (ML)-Schätzung von empirischen Datenverteilungen
durch Mischungen univariater Normalverteilungen aufgedeckt. Solche Netzwerke
eignen sich zur datengetriebenen Funktionenapproximation und zur Lösung von Klassi-
fikationsaufgaben. Ausgehend von diesen Beobachtungen wird in der vorliegenden Arbeit
das RBF-Modell stufenweise verallgemeinert.
Zunächst wird mit dem generalisierten radialen Basisfunktionen (GRBF)-Netzwerk ein
Modell vorgestellt, dessen Parameter sich aus ML-Schätzungen von Datenverteilungen
durch Mischungen multivariater Normalverteilungen ableiten lassen. Damit wird erstmals
ein Verfahren eingeführt, mit dem alle Netzwerkparameter simultan optimiert werden können.
Ein deterministisches Abkühlschema sorgt dabei für die sichere Konvergenz des zugehörigen
sequentiellen stochastischen Lernprozesses.
Anschließend wird ein neues Modell zur Funktionenapproximation, der sogenannte LLMApproximator
, vorgestellt, das ebenfalls auf Dichteschätzungen durch Mischungen multivariater
Normalverteilungen beruht und sich in Spezialfällen auf das GRBF-Netzwerk
reduziert. Im LLM-Verfahren wird die zu approximierende Funktion durch eine Interpolation
lokaler linearer Regressionsmodelle dargestellt. In Verallgemeinerung dieser Verfahren
wird schließlich ein Konstruktionsprinzip für Systeme lokaler Experten formuliert,
das sowohlWettbewerb als auch Kooperation unterschiedlicher Experten zur Lösung einer
gemeinsamen Aufgabe organisiert.
Die Arbeitsweisen des LLM-Approximators als auch des Systems lokaler Experten werden
am Beispiel von Regelungsproblemen illustriert. Zunächst wird die Regelung eines
virtuellen Bioreaktors mit Hilfe des LLM-Approximators vorgestellt. Anschließend wird
das System lokaler Experten für die Regelung einer realen, komplexen industriellen Anlage
verwendet. Dabei handelt es sich um die Anlage zur Rückstandsverbrennung im Werk
Burghausen der Wacker-Chemie GmbH
Schlieáen mit unscharfen Begriffen [online]
Kurzfassung
Die Bedeutung automatischer Informationsverarbeitung hat in den letzten Jahren kontinuierlich zugenommen und ein Abreißen dieses Trends ist nicht zu erwarten. Das Anwendungsspektrum reicht von der Regelung und dem Management technischer Systeme über entscheidungsunterstützende Systeme, z. B. für Betrugserkennung, bis hin zur Personalisierung von Dienstleistungen wie maßgeschneiderten Zeitungen im Internet.
Viele solcher Anwendungen verlangen nach Methoden der Informationsverarbeitung, die
1. effizient genug sind, um auf großen Datenmengen operieren zu können
(Effizienz hinsichtlich Speicher- und Rechenaufwand)
2. die Ergebnisse der Verarbeitung verständlich darstellen
3. mit vagen und unsicheren Informationen umgehen können
Einen wichtigen Beitrag zu diesem Problemkomplex leisten Methoden unscharfer Informationsverarbeitung. Sie sichern in gewissem Umfang zumindest die letzten beiden Punkte. Für die Repräsentation von Information fassen diese Verfahren Einzelheiten zu gröberen Informationseinheiten zusammen, die für Menschen im Allgemeinen leichter verständlich sind, weil sie von unnötigen Details abstrahieren. Gröbere Informationen sind dabei in vielen Fällen vage oder unsicher; entweder als inhärente Eigenschaft oder aufgrund eines kalkulierten Informationsverlustes, den wir in Kauf nehmen, um großen Datenmengen Herr zu werden. Modelliert werden grobe Informationen als unscharfe Mengen.
Die erste Forderung in obiger Liste verdeutlicht allerdings ein Dilemma üblicher Methoden unscharfer Informationsverarbeitung. Obwohl sie viele Einzelheiten auf wenige grobe Informationseinheiten reduzieren, hängen Speicher- und Rechenaufwand im Allgemeinen trotzdem von der Anzahl der Einzelheiten ab. Durch die Vergröberung wurde also hinsichtlich des Verarbeitungsaufwandes nichts gewonnen. Zudem wird die Semantik unscharfer Mengen meist nur abstrakt definiert, weshalb die konkrete Bedeutung eines Zugehörigkeitsgrades
zu einer unscharfen Menge unklar ist. Anwender wissen daher oft nicht, wie
sie Zugehörigkeitsgrade festlegen sollen und insbesondere wird die gemeinsame Verarbeitung unscharfer Informationen unterschiedlicher Herkunft und Qualität zweifelhaft. Die vorliegende Arbeit greift genau diese Probleme, mangelnde Effizienz und Semantik, an.
Wesentlicher Baustein der Arbeit sind unscharfe Begriffe: unscharfe Mengen, die von Einzelheiten abstrahieren und in vielen Fällen mit natürlichsprachlichen Begriffen (linguistischen Werten) identifiziert werden können. Die Begriffe spiegeln die anschauliche Bedeutung der unscharfen Mengen wider. Dabei greifen wir auf eine Semantik für unscharfe Mengen zurück (Kontextmodell), die Zugehörigkeitsgrade mit einer konkreten Bedeutung belegt.
Die grundlegend neue Idee der Arbeit lautet, unscharfe Informationen immer durch eine Kombination vordefinierter unscharfer Begriffe darzustellen. Wie in natürlichsprachlichen Beschreibungen von Phänomenen benutzen wir einen gegebenen Grundwortschatz, um Beobachtungen verständlich zu beschreiben. Die Übersetzung einer unscharfen Information in eine Kombination von Begriffen ist im Allgemeinen mit einem Informationsverlust verbunden. Dies gilt für alle Verfahren im Bereich unscharfen Schließens. In unserem Fall können wir aber sicherstellen, dass die Originalinformation bei der Rückübersetzung rekonstruiert wird, falls kein Informationsverlust vorlag.
Der nächste Schritt zeigt, wie wir unscharfe Informationen auf der Ebene der Begriffe auch verarbeiten können. Anstatt direkt mit den unscharfen Informationen selbst zu rechnen, stellen wir sie durch die unscharfen Begriffe dar und rechnen mit den Begriffen. Auf diese Weise hängt der Rechenaufwand der Verarbeitung nur von der Anzahl der Begriffe und nicht der Anzahl der Einzelheiten ab und das unscharfe Ergebnis der Verarbeitung wird leicht verständlich mit bekannten Begriffen beschrieben. In der Arbeit zeigen wir, dass
so der Rechenaufwand für regelbasiertes Schließen im allgemeinsten Fall quadratisch von der Anzahl der Begriffe abhängt, während sich das beste alternative Verfahren quadratisch mit der Anzahl der Einzelheiten verhält. Im günstigsten Fall ist unser Verfahren linear und die beste Alternative quadratisch von der Anzahl der Begriffe abhängig.
Weiterhin stellen wir praktisch relevante Verfahren vor, um unscharfe Begriffe zu definieren (Umfragemodelle, unscharfe Gruppierung) und beschreiben, wie man mit scharfen Informationen umgeht. Dieser Teil der Arbeit zeigt, dass in gewissem Rahmen verschiedene Formen unscharfer Informationen mathematisch fundiert in einem Mechanismus verarbeitet werden können. In diesem Zusammenhang lassen sich der Regler von Takagi/Sugeno und viele Neuro-Fuzzy-Ansätze in unsere Theorie einbetten und auf diese Weise mit einer soliden Semantik versehen. Insbesondere können wir auf diese Weise praktische Verfahren für den Entwurf solcher Systeme angeben.
Die Auswirkungen unserer Theorie auf praktische Probleme sind vielschichtig. Die Steigerung der Effizienz kann die Bearbeitung von Problemen ermöglichen, die bisher als zu komplex erschienen. Darüber hinaus sichert die konkrete Semantik der Theorie die Verständlichkeit der unscharfen Ergebnisse. Wir sind davon überzeugt, dass wir auf diese Weise zur Akzeptanz unscharfer Systeme beitragen können, die bisher wegen der schwächeren Semantik weniger Ansehen genossen haben als die Wahrscheinlichkeitsrechnung
- …