91 research outputs found

    Rostocker Mathematisches Kolloquium. Heft 27 (1985)

    Get PDF

    Rostocker Mathematisches Kolloquium. Heft 23 (1983)

    Get PDF

    On kk-ary parts of maximal clones

    Full text link
    The main problem of clone theory is to describe the clone lattice for a given basic set. For a two-element basic set this was resolved by E.L. Post, but for at least three-element basic set the full structure of the lattice is still unknown, and the complete description in general is considered to be hopeless. Therefore, it is studied by its substructures and its approximations. One of the possible directions is to examine kk-ary parts of the clones and their mutual inclusions. In this paper we study kk-ary parts of maximal clones, for k2k\geq2, building on the already known results for their unary parts. It turns out that the poset of kk-ary parts of maximal clones defined by central relations contains long chains.Comment: 13 page

    Rostocker Mathematisches Kolloquium. Heft 45 (1991)

    Get PDF

    О КОНЕЧНОЙ ПОРОЖДЕННОСТИ ЗАМКНУТЫХ КЛАССОВ МОНОТОННЫХ ФУНКЦИЙ В P // Ученые записки КФУ. Физико-математические науки 2009 N2

    Get PDF
    Рассматривается задача о конечной порожденности классов монотонных функций k-значной логики. Найдены условия конечной порожденности классов функций, монотонных относительно частично упорядоченных множеств специального вида

    Rostocker Mathematisches Kolloquium. Heft 25 (1984)

    Get PDF

    Rostocker Mathematisches Kolloquium. Heft 3 (1977)

    Get PDF

    Multivariate GRBF-Netzwerke und Systeme lokaler Experten

    Get PDF
    Solange der Mensch seit Beginn der modernen Wissenschaft versucht, seine kognitiven Fähigkeiten durch anatomische, physiologische und psychologische Untersuchungen zu verstehen, werden diese Forschungen auch von der Entwicklung mathematischer Modelle begleitet. Dies geschieht in der Hoffnung, zu einem tieferen Verständnis der Gehirnfunktionen zu gelangen und in jüngster Zeit mit dem Ziel, neuartige mathematische Verfahren, z.B. zur Mustererkennung und Funktionenapproximation, zu erhalten. Im Rahmen dieses Ansatzes wurde vor etwa 10 Jahren das radiale Basisfunktionen (RBF)-Netzwerk eingeführt, welches bestimmte Strukturen im cerebellaren Cortex modelliert. In früheren Arbeiten wurden tiefgehende Beziehungen zwischen diesem dreischichtigen Netzwerkmodell und der maximum likelihood (ML)-Schätzung von empirischen Datenverteilungen durch Mischungen univariater Normalverteilungen aufgedeckt. Solche Netzwerke eignen sich zur datengetriebenen Funktionenapproximation und zur Lösung von Klassi- fikationsaufgaben. Ausgehend von diesen Beobachtungen wird in der vorliegenden Arbeit das RBF-Modell stufenweise verallgemeinert. Zunächst wird mit dem generalisierten radialen Basisfunktionen (GRBF)-Netzwerk ein Modell vorgestellt, dessen Parameter sich aus ML-Schätzungen von Datenverteilungen durch Mischungen multivariater Normalverteilungen ableiten lassen. Damit wird erstmals ein Verfahren eingeführt, mit dem alle Netzwerkparameter simultan optimiert werden können. Ein deterministisches Abkühlschema sorgt dabei für die sichere Konvergenz des zugehörigen sequentiellen stochastischen Lernprozesses. Anschließend wird ein neues Modell zur Funktionenapproximation, der sogenannte LLMApproximator , vorgestellt, das ebenfalls auf Dichteschätzungen durch Mischungen multivariater Normalverteilungen beruht und sich in Spezialfällen auf das GRBF-Netzwerk reduziert. Im LLM-Verfahren wird die zu approximierende Funktion durch eine Interpolation lokaler linearer Regressionsmodelle dargestellt. In Verallgemeinerung dieser Verfahren wird schließlich ein Konstruktionsprinzip für Systeme lokaler Experten formuliert, das sowohlWettbewerb als auch Kooperation unterschiedlicher Experten zur Lösung einer gemeinsamen Aufgabe organisiert. Die Arbeitsweisen des LLM-Approximators als auch des Systems lokaler Experten werden am Beispiel von Regelungsproblemen illustriert. Zunächst wird die Regelung eines virtuellen Bioreaktors mit Hilfe des LLM-Approximators vorgestellt. Anschließend wird das System lokaler Experten für die Regelung einer realen, komplexen industriellen Anlage verwendet. Dabei handelt es sich um die Anlage zur Rückstandsverbrennung im Werk Burghausen der Wacker-Chemie GmbH

    Schlieáen mit unscharfen Begriffen [online]

    Get PDF
    Kurzfassung Die Bedeutung automatischer Informationsverarbeitung hat in den letzten Jahren kontinuierlich zugenommen und ein Abreißen dieses Trends ist nicht zu erwarten. Das Anwendungsspektrum reicht von der Regelung und dem Management technischer Systeme über entscheidungsunterstützende Systeme, z. B. für Betrugserkennung, bis hin zur Personalisierung von Dienstleistungen wie maßgeschneiderten Zeitungen im Internet. Viele solcher Anwendungen verlangen nach Methoden der Informationsverarbeitung, die 1. effizient genug sind, um auf großen Datenmengen operieren zu können (Effizienz hinsichtlich Speicher- und Rechenaufwand) 2. die Ergebnisse der Verarbeitung verständlich darstellen 3. mit vagen und unsicheren Informationen umgehen können Einen wichtigen Beitrag zu diesem Problemkomplex leisten Methoden unscharfer Informationsverarbeitung. Sie sichern in gewissem Umfang zumindest die letzten beiden Punkte. Für die Repräsentation von Information fassen diese Verfahren Einzelheiten zu gröberen Informationseinheiten zusammen, die für Menschen im Allgemeinen leichter verständlich sind, weil sie von unnötigen Details abstrahieren. Gröbere Informationen sind dabei in vielen Fällen vage oder unsicher; entweder als inhärente Eigenschaft oder aufgrund eines kalkulierten Informationsverlustes, den wir in Kauf nehmen, um großen Datenmengen Herr zu werden. Modelliert werden grobe Informationen als unscharfe Mengen. Die erste Forderung in obiger Liste verdeutlicht allerdings ein Dilemma üblicher Methoden unscharfer Informationsverarbeitung. Obwohl sie viele Einzelheiten auf wenige grobe Informationseinheiten reduzieren, hängen Speicher- und Rechenaufwand im Allgemeinen trotzdem von der Anzahl der Einzelheiten ab. Durch die Vergröberung wurde also hinsichtlich des Verarbeitungsaufwandes nichts gewonnen. Zudem wird die Semantik unscharfer Mengen meist nur abstrakt definiert, weshalb die konkrete Bedeutung eines Zugehörigkeitsgrades zu einer unscharfen Menge unklar ist. Anwender wissen daher oft nicht, wie sie Zugehörigkeitsgrade festlegen sollen und insbesondere wird die gemeinsame Verarbeitung unscharfer Informationen unterschiedlicher Herkunft und Qualität zweifelhaft. Die vorliegende Arbeit greift genau diese Probleme, mangelnde Effizienz und Semantik, an. Wesentlicher Baustein der Arbeit sind unscharfe Begriffe: unscharfe Mengen, die von Einzelheiten abstrahieren und in vielen Fällen mit natürlichsprachlichen Begriffen (linguistischen Werten) identifiziert werden können. Die Begriffe spiegeln die anschauliche Bedeutung der unscharfen Mengen wider. Dabei greifen wir auf eine Semantik für unscharfe Mengen zurück (Kontextmodell), die Zugehörigkeitsgrade mit einer konkreten Bedeutung belegt. Die grundlegend neue Idee der Arbeit lautet, unscharfe Informationen immer durch eine Kombination vordefinierter unscharfer Begriffe darzustellen. Wie in natürlichsprachlichen Beschreibungen von Phänomenen benutzen wir einen gegebenen Grundwortschatz, um Beobachtungen verständlich zu beschreiben. Die Übersetzung einer unscharfen Information in eine Kombination von Begriffen ist im Allgemeinen mit einem Informationsverlust verbunden. Dies gilt für alle Verfahren im Bereich unscharfen Schließens. In unserem Fall können wir aber sicherstellen, dass die Originalinformation bei der Rückübersetzung rekonstruiert wird, falls kein Informationsverlust vorlag. Der nächste Schritt zeigt, wie wir unscharfe Informationen auf der Ebene der Begriffe auch verarbeiten können. Anstatt direkt mit den unscharfen Informationen selbst zu rechnen, stellen wir sie durch die unscharfen Begriffe dar und rechnen mit den Begriffen. Auf diese Weise hängt der Rechenaufwand der Verarbeitung nur von der Anzahl der Begriffe und nicht der Anzahl der Einzelheiten ab und das unscharfe Ergebnis der Verarbeitung wird leicht verständlich mit bekannten Begriffen beschrieben. In der Arbeit zeigen wir, dass so der Rechenaufwand für regelbasiertes Schließen im allgemeinsten Fall quadratisch von der Anzahl der Begriffe abhängt, während sich das beste alternative Verfahren quadratisch mit der Anzahl der Einzelheiten verhält. Im günstigsten Fall ist unser Verfahren linear und die beste Alternative quadratisch von der Anzahl der Begriffe abhängig. Weiterhin stellen wir praktisch relevante Verfahren vor, um unscharfe Begriffe zu definieren (Umfragemodelle, unscharfe Gruppierung) und beschreiben, wie man mit scharfen Informationen umgeht. Dieser Teil der Arbeit zeigt, dass in gewissem Rahmen verschiedene Formen unscharfer Informationen mathematisch fundiert in einem Mechanismus verarbeitet werden können. In diesem Zusammenhang lassen sich der Regler von Takagi/Sugeno und viele Neuro-Fuzzy-Ansätze in unsere Theorie einbetten und auf diese Weise mit einer soliden Semantik versehen. Insbesondere können wir auf diese Weise praktische Verfahren für den Entwurf solcher Systeme angeben. Die Auswirkungen unserer Theorie auf praktische Probleme sind vielschichtig. Die Steigerung der Effizienz kann die Bearbeitung von Problemen ermöglichen, die bisher als zu komplex erschienen. Darüber hinaus sichert die konkrete Semantik der Theorie die Verständlichkeit der unscharfen Ergebnisse. Wir sind davon überzeugt, dass wir auf diese Weise zur Akzeptanz unscharfer Systeme beitragen können, die bisher wegen der schwächeren Semantik weniger Ansehen genossen haben als die Wahrscheinlichkeitsrechnung
    corecore