9 research outputs found

    Inteligencias en aplicaciones sensibles al contexto

    Get PDF
    El objetivo de esta tesis es introducir inteligencia en las aplicaciones sensibles a contexto. Este tipo de aplicaciones cambian su conducta dependiendo de la combinación de estímulos que recibe. Esta combinación de estímulos, proveniente de sensores, se denomina contexto. Por ejemplo, en una oficina puedo tener una serie de sensores que midan la intensidad de la luz, cuyos valores pueden ser: oscuro, normal, brillante y el ruido con valores posibles: silencio, moderado y ruidoso. Partiendo de la combinación de estos datos, se podría obtener el contexto “horario_no_laboral”, resultado de combinar intensidad de luz = oscuro y ruido = silencio. Una aplicación sensible a contexto podría estar programada para responder al contexto “horario_no_laboral”, bloqueando las puertas de la oficina, apagando luces, fotocopiadoras y demás aparatos que no deban usarse en este contexto. Para que la aplicación reaccione a determinado contexto se lo debe vincular a una acción determinada. Este enlace se establece en una base de conocimientos. Esta consiste en una serie de reglas del tipo Si contextoA y contextoB (ocurren simultáneamente) Entonces hacer Accion1. Por ejemplo, en una aplicación educativa se busca que el sistema brinde acceso a bibliografía específica, dependiendo de la hora y el aula desde donde se accede. En la base de conocimientos habrá una regla que exprese: Si usuario está en “Aula Matemática” y el horario es “Matutino” Entonces brindar acceso a “manuales de matemática nivel secundario”. Podría haber otra regla que exprese, Si usuario está en “Aula Matemática” y el horario es “Nocturno” Entonces brindar acceso a “manuales de matemática nivel terciario”. Generalmente, la base de conocimientos es creada y mantenida por un experto (humano) en el dominio de la aplicación. Cuando la dimensión de la base de conocimientos es elevada, resulta inmanejable para un ser humano. El problema se agrava cuando se debe corregir o agregar reglas para que el sistema se comporte de modo distinto. Por ejemplo, cuando se decide abrir el aula de matemáticas en horario “Vespertino” se debe agregar la regla: Si usuario está en “Aula Matemática” y el horario es “Vespertino” Entonces brindar acceso a “manuales de matemática nivel secundario”. Las correcciones y agregados de reglas es un proceso delicado, ya que si se introdujera inconsistencias, el sistema se comportaría de una manera indeseada. Por ejemplo: si se introduce la siguiente regla en la base de conocimientos: Si usuario está en “Aula Matemática” y el horario es “Matutino” Entonces brindar acceso a “manuales de matemática nivel terciario”. Esta regla estaría en conflicto con la regla que indica que a dicho contexto le corresponde la acción de brindar acceso a “manuales de matemática nivel secundario”. Otros problemas que enfrenta el diseñador de una base de conocimientos son: el tratamiento de los contextos de carácter continuo (por ejemplo el tiempo) y el manejo de la incertidumbre en la información proveniente de sensores. Los estímulos continuos deben “discretizarse” por algún método para acotar el número de combinaciones posibles. La solución que se describe en esta tesis ataca el problema de la discretización y la incertidumbre en los estímulos mediante la introducción de lógica difusa en el modelo. La construcción y el mantenimiento de la base de conocimientos se realizan automáticamente, de esta manera se minimiza la necesidad de intervención humana. Por ejemplo, si la mayoría de las veces que los alumnos entran al aula de matemática en horario matutino buscan “manuales de matemática nivel secundario”, el sistema “aprenderá” esta regla y la volcará en la base de conocimientos. De esta manera el sistema inferirá la necesidad de mostrar una lista de “manuales de matemática nivel secundario” la próxima vez que un alumno ingrese al aula de matemática en horario matutino. Una característica importante que debe tener el algoritmo de aprendizaje es la “transparencia”. Esto significa que el modelo de reglas construido debe ser comprendido por el usuario. El mecanismo de software está diseñado con tecnología de objetos, de esta manera permite la evolución independiente de sus partes. Por ejemplo, si en el futuro se decide cambiar el algoritmo de aprendizaje de reglas, las demás partes deberían seguir funcionando sin modificaciones.Facultad de Informátic

    Schlieáen mit unscharfen Begriffen [online]

    Get PDF
    Kurzfassung Die Bedeutung automatischer Informationsverarbeitung hat in den letzten Jahren kontinuierlich zugenommen und ein Abreißen dieses Trends ist nicht zu erwarten. Das Anwendungsspektrum reicht von der Regelung und dem Management technischer Systeme über entscheidungsunterstützende Systeme, z. B. für Betrugserkennung, bis hin zur Personalisierung von Dienstleistungen wie maßgeschneiderten Zeitungen im Internet. Viele solcher Anwendungen verlangen nach Methoden der Informationsverarbeitung, die 1. effizient genug sind, um auf großen Datenmengen operieren zu können (Effizienz hinsichtlich Speicher- und Rechenaufwand) 2. die Ergebnisse der Verarbeitung verständlich darstellen 3. mit vagen und unsicheren Informationen umgehen können Einen wichtigen Beitrag zu diesem Problemkomplex leisten Methoden unscharfer Informationsverarbeitung. Sie sichern in gewissem Umfang zumindest die letzten beiden Punkte. Für die Repräsentation von Information fassen diese Verfahren Einzelheiten zu gröberen Informationseinheiten zusammen, die für Menschen im Allgemeinen leichter verständlich sind, weil sie von unnötigen Details abstrahieren. Gröbere Informationen sind dabei in vielen Fällen vage oder unsicher; entweder als inhärente Eigenschaft oder aufgrund eines kalkulierten Informationsverlustes, den wir in Kauf nehmen, um großen Datenmengen Herr zu werden. Modelliert werden grobe Informationen als unscharfe Mengen. Die erste Forderung in obiger Liste verdeutlicht allerdings ein Dilemma üblicher Methoden unscharfer Informationsverarbeitung. Obwohl sie viele Einzelheiten auf wenige grobe Informationseinheiten reduzieren, hängen Speicher- und Rechenaufwand im Allgemeinen trotzdem von der Anzahl der Einzelheiten ab. Durch die Vergröberung wurde also hinsichtlich des Verarbeitungsaufwandes nichts gewonnen. Zudem wird die Semantik unscharfer Mengen meist nur abstrakt definiert, weshalb die konkrete Bedeutung eines Zugehörigkeitsgrades zu einer unscharfen Menge unklar ist. Anwender wissen daher oft nicht, wie sie Zugehörigkeitsgrade festlegen sollen und insbesondere wird die gemeinsame Verarbeitung unscharfer Informationen unterschiedlicher Herkunft und Qualität zweifelhaft. Die vorliegende Arbeit greift genau diese Probleme, mangelnde Effizienz und Semantik, an. Wesentlicher Baustein der Arbeit sind unscharfe Begriffe: unscharfe Mengen, die von Einzelheiten abstrahieren und in vielen Fällen mit natürlichsprachlichen Begriffen (linguistischen Werten) identifiziert werden können. Die Begriffe spiegeln die anschauliche Bedeutung der unscharfen Mengen wider. Dabei greifen wir auf eine Semantik für unscharfe Mengen zurück (Kontextmodell), die Zugehörigkeitsgrade mit einer konkreten Bedeutung belegt. Die grundlegend neue Idee der Arbeit lautet, unscharfe Informationen immer durch eine Kombination vordefinierter unscharfer Begriffe darzustellen. Wie in natürlichsprachlichen Beschreibungen von Phänomenen benutzen wir einen gegebenen Grundwortschatz, um Beobachtungen verständlich zu beschreiben. Die Übersetzung einer unscharfen Information in eine Kombination von Begriffen ist im Allgemeinen mit einem Informationsverlust verbunden. Dies gilt für alle Verfahren im Bereich unscharfen Schließens. In unserem Fall können wir aber sicherstellen, dass die Originalinformation bei der Rückübersetzung rekonstruiert wird, falls kein Informationsverlust vorlag. Der nächste Schritt zeigt, wie wir unscharfe Informationen auf der Ebene der Begriffe auch verarbeiten können. Anstatt direkt mit den unscharfen Informationen selbst zu rechnen, stellen wir sie durch die unscharfen Begriffe dar und rechnen mit den Begriffen. Auf diese Weise hängt der Rechenaufwand der Verarbeitung nur von der Anzahl der Begriffe und nicht der Anzahl der Einzelheiten ab und das unscharfe Ergebnis der Verarbeitung wird leicht verständlich mit bekannten Begriffen beschrieben. In der Arbeit zeigen wir, dass so der Rechenaufwand für regelbasiertes Schließen im allgemeinsten Fall quadratisch von der Anzahl der Begriffe abhängt, während sich das beste alternative Verfahren quadratisch mit der Anzahl der Einzelheiten verhält. Im günstigsten Fall ist unser Verfahren linear und die beste Alternative quadratisch von der Anzahl der Begriffe abhängig. Weiterhin stellen wir praktisch relevante Verfahren vor, um unscharfe Begriffe zu definieren (Umfragemodelle, unscharfe Gruppierung) und beschreiben, wie man mit scharfen Informationen umgeht. Dieser Teil der Arbeit zeigt, dass in gewissem Rahmen verschiedene Formen unscharfer Informationen mathematisch fundiert in einem Mechanismus verarbeitet werden können. In diesem Zusammenhang lassen sich der Regler von Takagi/Sugeno und viele Neuro-Fuzzy-Ansätze in unsere Theorie einbetten und auf diese Weise mit einer soliden Semantik versehen. Insbesondere können wir auf diese Weise praktische Verfahren für den Entwurf solcher Systeme angeben. Die Auswirkungen unserer Theorie auf praktische Probleme sind vielschichtig. Die Steigerung der Effizienz kann die Bearbeitung von Problemen ermöglichen, die bisher als zu komplex erschienen. Darüber hinaus sichert die konkrete Semantik der Theorie die Verständlichkeit der unscharfen Ergebnisse. Wir sind davon überzeugt, dass wir auf diese Weise zur Akzeptanz unscharfer Systeme beitragen können, die bisher wegen der schwächeren Semantik weniger Ansehen genossen haben als die Wahrscheinlichkeitsrechnung

    Fuzzy-Clusteranalyse : Methoden zur Exploration von Daten mit fehlenden Werten sowie klassifizierten Daten

    Get PDF
    Fuzzy-Clusteranalyse, Fuzzy-DatenanlayseMagdeburg, Univ., Fak. für Informatik, Diss., 2002von Heiko Tim

    Transformation of graphical models to support knowledge transfer

    Get PDF
    Menschliche Experten verfügen über die Fähigkeit, ihr Entscheidungsverhalten flexibel auf die jeweilige Situation abzustimmen. Diese Fähigkeit zahlt sich insbesondere dann aus, wenn Entscheidungen unter beschränkten Ressourcen wie Zeitrestriktionen getroffen werden müssen. In solchen Situationen ist es besonders vorteilhaft, die Repräsentation des zugrunde liegenden Wissens anpassen und Entscheidungsmodelle auf unterschiedlichen Abstraktionsebenen verwenden zu können. Weiterhin zeichnen sich menschliche Experten durch die Fähigkeit aus, neben unsicheren Informationen auch unscharfe Wahrnehmungen in die Entscheidungsfindung einzubeziehen. Klassische entscheidungstheoretische Modelle basieren auf dem Konzept der Rationalität, wobei in jeder Situation die nutzenmaximale Entscheidung einer Entscheidungsfunktion zugeordnet wird. Neuere graphbasierte Modelle wie Bayes\u27sche Netze oder Entscheidungsnetze machen entscheidungstheoretische Methoden unter dem Aspekt der Modellbildung interessant. Als Hauptnachteil lässt sich die Komplexität nennen, wobei Inferenz in Entscheidungsnetzen NP-hart ist. Zielsetzung dieser Dissertation ist die Transformation entscheidungstheoretischer Modelle in Fuzzy-Regelbasen als Zielsprache. Fuzzy-Regelbasen lassen sich effizient auswerten, eignen sich zur Approximation nichtlinearer funktionaler Beziehungen und garantieren die Interpretierbarkeit des resultierenden Handlungsmodells. Die Übersetzung eines Entscheidungsmodells in eine Fuzzy-Regelbasis wird durch einen neuen Transformationsprozess unterstützt. Ein Agent kann zunächst ein Bayes\u27sches Netz durch Anwendung eines in dieser Arbeit neu vorgestellten parametrisierten Strukturlernalgorithmus generieren lassen. Anschließend lässt sich durch Anwendung von Präferenzlernverfahren und durch Präzisierung der Wahrscheinlichkeitsinformation ein entscheidungstheoretisches Modell erstellen. Ein Transformationsalgorithmus kompiliert daraus eine Regelbasis, wobei ein Approximationsmaß den erwarteten Nutzenverlust als Gütekriterium berechnet. Anhand eines Beispiels zur Zustandsüberwachung einer Rotationsspindel wird die Praxistauglichkeit des Konzeptes gezeigt.Human experts are able to flexible adjust their decision behaviour with regard to the respective situation. This capability pays in situations under limited resources like time restrictions. It is particularly advantageous to adapt the underlying knowledge representation and to make use of decision models at different levels of abstraction. Furthermore human experts have the ability to include uncertain information and vague perceptions in decision making. Classical decision-theoretic models are based directly on the concept of rationality, whereby the decision behaviour prescribed by the principle of maximum expected utility. For each observation some optimal decision function prescribes an action that maximizes expected utility. Modern graph-based methods like Bayesian networks or influence diagrams make use of modelling. One disadvantage of decision-theoretic methods concerns the issue of complexity. Finding an optimal decision might become very expensive. Inference in decision networks is known to be NP-hard. This dissertation aimed at combining the advantages of decision-theoretic models with rule-based systems by transforming a decision-theoretic model into a fuzzy rule-based system. Fuzzy rule bases are an efficient implementation from a computational point of view, they can approximate non-linear functional dependencies and they are also intelligible. There was a need for establishing a new transformation process to generate rule-based representations from decision models, which provide an efficient implementation architecture and represent knowledge in an explicit, intelligible way. At first, an agent can apply the new parameterized structure learning algorithm to identify the structure of the Bayesian network. The use of learning approaches to determine preferences and the specification of probability information subsequently enables to model decision and utility nodes and to generate a consolidated decision-theoretic model. Hence, a transformation process compiled a rule base by measuring the utility loss as approximation measure. The transformation process concept has been successfully applied to the problem of representing condition monitoring results for a rotation spindle

    Prototype based clustering in high-dimensional feature spaces

    Get PDF
    ...In dieser Arbeit untersuche ich den ”Fluch der Dimensionen” mittels dem Begriff der Distanzkonzentration. Ich zeige, dass dieser Effekt im Datenmodell mittels der paarweisen Kovarianzkoeffizienten der Randverteilungen beschrieben werden kann. Zusätzlich vergleiche ich 10 prototypbasierte Clusteralgorithmen mittels 800.000 Clusterergebnissen von künstlich erzeugten Datensätzen. Ich erforsche, wie und warum Clusteralgorithmen von der Anzahl der Merkmale beeinflusst werden. Mit den Clusterergebnissen untersuche ich außerdem, wie gut 5 der populärsten Clusterqualitätsmaße die tatsächliche Clusterqualität schätzen.Magdeburg, Univ., Fak. für Informatik, Diss., 2015von Roland Winkle

    Data Mining with Graphical Models

    No full text
    Abstract. The explosion of data stored in commercial or administrational databases calls for intelligent techniques to discover the patterns hidden in them and thus to exploit all available information. Therefore a new line of research has recently been established, which became known under the names “Data Mining ” and “Knowledge Discovery in Databases”. In this paper we study a popular technique from its arsenal of methods to do dependency analysis, namely learning inference networks (also called “graphical models”) from data. We review the already well-known probabilistic networks and provide an introduction to the recently developed and closely related possibilistic networks.
    corecore