227 research outputs found

    Interpretación tabular de autómatas para lenguajes de adjunción de árboles

    Get PDF
    [Resumen] Las gramáticas de adjunción de árboles son una extensión de las gramáticas independientes del contexto que utilizan árboles en vez de producciones como estructuras elementales y que resultan adecuadas para la descripción de la mayor parte de las construcciones sintácticas presentes en el lenguaje natural. Los lenguajes generados por esta clase de gramáticas se denominan lenguajes de adjunción de árboles y son equivalentes a los lenguajes generados por las gramáticas lineales de índices y otros formalismos suavemente dependientes del contexto. En la primera parte de esta memoria se presenta el problema del análisis sintáctico de los lenguajes de adjunción de árboles. Para ello, se establece un camino evolutivo continuo en el que se sitúan los algoritmos de análisis sintáctico que incorporan las estrategias de análisis más importantes, tanto para el caso de las gramáticas de adjunción de árboles como para el caso de las gramáticas lineales de índices. En la segunda parte se definen diferentes modelos de autómata que aceptan exactamente los lenguajes de adjunción de árboles y se proponen técnicas que permiten su ejecución eficiente. La utilización de autómatas para realizar el análisis sintáctico es interesante porque permite separar el problema de la definición de un algoritmo de análisis sintáctico del problema de la ejecución del mismo, al tiempo que simplifica las pruebas de corrección. Concretamente, hemos estudiado los siguientes modelos de autómata: • Los autómatas a pila embebidos descendentes y ascendentes, dos extensiones de ^ los autómatas a pila que utilizan como estructura de almacenamiento una pila de pilas. Hemos definido nuevas versiones de estos autómatas en las cuales se simplifica la forma de las transiciones y se elimina el control de estado finito, manteniendo la potencia expresiva. • La restricción de los autómatas lógicos a pila para adaptarlos al reconocimiento de las gramáticas lineales de índices, obteniéndose diferentes tipos de autómatas especializados en diversas estrategias de análisis según el conjunto de transiciones permitido. • Los autómatas lineales de índices, tanto los orientados a la derecha, adecuados para estrategias en las cuales las adjunciones se reconocen de manera ascendente, los orientados a la izquierda, aptos para estrategias de análisis en las que las adjunciones se tratan de forma descendente, como los fuertemente dirigidos, capaces de incorporar estrategias de análisis en las cuales las adjunciones se tratan de manera ascendente y/o descendente. • Los autómatas con dos pilas, una extensión de los autómatas a pila que trabaja con una pila maestra encargada de dirigir el proceso de análisis y una pila auxiliar que restringe las transiciones aplicables en un momento dado. Hemos descrito dos versiones diferentes de este tipo de autómatas, los autómatas con dos pilas fuertemente dirigidos, aptos para describir estrategias de análisis arbitrarias, y los autómatas con dos pilas ascendentes, adecuados para describir estrategias de análisis en las cuales las adjunciones se procesan ascendentemente. Hemos definido esquemas de compilación para todos estos modelos de autómata. Estos esquemas permiten obtener el conjunto de transiciones correspondiente a la implantación de una determinada estrategia de análisis sintáctico para una gramática dada. Todos los modelos de autómata pueden ser ejecutados en tiempo polinomial con respecto a la longitud de la cadena de entrada mediante la aplicación de técnicas de interpretación tabular. Estas técnicas se basan en la manipulación de representaciones colapsadas de las configuraciones del autómata, denominadas ítems, que se almacenan en una tabla para su posterior reutilización. Con ello se evita la realización de cálculos redundantes. Finalmente, hemos analizado conjuntamente los diferentes modelos de autómata, los cuales se pueden dividir en tres grandes grupos: la familia de los autómatas generales, de la que forman parte los autómatas lineales de índices fuertemente dirigidos y los autómatas con dos pilas fuertemente dirigidos; la familia de los autómatas descendentes, en la que se encuadran los autómatas a pila embebidos y los autómatas lineales de índices orientados a la izquierda; y la familia de los autómatas ascendentes, en la que se enmarcan los autómatas a pila embebidos ascendentes, los autómatas lineales de índices orientados a la derecha y los autómatas con dos pilas ascendentes.[Abstract] Tree adjoining grammars are an extension of context-free grammars that use trees instead of productions as the primary representing structure and that are considered to be adequate to describe most of syntactic phenomena occurring in natural languages. These grammars generate the class of tree adjoining languages, which is equivalent to the class of languages generated by linear indexed grammars and other mildly context-sensitive formalisms. In the first part of this dissertation, we introduce the problem of parsing tree adjoining grammars and linear indexed grammars, creating, for both formalisms, a continuum from simple pure bottom-up algorithms to complex predictive algorithms and showing what transformations must be applied to each one in order to obtain the next one in the continuum. In the second part, we define several models of automata that accept the class of tree adjoining languages, proposing techniques for their efficient execution. The use of automata for parsing is interesting because they allow us to separate the problem of the definition of parsing algorithms from the problem of their execution. We have considered the following types of automata: • Top-down and bottom-up embedded push-down automata, two extensions of push-down automata working on nested stacks. A new definition is provided in which the finite-state control has been eliminated and several kinds of normalized transition have been defined, preserving the equivalence with tree adjoining languages. • Logical push-down automata restricted to the case of tree adjoining languages. Depending on the set of allowed transitions, we obtain three different types of automata. • Linear indexed automata, left-oriented and right-oriented to describe parsing strategies in which adjuntions are recognized top-down and bottom-up, respectively, and stronglydriven to define parsing strategies recognizing adjunctions top-down and/or bottom-up. • 2-stack automata, an extension of push-down automata working on a pair of stacks, a master stack driving the parsing process and an auxiliary stack restricting the set of transitions that can be applied at a given moment. Strongly-driven 2-stack automata can be used to describe bottom-up, top-down or mixed parsing strategies for tree adjoining languages with respect to the recognition of the adjunctions. Bottom-up 2-stack automata are specifically designed for parsing strategies recognizing adjunctions bottom-up. Compilation schemata for these models of automata have been defined. A compilation schema allow us to obtain the set of transitions corresponding to the implementation of a^ parsing strategy for a given grammar. All the presented automata can be executed in polynomial time with respect to the length of the input string by applying tabulation techniques. A tabular technique makes possible to interpret an automaton by means of the manipulation of collapsed representation of configurations (called items) instead of actual configurations. Items are stored into a table in order to be reused, avoiding redundant computations. Finally, we have studied the relations among the diíferent classes of automata, the main dif%rence being the storage structure used: embedded stacks, indices lists or coupled stacks. According to the strategies that can be implemented, we can distinguish three kinds of automata: bottom-up automata, including bottom-up embedded push-down automata, bottomup restricted logic push-down automata, right-oriented linear indexed automata and bottom-up 2-stack automata; top-down automata, including (top-down) embedded push-down automata, top-down restricted logic push-down automata and left-oriented linear indexed automata; and general automata, including strongly-driven linear indexed automata and strongly-driven 2- stack automata

    Nueva propuesta evolutiva para el agrupamiento de documentos en sistemas de recuperación de información

    Get PDF
    Texto en español y resumen en español e inglésFernández del Castillo Díez, José Raúl, codir.El conocimiento explicito de las organizaciones se encuentra recogido en colecciones documentales controladas, a disposición de sus usuarios. Cuándo el número de documentos es elevado se necesitan herramientas para organizar y mostrar los contenidos de la colección, que permitan y faciliten a los usuarios explorar la colección para conocer mejor su naturaleza y descubrir relaciones, patrones, tendencias, y otras características para poder así ?comprender? la información. La necesidad de usar conocimientos en los Sistemas de Recuperación de Información empujó a los investigadores a analizar los sistemas inteligentes que procuran incorporar y usar dichos conocimientos con la finalidad de optimizar el sistema. En la presente tesis, se muestra un Sistema Evolutivo (SEV), y los resultados obtenidos en la construcción de un sistema de esta naturaleza. En este trabajo hacemos una aportación en el área de Recuperación de Información (RI), proponiendo el desarrollo de un nuevo sistema que, utilizando técnicas evolutivas, implemente un sistema de aprendizaje del tipo no supervisado, para agrupar los documentos de un Sistema de Recuperación de Información (SRI); en donde los grupos y el número de ellos son desconocidos a priori por el sistema. El criterio para realizar el agrupamiento de los documentos estará basado por la similitud y distancia de los documentos, formando así de esta manera grupos ó clustering de documentos afines, permitiendo así agrupar los documentos de un SRI de una manera aceptable, presentándose como una alternativa válida a los métodos de agrupamiento tradicionales, pudiéndose contrastar sus resultados experimentalmente con algunos de los métodos clásicos. Los lexemas más relevantes de cada documento, obtenidos mediante la aplicación de técnicas de RI, permiten enriquecer la información asociada a los documentos de la colección y utilizarlos como valores de metadatos para el algoritmo evolutivo. De esta forma, el sistema funciona mediante una metodología de procesamiento de documentos que selecciona los lexemas de los documentos mediante criterios de recuperación de información. Los resultados obtenidos demuestran la viabilidad de la construcción de una aplicación a gran escala de estas características, para integrarla en un sistema de gestión de conocimiento que tenga que manejar grandes colecciones documentales controladas

    Nueva propuesta evolutiva para el agrupamiento de documentos en sistemas de recuperación de información

    Get PDF
    Texto en español y resumen en español e inglésFernández del Castillo Díez, José Raúl, codir.El conocimiento explicito de las organizaciones se encuentra recogido en colecciones documentales controladas, a disposición de sus usuarios. Cuándo el número de documentos es elevado se necesitan herramientas para organizar y mostrar los contenidos de la colección, que permitan y faciliten a los usuarios explorar la colección para conocer mejor su naturaleza y descubrir relaciones, patrones, tendencias, y otras características para poder así ?comprender? la información. La necesidad de usar conocimientos en los Sistemas de Recuperación de Información empujó a los investigadores a analizar los sistemas inteligentes que procuran incorporar y usar dichos conocimientos con la finalidad de optimizar el sistema. En la presente tesis, se muestra un Sistema Evolutivo (SEV), y los resultados obtenidos en la construcción de un sistema de esta naturaleza. En este trabajo hacemos una aportación en el área de Recuperación de Información (RI), proponiendo el desarrollo de un nuevo sistema que, utilizando técnicas evolutivas, implemente un sistema de aprendizaje del tipo no supervisado, para agrupar los documentos de un Sistema de Recuperación de Información (SRI); en donde los grupos y el número de ellos son desconocidos a priori por el sistema. El criterio para realizar el agrupamiento de los documentos estará basado por la similitud y distancia de los documentos, formando así de esta manera grupos ó clustering de documentos afines, permitiendo así agrupar los documentos de un SRI de una manera aceptable, presentándose como una alternativa válida a los métodos de agrupamiento tradicionales, pudiéndose contrastar sus resultados experimentalmente con algunos de los métodos clásicos. Los lexemas más relevantes de cada documento, obtenidos mediante la aplicación de técnicas de RI, permiten enriquecer la información asociada a los documentos de la colección y utilizarlos como valores de metadatos para el algoritmo evolutivo. De esta forma, el sistema funciona mediante una metodología de procesamiento de documentos que selecciona los lexemas de los documentos mediante criterios de recuperación de información. Los resultados obtenidos demuestran la viabilidad de la construcción de una aplicación a gran escala de estas características, para integrarla en un sistema de gestión de conocimiento que tenga que manejar grandes colecciones documentales controladas

    Un modelo neuropsicolingüistico para la interpretación de errores morfológicos en afásicos agramáticos de habla española

    Get PDF
    [spa] Se elabora una hipótesis sobre un modelo neuropsicolingüístico que sirva para interpretar los errores morfológicos realizados por tres afásicos agramáticos de habla española. El modelo incorpora nociones de los sistemas de procesamiento de la información (Dell, 1986), de la lingüística y el componente morfológico (Lieber, 1980), y de los sistemas gramaticales formales para explicar las habilidades alteradas/intactas de estos pacientes observadas en tres tareas psicolingüísticas como son la repetición, comprensión y producción de oraciones. La hipótesis examinada se ha centrado en la necesidad de una interpretación de los errores observados en las patologías del lenguaje a partir, no de organizaciones internas de cada lengua natural, sino de la utilización de estrategias compensatorias que posibilitan el uso de algoritmos distintos al "normal", al menos en ciertas etapas de procesamiento de esos algoritmos. Desde un punto de vista empírico, además de la explicación de errores del habla en sujetos normales y patológicos a partir de un modelo conjunto, el trabajo se propone realzar la consideración, para un futuro, de la creación de "tests" específicos que permitan recuperar la conducta alterada o perdida de los pacientes afectos de una neuropatología del lenguaje

    La concepción simple de la lectura en educación primaria: una revisión sistemática

    Get PDF
    La concepción simple de la lectura (CSL) es un modelo que trata de explicar la comprensión lectora (L) a partir de dos componentes básicos: la descodificación (D) y la comprensión del lenguaje (C). En los últimos años este modelo ha sido utilizado como base teórica para la toma de decisiones sobre el aprendizaje de la lectura en el sistema educativo de países como Reino Unido o Francia. La CSL ha sido criticada por distintos motivos. El primero, y más importante, es que D y C dejan sin explicar una parte importante de la varianza de los resultados de L. Esta parte podría ser del 50% o más, lo que indicaría que el modelo es incompleto y existe la posibilidad de que personas con una descodificación y comprensión del lenguaje normales obtengan malos resultados en comprensión lectora. También se ha señalado que los componentes del modelo están vagamente definidos, especialmente C, y que distintos autores los evalúan de formas diferentes. Otras críticas son que la relación entre sus componentes cambia con la edad y que no ha inspirado intervenciones pedagógicas de consideración. A pesar de estas observaciones, se considera que la CSL puede ser útil en educación ya que tiene características poco habituales en los modelos de comprensión lectora como su carácter evolutivo, el énfasis en la descodificación y su sencillez.The simple view of reading (SVR) is a model to explain reading comprehension (R) using two basic components: decoding (D) and language comprehension (C). In recent years this model has been employed as a theoretical base for decision making in the education system in countries such as United Kingdom or France. The SVR has been criticized for several reasons. The first, and most important, is that D and C cannot explain a substantial part of the variance of R results. This unexplained part could be 50% or even higher, which could mean that the model is not complete and that there is a possibility that people with normal decodification and language comprehension skills could perform badly in reading comprehension tasks. It has also been pointed out that the components of the model are loosely defined, particularly C, and that different researchers evaluate those components in different ways. Other criticisms are that the relation between the components of the model changes with age, and that it has not produced any relevant pedagogical interventions. In spite of these points, the SVR can be useful in educational work. It has some characteristics that are unusual in reading comprehension models: it is evolutionary, it places emphasis on decoding, and it is an easy to understand model

    Programas de comprensión de textos. Bases psicopedagógicas para su evaluación y diseño

    Get PDF
    La universalización de la oferta educativa en nuestra sociedad ha logrado, en líneas generales, erradicar el analfabetismo de las generaciones más jóvenes. Pero este logro ha corrido parejo con el incremento del "analfabetismo funcional", es decir, del número de personas que, habiendo aprendido a leer, carecen de la capacidad de "aprender leyendo". Las limitaciones en la capacidad de comprensión de la lengua escrita se han convertido, de este modo, en uno de los grandes problemas actuales. En esta obra se presentan de una manera sintética las principales claves psicopedagógicas que subyacen a tales limitaciones para, a partir de ellas, extraer algunos principios básicos sobre Primaria y Secundaria. Es, por lo tanto una obra fundamentalmente dirigida al profesorado de los niveles obligatorios, aunque creemos que su lectura podría resultar de utilidad también a otras personas: orientadores/as escolares, profesorado universitario y, en general, a todos/as los interesados en un tema de tanta relevancia educativa y social. Daniel González Manjón y Angel Marcilla Fernández son profesores del Departamento de Psicología en la Facultad de Ciencias de la Educación de la Universidad de Cádiz, comprometidos desde su función docente e investigadora en la intervención psicopedagógica sobre las dificultades de aprendizaje

    Glosario

    Get PDF
    Glosario de términos utilizados en el libro Filosofía de las Ciencias. Hacia los cálidos valles de la epistemología contemporánea.Facultad de Humanidades y Ciencias de la Educació

    Glosario

    Get PDF
    Glosario de términos utilizados en el libro Filosofía de las Ciencias. Hacia los cálidos valles de la epistemología contemporánea.Facultad de Humanidades y Ciencias de la Educació

    Una contribución a la programación cognitiva: arquitecturas de segunda generación para representación del conocimiento

    Get PDF
    La tesis propone el concepto y diseño de una arquitectura cognitiva para representación de conocimiento profesional especializado en clases de dominios relacionados con el mundo físico. Constituye una extensión de los trabajos de B.Chandrasekaran, potenciando el concepto de arquitectura basada en tareas genéricas propuesta por dicho autor. En base a la arquitectura propuesta, se ha desarrollado un entorno como herramienta de construcción de sistemas expertos de segunda generación, así como un lenguaje para programación cognitiva (DECON)- Dicho entorno, programado en lenguaje C sobre UNIX, ha sido utilizado para el desarrollo de un sistema para predicción de avenidas en la Cuenca Hidrográfica del Jucar, en el marco del proyecto SAIH. Primeramente, la tesis plantea el problema de la modelización del comportamiento de los sistemas físicos, reflejando las limitaciones de las formas clásicas de representación del conocimiento para abordar dicho problema, así como los principales enfoques más recientes basados en el concepto de arquitectura cognitiva y en las técnicas de simulación cualitativa. Se realiza después una síntesis de la arquitectura propuesta, a nivel del conocimiento, para detallar posteriormente su desarrollo a nivel simbólico y de implementación, así como el método general para la construcción de modelos sobre la arquitectura. Se muestra también un resumen de los principales aspectos del desarrollo de software. Finalmente, en forma de anejos, se presenta un caso de estudio, el sistema SIRAH (Sistema Inteligente de Razonamiento Hidrológico), junto con la gramática formal del lenguaje de soporte para la definición de modelos.---ABSTRACT---The thesis proposes the concept and design of a cognitive architecture for professional knowledge representation, specialized in domain classes related to the physical world. It is an extensión of the Chandrasekaran's work, improving the concept of Generic Task based architecture introduced by this author. Based on the proposed architecture, an environment has been developed, as a case of second generation building expert systems tool, as well as a language for cognitive programming (DECON). The environment, programmed in C lenguage on UNIX operating system, has been used to develop a system for flood prediction in the Jucar watershed, inside of the SAIH project. Firstly, the behavior modeling problem of physical systems is discussed, showing the limitations of the classical representations to tackle it, beside the most recent approaches based on cognitive architecture concepts and qualitative simulation technique. An overview of the architecture at the knowledge level is then made, being followed by its symbolic and implementation level description, as well as a general guideline for building models on top of the architecture. The main aspects of software development are also introduced. Finaly, as annexes, a case of study -the SIRAH system (Sistema Inteligente de RAzonamiento Hidrológico)- is introduced, along with the formal grammar of the support language for model definition
    corecore