134 research outputs found

    Aproximación a la lingüística computacional

    Get PDF
    520 p.Esta tesis surge con el objetivo de intentar dar respuesta, desde la perspectiva de la Lingüística, a una serie de preguntas básicas planteadas a raíz de una primera toma de contacto con el campo de la Lingüística Computacional. En primer lugar, buscando delimitar el objeto, finalidad, líneas de investigación e historia de la disciplina. En segundo lugar, analizando las implicaciones del tratamiento computacional del lenguaje a través de sus principales áreas de trabajo, así como algunas de las aplicaciones de la LC. Por último, incidiendo en uno de los aspectos que más interés han suscitado, el de la recopilación de grandes muestras textuales de uso de la lengua, o corpus. Todos estos puntos se han articulado en sendos materiales en línea que sirven desde hace algunos años como apoyo de la docencia de las asignaturas correspondientes de la licenciatura en Lingüística y que son de consulta libre para todos aquellos que quieran utilizarlo

    Lingüística computacional y anáfora

    Get PDF
    Los objetivos de esta tesis, como se puede colegir del propio título, Lingüística computacional y anáfora, son harto complejos y ambiciosos. En primer lugar, porque nos vemos abocados a pincelar qué es la propia Lingüística, para llegar a definir qué es la Lingüística computacional. Y definir qué es la Lingüística computacional no es una tarea fácil, cuando ni los propios investigadores se ponen de acuerdo ni en su denominación ni en su objeto de estudio. Por ello, el primer y segundo capítulo de este trabajo responden al propósito de definir qué es la Lingüística computacional y, sobre todo, qué no es Lingüística computacional, cuáles son las subdisciplinas de la Lingüística computacional y, como disciplina aplicada, cuáles son sus aplicaciones. El siguiente paso que hemos querido tratar es un fenómeno lingüístico que ha suscitado el interés de la Lingüística computacional: la anáfora. Y, como la anáfora, fenómeno pragmático, ha estado íntimamente ligada al pronombre, categoría sintáctica, las cuestiones que se han tenido que abordar también han sido considerables. En primer lugar, se ha dedicado el capítulo tercero a una descripción y revisión crítica de las principales aportaciones lingüísticas sobre este tema. Como se podrá comprobar, aunque existen ideas muy heterogéneas, también existen denominadores comunes, como la consideración del pronombre como sustituto del nombre, la identificación del pronombre por sus propiedades deícticas y anafóricas/catafóricas… En segundo lugar, hemos dedicado el capítulo cuarto, a dos objetivos. El primero persigue definir desde la Lingüística qué es el pronombre, y siendo una categoría sintáctica, no se puede llevar a cabo esta empresa a expensas del resto de categorías. Como es bien conocido por el Estructuralismo clásico, no se puede definir el valor de un elemento per se, sino en oposición al resto de elementos. Así pues, hemos creído conveniente que se debía definir el pronombre frente al resto de categorías sintácticas. Una vez identificado el pronombre como categoría sintáctica, se han descrito sus propiedades semánticas y pragmáticas. Una vez que se han definido las propiedades sintácticas, semánticas y pragmáticas del pronombre, hemos tratado de ofrecer dos teorías formales, la LFG y la SDRT, que creemos que se ajustan a nuestros presupuestos teóricos y que, además, tienen la ventaja de tener una implementación formal.The objectives of this thesis, as can be deduced from its title, Computational linguistics and anaphora, are very complex and ambitious. In the first place, we have tried to define in a clear and exclusive way what we understand as computational linguistics. The following topic that we have intended to analyze is a linguistic phenomenon that has raised the interest of computational linguistics: the anaphora and its grammatical equivalent, the pronoun. In the first place, we have devoted the third chapter to a critical description and revision of the main linguistic contributions on this topic. As the reader will be able to see, even though different heterogeneous ideas exist there are also common denominators, such as the consideration of the pronoun as a substitute of the noun, the identification of the pronoun by its deictic and anaphoric/cataphoric properties, etc. In the second place, we have devoted the fourth chapter to two objectives. The first one aspires to define what a pronoun is from the perspective of Linguistics, showing that as a syntactic category it cannot be described at the expense of the rest of categories. As it is well known since classic Structuralism, we cannot define the value of an element per se, but in opposition to the rest of elements. Therefore, we have found convenient to define the pronoun in opposition to the rest of syntactic categories. Once the pronoun was defined as a syntactic category, we described its semantic and pragmatic properties. After its syntactic, semantic and pragmatic properties were defined, we presented two formal theories, the LFG and the SDRT, which we believe adjust to our theoretical assumptions and which also have the advantage of having a formal implementation

    Modelo unificado para la integración entre ontologías y mapas conceptuales

    Get PDF
    El desarrollo y utilización de las ontologías, se está viendo cada vez más en ascenso, demostrando con ello su gran utilidad en los contextos en los que se necesite formalizar y compartir un conocimiento. Cada vez más se está requiriendo la creación de un ambiente que facilite la colaboración en el trabajo con las ontologías y hoy no están creadas las condiciones para esto. El proceso de elaboración de ontologías, las herramientas disponibles para su obtención y mantenimiento y los lenguajes de especificación que se están utilizando, tienen un alto grado de complejidad para su interpretación y amplia utilización por parte de personas no son expertas en el tema. Esto sugiere la utilización de herramientas más simple, que vinculada con las ontologías pueda ser comprendida y mejor aprovechadas por el hombre y que a su vez mantenga las capacidades para su interpretación computacionalmente. Los mapas conceptuales son una herramienta muy intuitiva para la representación del conocimiento que posee el hombre. Las facilidades que brinda en su elaboración, flexibilidad y estructura, lo han convertido en una herramienta muy útil para la gestión del conocimiento y la colaboración. La flexibilidad de los mapas conceptuales, lo convierte en una herramienta muy poco formal, a diferencia de las ontologías, sin embargo, se considera que esto no impide pensar que se puedan integrar con las ontologías y ser utilizados como un lenguaje de representación gráfico conceptual de estas. En esta investigación se propone la definición de un modelo que permite la integración entre las ontologías y los mapas conceptuales. El Modelo Unificado, como se le ha llamado, es resultado de la unificación de algunas características resultantes de análisis realizados a diferentes formas de representación del conocimiento de la Inteligencia Artificial y los mapas conceptuales. La características identificadas e integradas generó un conjunto de criterios que fundamentan la integración propuesta en ontologías y mapas conceptuales. Se proponen un conjunto de métodos que permiten la transformación del conocimiento representado en un mapa conceptual a OWL y viceversa, como implementación de este modelo. Son propuestas algunas especificaciones sintácticas y el uso de EuroWordnet en los procesos de transformación y se describen algunos ejemplos para un mayor entendimiento del modelo propuesto.Postprint (published version

    Contribución a la alineación de ontologías utilizando lógica difusa

    Get PDF
    En la actualidad, con el aumento de la cantidad de información disponible en Internet se hace cada vez más necesario crear mecanismos para facilitar la organización el intercambio de información y conocimiento entre las aplicaciones. La Web Semántica está destinada a resolver una de las carencias fundamentales de la Web actual, que es la falta de capacidad de las representaciones para expresar significados. Esta tarea se puede simplificar enormemente aądiendo información semántica y de contexto a las formas actuales de representación del conocimiento, utilizadas en la Web, de modo que los equipos puedan procesar, interpretar y conectar la información presentada en la WWW. Las ontologías se han convertido en un componente crucial dentro de la Web semántica, ya que permiten el diseǫ de exhaustivos y rigurosos esquemas conceptuales para facilitar la comunicación y el intercambio de información entre diferentes sistemas y entidades. Sin embargo, la heterogeneidad en la representación del conocimiento en las ontologías dificulta la interacción entre las aplicaciones que utilizan este conocimiento. Por ello, para compartir información, cuando se utiliza vocabularios heterogéneos se debe poder traducir los datos de un marco ontológico a otro. El proceso de encontrar correspondencias entre ontologías diferentes se conoce como alineación de ontologías. En esta tesis doctoral se propone un método de alineación de ontologías utilizando técnicas de lógica difusa para combinar diversas medidas de similitud entre entidades de ontologías diferentes. Las medidas de similitud propuestas se basan en dos elementos fundamentales de las ontologías: la terminología y la estructura. En cuanto a la terminología se propone una medida de similitud lingüística utilizando varias relaciones léxicas entre los nombres de las entidades, combinada con una medida de similitud semántica que tiene en cuenta la información del contexto de las entidades en las ontologías. En cuanto a la estructura se proponen medidas de similitud que utilizan tanto la estructura relacional como la estructura interna de los conceptos en las ontologías

    Folleto de Inteligencia Artificial

    Get PDF
    Existen muchas definiciones en la literatura del término de inteligencia e Inteligencia Artificial, en esta sección se presentan algunas de ellas ubicando las mismas en categorías que nos permita entender mejor las dimensiones de su clasificación. En primera instancia se presentan las definiciones básicas de ambos términos y luego se trabajará con las definiciones dadas en el libro de Russell and Norwing.Existen muchas definiciones en la literatura del término de inteligencia e Inteligencia Artificial, en esta sección se presentan algunas de ellas ubicando las mismas en categorías que nos permita entender mejor las dimensiones de su clasificación. En primera instancia se presentan las definiciones básicas de ambos términos y luego se trabajará con las definiciones dadas en el libro de Russell and Norwing

    Modelo computacional de lectura cognitiva para la representación automática de textos

    Get PDF
    El modelado del lenguaje natural en los ordenadores conlleva ciertas restricciones debido a la estructura lógica y a las limitaciones de tiempo y espacio de las máquinas, además de la complejidad intrínseca del lenguaje. Uno de los mayores problemas de dicho modelado es la representación de la semántica. Los primeros modelos conexionistas del lenguaje se situaban próximos a la cognición humana pero no eran lo suficientemente generales y eficientes para aplicaciones reales. Estos primeros sistemas de procesamiento de lenguaje natural hacían uso de redes de asociación como formalismo de representación. Debido a las limitaciones de almacenamiento y procesamiento de los ordenadores de aquella época, y al crecimiento de la información textual almacenada electrónicamente, los sistemas de procesamiento del lenguaje adoptaron formalismos matemáticos y estadísticos. Hoy en día, a causa de esa cantidad creciente de información textual los sistemas que son capaces de procesar textos son de extrema utilidad. Hasta hace r lativamente poco tiempo, la mayoría de estos sistemas utilizaban la clásica representación de los textos como “bolsa de palabras”, un formalismo de tipo vectorial que sólo tiene en cuenta las apariciones de las palabras de manera independiente. A mediados de los noventa, surgen los hiperespacios de palabras como un formalismo de representación alternativo al de “bolsa de palabras” tradicional. LSA (Análisis de Semántica Latente) fue el precursor de todos ellos, seguido por HAL (Hiperespacio Análogo al Lenguaje), PMI-IR, Indexado Aleatorio, WAS (Espacio de Asociación de Palabras) o ICAN (Construcción Incremental de una Red Asociativa), entre otros. Este tipo de sistemas construyen una representación en forma de matriz del conocimiento semántico lingüístico almacenado en una colección de textos dada. Este hiperespacio tiene en cuenta las relaciones entre las palabras y el contexto sintáctico y semántico en el que aparecen. Sin embargo, estos sistemas también representan los textos como vectores, llevando a cabo peraciones con las filas y las columnas de la matriz correspondientes a las palabras de los documentos. Aunque la representación mediante hiperespacios contiene mucha más información que la representación tradicional, puesto que los valores de los vectores son el resultado de la interacción entre las palabras y el contexto, los textos siguen siendo presentados como un conjunto de números sin estructura. A pesar de ello, los sistemas basados en hiperespacios han aportado una mejora significativa con respecto a los sistemas basados en la representación clásica. De los sistemas anteriormente mencionados, sólo ICAN introduce una representación estructural, almacenando el conocimiento en forma de red contextual asociativa de palabras y no como una matriz. Este modelo, a diferencia del resto de sistemas mencionados, hace posible la actualización del conocimiento sin necesidad de la reconstrucción total del mismo. A pesar del progreso realizado utilizando los hiperespacios de palabras, los seres humanos continúan r alizando tareas de procesamiento de lenguaje natural, como la clasificación de textos o la recuperación de información, de manera mucho más precisa que los ordenadores aunque, por supuesto, más despacio. Es difícil concebir el conocimiento lingüístico representado como una matriz en el cerebro humano, así como que la lectura suponga realizar operaciones matemáticas sobre dicha matriz. La lectura es un proceso secuencial de percepción en el tiempo, durante el cual los mecanismos mentales construyen imágenes e inferencias que se van reforzando, actualizando o descartando hasta la conclusión de la lectura del texto, momento en el que la imagen mental generada permite a los seres humanos resumir o clasificar el texto, recuperar documentos similares o simplemente expresar opiniones sobre el mismo. Esta es la filosofía que subyace en el sistema presentado en esta tesis. Este sistema, denominado SILC (Sistema de Indexación por Lectura Cognitiva), está ligeramente inspirado en el formalismo que sugiere el sistema ICA . Lo que se propone en este trabajo de tesis doctoral es un modelo computacional de lectura que construye una representación de la semántica de un texto como resultado de un proceso en el tiempo. Dicha representación posee una estructura que posibilita la descripción de las relaciones entre los conceptos leídos y su nivel de significación en cada momento del proceso de lectura. Existen otros modelos computacionales de lectura cuyo objetivo es más teórico que aplicado. La mayoría de ellos parten del modelo conexionista de Construcción-Integración y se centran en diferentes fases u objetivos de la lectura. Todos estos sistemas ponen de manifiesto la gran variedad y complejidad de los procesos cognitivos implicados en la lectura. El modelo propuesto en esta tesis, SILC, es un método sencillo que incluye sólo algunos de dichos procesos cognitivos y, aunque trata de ser útil en aplicaciones prácticas, está inspirado en los seres humanos tratando de asemejarse más a su proceder que el resto de sistemas del mismo ca po de aplicación. El modelo que implementa SILC intenta simular, en parte, procesos cognitivos de alto nivel que operan en el tiempo. Primero, el sistema construye una red de asociación conceptual como una memoria lingüística base a partir de una colección de textos que representan el espacio de conocimiento semántico. A continuación, el modelo genera representaciones de los textos de entrada como redes de conceptos con niveles de activación, que recogen el nivel de significación semántica de los mismos. Para ello, el modelo utiliza el conocimiento semántico lingüístico previamente construido realizando inferencias sobre el mismo mediante la propagación por la red de la activación de los conceptos leídos en orden secuencial. La representación generada se usa posteriormente para indexar documentos con el fin de clasificarlos automáticamente. Los métodos de indexación tradicionales representan los textos como resultado de procesos matemáticos. Puesto que los seres humanos superan ampliamente a los ordenadores e tareas de procesamiento de lenguaje natural, el modelo de SILC se inspira en la cognición humana para mejorar su eficacia en dichas tareas. Se han realizado experimentos para comparar el modelo con sujetos humanos, tanto durante la lectura, mediante la predicción o inferencia de conceptos, como al final de la misma, mediante la comparación con resúmenes generados por los sujetos. Los resultados muestran que el sistema es adecuado para modelar de manera aproximada el proceder humano en la lectura y sustentan la hipótesis de partida de SILC: cuanto más se asemeje el sistema a los seres humanos, mejor realizará las tareas prácticas del lenguaje. Los resultados también demuestran que el sistema es adecuado como marco experimental de validación de hipótesis relacionadas con aspectos cognitivos de la lectura. Otros experimentos de aplicación práctica han mostrado que, una vez que los parámetros del modelo han sido optimizados, la representación generada obtiene mejores resultados en clasificación de textos que otr representaciones generadas por los sistemas existentes. Se han definido tres medidas de similitud semántica entre textos a partir de las representaciones generadas por SILC. Los resultados experimentales muestran que la mejor de ellas es más eficaz y eficiente que otras medidas de similitud existentes. Además, la sinergia de dicha medida con el modelo de lectura implementado hace a SILC apropiado para su aplicación a tareas reales de procesamiento de lenguaje natural

    Guía de recomendaciones para diseño de software centrado en el usuario

    Get PDF
    En este libro se aborda toda la temática relacionada con las interfaces del usuario y su proceso de desarrollo. Se profundiza sobre la etapa de diseño de interfaces específicas, brindando una serie de recomendaciones que permitan alcanzar la calidad de uso del producto. El libro presenta una organización que consiste en seis capítulos, acompañados por ejercitación, casos de estudio y referencias específicas a cada uno. En el capítulo 1 se introducen los conceptos básicos de la Interacción Hombre-Computadora. Se incluye una breve referencia a su evolución, se aborda el paradigma de independencia de diálogo y métricas de evaluación de una interfaz. El capítulo 2 abarca el proceso de diseño de la interfaz de usuario, haciendo hincapié en las características más importantes, el ciclo de vida de la interfaz de usuario y la prototipación como metodología de desarrollo de una interfaz de usuario. Desde el capítulo 3 al 5, el libro se adentra en recomendaciones de diseño para interfaces específicas como interfaces visuales, icónicas e interfaces para la Web. En el capítulo 6 y último se introducen los conceptos de accesibilidad y las normas internacionales para construir interfaces accesibles. Al finalizar cada capítulo, se dispone de un conjunto de ejercicios prácticos y un caso de estudio relacionado con la temática. En general, versan sobre la aplicación de las recomendaciones a versiones prototípicas de sistemas desarrollados por los alumnos durante la cursada de la materia. Se han seleccionado para estos casos las mejores entregas de las distintas cohortes del dictado de la materia de Diseño Centrado en el Usuario. Se incluye también un anexo con el glosario de términos y la resolución de las ejercitaciones planteadas en cada capitulo.Facultad de Informátic

    Punto de encuentro : Estudios sobre el lenguaje

    Get PDF
    Este volumen de la colección Discutir el lenguaje recoge los trabajos que los diferentes equipos de investigación nucleados en el Centro de Estudios e Investigaciones Lingüísticas (IdIHCS-UNLP-CONICET) presentaron durante la I Jornada del CEIL, realizada en octubre de 2015. Las líneas de investigación expuestas fueron: gramática de las variedades del español en contacto con otras lenguas; aspectos gramaticales desde el punto de vista de los estudios generativistas; investigaciones en lenguaje de especialidad (lenguaje jurídico); estudios sobre didáctica de la lengua y la literatura; investigaciones sobre fonética y fonología; estudios acerca de las interacciones conversacionales. En este sentido, las seis secciones de este libro reflejan las perspectivas de trabajo, los avances realizados y los resultados obtenidos por cada equipo.Facultad de Humanidades y Ciencias de la Educació

    Punto de encuentro : Estudios sobre el lenguaje

    Get PDF
    Este volumen de la colección Discutir el lenguaje recoge los trabajos que los diferentes equipos de investigación nucleados en el Centro de Estudios e Investigaciones Lingüísticas (IdIHCS-UNLP-CONICET) presentaron durante la I Jornada del CEIL, realizada en octubre de 2015. Las líneas de investigación expuestas fueron: gramática de las variedades del español en contacto con otras lenguas; aspectos gramaticales desde el punto de vista de los estudios generativistas; investigaciones en lenguaje de especialidad (lenguaje jurídico); estudios sobre didáctica de la lengua y la literatura; investigaciones sobre fonética y fonología; estudios acerca de las interacciones conversacionales. En este sentido, las seis secciones de este libro reflejan las perspectivas de trabajo, los avances realizados y los resultados obtenidos por cada equipo.Facultad de Humanidades y Ciencias de la Educació

    Punto de encuentro : Estudios sobre el lenguaje

    Get PDF
    Este volumen de la colección Discutir el lenguaje recoge los trabajos que los diferentes equipos de investigación nucleados en el Centro de Estudios e Investigaciones Lingüísticas (IdIHCS-UNLP-CONICET) presentaron durante la I Jornada del CEIL, realizada en octubre de 2015. Las líneas de investigación expuestas fueron: gramática de las variedades del español en contacto con otras lenguas; aspectos gramaticales desde el punto de vista de los estudios generativistas; investigaciones en lenguaje de especialidad (lenguaje jurídico); estudios sobre didáctica de la lengua y la literatura; investigaciones sobre fonética y fonología; estudios acerca de las interacciones conversacionales. En este sentido, las seis secciones de este libro reflejan las perspectivas de trabajo, los avances realizados y los resultados obtenidos por cada equipo.Facultad de Humanidades y Ciencias de la Educació
    corecore