5,401 research outputs found

    A proposal for supporting text interpretation process by means of NLP and Software Engineering Techniques

    Get PDF
    RESUMEN: En este artículo, se presenta una propuesta para la asistencia al proceso de interpretación de textos. La propuesta, se basa en la generación automática, a partir del texto, de un esquema conceptual utilizado en ingeniería de software llamado diagrama Entidad Relación (ER). Además, se muestra la utilidad del diagrama ER en el proceso de interpretación de textos, así como las técnicas de Procesamiento de lenguaje natural y de Ingeniería de Software que se utilizan para su derivación automática. Los resultados obtenidos, muestran cómo el diagrama ER puede ser una valiosa herramienta de apoyo al proceso de interpretación, gracias a las inferencias que, de manera automática, se realizan a través de él. Este trabajo es uno de los resultados obtenidos en la investigación de Maestría: “Método par a el reconocimiento de operaciones del diagrama de clases a partir de grafos conceptuales” culminada en la Universidad Nacional de Colombia bajo la tutoría del Grupo de Investigación en Ingeniería de Software

    Definición de un esquema preconceptual para la obtención automática de esquemas conceptuales de UML

    Get PDF
    Resumen: La elicitación de requisitos de software es una parte de la ingeniería de requisitos donde se procura capturar, analizar, sintetizar y convertir a esquemas conceptuales las necesidades del interesado. Este proceso, que se realiza interactivamente con la participación de analistas e interesados en el desarrollo de la pieza de software, suele presentar problemas de comunicación originados en la diferencia de especialidades de los participantes en el desarrollo de la pieza de software. Tradicionalmente, en ingeniería de software se han solucionado los problemas de este tipo empleando métodos de desarrollo. Dado que los diferentes métodos no garantizan la solución de los problemas de comunicación, ha surgido una nueva tendencia para la generación automática de esquemas conceptuales desde lenguajes controlados. En esta nueva tendencia, existen aún problemas tales como los siguientes: •Se sigue requiriendo una alta participación del analista, lo cual hace subjetivo el proceso. •Se suelen enfocar los proyectos hacia la obtención de un solo diagrama (generalmente Clases o Entidad-Relación). •Cuando los proyectos se enfocan a obtener varios diagramas de UML, se suelen emplear representaciones intermedias independientes para cada uno de los diagramas generados, lo que suele ocasionar problemas de consistencia entre los diagramas resultantes. En esta Tesis se propone un entorno para la generación automática de esquemas conceptuales de UML a partir de un lenguaje controlado denominado UN-Lencep. Para ello, se define un nuevo tipo de esquemas intermedios—los Esquemas Preconceptuales—y se propone un conjunto de reglas heurísticas de transformación desde UN-Lencep hacia Esquemas Preconceptuales y de allí a los diagramas de Clases, Comunicación y Máquina de Estados. Los principales aportes de esta Tesis se pueden sintetizar así: •La especificación de UN-Lencep, un nuevo lenguaje controlado que puede ser aplicable a cualquier dominio, pero que contiene los elementos necesarios para obtener automáticamente los denominados Esquemas Preconceptuales. •La definición de los Esquemas Preconceptuales, su sintaxis y su forma de uso, además de las reglas para obtenerlos desde UN-Lencep. •La conformación de un conjunto de reglas heurísticas que permiten la generación automática de diagramas de Clases, Comunicación y Máquina de Estados a partir de los Esquemas Preconceptuales. •La implementación de los elementos descritos en una nuevo tipo de herramientas CASE, que se ocupa de la interpretación de un discurso en UN-Lencep para generar automáticamente los diagramas de UML mencionados. El prototipo de una herramienta CASE de este tipo, denominado UNC-Diagramador, también es un aporte de esta Tesis. Con estos aportes se pretende la reducción del tiempo de elaboración de los diagramas de UML, el mejoramiento de la calidad de los diagramas que hacen parte de un mismo discurso en UN-Lencep y la creación de un conjunto de artefactos que permitan mejorar la comunicación entre analistas e interesados, acercando el lenguaje técnico del analista al lenguaje natural del interesado, y posibilitando la validación de los elementos que hacen parte de la descripción de un problema que requiere una solución informática. Finalmente, se pretende el mejoramiento de la calidad, la cual se entiende como la carencia de errores en corrección (la utilización de la sintaxis adecuada), consistencia (la representación de un mismo elemento en diferentes diagramas) y completitud (la adecuación de cada uno de los diagramas con el discurso en UN-Lencep). Como trabajos futuros que se encuentran fuera del alcance de estatesis, pero que se pueden nutrir de sus resultados, se cuentan los siguientes: •La generación automática de código ejecutable a partir de los diagramas que arroja el UNC-Diagramador. •La definición de reglas heurísticas para la obtención de otros diagramas de UML, por ejemplo Casos de Uso o Secuencias. •La complementación de la especificación de UN-Lencep, para acercarlo cada vez más a lenguaje natural.Abstract: Software Requirements Elicitation is the branch of Requirements Engineering to capture, analyze, synthesize, and convert the needs of the stakeholders into conceptual schemas. This process is made by means of the interactive participation of analysts and stakeholders in the software development process, and most of the times it presents communication problems, which can be originated in the differences of specialties among software development participants. Software development methods have been traditionally used in order to solve communication problems, and Requirements Engineering is an important part of these methods. Due to the fact that Software development methods are not good enough for solving communication problems, a new trend for automatic generation of conceptual schemas from controlled languages has emerged. However, this new trend still has problems to be solved: •Analysts are often required in the process, and their subjectivity affects the entire process. •Projects of this new trend are focused on obtaining only one diagram (commonly class diagram or entity-relationship diagram). •When projects are focused on several UML diagrams, they use intermediate representations oriented independently to every one of the target diagrams. Consequently, consistency problems among the resulting diagrams arise. We propose, in this Thesis, a new environment for automatically generating UML conceptual schemas from UN-Lencep (a controlled language). We also define, in order to achieve this goal, a new kind of intermediate schemas, called Pre-conceptual Schemas, and we propose a set of rules to transform a UN-Lencep discourse to these intermediate schemas, and then to Class, Communication, and State Machine diagrams. The main contributions of this work are summarized as follows: •The specification of UN-Lencep, a new controlled language applicable to any domain. UN-Lencep is suitable for automatically obtaining the so-called Pre-conceptual Schemas. •The definition of Pre-conceptual Schemas syntax and the set of rules for generating them from UN-Lencep. •The proposal of a set of heuristic rules for generating Class, Communication, and State Machine diagrams by means of Pre-conceptual Schemas. •The implementation of the above defined elements in a new kind of CASE tool to interpret a UN-Lencep discourse and to automatically generate the mentioned UML diagrams. UNC-Diagrammer, the prototype of such CASE tool, is also a contribution of this Thesis. We make these contributions in order to: •Reduce the time period dedicated to UML diagrams making. •Improve the quality of UML diagrams generated from one UN-Lencep discourse. •Create a set of artifacts to improve the analyst-stakeholder communication. To achieve this goal, we pretend to bridge the gap between technical and natural language. Better communication facilitates validation of the modeling elements, which represent the information solution of a problem. •Improve the quality of the models. Better quality is related to the reduction of errors in correction (the adequate use of syntax), consistency (the proper representation of the same element in different diagrams), and completeness (the use, in the diagrams, of enough elements from the UN-Lencep discourse). The results of this Thesis can generate the following future work: •Automatic generation of a source executable code from the diagrams made by means of the UNC-Diagrammer. •Definition of additional heuristic rules to obtain other UML diagrams, for example Sequence or Use Case diagrams. •Addition of new elements to the UN-Lencep specification, in order to make it close to the natural language.Doctorad

    “Procedimiento algorítmico basado en técnicas del procesamiento del lenguaje natural para el análisis del CORPUS de artículos científicos de la plataforma EcuCiencia.”

    Get PDF
    Today to analyze an excessive amount of documents in electronic format that are found on the web is a complicated and tiring task for any person, in the scientific platform ECUCIENCIA when analyzing a scientific article is based only on the title, summary and keywords, there are documents in pdf format with much more information in the body of the document, where it is possible to visualize data with greater accuracy since we are living in an era where technology and the Internet have allowed us to generate and collect large volumes of information. For the study of the project, the objective was to establish an algorithmic procedure through natural language processing techniques that allowed the analysis of the corpus of scientific articles of the research professors of the Technical University of Cotopaxi stored in the ECUCIENCIA platform; There were two phases to fulfill the development of the project, the methodology KDD (Knowledge Discovery in Databases) was used for the first phase that leads to the extraction of knowledge which is the methodological process to find a valid, useful and understandable model that describes patterns according to the extracted information, On the other hand, for the second stage, the scrum methodology was used, which allowed a direct communication between the client and the development team, thus having a higher quality of the final product. In this way, the project grew from iteration to iteration without problems and the logic acquired from the first stage was joined to the development of a module, where Python libraries were applied that allowed the analysis of the corpus of the scientific articles in pdf format obtaining from them the lexical richness, word frequency, stop words, similarity and distances of the texts that are represented by means of graphics for the users to visualize the content of the data analysis without difficulty.Hoy en día analizar una cantidad excesiva de documentos en formato electrónico que se encuentran por la web es una tarea complicada y desgastante para cualquier persona, en la plataforma científica ECUCIENCIA al analizar un artículo científico se basa solamente en el título, resumen y palabras claves, existen documentos en formato pdf con mucha más información en el cuerpo del documento, en donde se puede visualizar datos con mayor exactitud ya que estamos viviendo en una era en donde la tecnología y el internet nos ha permitido generar y recopilar grandes volúmenes de información, para el estudio del proyecto se tuvo como objetivo el establecimiento de un procedimiento algorítmico mediante técnicas de procesamiento de lenguaje natural que permitió el análisis del corpus de artículos científicos de los docentes investigadores de la Universidad Técnica de Cotopaxi almacenados en la plataforma ECUCIENCIA; se tuvo dos fases para cumplir el desarrollo del proyecto, se utilizó la metodología KDD(Knowledge Discovery in Databases) para la primera etapa que conduce a la extracción de conocimiento el cual es el proceso metodológico para encontrar un modelo valido, útil y entendible que describa patrones de acuerdo a la información extraída, por otro lado para la segunda etapa se utilizó la metodología scrum el cual permitió una comunicación directa entre el cliente y el equipo de desarrollo teniendo así una mayor calidad del producto final y así el proyecto fue creciendo de iteración en iteración sin problemas y se logró unir la lógica adquirida de la primera etapa con el desarrollo de un módulo, donde se aplicaron librerías de Python que permitió realizar el análisis del corpus de los artículos científicos en formato pdf obteniendo de los mismos la riqueza léxica, frecuencia de palabras, palabras de parada, similitud y distancias de textos de los mismos que se representan mediante gráficos para los usuarios visualicen el contenido del análisis de datos sin dificultad

    Desarrollo de un sistema experto para el proceso de atención de enfermería en esquizofrenia

    Get PDF
    La esquizofrenia es una enfermedad mental que se caracteriza por perdida de la consciencia de la realidad y la presencia de alucinaciones, es la segunda enfermedad mental en México, ya que su índice de impacto es crónico (larga duración) y de tratamiento costoso debido a que los pacientes tienen recaídas que requieren de hospitalización de 3 a 4 veces por año. En este trabajo se describe el desarrollo del Sistema Experto (SE) dirigido al diagnóstico de esquizofrenia, con la finalidad de proporcionar una herramienta para los estudiantes de enfermería. Dicha herramienta es un apoyo previo a realizar la intervención para emitir los resultados del diagnóstico. El desarrollo del SE propuesto se basa en la realización del Proceso de atención de Enfermería (PAE) el cual es referente en los estudios de Licenciatura en Enfermería mediante el uso de las taxonomías especificadas en NANDA por sus siglas en inglés (North American Nursing Diagnosis Association), NIC (Nursing Interventions Classification) y NOC (Nursing Outcomes Classification). El modelo del SE propuesto consta de 5 etapas: (a) Registro y administración, en la cual el profesor en el rol de administrador será el encargado de evaluar al alumno, para que los estudiantes puedan hacer los diagnósticos tendrán que hacer uso del sistema; (b) Base de Conocimiento, contiene las representaciones del conocimiento en forma declarativa las cuales brindan una solución o emisión de diagnóstico; (c) Máquina de Inferencia se define como el proceso que efectúa el razonamiento a partir de los datos y se hace uso de la base de conocimientos; (d)Memoria de Trabajo, contiene los datos de entrada que se generan durante el proceso de razonamiento y (e) Interfaz de Usuario que será el enlace entre la entrada y salida para mostrar al usuario el sistema y en la cual usualmente se observarán la base de preguntas y de explicación

    Macht: una aplicación basada en un modelo de análisis de sentimiento aplicado a la identificación de mensajes en español de testimonios de violencia de género en Twitter

    Get PDF
    Busca construir una plataforma web capaz de clasificar mensajes en dos categorías: "La mujer pasó por un proceso violento" y "La mujer no pasó por un proceso violento”, con la finalidad de realizar procesos de concientización más específicos que permitan fomentar la creación de espacios seguros. En estos espacios se buscaría que los testimonios de las víctimas sean escuchados, el brindar soporte emocional, enseñar a identificar signos de violencia en hogares y relaciones y brindar información acerca de las medidas tomadas contra la violencia a la mujer en el Perú. La metodología aplicada considera la construcción de un conjunto de datos públicos con 1042 tweets en español etiquetados por 22 voluntarios. El modelo considera el proceso de ajuste a 3 modelos BERT pre-entrenados (SpanBERT, BETO, multilingualBERT), con los cuales se realizaron 2916 experimentos para encontrar el modelo con mejor desempeño, obteniendo un Área Bajo la Curva de 0.9349 y una precisión de 0.9043. La investigación aporta un nuevo dato público etiquetado en español, en 3 rangos de edad. Cualquier persona de cualquier parte del mundo podrá acceder a la aplicación y probar el rendimiento del modelo

    Aplicación basada en tecnología NLP y gamificación para medir la comprensión lectora en niños de cuarto de primaria

    Get PDF
    La comprensión lectora es una capacidad fundamental en un niño que debe desarrollarse y medirse adecuadamente, la cual puede ocasionar problemas no solo en la niñez sino también en las otras etapas de madurez. Por ello, se propone un sistema capaz de medir dicha capacidad utilizando preguntas para obtener una calificación que refleje el nivel de rendimiento en comprensión lectora del niño, ésta se valida mediante una comparación con la nota obtenida en la evaluación PISA del niño. Las preguntas que componen el cuestionario son formuladas mediante procesamiento de lenguaje natural y reglas de articulación. Además, las respuestas a las preguntas mencionadas se recogen de los niños mediante procesamiento de voz, luego se transcribe a texto con la finalidad de comparar las respuestas recogidas por el sistema del mismo texto. El estudio fue desarrollado en 2 instituciones con una muestra de 90 alumnos de entre 10 a 12 años de edad. En primer lugar, la técnica de transformación de voz a texto empleada para transcribir las respuestas de voz de los alumnos, se concretizó adecuadamente las oraciones de respuestas en 95% de las veces. En segundo lugar, se crearon preguntas mediante el uso del procesamiento de lenguaje natural y reglas de articulación para evaluar la comprensión lectora, obteniendo como resultados que en más del 50% de los cuestionarios aplicados a los niños se obtuvieron preguntas con estructuras correctas. En tercer lugar, se obtuvo que las preguntas que conforman un cuestionario fueron estructuradas lógicamente en más del 90%. En cuarto lugar, se logró la extracción de respuestas a preguntas autogeneradas, debido a que hubo un 70% de similitud. Por último, se midió correctamente la capacidad lectora de los alumnos en un 90% de correspondencia a la nota real del total de alumnos.Reading comprehension is a fundamental ability in a child that must be developed and measured properly, which can cause problems not only in childhood but also in other stages of maturity. For this reason, a system capable of measuring said ability is proposed using questions to obtain a grade that reflects the level of performance in reading comprehension of the child, this is validated by means of a comparison with the grade obtained in the child's PISA evaluation. The questions that make up the questionnaire are formulated using natural language processing and articulation rules. In addition, the answers to the mentioned questions are collected from the children by voice processing, then transcribed to text in order to compare the answers collected by the system from the same text. The study was developed in 2 institutions with a sample of 90 students between 10 and 12 years of age. First, the speechto- text technique used to transcribe the students' voice responses adequately conveyed the response sentences 95% of the time. Second, questions were created using natural language processing and articulation rules to assess reading comprehension, obtaining as a result that more than 50% of the questionnaires applied to children obtained questions with correct structures. Thirdly, it was found that the questions that make up a questionnaire were logically structured in more than 90%. Fourth, the extraction of answers to self-generated questions was achieved, since there was a 70% similarity. Finally, the reading ability of the students was correctly measured in a 90% correspondence to the real grade of the total number of students

    Implementación de un sistema de comunicación por intercambio de imágenes en dispositivos móviles como soporte de ayuda para infantes con trastorno de espectro autista

    Get PDF
    Desarrolla una herramienta tecnológica llamada CMI-PECS el cual adopta todas las características del PECS tradicional, agregando nuevas funcionalidades como la digitalización, visualización y reproducción de imágenes que puede ser utilizado en celular y Tablet con el propósito de apoyar y complementar las terapias. Los infantes con Trastorno de Espectro Autista (TEA) requieren de terapias, programas y herramientas especiales para desarrollar sus habilidades. En muchas ocasiones éstos no se encuentran disponibles debido a la complejidad de uso, limitaciones para desarrollar habilidades en el infante y precios elevados. Una de las herramientas más utilizadas es el Sistema de Comunicación por Intercambio de Imágenes (PECS) debido a su facilidad de uso y buenos resultados luego de la intervención. En la implementación del sistema, participaron 25 infantes con TEA en diferentes niveles de gravedad apoyados por sus familias, que en diferentes periodos de tiempo no menor a un mes utilizaron CMI-PECS. Los resultados mostraron que se mejora en más del 15% en la preparación de materiales, reducción de la complejidad en el uso y la calificación de esta herramienta en comparación a otros. Asimismo, hubo un aumento del 10% en el desarrollo de habilidades sociales y comunicativas y una reducción del costo económico mayor al 28% debido a que la herramienta es gratuita y accesible para las familias

    XVIII Congreso de Tecnología en Educación & Educación en Tecnología : Libro de actas

    Get PDF
    Trabajos presentados en el XVIII Congreso Nacional de Tecnología en Educación y Educación en Tecnología (TE&ET), celebrado los días 15 y 16 de junio de 2023, organizado por la Red de Universidades con Carreras en Informática (RedUNCI) y la Universidad Nacional de Hurlingham, Argentina.Red de Universidades con Carreras en Informátic

    Clasificador de carreras de educación superior y técnico productivas. Versión 1

    Get PDF
    El diseño de la estructura y contenido del clasificador permite evaluar, comparar, entender e interpretar correctamente la información de los procesos y los resultados del Sistema Educativo actual, en su elaboración se ha tomado como base a la Clasificación Internacional Normalizada de la Educación 2011 (CINE-2011) que es el marco de referencia estándar. Consta de cuatro capítulos, en el primero se presentan los aspectos conceptuales y metodologías del clasificador que incluye los Antecedentes, Objetivos, Marco Conceptual, Metodología de elaboración y descripción de la estructura jerárquica; en el segundo capítulo se presentan las Carreras Universitarias, donde está contenido el listado de carreras con sus respectivas Notas Explicativas; en el siguiente capítulo carreras no universitarias, donde se ofrece el listado de carreras en los niveles superior, medio y básico y sus notas explicativas para cada nivel. Finalmente en el cuarto y último capítulo se presenta el glosario de términos

    Propuesta de un diccionario de palabras STEMMER para uso aplicaciones de procesamiento de lenguaje natural

    Get PDF
    El recurso más importante que posee la raza humana es conocimiento y la información. En la época actual de información, del manejo eficiente de este conocimiento depende del uso de todos los demás recursos naturales, industriales y humanos. El Procesamiento del Lenguaje Natural (PLN) es el campo que combina las tecnologías de la ciencia computacional con la lingüística, con el objetivo de hacer posible la comprensión y el procesamiento asistidos por ordenador de información expresada en lenguaje humano para determinadas tareas, como búsquedas de información, la traducción automática, los sistemas de diálogo interactivos, el análisis de opiniones. El PLN no trata de la comunicación por medio de lenguajes naturales de una forma abstracta, sino de diseñar mecanismos para comunicarse y que sean eficaces computacionalmente que se puedan realizar por medio de programas que ejecuten o simulen la comunicación. Los modelos aplicados se enfocan no sólo a la comprensión del lenguaje de por sí, sino a aspectos generales cognitivos humanos y a la organización de la memoria. El lenguaje natural sirve sólo de medio para estudiar estos fenómenos. Hasta la década de 1980, la mayoría de los sistemas de PLN se basaban en un complejo conjunto de reglas diseñadas a mano. A partir de finales de 1980, sin embargo, hubo una revolución en PLN con la introducción de algoritmos de aprendizaje automático, para el procesamiento del lenguaje. La Lematización es un proceso de eliminación automática de partes no esenciales de las palabras para reducirlas a su parte original (lema). El lema es viii la forma que por convenio se acepta como representante de todas las formas flexionadas de una misma palabra. Es decir, el lema de una palabra es la palabra que nos encontraríamos como entrada en un diccionario tradicional. Por ejemplo, decir es el lema de dije, pero también de diré o dijéramos; guapo es el lema de guapas; mesa es el lema de mesas.Tesi
    corecore