14 research outputs found

    La perplejidad como herramienta para estimar la asignaci贸n de nivel de competencia en escritos de una lengua extranjera

    Get PDF
    The allocation of proficiency levels to utterances written by foreign language learners is a subjective task. Therefore, the development of methods to automatically evaluate written sentences can help both students and teachers. In this work, we have explored two different approaches to tackle this task by using the corpus CAES, which contains written utterances of learners of Spanish labelled with CEFR levels (up to C1). The first approach is a deep learning model called Deep-ELE which assigns proficiency levels to sentences. The second approach consists in studying the perplexity of sentences written by students of different levels, to later allocate levels to those sentences based on such an analysis. Both approaches have been evaluated, and results confirm that they can be used to successfully classify written sentences into proficiency levels. In particular, the Deep-ELE model reaches an accuracy of 81.3% and a weighted Cohen Kappa of 0.83. As a conclusion, this work is a step towards better understanding how natural language processing methods can help learners of a second language.La asignaci贸n de niveles de competencia a escritos producidos por aprendices de una lengua es una tarea altamente subjetiva. Es por esto que el desarrollo de m茅todos que eval煤en escritos de manera autom谩tica puede ayudar tanto al profesorado como al alumnado. En este trabajo, hemos explorado dos v铆as mediante el uso del corpus CAES. Dicho corpus est谩 formado por escritos de aprendices de espa帽ol y etiquetado con niveles CEFR (hasta el C1). La primera aproximaci贸n es un modelo de aprendizaje profundo llamado Deep-ELE que asigna niveles de competencia a las frases. La segunda aproximaci贸n llevada a cabo ha consistido en estudiar la perplejidad de las frases de los estudiantes de distintos niveles, para luego clasificarlos en niveles. Ambas aproximaciones han sido evaluadas, y se ha comprobado que pueden usarse de manera exitosa para clasificar frases por niveles. En concreto, el modelo Deep-ELE obtiene una accuracy de 81,3% y un QWK de 0,83. Como conclusi贸n, este trabajo es un paso para entender c贸mo las herramientas del procesado de lenguaje natural pueden ayudar a las personas que aprenden un segundo idioma

    Gesti贸n mecanizada del conocimiento matem谩tico en topolog铆a algebraica

    No full text
    Esta tesis presenta una particularizaci贸n de la Gesti贸n del Conocimiento Matem谩tico al caso de la Topolog铆a Algebraica. La Gesti贸n del Conocimiento Matem谩tico es una rama de las Ciencias de la Computaci贸n cuyo principal objetivo consiste en desarrollar asistentes para las matem谩ticas que incorporen c谩lculo, deducci贸n e interfaces de usuario potentes que puedan mejorar el trabajo cotidiano de los investigadores en Matem谩ticas. Nuestra 谩rea de aplicaci贸n particular es la Topolog铆a Algebraica utilizando el sistema Kenzo como herramienta fundamental. Kenzo es un programa Common Lisp para la Topolog铆a Algebraica que fue desarollado por Francis Sergeraert. Podemos dividir en tres grandes bloques el trabajo presentado en la tesis que coinciden con los grandes objetivos de la Gesti贸n del Conocimiento Matem谩tico. Nuestra primera labor ha consistido en el desarrollo de un sistema llamado fKenzo, del ingl茅s friendly Kenzo. Dicho sistema no s贸lo proporciona una intefaz de usuario agradable y c贸moda para utilizar el sistema Kenzo, sino que tambi茅n gu铆a al usuario en la interacci贸n con el sistema. El sistema fKenzo permite tambi茅n la integraci贸n de otros sistemas de c谩lculo simb贸lico (como GAP) y demostradores de teoremas (por ejemplo, ACL2) mediante un sistema de m贸dulos. La segunda parte de la tesis se centra en incrementar las capacidades computacionales del sistema Kenzo. Se han desarrollado tres nuevos m贸dulos para Kenzo. El primero de los m贸dulos permite estudiar el pushout de conjuntos simpliciales, una construcci贸n en Topolog铆a Algebraica. El segundo implementa la noci贸n de complejo simplicial. El 煤ltimo m贸dulo permite estudiar propiedades de im谩genes 2D y 3D gracias al c谩lculo de los grupos de homolog铆a asociados con las im谩genes. Por 煤ltimo, debido a que el sistema Kenzo ha obtenido resultados que no han sido ni confirmados ni refutados por ning煤n otro medio queremos incrementar la confianza en la fiabilidad del sistema Kenzo mediante el uso de demostradores de teoremas. En concreto, hemos utilizado el demostrador de teoremas ACL2. ACL2 permite demostrar propiedades sobre sistemas implementados en el lenguaje Common Lisp, como es el caso de Kenzo. En nuestro trabajo nos hemos centrado en la certificaci贸n de la correcci贸n de algunos fragmentos importantes del sistema Kenzo.The work presented in this thesis tries to particularize Mathematical Knowledge Management to Algebraic Topology. Mathematical Knowledge Management is a branch of Computer Science whose main goal consists in developing integral assistants for Mathematics including computation, deduction and powerful user interfaces able to make the daily work of mathematical researchers easier. Our application context is Algebraic Topology using the Kenzo system, a Common Lisp program devoted to Algebraic Topology developed by Francis Sergeraert, as an instrumental tool. We can split the work presented in this thesis into three main parts which coincide with the main goals of Mathematical Knowledge Management. Our first task has consisted in developing a system called fKenzo, an acronym of friendly Kenzo. This system not only provides a friendly graphical user interface to interact with the Kenzo system but also guides the interaction of the user with the. Moreover, fKenzo allows one to integrate other symbolic computation systems (such as GAP) and theorem prover tools (for instance, ACL2) by means of a plugin system. The second part of the thesis is focussed on increasing the computational capabilities of the Kenzo system. Three new Kenzo modules have been developed which in turn extend the fKenzo system. The first one allows us to study the pushout of simplicial sets, an important construction in Algebraic Topology. The second one implements the simplicial complex notion (a generalization of the graph notion to higher dimensions). The last module allows us to analyse properties of 2D and 3D images by means of the Kenzo system thanks to the computation of the homology groups associated with the image. Finally, since the Kenzo system has obtained some results not confirmed nor refuted by any other means, we are interested in increasing the reliability of the Kenzo system by means of Theorem Proving tools. Namely, in our work we have used the ACL2 Theorem Prover. ACL2 allows us to prove properties of programs implemented in Common Lisp, as in the Kenzo case. Then, in our work we have focussed on the certification of the correctness of some important fragments of the Kenzo system

    Towards a framework for the democratisation of deep semantic segmentation models

    No full text
    Semantic segmentation models based on deep learning techniques have been successfully applied in several contexts. However, non-expert users might find challenging the use of those techniques due to several reasons, including the necessity of trying different algorithms implemented in heterogeneous libraries, the configuration of hyperparameters, the lack of support of many state-of-the-art algorithms for training them on custom datasets, or the variety of metrics employed to evaluate semantic segmentation models. In this work, we present the first steps towards the development of a framework that facilitates the construction and usage of deep segmentation models

    Foreword

    No full text

    Guiding the creation of deep learning-based object detectors

    No full text
    Object detection is a computer vision field that has applications in several contexts ranging from biomedicine and agriculture to security. In the last years, several deep learning techniques have greatly improved object detection models. Among those techniques, we can highlight the YOLO approach, that allows the construction of accurate models that can be employed in real-time applications. However, as most deep learning techniques, YOLO has a steep learning curve and creating models using this approach might be challenging for non-expert users. In this work, we tackle this problem by constructing a suite of Jupyter notebooks that democratizes the construction of object detection models using YOLO. The suitability of our approach has been proven with a dataset of stomata images where we have achieved a mAP of 90.91%.Comment: To be published in I Workshop en Deep Learning of the CAEPIA Conferenc

    Creaci贸n de un servidor de integraci贸n continua para gesti贸n y correcci贸n de entregas de pr谩cticas

    No full text
    In this work, we present a web application (http: //iscima.unirioja.es/) devoted to allow both students and teachers to check that lab submissions sa- tisfy a set of minimal requirements (related to struc- ture, compilation and satisfiability of tests). Moreover, we present a case study where the tool is applied to a programming module and the conclusions obtained from its use. The web application is not only used to automatize and reduce the teachers work, but it also serves to introduce concepts about continuous integra- tion and testing to the students. In this paper, we intro duce the web application, its technological solutions, and an evaluation of the tool based on the students improvements.En este trabajo se presenta un servidor web p煤blico (http://iscima.unirioja.es/) desarrollado para permitir, tanto a estudiantes como a profesores, comprobar que los env铆os de pr谩cticas de programa- ci贸n cumplen una serie de requisitos m铆nimos (en cuanto a estructura de directorios, compilaci贸n y com- probaci贸n de tests). Para completar el trabajo se mues- tra un caso de uso de aplicaci贸n de la herramienta en una asignatura y las conclusiones de su uso. Adem谩s del servidor, que automatiza y reduce el trabajo de los profesores, tambi茅n se ha aprovechado su utilizaci贸n para inculcar a los estudiantes conceptos y metodolo- g铆as propias de Ingenier铆a del Software como la entrega continua y el uso de tests. En este trabajo se presenta dicha herramienta inform谩tica, sus soluciones tecnol贸- gicas, y una valoraci贸n de los cambios detectados en el aprendizaje de los estudiantes por el uso de la misma

    El grupo de investigaci贸n en educaci贸n superior en inform谩tica de La Rioja y Pa铆s Vasco: telecolaboraci贸n, PBL, valoraci贸n por pares y proyectos fin de carrera

    No full text
    Nuestro equipo de investigaci贸n se compone de seis profesores de La Rioja que colaboramos estrechamente con tres profesores del Pa铆s Vasco. Inicialmente nuestras experiencias innovadoras se centraron en asignaturas de bases de datos. Destacamos un experimento donde los estudiantes realizaban un trabajo junto a un alumno de otra universidad distante que cursaba una asignatura complementaria pero no id茅ntica. La situaci贸n forzaba a utilizar las TIC y otros medios telem谩ticos. En otro experimento con asignaturas similares de gesti贸n de proyectos la participaci贸n de los alumnos de ambas universidades se centraba en valorar una selecci贸n de proyectos que conten铆a trabajos hechos en las dos universidades. El eje central de esta 煤ltima experiencia es el aprendizaje basado en proyectos, como tambi茅n lo fue en otra experiencia con bases de datos, a la que se ha incorporado el aprendizaje en espiral y las valoraciones entre pares. Tambi茅n hemos estudiado la tutorizaci贸n de trabajos de fin de carrera, analizando las funciones que realizan los tutores y consiguiendo una clasificaci贸n de tipos de supervisi贸n. Adem谩s hemos comparado la percepci贸n del tutor y el alumno a la conclusi贸n del proyecto, identificando algunas divergencias interesantes, y hemos utilizado redes sociales y una aplicaci贸n ad hoc como nexo de uni贸n entre los alumnos que realizan el proyecto. Con alguna excepci贸n, a lo largo de las experiencias docentes hemos recopilado datos (mediante encuestas, formularios, notas) relacionados con los objetivos a alcanzar. El an谩lisis estad铆stico de los datos ha permitido identificar diferencias o correlaciones 煤tiles para demostrar las mejoras alcanzadas. Explicamos nuestra experiencia al publicar en revistas como Computers and Education, Journal of Engineering Education o IEEE Transactions on Education o los congresos JENUI e ITICSE
    corecore