17 research outputs found

    ProCAss: An intelligent assessment for computer programming corpus

    Get PDF
    Electronic assessment (e-assessment) becomes more popular in educational tools especially in e-learning environment.This is because it has some advantages such as reducing the staffs needed for assessment tasks, automated marking is not prone to human error and it gives instant feedback to the students.However, the e-assessment existed only more on assessing essays and lack of implementation in assessing computer program in computer science environment [Haley, et.al, 2003]. This paper will briefly describe on the techniques that have been used to implement e-assessment for essays such as Project Essay Grade (PEG), E-rater, Intelligent Essay Assessor (IEA) and Latent Semantic Analysis (LSA).Mainly, the discussion will concentrate on LSA to build the eassessment for computer programming corpus.One great advantage of LSA over the others is its ability to make absolute relative comparisons, where set of documents can be compared to each other, or to an answer schema.Another reason is the computer program produces programs in a subset of English-like words, a bit similar to an essay [Haley, et.al, 2003].This paper will propose system design integrated with LSA method to assess student’s programming assignments. Then, the ability of LSA algorithm in grading computer program corpus will be evaluated.The grading process will not limited on certain programming languages, but on any programming languages

    Hacia un modelo de evaluación adaptativa personalizada basado en ontologías, contexto y filtrado colaborativo

    Get PDF
    La fase de evaluación desempeña un rol muy importante durante el proceso de enseñanza-aprendizaje de los estudiantes ya que a partir de esta se validan los conocimientos adquiridos por ellos y se descubren falencias y/o fortalezas. Sin embargo, la selección de preguntas por parte del profesor o de la plataforma de aprendizaje no responde a las necesidades, limitaciones y/o características de los estudiantes. En este contexto, la incorporación de mecanismos que permita abstraer de mejor manera las características del usuario para su posterior uso durante el proceso de selección de preguntas trae consigo beneficios como una mejor medición de los conocimientos, un incremento en el interés de los estudiantes, una mejor detección de falencias para la recomendación de nuevos recursos, entre otros. Con el objetivo de realizar una selección de preguntas que responda de mejor manera a las necesidades de los estudiantes, este artículo realiza una caracterización de las técnicas y modelos más relevantes para la selección de preguntas. De igual manera, se propone un modelo ontológico de evaluación adaptativa personalizado apoyado en técnicas de Inteligencia Artificial que incorpora información cognitiva y contextual relevante del estudiante para realizar una mejor selección y clasificación de preguntas durante el proceso de evaluación virtual

    Modelo multi-agente para la evaluación y el diagnóstico de fallas en procesos de enseñanza-aprendizaje

    Get PDF
    En los ambientes virtuales de aprendizaje no existen actualmente mecanismos efectivos que permitan una detección temprana y diagnóstico de fallas en el aprendizaje. Integrar este tipo de elementos a los entornos virtuales de aprendizaje, podría mejorar el aprendizaje ya que a partir del diagnóstico suministrado por el sistema se puede diseñar un plan de acciones que contribuya al fortalecimiento de las temáticas de los cursos. El objetivo de este artículo es presentar el diseño y desarrollo de un modelo multi-agente para la evaluación y el diagnóstico de fallas el cual busca descubrir las falencias en el aprendizaje a partir del proceso de evaluación virtual. Adicionalmente, el modelo busca ofrecer una retroalimentación y recomendar nuevos contenidos educativos adaptados a los perfiles de los aprendices. Basado en el modelo propuesto, un prototipo fue implementado y validado a través de un caso de estudio. Los resultados obtenidos permiten concluir que los estudiantes se sintieron acompañados durante el proceso de evaluación y obtuvieron una retroalimentación en tiempo real que identificó falencias y permitió recomendar recursos educativos con el fin de fortalecer el proceso de aprendizaje

    Including Content-Based Methods in Peer-Assessment of Open-Response Questions

    Full text link
    corecore