13 research outputs found

    A Closer Look into Recent Video-based Learning Research: A Comprehensive Review of Video Characteristics, Tools, Technologies, and Learning Effectiveness

    Full text link
    People increasingly use videos on the Web as a source for learning. To support this way of learning, researchers and developers are continuously developing tools, proposing guidelines, analyzing data, and conducting experiments. However, it is still not clear what characteristics a video should have to be an effective learning medium. In this paper, we present a comprehensive review of 257 articles on video-based learning for the period from 2016 to 2021. One of the aims of the review is to identify the video characteristics that have been explored by previous work. Based on our analysis, we suggest a taxonomy which organizes the video characteristics and contextual aspects into eight categories: (1) audio features, (2) visual features, (3) textual features, (4) instructor behavior, (5) learners activities, (6) interactive features (quizzes, etc.), (7) production style, and (8) instructional design. Also, we identify four representative research directions: (1) proposals of tools to support video-based learning, (2) studies with controlled experiments, (3) data analysis studies, and (4) proposals of design guidelines for learning videos. We find that the most explored characteristics are textual features followed by visual features, learner activities, and interactive features. Text of transcripts, video frames, and images (figures and illustrations) are most frequently used by tools that support learning through videos. The learner activity is heavily explored through log files in data analysis studies, and interactive features have been frequently scrutinized in controlled experiments. We complement our review by contrasting research findings that investigate the impact of video characteristics on the learning effectiveness, report on tasks and technologies used to develop tools that support learning, and summarize trends of design guidelines to produce learning video

    Metodología multi-criterio de optimización de recursos en sistemas embebidos para implementación de algoritmos de clasificación supervisados

    Get PDF
    [ES] En la actualidad, hemos visto un aumento en el uso de los sistemas embebidos debido a su flexibilidad de instalación y su capacidad de recopilar datos por medio de sensores. Estos sistemas tienen como base la combinación entre las Tecnologías de la Información y la Comunicación (TIC), el concepto de Internet of Things (IoT) y la Inteligencia Artificial (IA). Sin embargo, muchos desarrolladores e investigadores, no realizan un proceso exhaustivo sobre la veracidad de la información que busca representar el fenómeno estudiado. Se debe tener en cuenta, que los valores obtenidos por los sensores, son una aproximación del valor real, debido a la transformación de la señal de naturaleza física hacia una eléctrica. Esto ha ocasionado que la forma de almacenar dicha información esté más orientada a la cantidad que a la calidad. En consecuencia, la búsqueda de conocimiento útil a través de los sistemas embebidos, por medio de algoritmos de aprendizaje automático, se vuelve una tarea complicada. Tomando también en consideración, que el desarrollador del dispositivo electrónico, en ocasiones, no tiene un pleno conocimiento sobre el área de estudio donde va a ser empleado el sistema. La presente tesis doctoral, propone una metodología multi-criterio de optimización de recursos en sistemas embebidos para la implementación de algoritmos de clasificación empleando criterios de aprendizaje automático. Para hacer esto, se busca reducir el ruido obtenido por el porcentaje de incertidumbre ocasionado por los sensores, mediante el análisis de criterios de acondicionamiento de la señal. Además, se ha visto que, emplear un servidor externo para el almacenamiento de datos y posterior análisis de la información, influye en el tiempo de respuesta del sistema. Por esta razón, una vez cumplida la tarea de encontrar una señal depurada, se realiza un análisis de los diferentes criterios de selección de características de los datos, que permitan reducir el conjunto almacenado, para cumplir dos funciones principales. La primera, evitar la saturación de servicios computacionales con información almacenada innecesariamente. La segunda, implementar estos criterios de aprendizaje automático dentro de los propios sistemas embebidos, con el fin de que puedan tomar sus propias decisiones sin la interacción con el ser humano. Esta transformación, hace que el sistema se vuelva inteligente, ya que puede elegir información relevante y cómo puede adaptarse a su entorno de trabajo. Sin embargo, la codificación de estos modelos matemáticos que representan los algoritmos de aprendizaje automático, deben cumplir requisitos de funcionalidad, basados en la capacidad computacional disponible en un sistema embebido. Por esta razón, se presenta una nueva clasificación de sistemas embebidos, con una novedosa taxonomía de sensores, enfocados a la adquisición y análisis de datos. Concretamente, se diseña un esquema de acoplamiento de datos entre el sensor y el sistema procesador de información, que brinda una recomendación de uso del criterio de filtrado de datos, en relación con la capacidad de recursos computacionales y la forma de envío de información dentro del sistema embebido. Este proceso se valida mediante métricas de rendimiento de sensores. Por otra parte, una vez que se tenga una base de datos adecuada, se presenta una técnica de selección de los algoritmos basados en aprendizaje supervisado, que se ajuste a los requisitos de funcionalidad del sistema embebido y a su capacidad de procesar información. Específicamente, se analizan los criterios de selección de características, prototipos y reducción de dimensionalidad que se adapten a los diferentes algoritmos de clasificación para la elección de los más adecuados

    Optimizing Deep Learning Inference via Global Analysis and Tensor Expressions

    Get PDF

    Text Similarity Between Concepts Extracted from Source Code and Documentation

    Get PDF
    Context: Constant evolution in software systems often results in its documentation losing sync with the content of the source code. The traceability research field has often helped in the past with the aim to recover links between code and documentation, when the two fell out of sync. Objective: The aim of this paper is to compare the concepts contained within the source code of a system with those extracted from its documentation, in order to detect how similar these two sets are. If vastly different, the difference between the two sets might indicate a considerable ageing of the documentation, and a need to update it. Methods: In this paper we reduce the source code of 50 software systems to a set of key terms, each containing the concepts of one of the systems sampled. At the same time, we reduce the documentation of each system to another set of key terms. We then use four different approaches for set comparison to detect how the sets are similar. Results: Using the well known Jaccard index as the benchmark for the comparisons, we have discovered that the cosine distance has excellent comparative powers, and depending on the pre-training of the machine learning model. In particular, the SpaCy and the FastText embeddings offer up to 80% and 90% similarity scores. Conclusion: For most of the sampled systems, the source code and the documentation tend to contain very similar concepts. Given the accuracy for one pre-trained model (e.g., FastText), it becomes also evident that a few systems show a measurable drift between the concepts contained in the documentation and in the source code.</p

    Power Electronics Applications in Renewable Energy Systems

    Get PDF
    The renewable generation system is currently experiencing rapid growth in various power grids. The stability and dynamic response issues of power grids are receiving attention due to the increase in power electronics-based renewable energy. The main focus of this Special Issue is to provide solutions for power system planning and operation. Power electronics-based devices can offer new ancillary services to several industrial sectors. In order to fully include the capability of power conversion systems in the network integration of renewable generators, several studies should be carried out, including detailed studies of switching circuits, and comprehensive operating strategies for numerous devices, consisting of large-scale renewable generation clusters

    Tracking the Temporal-Evolution of Supernova Bubbles in Numerical Simulations

    Get PDF
    The study of low-dimensional, noisy manifolds embedded in a higher dimensional space has been extremely useful in many applications, from the chemical analysis of multi-phase flows to simulations of galactic mergers. Building a probabilistic model of the manifolds has helped in describing their essential properties and how they vary in space. However, when the manifold is evolving through time, a joint spatio-temporal modelling is needed, in order to fully comprehend its nature. We propose a first-order Markovian process that propagates the spatial probabilistic model of a manifold at fixed time, to its adjacent temporal stages. The proposed methodology is demonstrated using a particle simulation of an interacting dwarf galaxy to describe the evolution of a cavity generated by a Supernov

    Técnicas avanzadas de predicción para big data en el contexto de smart cities

    Get PDF
    Programa de Doctorado en Biotecnología, Ingeniería y Tecnología QuímicaLínea de Investigación: Ingeniería InformáticaClave Programa: DBICódigo Línea: 19Cada día se recoge más y más información de cualquier ámbito de nuestra vida. Número de pasos por minuto, contaminación en las principales ciudades del mundo o el consumo eléctrico medido cada cierto tiempo son sólo algunos ejemplos. Es en este ámbito donde surgen las Smart Cities, o ciudades conectadas, donde se recaba toda la información posible de diferentes dispositivos IoT repartidos por la misma con la esperanza de descubrir conocimiento en dichos datos e, incluso, predecir ciertos comportamientos futuros. Pero estas nuevas series temporales que se están creando comienzan a exceder los tamaños hasta ahora tenidos en cuenta, empezando a considerarse por tanto Big Data. Las técnicas de machine learning y minería de datos que hasta ahora ofrecían buenos resultados, no podían gestionar tal cantidad de información. Es por ello que necesitaban ser revisadas. Así, surge este trabajo de investigación, donde se propone un algoritmo de predicción basado en vecinos cercanos, para predecir series temporales Big Data. Para ello, apoyándose en nuevos frameworks de análisis de datos como Apache Spark con la computación distribuida como bandera, se proponen dos algoritmos: uno basado en el kWNN para análisis y predicción de series temporales univariante y el MV-kWNN en su versión multivariante. Se detalla en este trabajo los pasos realizados para adaptarlo a la computación distribuida y los resultados obtenidos tras llevar a cabo la predicción sobre los datos de consumo eléctrico de 3 edificios de una universidad pública. Se muestra, así mismo, las mejoras introducidas al algoritmo para seleccionar de forma óptima los parámetros requeridos por el mismo, estos son: el número de valores pasados que hay que usar (w) para predecir los h valores siguientes y el número de vecinos cercanos k a considerar para la predicción. También se valoran diferentes tamaños de horizontes de predicción h como dato de entrada al algoritmo. Se comprueba la validez de dichas mejoras realizando la predicción sobre una serie temporal el doble de grande que la considerada en primer término, en este caso la demanda eléctrica en España recogida durante 9 años. Las baja tasa de error obtenida demuestra la idoneidad del algoritmo, y su comparación con otros métodos como deep learning o árboles de regresión, así lo reafirman. Distintas pruebas sobre la escalabilidad del algoritmo en un clúster con diferentes configuraciones muestran lo importante que es escoger adecuadamente parámetros como el número de cores a utilizar por máquina, el número de particiones en que dividir el conjunto de datos así como el número de máquinas en un clúster. Para finalizar, se propone un nuevo algoritmo para tener en cuenta no sólo una variable, sino varias series exógenas que pudieran mejorar la predicción final. Llevando a cabo diferentes análisis basados en correlación, se define el grado mínimo que deben cumplir las series para mejorar dicha predicción. Experimentaciones sobre dos series reales, de demanda eléctrica en España y del precio de la electricidad durante el mismo periodo, son llevadas a cabo, alcanzando de nuevo bajas tasas de error. La comparación con otros métodos multivariantes, como los de redes neuronales o random forests, sitúan al método propuesto en el primer lugar por delante de estos. Una última experimentación para confirmar la adecuación del algoritmo a series temporales Big Data es realizada, mostrando los tiempos de ejecución multiplicando hasta por 200 el tamaño original de las series.Universidad Pablo de Olavide de Sevilla. Departamento de Deporte e InformáticaPostprin

    Study on open science: The general state of the play in Open Science principles and practices at European life sciences institutes

    Get PDF
    Nowadays, open science is a hot topic on all levels and also is one of the priorities of the European Research Area. Components that are commonly associated with open science are open access, open data, open methodology, open source, open peer review, open science policies and citizen science. Open science may a great potential to connect and influence the practices of researchers, funding institutions and the public. In this paper, we evaluate the level of openness based on public surveys at four European life sciences institute

    Textbook of Patient Safety and Clinical Risk Management

    Get PDF
    Implementing safety practices in healthcare saves lives and improves the quality of care: it is therefore vital to apply good clinical practices, such as the WHO surgical checklist, to adopt the most appropriate measures for the prevention of assistance-related risks, and to identify the potential ones using tools such as reporting & learning systems. The culture of safety in the care environment and of human factors influencing it should be developed from the beginning of medical studies and in the first years of professional practice, in order to have the maximum impact on clinicians' and nurses' behavior. Medical errors tend to vary with the level of proficiency and experience, and this must be taken into account in adverse events prevention. Human factors assume a decisive importance in resilient organizations, and an understanding of risk control and containment is fundamental for all medical and surgical specialties. This open access book offers recommendations and examples of how to improve patient safety by changing practices, introducing organizational and technological innovations, and creating effective, patient-centered, timely, efficient, and equitable care systems, in order to spread the quality and patient safety culture among the new generation of healthcare professionals, and is intended for residents and young professionals in different clinical specialties

    Tematski zbornik radova međunarodnog značaja. Tom 3 / Međunarodni naučni skup “Dani Arčibalda Rajsa”, Beograd, 10-11. mart 2016.

    Get PDF
    In front of you is the Thematic Collection of Papers presented at the International Scientific Conference “Archibald Reiss Days”, which was organized by the Academy of Criminalistic and Police Studies in Belgrade, in co-operation with the Ministry of Interior and the Ministry of Education, Science and Technological Development of the Republic of Serbia, National Police University of China, Lviv State University of Internal Affairs, Volgograd Academy of the Russian Internal Affairs Ministry, Faculty of Security in Skopje, Faculty of Criminal Justice and Security in Ljubljana, Police Academy “Alexandru Ioan Cuza“ in Bucharest, Academy of Police Force in Bratislava and Police College in Banjaluka, and held at the Academy of Criminalistic and Police Studies, on 10 and 11 March 2016. The International Scientific Conference “Archibald Reiss Days” is organized for the sixth time in a row, in memory of the founder and director of the first modern higher police school in Serbia, Rodolphe Archibald Reiss, PhD, after whom the Conference was named. The Thematic Collection of Papers contains 165 papers written by eminent scholars in the field of law, security, criminalistics, police studies, forensics, informatics, as well as by members of national security system participating in education of the police, army and other security services from Belarus, Bosnia and Herzegovina, Bulgaria, China, Croatia, Greece, Hungary, Macedonia, Montenegro, Romania, Russian Federation, Serbia, Slovakia, Slovenia, Spain, Switzerland, Turkey, Ukraine and United Kingdom. Each paper has been double-blind peer reviewed by two reviewers, international experts competent for the field to which the paper is related, and the Thematic Conference Proceedings in whole has been reviewed by five competent international reviewers. The papers published in the Thematic Collection of Papers contain the overview of contemporary trends in the development of police education system, development of the police and contemporary security, criminalistic and forensic concepts. Furthermore, they provide us with the analysis of the rule of law activities in crime suppression, situation and trends in the above-mentioned fields, as well as suggestions on how to systematically deal with these issues. The Collection of Papers represents a significant contribution to the existing fund of scientific and expert knowledge in the field of criminalistic, security, penal and legal theory and practice. Publication of this Collection contributes to improving of mutual cooperation betw
    corecore