4 research outputs found

    La evaluación colegiada de las competencias básicas en la Comunidad Autónoma de Canarias : hacia un modelo de escuela inclusiva y sostenible

    No full text
    Precede al título: Educación Primaria y Educación Secundaria ObligatoriaLa Ley Orgánica de Educación (LOE) introduce el concepto de «competencias básicas» como eje articulador del currículo, conectando de pleno con las reflexiones y las estrategias que se están desarrollando en otros sistemas educativos internacionales a la luz del informe Delors (1996), el documento DeSeCo (Definición y Selección de Competencias fundamentales) elaborado por la OCDE, de las evaluaciones PISA (Programa para la Evaluación Internacional del Alumnado), etc. Esta propuesta centra el foco en la dimensión formativa de la «evaluación», aspecto inacabado con la LOGSE (Ley Orgánica General del Sistema Educativo), a pesar de los esfuerzos realizados en esa dirección. Trabajar en las aulas para la consecución de las «competencias básicas» lleva ineludiblemente al problema de cómo evaluarlas de forma colegiada —cuando la propia ordenación del sistema educativo fragmenta cada una de las enseñanzas en diferentes áreas o materias— y de cómo emplear la información que proporciona esta labor para hacer valer el sentido formativo y regulador que debe tener la evaluación de las competencias básicas.Consejería de Educación y Universidades. Dirección General de Ordenación, Innovación y Promoción Educativa; Avda. Buenos Aires, 5; 38071 Tenerife; Tel. +34922592592; Fax +34922592570; [email protected]

    Mass Reproducibility and Replicability: A New Hope

    Full text link
    This study pushes our understanding of research reliability by reproducing and replicating claims from 110 papers in leading economic and political science journals. The analysis involves computational reproducibility checks and robustness assessments. It reveals several patterns. First, we uncover a high rate of fully computationally reproducible results (over 85%). Second, excluding minor issues like missing packages or broken pathways, we uncover coding errors for about 25% of studies, with some studies containing multiple errors. Third, we test the robustness of the results to 5,511 re-analyses. We find a robustness reproducibility of about 70%. Robustness reproducibility rates are relatively higher for re-analyses that introduce new data and lower for re-analyses that change the sample or the definition of the dependent variable. Fourth, 52% of re-analysis effect size estimates are smaller than the original published estimates and the average statistical significance of a re-analysis is 77% of the original. Lastly, we rely on six teams of researchers working independently to answer eight additional research questions on the determinants of robustness reproducibility. Most teams find a negative relationship between replicators' experience and reproducibility, while finding no relationship between reproducibility and the provision of intermediate or even raw data combined with the necessary cleaning codes
    corecore