Secciones
Referencias
Resumen
Servicios
Descargas
HTML
ePub
PDF
Buscar
Fuente


Diseño y validación de una escala de percepción de los estudiantes sobre la cultura de evaluación como aprendizaje
Design and validation of a Scale Designed to Gather Student Perceptions of the Culture of Assessment as Learning
Conceção e validação de uma escala de perceção dos estudantes da cultura de avaliação como aprendizagem
对评估即学习这一文化的学生感知量表的设计与验证
RELIEVE. Revista Electrónica de Investigación y Evaluación Educativa, vol. 28, núm. 2, 2022
Universidad de Granada


Recepción: 28 Junio 2023

Aprobación: 28 Noviembre 2023

Publicación: 28 Diciembre 2023

DOI: https://doi.org/10.30827/relieve.v28i2.25195

Financiamiento

Fuente: Esta investigación se ha realizado en el marco del proyecto Fondecyt de Iniciación N°11200738 subvencionado por la Agencia Nacional de Investigación y Desarrollo (ANID) Chile

Beneficiario: Yanire Turra Marín, Carolina Pilar Villagra Bravo, Mª Elena Mellado Hernández y Omar Andrés Aracena Kenigs.

Resumen: Liderar la transformación educativa desafía a repensar la práctica pedagógica desde la comprensión profunda de aprendizaje y evaluación como un solo proceso formativo. El objetivo del artículo es describir el proceso de construcción y validación de un instrumento que busca indagar en la percepción que tienen los estudiantes sobre la cultura de evaluación como aprendizaje. Es un estudio de carácter exploratorio y descriptivo, participan del proceso de validación 505 estudiantes de educación primaria y secundaria de la región de La Araucanía, Chile. La validez de contenido del instrumento se desarrolló mediante el juicio de expertos. Por otro lado, la confiabilidad se determinó con el coeficiente Alfa de Cronbach y el indicador Omega de McDonald, mientras que el análisis de constructo contempló la aplicación de modelos de análisis factorial exploratorio, confirmatorio y de ecuaciones estructurales. Los resultados permitieron definir una escala constituida por tres factores: cultura de autoevaluación, cultura de colaboración y cultura tecnológica de aprendizaje. El instrumento demostró cumplir con las garantías y rigurosidad estadística para su aplicación en el sistema escolar. Se concluye que este instrumento aporta a la discusión sobre la integración de la evaluación y el aprendizaje como un solo constructo. El instrumento contribuye a la resignificación de las prácticas evaluativas, al ofrecer un referente que propicia la autoevaluación y reflexión sobre las oportunidades de aprendizaje profundo que se promueven en las escuelas del siglo XXI.

Palabras clave: proceso de aprendizaje, evaluación, relación profesor-alumno, instrumento.

Abstract: Overseeing educational transformation demands a rethink of pedagogical practice according to a more in-depth understanding of learning and assessment as a single formative process. The aim of the present article is to describe the elaboration and validation an instrument that seeks to investigate student perceptions of the culture of assessment as learning. The study is exploratory and descriptive in nature and comprises 505 primary and secondary school students from the region of La Araucanía, Chile. Content validity of the instrument was examined by an expert panel. Further, reliability was determined according to Cronbach’s Alpha coefficient and MacDonald’s Omega indicator, whilst construct analysis included the development of exploratory and confirmatory factor analysis and structural equation models. Findings revealed a scale made up of three factors: culture of self-assessment, culture of collaboration and technological culture of learning. The instrument meets requisites for statistical rigour required for its application in the school system. It can be concluded that this instrument contributes to the discussion on the integration of assessment and learning as a single construct. The instrument also contributes redefining assessment practices by providing a reference that encourages self-assessment and reflection on the profound learning opportunities that are provided by schools in the 21st century.

Keywords: learning processes, assessment, student-teacher relationship, Instrument.

Resumo: Liderar a transformação educacional desafia a repensar a prática pedagógica a partir de uma compreensão profunda de aprendizagem e avaliação como um processo formativo único. O objetivo do artigo é descrever o processo de construção e validação de um instrumento que procura investigar a perceção dos estudantes sobre a cultura de avaliação e de aprendizagem. É um estudo de caráter exploratório e descritivo, em cujo processo de validação participam 505 estudantes do ensino primário e secundário da região de La Araucanía, no Chile. A validade do conteúdo do instrumento foi desenvolvida através do julgamento de peritos. Por outro lado, a fiabilidade foi determinada com o coeficiente Alfa de Cronbach e o indicador Ómega de McDonald, enquanto a análise de construção contemplou a aplicação de modelos de análise fatorial exploratória, confirmatória e de equações estruturais. Os resultados permitiram definir uma escala constituída por três fatores: cultura de autoavaliação, cultura de colaboração e cultura tecnológica de aprendizagem. O instrumento demonstrou cumprir as garantias e o rigor estatístico para a sua aplicação no sistema escolar. Conclui-se que este instrumento contribui para a discussão sobre a integração da avaliação e da aprendizagem como uma construção única. O instrumento contribui para a ressignificação das práticas de avaliação, ao oferecer uma referência que propicia a autoavaliação e a reflexão sobre as oportunidades de aprendizagem profunda promovidas nas escolas do século XXI.

Palavras-chave: processo de aprendizagem, avaliação, relação professor-aluno, instrumento.

摘要: 引领教育转型为我们提出了新的挑战,让我们对将学习和评估看作为同一个教育过程这个想法有了更深入的理解,以此促使我们重新思考教学实践。该研究的主要目的是对用来测量学生对于评估即学习这一观念想法的工具进行建设和验证。这是一项探索性和描述性的研究,对来自智利阿劳卡尼亚大区的505名中小学教育阶段的学生进行验证。由专家对工具内容的效度进行评判,通过克隆巴赫系数和麦克唐纳的欧米伽指标确定工具的信度,同时使用探索性和验证性因子模型以及结构方程模型进行建构分析。结果验证得到量表的三个构成元素:自我评估文化、协作文化和学习的技术文化。工具在学校系统应用中满足了数据的质量和严格性所提出的要求。同时该工具在关于将评估与学习融合为一体这个议题上给出了支持。另一方面该研究也引出了我们对教育实践的思考。最后该工具给我们提出了一个参考,这个参考推动着我们对二十一世纪校园提倡的深入学习机会进行自我评估和反思。

關鍵詞: 学习过程, 评估, 师生关系, 工具.

Introducción

Los actuales enfoques educativos advierten la necesidad de transformar la escuela convencional con el propósito de cultivar el aprendizaje en una organización que aprende y evalúa para el desarrollo de saberes que permitan dar solución a problemas reales del bienestar individual y colectivo (Comisión Internacional sobre los Futuros de la Educación, 2021; Robinson y Aronica, 2015). Para ello, se precisa resignificar las dinámicas relacionales al interior de las instituciones educativas y avanzar desde una enseñanza centrada en la obsesión académica hacia mejores oportunidades de aprendizaje integral que consideren de manera auténtica la voz de niños, niñas y jóvenes (Aravena et al., 2019; Coll et al., 2022; Fullan, 2021; Fondo de las Naciones Unidas para la Infancia, UNICEF, 2013). En otras palabras, los estudiantes necesitan asumir el liderazgo de su aprendizaje implicándose de manera auténtica y genuina.

Las nuevas pedagogías constituyen relaciones horizontales de aprendizaje entre estudiantes y docentes como “socios” que construyen colaborativamente diversos saberes que permitan enfrentar desafíos del siglo XXI como aprendices para toda la vida (Fullan y Langworthy, 2014; Quinn et al., 2021). En estas nuevas pedagogías la evaluación se asume como aprendizaje y toma distancia de la función calificadora. Por tanto, la evaluación tradicional restringida a una concepción instrumental que persigue solo la medición y comprobación del aprendizaje, debería ser cuestionada en relación al sentido y propósito educativo (Santos-Guerra, 2017). Asumir el desafío de transformación de la práctica evaluativa conlleva resignificar las relaciones de poder arraigadas en el proceso de aprender para superar el protagonismo docente.

El presente artículo tiene como objetivo proponer un instrumento que permita indagar en la percepción que tienen los estudiantes respecto de la cultura de evaluación como aprendizaje. En tal sentido, las preguntas de investigación que orientan este estudio son las siguientes: ¿Cómo se vinculan la evaluación y el aprendizaje en la escuela? ¿Cómo perciben los estudiantes la cultura de evaluación como aprendizaje? ¿Qué oportunidades de autoevaluación poseen los estudiantes durante el proceso de aprendizaje? ¿Cómo las tecnologías pueden aportar a la construcción de aprendizaje profundo? ¿Qué prácticas de colaboración desarrollan los estudiantes durante el proceso de aprendizaje y evaluación?

Liderar el aprendizaje profundo

El aprendizaje profundo es el proceso y el resultado de dar sentido a las cuestiones que nos interesan, su naturaleza es holística y su función liberadora, involucra directamente las capacidades emocionales y cognitivas de las personas (Rincón-Gallardo, 2019). Este enfoque, asume que el aprendizaje es un proceso auténtico y atractivo para el estudiante buscando que sean ciudadanos comprometidos y agentes de cambio (Ríos-Muñoz y Herrera-Araya, 2021). Asimismo, la cultura del aprendizaje profundo propicia las condiciones para que estudiantes y docentes aprendan y evalúen juntos como una comunidad de aprendizaje en el aula.

Según Rincón-Gallardo (2020a), existen seis condiciones que relacionadas entre sí conducen al desarrollo de aprendizaje profundo, en tanto, impulsan la autonomía, el dominio y la conexión con otros: a) interés por aprender; b) exposición constante a la práctica experta; c) práctica constante; d) retroalimentación constante; e) reflexión constante y f) colaboración. En esta misma línea, Mehta y Fine (2019), plantean que el aprendizaje profundo surge en la relación de tres virtudes; dominio, identidad y creatividad, es decir, cuando se dan las oportunidades de desarrollar habilidades y conocimientos (dominio), conectarse con lo que se está aprendiendo y haciendo (identidad), y aplicar el aprendizaje para producir algo (creatividad) en lugar de simplemente recibir conocimiento. Así, el enfoque de aprendizaje profundo podría resultar relevante para orientar la transformación de la práctica pedagógica porque busca el sentido de cómo y para qué se aprende en la escuela.

Desde esta perspectiva, las nuevas pedagogías se basan en una asociación de aprendizaje entre estudiantes y docentes que apela a la motivación intrínseca de ambos por igual (Fullan y Langworthy, 2014; Quinn et al., 2021). Esta nueva relación en el aula permite generar espacios desafiantes, democráticos y transformadores de la evaluación que empoderan al docente y estudiante de manera equitativa, lo cual tensiona la concepción del aprendizaje como construcción individual y la sitúa como un proceso de colaboración (Barba-Martín y Hortigüela-Alcalá, 2022; Ríos-Muñoz y Herrera-Araya, 2021; Torshizi y Bahman, 2019). Así, el ser humano desarrolla su potencial como líder aprendiz y puede perseguir sus inquietudes y asumir el control de su propio aprendizaje.

Fullan et al. (2018), han consensuado competencias globales como: carácter, ciudadanía, colaboración, comunicación, creatividad y pensamiento crítico, que se desarrollan de forma individual y colectiva para enfrentar los desafíos del mundo actual. Este conjunto de saberes, se propician en ambientes auténticos donde estudiantes y docentes definen en conjunto sus propios objetivos y criterios de evaluación, examinan críticamente su propio trabajo e incorporan la retroalimentación de sus pares y otros agentes de la comunidad local, nacional e internacional con el propósito de “transformar el mundo” (Quinn et al., 2021). Según Rincón-Gallardo (2020a) lograr dicho objetivo, requiere transitar hacia sistemas educativos donde se cultive eficazmente el “conocerse a sí mismo y a los demás”, “aprender a aprender” y ayudar a otros a “aprender a aprender” y mejorar el mundo entre todos. En efecto, el desarrollo de competencias para la vida requiere de culturas escolares altamente cohesionadas con el aprendizaje profundo y la transformación del núcleo pedagógico.

En tal sentido, el núcleo pedagógico constituye el centro de cualquier intento de mejora que ocurre en la relación entre profesor y estudiante en presencia de los contenidos (Elmore, 2010). Lamentablemente, las relaciones al interior del núcleo han estado basadas en el poder del docente sobre el estudiante, lo cual se evidencia en el rol exclusivo del profesorado durante el proceso evaluativo (Moreno-Olivos, 2021). Por consiguiente, se espera superar la práctica jerárquica del docente quien determina, desde su creencia, qué y cómo se aprende y evalúa, lo que limita el rol del estudiante a un receptor y reproductor de información.

La cultura escolar convencional disocia la evaluación del aprendizaje al concebirla como una actividad final de medición del logro, lo que invisibiliza la evaluación durante todo el proceso educativo (Jara et al., 2022; Prats et al., 2020). Asumir el enfoque de “evaluación como aprendizaje” requiere comprender que la evaluación y el aprendizaje se entiende como un proceso único, que necesita disminuir el énfasis y las consecuencias de la certificación de resultados (Sanmartí, 2020). En otras palabras, la evaluación es el motor del aprendizaje porque cuando se aprende el estudiante se autoevalúa y autorregula, tomando consciencia de lo que necesita aprender con una retroalimentación entre pares y del profesorado.

Los desafíos de la práctica de aprendizaje y evaluación desde una perspectiva más democrática requiere que estudiantes y docentes tomen conciencia sobre la forma de aprender y evaluar en el contexto de las nuevas pedagogías. En consecuencia, surge la necesidad de reconfigurar la cultura de aprendizaje, desde la autoevaluación, la colaboración y el uso de las tecnologías.

Cultura de autoevaluación de aprendizaje

Aprender supone adentrarse en preguntas o asuntos que son importantes y desafiantes para el aprendiz que tiene como propósito resolver problemas con mayor autonomía para transformarse y transformar el mundo (Rincón-Gallardo, 2019). Para muchos niños, niñas y jóvenes, aprender es un proceso incierto, que requiere de relaciones de confianza entre estudiantes y docentes para cometer errores, pedir ayuda e intentarlo una y otra vez (Hattie y Yates, 2018). Transformar la cultura de aprendizaje redefine el rol del estudiante y del docente con diseños auténticos de proyectos de aula, que posibilitan al estudiante gestionar y evaluar los objetivos que van a guiar su proceso de aprendizaje.

A través de la evaluación el estudiante tiene la oportunidad de asumir el control de su aprendizaje identificando logros y errores que permiten buscar modos de resolver las dificultades que obstaculizan sus comprensiones (Muriel et al., 2020; Pascual-Arias et al., 2019). En tal sentido, el proceso de autoevaluación ayuda a reconocer las propias ideas, comprender las razones que las explican y tomar decisiones orientadas a mejorar el aprendizaje a lo largo de la vida más allá del ambiente escolar (Sanmartí, 2020). En resumen, la práctica de la autoevaluación es indispensable en un proceso de aprendizaje profundo, considerando que ofrece retroalimentación constante y oportuna para aprender.

En coherencia con la autoevaluación, el enfoque de evaluación como aprendizaje busca que el aprendiz reflexione sobre los saberes que construye y asuma un mayor control de su aprendizaje a través de habilidades metacognitivas de carácter regulador (Emore, 2019; González et al., 2018; González-Cabañes et al., 2022; González-Palacio et al., 2021; Villagra et al., 2022). La autoevaluación es una práctica que potencia la autorregulación, necesaria para desarrollar competencias globales que permitan desenvolverse en el mundo actual y aportar a la creación de valor cultural, social y/o económico (Sala et al., 2020). De este modo, el aprendiz crea una conciencia de aprendizaje que resignifica el error como un recurso que inspira y desafía el aprender desde una perspectiva integral.

Cultura de colaboración del aprendizaje

Formar ciudadanos requiere necesariamente de ambientes de aprendizaje que cultiven la colaboración en una relación recíproca entre estudiantes y docentes que se vincula además a otros escenarios de aprendizaje (Quinn et al., 2021). Estas experiencias educativas se construyen a partir de diseños que desbordan el espacio cerrado del aula, ya que se ubican en el contexto real del estudiante (Ferreiro y Domínguez, 2020). De este modo, el diseño de aprendizaje es compartido porque el estudiante participa activamente en la toma de decisiones desde sus experiencias y motivaciones para definir en conjunto con el docente la ruta de aprendizaje.

Hattie (2017) señala que los mayores efectos sobre el aprendizaje de los estudiantes se dan cuando los profesores se convierten en aprendices de su propia forma de enseñar y los estudiantes llegan a ser sus propios maestros. Los nuevos roles en el aula promueven el protagonismo del estudiantado y, a su vez, necesitan de la resignificación del rol docente (Blanchard y Muzás, 2020). En este contexto, estudiantes y docentes desarrollan aprendizajes más profundos cuando asumen roles desafiantes y auténticos, construidos sobre la base de relaciones democráticas y procesos dialógicos.

El proceso dialógico de aprendizaje entre docentes y estudiantes se potencia a través de la denominada “evaluación compartida”, que contempla procesos integrados de autoevaluación, coevaluación y heteroevaluación para tomar decisiones colectivas (López-Pastor, 2017). La autoevaluación y la coevaluación son prácticas relevantes para promover un enfoque democrático y transformador del aprendizaje, siendo, la autoevaluación una acción autocrítica del sujeto para valorar su propio desempeño, mientras que la coevaluación es una valoración del desempeño entre estudiantes (Ríos-Muñoz y Herrera-Araya, 2021). En efecto, la evaluación propicia una visión compartida del aprendizaje, en tanto, se tomen decisiones importantes sobre qué y cómo continuar aprendiendo juntos.

Desde una perspectiva de evaluación formadora, el aprendiz debe sentirse a salvo para tomar riesgos y equivocarse mientras aprende (Rincón-Gallardo, 2020b). Cuando el estudiante se siente seguro, él mismo puede crear ambientes favorables de aprendizaje y solicitar ayuda cuando tiene dificultades o requiere retroalimentación (Casado et al., 2017). Entonces, para garantizar un ambiente de confianza que propicie la conexión de los estudiantes con otros agentes del mundo local y global, es fundamental que el docente ceda el protagonismo y asuma un rol de co-aprendiz en el proceso educativo.

Cultura tecnológica de aprendizaje

Las tecnologías estratégicamente utilizadas para el desarrollo de aprendizaje profundo son para construir conocimientos entre pares, investigar y resolver problemas, dar y recibir retroalimentación, facilitar la colaboración con expertos y otras personas del mundo, más allá de la sala de clases (García-Chitiva y Suárez-Guerrero, 2019; Fullan y Langworthy, 2014). De esta forma, la tecnología se ha incorporado en los procesos evaluativos, generando dinámicas innovadoras y, en algunos casos, disrupción en el sistema educativo (Vega et al., 2021). En otras palabras, las tecnologías brindan la posibilidad de aprender a aprender de manera individual y en colaboración con otros, siempre y cuando su uso esté mediado por una práctica pedagógica que permita al estudiante tomar control de su aprendizaje.

En la cultura tecnológica de aprendizaje, el docente debe asegurar que los estudiantes desarrollen competencias del siglo XXI para evaluar críticamente, descubrir y crear nuevos conocimientos utilizando la tecnología de manera permanente e involucrándose intrínsecamente con su aprendizaje (Quinn et al., 2021). Al respecto, los avances tecnológicos han permitido la aparición de entornos abiertos y flexibles que favorecen el compromiso del estudiante con su aprendizaje (Becerra et al., 2020). Dicho de otra manera, el uso permanente de la tecnología para aprender contribuye a un pensamiento creativo y divergente porque vincula a los estudiantes con diversos escenarios de aprendizaje.

En la sociedad actual, ser flexible implica poder fomentar y mejorar las habilidades digitales, y aprovechar las nuevas posibilidades de desarrollo que ha generado la difusión de la tecnología (Sala et al., 2020). En el ámbito de la evaluación colaborativa y autorreguladora todas aquellas herramientas tecnológicas permiten al estudiante y al docente dejar huella del proceso de aprendizaje a través de la sistematización y análisis reflexivo de evidencias (Ibáñez, 2021; Prats et al., 2020). En definitiva, el uso intencionado de la tecnología favorece el enfoque de evaluación como aprendizaje porque ofrece diversas oportunidades para aprender y retroalimentar el proceso pedagógico sin necesidad de estar en el mismo lugar al mismo tiempo.

Metodología

Diseño

Para establecer la validez del instrumento “Escala de percepción del estudiante sobre la cultura de evaluación como aprendizaje”, se planteó un estudio exploratorio y descriptivo, fundamentado en la aplicación de modelos de análisis factorial exploratorio, confirmatorio y de ecuaciones estructurales.

Muestra

La población del estudio estuvo compuesta por la totalidad de estudiantes de un centro escolar particular subvencionado de la región de La Araucanía, Chile. La muestra seleccionada fue de tipo no probabilística y se conformó por 505 estudiantes (257 mujeres, 235 hombres, 13 género no binario) con edades entre los 10 y 19 años. Los criterios de inclusión fueron los siguientes: a) disposición para responder la escala de percepción sobre la cultura de evaluación como aprendizaje; b) cursar los niveles entre 5º año básico y 4º año medio. El tamaño muestral cumplió con las reglas generales para obtener potencia estadística en los análisis factoriales confirmatorios y exploratorios (Kyriazos, 2018). La tabla 1 muestra el detalle de los participantes en relación a su edad y grado educativo.

Tabla 1.
Descripción de la muestra

Diseño y validación del instrumento

El objetivo del instrumento es indagar en la percepción de los estudiantes sobre la cultura de evaluación como aprendizaje. Para su diseño, se desarrolló una revisión de diversos estudios teóricos y empíricos publicados en los últimos cinco años sobre aprendizaje profundo, enfoque de evaluación como aprendizaje, colaboración y uso de TICs para el aprendizaje. Destacan las aportaciones de López-Pastor (2017); Rincón-Gallardo (2019); Sanmartí, (2020); Quinn et al. (2021). En virtud de estos estudios, se definieron 42 ítems expresados como afirmaciones, los que se distribuyeron en tres dimensiones teóricas: (a) Cultura de autoevaluación del aprendizaje; (b) Cultura de colaboración del aprendizaje; y (c) Cultura tecnológica de aprendizaje (Tabla 2).

Tabla 2.
Dimensiones del instrumento

La validez de contenido del instrumento se realizó a través del juicio de expertos. Se contactó a cuatro académicos especialistas en evaluación, quienes resguardaron que los ítems sean representativos del constructo y cumplan su propósito evaluativo (Ding y Hershberger, 2002). Para ello, los jueces otorgaron una puntuación numérica, de 0 a 5 puntos, a cada ítem del cuestionario según los criterios de suficiencia, claridad y relevancia (Escobar-Pérez y Cuervo-Martínez, 2008). Asimismo, los jueces tenían la posibilidad de ajustar la redacción de los ítems para favorecer su comprensión. De este proceso, resultó la eliminación de 12 ítems, quedando la tabla definitiva compuesta por 30 reactivos a ser contestados en una escala de frecuencia (de 1 a 4) según los siguientes valores: 1= siempre; 2= a veces; 3= nunca y 4= no entiendo la afirmación.

Tabla 3.
Ítems del instrumento

Por su parte, la validez de constructo constó de dos etapas, la primera corresponde al Análisis de los Ítems y se subdivide en análisis de correlación, pruebas de idoneidad y test de fiabilidad. La segunda etapa corresponde a la Estructura Factorial, y se subdivide en análisis factorial exploratorio, análisis factorial confirmatorio, modelo de ecuaciones estructurales, modelo bifactor y pruebas de bondad de ajuste que permite la comparación de los modelos generados. La figura 1 sintetiza el flujo del proceso de validación y consolidación del instrumento.

Figura 1.
Flujo de validación y consolidación

Nota: La aproximación teórica orienta respecto a las dimensiones existentes, con las que se procede a construir el instrumento inicial y su validación con el comité de expertos. Posterior a ello, se reducen los ítems y se procede a su aplicación. Una vez levantado los datos, se procede a realizar las pruebas de factibilidad del análisis factorial y al ser satisfactorias, se procede a realizar el Análisis Factorial Exploratorio y luego el Análisis Factorial Confirmatorio, el modelo de Ecuaciones Estructurales y finalmente el Análisis Bifactor. En su conjunto, estos cuatro últimos modelos se comparan y se realizan pruebas de bondad de ajuste para definir qué modelo es el más apropiado.

Procedimiento

Se contactó con el equipo directivo del centro educativo para solicitar la autorización de la aplicación del instrumento, además de dialogar acerca de la devolución de los resultados. Posteriormente, se entregaron los consentimientos informados a cada estudiante para que sean firmados por sus padres-apoderados. Una semana más tarde, se aplicó el cuestionario a los estudiantes en sus respectivas salas de clases, quienes voluntariamente firmaron un asentimiento que enuncia el propósito del estudio y las implicaciones de participar en él. El equipo investigador apoyó la aplicación de la escala, atendió las dudas emergentes de los estudiantes y aseguró la correcta cumplimentación de cada uno de los apartados del instrumento.

Consideraciones éticas

Este estudio se enmarca en una tesis de posgrado de una universidad chilena, cuya responsable es la primera autora de este artículo y responsable de mantener el vínculo con el centro educativo. Asimismo, la investigadora responsable resguardó íntegramente el cumplimiento de las consideraciones éticas de la investigación. Cada uno de los participantes firmó un asentimiento informado escrito que describe el propósito de la investigación y ofrece las garantías de confidencialidad, anonimato y voluntariedad. De igual forma, los padres-apoderados de los estudiantes firmaron un consentimiento informado escrito, que describía el propósito del estudio y especificaba que la participación en el mismo no implicaba ningún tipo de riesgos y que no involucraba recompensa económica, ni consecuencias de tipo académica para los estudiantes. Finalmente, se comprometió la devolución de los resultados a la institución educativa por medio de un conversatorio a cargo del equipo investigador.

Resultados

Análisis de los Ítems

Con el fin de brindar robustez a la construcción de las dimensiones señaladas, como primera etapa se analiza la correlación entre los ítems y la idoneidad del análisis factorial. La figura 2 representa la matriz de correlación policórica (Holgado–Tello et al., 2010), en la cual se observa que los ítems tienden a correlacionarse asociados en las dimensiones definidas teóricamente. Asimismo, no ha sido necesario eliminar ítems por redundancia, es decir que los ítems no son conceptualmente únicos, las correlaciones son menores a 0.60 (Le et al., 2010)


Figura 2.
Matriz de Correlación Policórica
Nota: Las asociaciones entre los ítems se estiman a través del método de correlación policórica, apropiado para variables latentes ordinales. Los vértices representan los ítems y las aristas la fuerza de la asociación, agrupadas en cada una de las dimensiones. Se muestran las asociaciones con coeficientes mayores a 0.3, a su vez, ninguno de los ítems supera una correlación mayor a 0.58.

La prueba de esfericidad de Bartlett sugiere que existe una correlación significativa en los datos para el análisis factorial: Chi-cuadrado (435) = 3545.51, p < .001. La medida de adecuación muestral de Kaiser, Meyer, Olkin (KMO) de valor 0,88 sugiere que los datos son apropiados para realizar el análisis factorial, debido a que el valor KMO es mayor a 0,70 (figura 3).


Figura 3.
Idoneidad del Análisis Factorial

Estructura Factorial

Al ejecutar el análisis factorial exploratorio, observamos que, dependiendo del método utilizado (componentes principales o máxima verosimilitud), se sugieren 3 ó 5 factores. En la figura 4, se presenta el gráfico de sedimentación generado a partir del método de componentes principales (Bro & Smilde, 2014). Este método se utiliza para obtener la solución factorial inicial y en este caso sugiere 3 dimensiones, lo que se ajusta a lo planteado teóricamente. Y en la figura 5, se observa el gráfico de sedimentación generado a partir del método de extracción factorial de máxima verosimilitud (Tucker & Lewis, 1973) que emplea un algoritmo iterativo (en este caso han sido 500 iteraciones) y ha sugerido la existencia de 5 dimensiones.


Figura 4.
Gráfico de Sedimentación a partir del método de componentes principales


Figura 5.
Gráfico de Sedimentación a partir del método de extracción factorial

Para obtener una comparación más robusta se ejecutó el análisis factorial exploratorio con 3 y 5 factores de forma paralela. La figura 6 muestra la agrupación de ítems según fuerzas de correlación asociadas a un factor. Las imágenes A y C muestran la agrupación mediante el método varimax, que es un método de rotación ortogonal que minimiza el número de variables que tienen cargas altas en cada factor, simplificando la interpretación de los factores. Las imágenes B y D muestran la agrupación mediante el criterio Oblimin.


Figura 6.
Análisis Factorial Exploratorio
Nota: En el modelo de 3 factores, utilizando el método de rotación varimax y oblimin no existen diferencias significativas en cuanto a la agrupación de ítems en los factores respectivos. Se observa una correlación entre la dimensión colaboración y tecnología. Por su parte, en los modelos de 5 factores, los factores 1, 2 y 3 agrupan a la mayor cantidad de ítems, mientras que el 4 y 5 agrupan a 2 y 1 ítem respectivamente.

Las tablas 4 y 5 muestran las cargas, varianza y alpha de cronbach asociado a los modelos de 3 y 5 factores con método de rotación varimax y oblimin.

Para el modelo de 3 factores, la varianza explicada no difiere en gran magnitud dependiendo del método de rotación. Así, el factor 1 explica una varianza entre un 37% (varimax) y un 39% (oblimin), mientras que el factor 2 explica entre un 33% (varimax) y un 32% (oblimin); y el factor 3 entre un 31% (varimax) y 29% (oblimin). En cuanto a la varianza acumulada, el factor 1 explica cerca del 40% de la varianza, el factor 1 + factor 2 explican cerca del 70% y los 3 factores el 100%.

Respecto al Alpha de Cronbach, el Factor 1 presenta un 0.75; Factor 2 un 0.8 y Factor 3 un 0.79. Estos tres valores se encuentran en el rango de “alta consistencia” (Quero, 2010). En el caso de la omega de McDonald (1999), como indicador de fiabilidad complementario al Alpha de Cronbach, es adecuado para el caso de las escalas Likert, ya que se basa en las comunalidades de las cargas factoriales. En el caso del análisis exploratorio de 3 factores se observa que el indicador omega es adecuado ya que se encuentra entre 0.70 y 0.90 (Ventura-León y Caycho-Rodríguez, 2017).

Tabla 4.
Resultados Análisis Factorial Exploratorio - Varianza explicada

Tabla 5.
Resultados Análisis Factorial Exploratorio - Varianza explicada

Para el modelo de 5 factores, la varianza explicada tampoco difiere en gran magnitud dependiendo del método de rotación. El factor 1 explica una varianza entre un 31% (varimax) y un 30% (oblimin), el factor 2 explica entre un 27% (varimax) y un 24% (oblimin), el factor 3 entre un 24% (varimax) y 19% (oblimin), el factor 4 entre un 10% (varimax) y un 17% (oblimin) y el factor 5 entre un 8% (varimax) y 7% (oblimin). En cuanto a la varianza acumulada, el factor 1 explica cerca del 30% de la varianza, el factor 1 + factor 2 explican cerca del 58%, factor 1 + factor 2 + factor 3 explican cerca del 80%, factor 1 + factor 2 + factor 3 + factor 4 sobre el 90% y los 5 factores el 100%.

La Figura 7 muestra las cargas factoriales, lo que quiere decir la fuerza de correlación con que cada ítem se liga a cada uno de los factores cuando se trata de 3 o de 5.


Figura 7.
Cargas Factoriales
Nota: Para el modelo de 3 factores la agrupación de ítems es acorde a lo planteado teóricamente. Ítems del 1 al 10 se asocian al factor 3, del 11 al 20 al factor 1 y del 21 al 30 al factor 2. Para el modelo de 5 factores, se observa que ítems del 1 al 10 se agrupan en el factor 3, del 11 al 20 en el factor 1 y el resto se reparte entre el factor 2, 4 y 5.

A pesar de que la carga factorial en algunos casos es inferior a 0.5; se considera que la solución propuesta se aproxima al Principio de Estructura Simple (Thurstone, 1935), en la cual la matriz de cargas factoriales reúne tres características: (1) que cada factor tenga pocos pesos altos y los demás próximos a cero; (2) que cada variable no sature más que en un factor; (3) que no existan factores con la misma distribución. El modelo de 3 factores es consistente con lo planteado inicialmente a partir de la teoría, mientras que el de 5 factores pareciera generar 2 factores que no agrupan muchos ítems, lo que podría sugerir una revisión particular de los mismos. A partir de las comparaciones de ambos modelos propuestos, procedemos a la realización del análisis factorial confirmatorio en ambos casos para conseguir la validación del instrumento.

Análisis Factorial Confirmatorio

Considerando los resultados del análisis factorial exploratorio, se ejecutaron paralelamente dos análisis factoriales confirmatorios con 3 y 5 factores. La figura 8 muestra que en el modelo de 3 factores la agrupación de los ítems coincide con la definida teóricamente tanto para las dimensiones de colaboración, autoevaluación y tecnología.


Figura 8.
Modelos Análisis Factorial Confirmatorio según modelo de 3 factores
Nota: El modelo de 3 factores agrupa los ítems correctamente en función de la teoría. Esto quiere decir que desde el ítem 1 al 10 se agrupan en el factor “Autoevaluación”, del ítem 11 al 20 en el factor “Colaboración”, y del ítem 21 al 30 en el factor “Tecnología”.

Por su parte, la figura 9, representa el modelo de 5 factores el cual genera 3 grandes dimensiones que agrupan la gran mayoría de los ítems, y 2 factores (4 y 5) que agrupan 2 y 1 ítem respectivamente.


Figura 9.
Modelos Análisis Factorial Confirmatorio según modelo de 5 factores
Nota: El modelo de 5 factores modifica levemente esa estructura, quedando factor P1: ítems del 1 al 10; P2: ítems 11 al 20 + ítem 25; P3: ítems 21, 22, 23, 26, 27 y 28; P4: ítems 29 y 30; y finalmente factor P5: ítem 24.

Los resultados del análisis exploratorio, de las cargas factoriales y del análisis de la matriz de correlación policórica, demuestran que puede existir otra estructura subyacente que relacione a las dimensiones de tecnología y colaboración, dada la notoria interacción entre ambos constructos. En dicho sentido, complementariamente, se ha decidido realizar 2 modelos adicionales, el modelo del bifactor (Holzinger y Swineford, 1937; Reise, 2012) (figura 10) y un modelo de ecuaciones estructurales (figura 11).


Figura 10.
Modelo Bifactor
Nota: Se considera como dimensión subyacente el “factor g”, pudiendo ser este el que permite comprender la relación entre los factores tecnología y colaboración.

El modelo de Bifactor establece la existencia de una dimensión latente que subyace a los factores previamente definidos. En este caso, los factores de tecnología y colaboración confluyen en “factor general”, que operaría a otro nivel de jerarquía. Por su parte, el modelo de ecuaciones estructurales también apoya esa teoría dado que confirma la existencia de una correlación entre estos dos factores.


Figura 11.
Modelo de Ecuaciones Estructurales
Nota: El modelo de ecuaciones estructurales confirma la relación entre colaboración y tecnología.

Comparación Modelos

Al comparar los modelos propuestos en el análisis confirmatorio, los indicadores de medida de ajuste (RMSEA, SRMR, CFI y TLI), se encuentran dentro de los parámetros sugeridos en la literatura, la que indica que los dos primeros deben ser inferiores a 0.05 y los dos siguientes cercanos a 1. Llama la atención que las métricas evaluativas sean exactamente iguales para ambos modelos, lo que indica que no existen diferencias significativas al respecto (Tabla 6).

La tabla 7, muestra que el modelo óptimo para comprender las dimensiones subyacentes al instrumento, es el modelo del bifactor, lo que si bien se alinea con lo planteado teóricamente en cuanto a la existencia de 3 factores, reconoce un factor latente que podría explicar ciertas correlaciones entre 2 de ellos.

Tabla 6.
Indicadores de medida de ajuste para cada modelo

Tabla 7.
Comparación de modelos analizados

Discusión

El artículo busca contribuir a la reflexión sobre el constructo de evaluación y aprendizaje en la escuela para revalorar el rol de los estudiantes como aprendices. Desde esta perspectiva, el instrumento tiene un sentido orientador respecto de lo que se esperaría de un proceso pedagógico que intenciona el aprendizaje profundo en las escuelas del siglo XXI, superando la convencional idea de medición o comprobación de datos (Santos-Guerra, 2017). En otras palabras, el proceso de validación ha permitido analizar el constructo integrado de evaluación como aprendizaje como un único proceso (Sanmartí, 2020). De esta manera, la escala diseñada, se distingue de otros instrumentos que exploran de manera específica dimensiones de la evaluación o del aprendizaje, como la retroalimentación, autorregulación, metacognición, entre otros (p. ej. González et al., 2018; González-Cabañes et al., 2022; González-Palacio et al., 2021; Panadero et al, 2021) los cuales están centrados mayoritariamente en la educación superior.

La validación de la escala tiene el propósito de favorecer la construcción de una cultura de aprendizaje escolar, que ponga al centro al estudiante como sujeto de derecho. Esta idea es coherente con un estudio de Pascual-Arias et al. (2019) que constata la capacidad que poseen los niños y niñas para tomar decisiones acerca de su propio aprendizaje. Desde esta perspectiva, el instrumento invita al profesorado a democratizar las prácticas evaluativas haciendo uso de las tecnologías para construir nuevo conocimiento bajo el principio de la colaboración. La primera dimensión Cultura de autoevaluación del aprendizaje y sus ítems obtuvieron una alta consistencia en todo el proceso de validación, lo cual consolida la necesidad de orientar tareas auténticas donde el aprendiz asume el control del proceso, juzga su desempeño y toma decisiones para alcanzar los objetivos educativos (López-Pastor, 2017; Sanmartí, 2020).

El proceso de validación permitió concluir la existencia de una dimensión latente que subyace en las dimensiones de Cultura de colaboración del aprendizaje y Cultura tecnológica de aprendizaje. Presuntamente los factores de Tecnología y Colaboración están imbricados, en tanto, muchas formas de colaboración toman lugar en plataformas digitales ancladas en la tecnología. La colaboración y el uso de tecnologías se constituyen en factores determinantes en el proceso de aprendizaje y, en consecuencia, un elemento clave para el proceso educativo y la calidad del sistema escolar.

El instrumento es un aporte en la medida que indaga en las formas de trabajo colaborativo asociadas a la virtualidad, por tanto, se sondean prácticas de aprendizaje y evaluación que hacen uso de las tecnologías con sentido pedagógico, al mismo tiempo que cultivan escenarios para el aprendizaje profundo. Los hallazgos dan cuenta que la cultura de colaboración y la cultura tecnológica se potencian mutuamente cuando la tecnología se utiliza con un sentido pedagógico para aprender (Ibáñez, 2021), lo cual requiere un diseño de aprendizaje que intencione la colaboración para garantizar su desarrollo (García-Chitiva y Suárez-Guerrero, 2019).

Por otra parte, este estudio destaca la idea de escuchar y considerar plenamente las perspectivas de los estudiantes sobre su proceso de aprendizaje como el único modo de comprender lo que piensan como sujetos de derecho (UNICEF, 2013). Cuando el estudiante se siente implicado se posiciona como sujeto activo y responsable de su aprendizaje, por ende, de la mejora escolar (Aravena et al., 2019). En ese ámbito, la escala se dispone como un medio para conocer qué piensan los estudiantes sobre las oportunidades reales que tienen para controlar su aprendizaje, aportando antecedentes relevantes y distintos a los recogidos tradicionalmente por las escuelas, abriendo las posibilidades de resignificar la pedagogía que sustenta la práctica, tal como lo plantea Rincón-Gallardo (2019). En consecuencia, la aplicación del instrumento debe tener en consideración las particularidades de los contextos educativos, dado que las culturas pedagógicas convencionales pueden influir en las percepciones del estudiantado, tal como lo plantean Coll et al. (2022) en la validación de una escala sobre personalización del aprendizaje.

En relación con los contextos de aplicación, emerge una limitación del estudio referida al tipo de muestreo empleado, por lo que se sugiere para futuros estudios utilizar un método de selección probabilístico que favorezca la generalización de los resultados. Asimismo, a partir de esta validación se recomienda que las investigaciones futuras exploren de qué manera la evaluación se expresa como una práctica propia del aprendizaje y no como un evento aislado. De igual forma, sería interesante abordar otros niveles educativos, especialmente, la formación inicial del profesorado, donde a partir de las aportaciones de este y otros estudios se puede ampliar la reflexión acerca del constructo de evaluación como aprendizaje, de tal forma de avanzar hacia la deconstrucción de modelos y prácticas pedagógicas tradicionales arraigadas en la cultura que obstaculizan el aprendizaje profundo de los estudiantes.

Finalmente, el instrumento es una contribución para la resignificación de la práctica, al ofrecer un referente que propicia la autoevaluación y reflexión sobre las oportunidades de aprendizaje que se promueven en la escuela. Desde esta perspectiva, la escala es una propuesta para observar y analizar evidencias concretas de una cultura de evaluación como aprendizaje altamente desafiante donde las tecnologías se utilizan para que el estudiante se vincule con el mundo y ayude a mejorarlo.

Agradecimientos

Agradecimientos al doctorando Patricio Carvajal Paredes y a la doctoranda Joselina Davyt-Colo del Programa de Doctorado en Ciencias de la Complejidad Social de la Universidad del Desarrollo por su colaboración en el análisis de datos.

Referencias

Aravena, F., y Escare, K. y Ramírez, J. (2019). La participación democrática y la voz de los estudiantes: ¿Qué pueden hacer los líderes escolares? LÍDERES EDUCATIVOS, Centro de Liderazgo para la Mejora Escolar. https://www.lidereseducativos.cl/wp-content/uploads/2019/06/NT2_L1_F.A._LA-PARTICIPACION-DEMOCRATICA-Y-LA-VOZ-DE-LOS-ESTUDIANTES_26-06-19.pdf

Barba-Martín. R. y Hortigüela-Alcalá, D. (2022). Si la evaluación es aprendizaje, he de formar parte de la misma. Razones que justifican la implicación del alumnado. Revista Iberoamericana de Evaluación Educativa, 15(1), 9-22. https://doi.org/10.15366/riee2022.15.1.001

Blanchard, M. y Muzás, M. (2020). Cómo trabajar proyectos de aprendizaje en Educación Infantil. Narcea.

Becerra, D., Lopez, I., Gómez P., Fernández, F., y Barbera, E. (2020). EduZinc: A tool for the creation and assessment of student learning activities in complex open, online and flexible learning environments. Distance Education, 41(1), 86–105. https://doi.org/10.1080/01587919.2020.1724769

Bro, R. & Smilde, A. (2014). Principal component analysis. Analytical methods, 6(9), 2812-2831. https://doi.org/10.1039/C3AY41907J

Casado-Berrocal, Ó., Pérez-Pueyo, Á. y Casado-Berrocal, P. (2017). La autorregulación en educación primaria: una propuesta para favorecer la autonomía del alumno. En V. López-Pastor y A. Pérez-Pueyo (Coords.), Buenas prácticas docentes (pp. 208-237). Universidad de León. https://buleria.unileon.es/bitstream/handle/10612/7057/cap.%2012.pdf?sequence=1&isAllowed=y

Coll, C., Fauré, J. y Arriazu, R. (2022). Posicionamiento del alumnado de Educación Primaria y Secundaria ante la personalización del aprendizaje: construcción y validación de una escala. Revista de Educación, 395, 265-290. https://doi.org/10.4438/1988-592X-RE-2022-395-514

Comisión Internacional sobre los Futuros de la Educación (2021). Reimaginar juntos nuestros futuros: un nuevo contrato social para la educación. Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000379381_spa

Ding, C. & Hershberger, S. (2002). Assessing content validity and content equivalence using structural equation modeling. Structural Equation Modeling: A Multidisciplinary Journal, 9(2), 283-297. https://doi.org/10.1207/S15328007SEM0902_7

Escobar-Pérez, J. y Cuervo-Martínez, Á. (2008). Validez De Contenido Y Juicio De Expertos: Una Aproximación a Su Utilización. Avances en Medición, 6(1), 27–36. https://doi.org/10.32870/ap.v9n2.993

Elmore, R. (2010). Mejorando la escuela desde la sala de clases. Fundación Chile. http://psicopedagogia.weebly.com/uploads/6/8/2/3/6823046/libro_elmore.pdf

Ferreiro, F. & Domínguez, D. (2020). Design learning and practice applied in functional diversity contexts: An open-method based approach. Arte, Individuo y Sociedad, 33(1), 259–281. https://doi.org/10.5209/ARIS.68151

Fullan, M. y Langworthy, M. (2014). Una Rica Veta: cómo las nuevas pedagogías logran el aprendizaje en profundidad. Pearson.

Fullan, M., Quinn, J. & McEachen, J. (2018). Deep Learning. Engage the World Change the World. Corwin.

Fullan, M. (2021). Los impulsores correctos para el éxito de todo el sistema. Centre for Strategic Education. https://michaelfullan.ca/wp-content/uploads/2021/03/21_Right-Drivers-Spanish-comp.pdf

Fondo de las Naciones Unidas para la Infancia, UNICEF (2013). Superando el adultocentrismo. Autor. https://www.imageneseducativas.com/wp-content/uploads/2019/02/Superando-el-Adultocentrismo.pdf

García-Chitiva, M. y Suárez-Guerrero, C. (2019). Estado de la investigación sobre la colaboración en Entornos Virtuales de Aprendizaje. Revista de Medios y Educación, (56), 169-191. https://doi.org/10.12795/pixelbit.2019.i56.09

Gómez, Á. (2019). Ser docente en tiempos de incertidumbre y perplejidad. Márgenes, Revista de Educación de La Universidad de Málaga, 0, 3–17. https://doi.org/10.24310/mgnmar.v0i0.6497

González, R., Otondo, M. y Aravena, A. (2018). Escala de medición del impacto de la retroalimentación en el aprendizaje. Revista Espacios, 39(49), 1-35. http://www.revistaespacios.com/a18v39n49/a18v39n49p35.pdf

González-Cabañes, E., García, T., Álvarez-García, D., Fernández, E., & Rodríguez, C. (2022). Validation of the Shortened Version of the Metacognitive Awareness Inventory in Spanish Uiversity Students. Psicothema, 34(3), 454–462. https://doi.org/10.7334/psicothema2022.75

González-Palacio, E., Chaverra-Fernández, B., Bustamante-Castaño, S. y Toro-Suaza, C. (2021). Diseño y validación de un cuestionario sobre las concepciones y percepción de los estudiantes sobre la evaluación en Educación Física. Retos, 40, 317–325. https://doi.org/10.47197/retos.v1i40.80914

Hattie, J. (2017). Aprendizaje visible para profesores. Paraninfo.

Hattie, J. y Yates, G. (2018). El aprendizaje visible y el estudio de sus procesos. Paraninfo.

Holgado-Tello, F., Chacón-Moscoso, S., Barbero-García, I. & Vila-Abad, E. (2010). Polychoric versus Pearson correlations in exploratory and confirmatory factor analysis of ordinal variables. Quality & Quantity, 44(1), 153-166. https://doi.org/10.1007/s11135-008-9190-y

Holzinger, K. & Swineford, F. (1937). The bi-factor method. Psychometrika, 2(1), 41-54. https://doi.org/10.1007/BF02287965

Ibáñez, A. (2021). Tecnología con propósito para una ciudadanía global. Revista Padres y Maestros, (386), 55-61. https://doi.org/10.14422/pym.i386.y2021.009

Jara, N., Cáceres, D., León, V. y Villagra, C. (2022). Transitar hacia la evaluación como aprendizaje. Revista de Educación Mendive, 20(4), 1219-1236. https://mendive.upr.edu.cu/index.php/MendiveUPR/article/view/3037

Kyriazos, T. (2018). Applied psychometrics: sample size and sample power considerations in factor analysis (EFA, CFA) and SEM in general. Psychology, 9(08), 2207-2230. https://doi.org/10.4236/psych.2018.98126

Le, H., Schmidt, F., Harter, J. & Lauver, K. (2010). The problem of empirical redundancy of constructs in organizational research: An empirical investigation. Organizational Behavior and Human Decision Processes, 112(2), 112-125. https://doi.org/10.1016/j.obhdp.2010.02.003

López-Pastor, V. (2017). Evaluación formativa y compartida: evaluar para aprender y la implicación del alumnado en los procesos de evaluación y aprendizaje. En V. López-Pastor y A. Pérez-Pueyo (Coords.), Buenas prácticas docentes (pp. 34-68). Universidad de León. https://buleria.unileon.es/handle/10612/5999

Mehta, J. y Fine, S. (2019). In Search of Deeper Learning: The Quest to Remake the American High School. Harvard University Press.

McDonald, R. (1999). Test theory: A unified treatment. Erlbaum.

Moreno-Olivos, T. (2021). Cambiar la evaluación: Un imperativo en tiempos de incertidumbre. Alteridad Revista de Educación, 16(2), 223-234. https://doi.org/10.17163/alt.v16n2.2021.05

Muriel, L., Gómez, L. y Londoño-Vásquez, D. (2020). La riqueza de la evaluación en la escuela, un tesoro no oculto. Praxis & Saber, 11(25), 111–130. https://doi.org/10.19053/22160159.v11.n25.2020.9359

Pascual-Arias, C; García-Herranz, S. y López-Pastor, V. (2019). What do preschool students want? The role of formative and shared assessment in their right to decide. Culture and Education, 31(4), 865-880, https://doi.org/10.1080/11356405.2019.1656486

Prats, M., Sanmartí, N. y Oró, I. (2020). Evaluar para aprender con el apoyo de herramientas y recursos digitales. Aloma, 38(2), 9–20. https://doi.org/10.51698/aloma.2020.38.2.9-20

Quero, M. (2010). Confiabilidad y coeficiente Alpha de Cronbach. Telos, 12(2), 248-252. https://www.redalyc.org/pdf/993/99315569010.pdf

Quinn, J., Mceachen, J., Fullan, M., Gardner, M., y Grummy, M. (2021). Sumergirse en el aprendizaje profundo. Morata.

Reise, S. (2012). The rediscovery of bifactor measurement models. Multivariate behavioral research, 47(5), 667-696. https://doi.org/10.1080/00273171.2012.715555

Rincón-Gallardo, S. (2019). Liberar el Aprendizaje el cambio educativo como movimiento social. Grano de Sal.

Rincón-Gallardo, S. (2020a). De-schooling Well-being: Toward a Learning-Oriented Definition. ECNU Review of Education, 3(3), 452–469. https://doi.org/10.1177/2096531120935472

Rincón-Gallardo, S. (2020b). ¿Dónde está ahora la esperanza? Aprendizaje y trazos a futuro para la investigación educativa en México. Revista Latinoamericana de Estudios Educativos, 50(2), 31–54. https://doi.org/10.48102/rlee.2020.50.2.58

Ríos-Muñoz, D. y Herrera-Araya, D. (2021). Contribución de la evaluación educativa para la formación democrática y transformadora de estudiantes. Educare, 25(3), 1–15. http://doi.org/10.15359/ree.25-3.40

Robinson, K. y Aronica, L. (2015). Escuelas creativas. La revolución que está transformando la educación.Penguin Random House.

Sala, A., Punie, Y., Garkov, V. & Cabrera, M. (2020). Life-Comp: The European Framework for Personal, Social and Learning to Learn Key Competence. Publications Office of the European Union. https://doi.org/10.2760/302967

Santos-Guerra, M. (2017). Evaluar con el corazón.Homo Sapiens.

Sanmartí, N. (2020). Evaluar y aprender: un único proceso. Octaedro.

Thurstone, L. (1935). The Vectors of the Mind. University of Chicago Press.

Torshizi, M. y Bahman, M. (2019). I explain, therefore I learn: Improving students’ assessment literacy and deep T learning by teaching. Studies in Educational Evaluation, 61, 66-73. https://doi.org/10.1016/j.stueduc.2019.03.002

Tucker, L. & Lewis, C. (1973). A reliability coefficient for maximum likelihood factor analysis. Psychometrika, 38(1), 1-10. https://doi.org/10.1007/BF02291170

Vega, H., Rozo, H., y Dávila, J. (2021). Evaluation strategies mediated by ICT: A literature review. Educare, 25(2), 1–22. https://doi.org/10.15359/ree.25-2.16

Ventura-León, J. y Caycho-Rodríguez, T. (2017). El coeficiente Omega: un método alternativo para la estimación de la confiabilidad. Revista Latinoamericana de Ciencias Sociales, niñez y juventud, 15(1), 625-627. https://www.redalyc.org/pdf/773/77349627039.pdf

Villagra, C., Mellado, M., Leiva, M. y Sepúlveda, S. (2022). Prácticas evaluativas en la formación inicial de docentes: un estudio self study colaborativo. Revista Sophia Austral, 28, 1-23.https://doi.org/10.22352/SAUSTRAL20222803

Notas de autor

1 Yanire Turra Marín (yeturra@uc.cl). Profesora de Educación Básica por la Pontificia Universidad Católica de Villarrica, Chile; Magíster en Gestión Escolar por la Universidad Católica de Temuco, Chile. Es Directora de la Escuela Alberto Córdova Latorre de la comuna de Lanco, Chile. Sus líneas de investigación son evaluación educativa y el liderazgo pedagógico. Ha desarrollado docencia en la Facultad de Educación de la Universidad Católica de Temuco y ha participado en diversos proyectos de investigación financiados por organismos nacionales.
2 Carolina Pilar Villagra Bravo (cvillagrab@ucsh.cl). Profesora de Educación General Básica por la Universidad Católica de Temuco. Chile; Magíster en Educación con mención Evaluación Educacional por la Universidad de La Frontera, Chile y Doctora en Innovación en Formación del Profesorado por la Universidad de Extremadura, España. Es Académica Asociada de la Carrera de Pedagogía en Educación Básica de la Universidad Católica Silva Henríquez. Sus líneas de investigación son la evaluación educativa, liderazgo y gestión del aprendizaje.
3 Mª Elena Mellado Hernández (mmellado@uct.cl). Profesora de Educación General Básica por la Pontificia Universidad Católica de Chile; Magíster en Informática Educativa por la Universidad de La Frontera, Chile; Doctora en Formación del Profesorado y Avances Investigativos en Educación por la Universidad de Extremadura, España. Es Académica Asociada del Departamento de Infancia y Educación Básica de la Facultad de Educación de la Universidad Católica de Temuco. Es Directora del Programa de Magíster en Gestión Escolar de la Universidad Católica de Temuco. Sus líneas de investigación son el liderazgo pedagógico; formación del profesorado; evaluación educativa y mejoramiento escolar.
4 Omar Andrés Aravena Kenigs (oaravena@uct.cl). Profesor de Enseñanza Media mención Educación Física por la Universidad de Los Lagos, Chile; Magíster en Gestión Escolar por la Universidad Católica de Temuco, Chile y Doctor en Innovación en Formación del Profesorado por la Universidad de Extremadura, España. Es Académico Asistente y director del Departamento de Ciencias de la Educación de la Facultad de Educación de la Universidad Católica de Temuco. Es coordinador académico del Programa de Magíster en Gestión Escolar de la Universidad Católica de Temuco. Sus líneas de investigación son el liderazgo pedagógico, desarrollo profesional docente y práctica educativa.

Autora de correspondencia: Carolina Pilar Villagra Bravo (cvillagrab@ucsh.cl)

Enlace alternativo



Buscar:
Ir a la Página
IR
Visor de artículos científicos generados a partir de XML-JATS4R por